Tag: Microsoft

  • technologiczny – odcinek #6

    technologiczny – odcinek #6

    Agresywne przejście branży IT na modele subskrypcyjne – od wymuszania przez Broadcom zmiany licencji VMware, przez płatny hot patching w Windows Server 2025, po vendor lock-in w Synology. Prowadzący ostrzegają przed rosnącymi kosztami i zamykaniem się ekosystemów technologicznych, podsumowując ironicznie: „firmy muszą zarabiać”.

    W szóstym odcinku „Technologicznego Podcastu” Maciek Broniarz i Przemek Jurgiel-Żyła kontynuują swoje technologiczne rozmowy, poruszając kluczowe tematy dotyczące aktualnych zmian w branży IT. Odcinek koncentruje się na rosnącym trendzie przechodzenia na modele subskrypcyjne, problemach z vendor lock-in oraz wyzwaniach związanych z infrastrukturą pamięci masowej. Prowadzący analizują kontrowersyjne decyzje Broadcomu dotyczące VMware, omawiają nowe funkcje płatne w Windows Server 2025, przedstawiają innowacyjne rozwiązania Google w zakresie storage, a także dyskutują o zagrożeniach dla kluczowej infrastruktury bezpieczeństwa IT oraz rosnących ograniczeniach w sprzęcie sieciowym.

    Główne wątki tematyczne

    Broadcom i VMware: Agresywna zmiana modelu licencjonowania

    Broadcom kontynuuje kontrowersyjną strategię wymuszania przejścia klientów VMware na model subskrypcyjny. Firma wysyła do użytkowników licencji wieczystych (perpetual) wezwania do zaprzestania używania oprogramowania w dotychczasowym modelu, nawet jeśli licencje zostały zakupione lata temu.

    „Broadcom bardzo metodycznie próbuje przekonać wszystkich swoich klientów, żeby przeszli na ten model subskrypcyjny” – podkreśla Maciek, wskazując na systematyczność działań firmy.

    Skala problemu jest znacząca – koszty dla klientów wzrastają o 300-1000%, a firma dodatkowo wymaga raportowania używalności oprogramowania, czego pierwotne licencje nie wymagały. Sytuacja jest na tyle poważna, że organizacje zrzeszające przedsiębiorców złożyły skargę do Komisji Europejskiej w sprawie praktyk antymonopolowych.

    Szczególnie dotknięte są organizacje z zamkniętymi środowiskami przemysłowymi, gdzie cykl życia systemów wynosi często kilkanaście lat, a także instytucje publiczne związane procedurami przetargowymi.

    Windows Server 2025: Hot patching jako usługa premium

    Microsoft wprowadza w Windows Server 2025 funkcję hot patching, umożliwiającą instalację poprawek bezpieczeństwa bez konieczności restartu systemu. Funkcja dostępna bezpłatnie w Azure będzie wymagać dodatkowej opłaty dla serwerów on-premise – około 1,5 dolara miesięcznie za rdzeń procesora.

    „32 rdzenie, 100 serwerów, 5 tysięcy dolków niecałe miesięcznie, blisko 60 tysięcy dolków rocznie” – wylicza Przemek, pokazując rzeczywiste koszty dla średniej wielkości infrastruktury.

    To kolejny przykład trendu, w którym podstawowe funkcjonalności systemowe stają się usługami dodatkowo płatnymi. Canonical stosuje podobną strategię z Ubuntu Live Patching, co wskazuje na szerszy trend w branży.

    Google Colossus: Innowacyjne podejście do zarządzania danymi

    Google zaprezentował system Colossus – rozwiązanie L4 memory, które próbuje pogodzić wydajność dysków SSD z pojemnością dysków HDD. System wykorzystuje dedykowany serwer metadanych do inteligentnego zarządzania danymi między różnymi typami pamięci masowej.

    Kluczowe parametry systemu:

    • Przepustowość: około 25 terabitów na sekundę
    • Wydajność: najbardziej obciążony węzeł osiągnął 600 milionów IOPS
    • Zastosowanie: efektywne dopiero przy bardzo dużej skali danych

    „Google w tym dokumencie chwali się, że najbardziej obciążony node doszedł do mniej więcej 600 milionów IOPSów” – relacjonuje Maciek, podkreślając skalę rozwiązania.

    Ważnym wnioskiem z dokumentacji Google jest stwierdzenie, że mechanizmy automatycznego przenoszenia danych między różnymi typami pamięci masowej są efektywne dopiero od pewnej, bardzo dużej skali – co podważa sens stosowania podobnych rozwiązań w mniejszych organizacjach.

    CVE: Kryzys zaufania do amerykańskiej infrastruktury bezpieczeństwa

    Baza Common Vulnerabilities and Exposures (CVE), kluczowa dla globalnego bezpieczeństwa IT, stanęła przed kryzysem finansowania po decyzji nowej administracji USA o wstrzymaniu funduszy. CVE, zarządzana przez MITRE i funkcjonująca od 1999 roku, jest wykorzystywana przez wszystkich – od gigantów jak Microsoft i Oracle po małych administratorów.

    „Zachowanie władz USA pokazuje, że oddawanie kontroli nad bardzo istotnym jednak elementem infrastruktury informatycznej w ręce jednego i tylko jednego podmiotu jest zbyt dużym ryzykiem” – komentuje Maciek.

    Choć finansowanie zostało tymczasowo przywrócone (na 9-12 miesięcy), incydent pokazał kruchość obecnego modelu. Amerykańscy badacze sugerują przeniesienie zarządzania do bardziej stabilnych struktur, takich jak Komisja Europejska czy ENISA.

    Synology: Vendor lock-in w segmencie storage

    Synology wprowadza ograniczenia w kompatybilności dysków, promując własne „certyfikowane” modele. Użytkownicy stosujący dyski innych producentów mogą stracić dostęp do części funkcjonalności oprogramowania.

    „To jest trochę tak, jakby Volkswagen powiedział, że masz certyfikowany asfalt, po którym twój Passat jedzie lepiej” – ironizuje Maciek.

    Strategia ta, znana już z praktyk NetApp, oznacza:

    • Ograniczenie wyboru dla użytkowników
    • Wyższe ceny dysków „certyfikowanych”
    • Brak spadku cen w czasie (dyski pozostają drogie przez lata)
    • Problemy z rozbudową istniejących systemów

    Podsumowanie i wnioski

    Szósty odcinek „Technologicznego Podcastu” maluje obraz branży IT przechodzącej fundamentalną transformację w kierunku modeli subskrypcyjnych i zwiększonej kontroli producentów nad sprzętem i oprogramowaniem. „Ta polityka odzwierciedla szerszy trend w branży technologicznej, gdzie firmy coraz częściej wdrażają strategię lock-in, aby zwiększyć przychody i zmarginalizować konkurencję” – podsumowuje Przemek.

  • technologiczny – odcinek #5

    technologiczny – odcinek #5

    Cyfrowi bliźniacy, 50-lecie Microsoftu i cyberwojny LLM-ów – analiza piątego odcinka Technologicznego Podcastu

    W piątym odcinku „Technologicznego Podcastu”, prowadzący Maciek Broniarz i Przemek Jurgiel-Żyła podjęli szereg aktualnych tematów ze świata technologii i cyberbezpieczeństwa. Główne wątki obejmowały zagadnienia cyfrowych bliźniaków i związanych z nimi zagrożeń, podatność Erlanga w OTP-SSH, 50-lecie istnienia Microsoftu, cyberwojny między twórcami dużych modeli językowych a utrzymującymi infrastrukturę internetową oraz 100 dni od wdrożenia rozporządzenia DORA w sektorze finansowym UE. W artykule przedstawiono kluczowe tezy i wnioski z dyskusji obu ekspertów, którzy dzielili się swoimi doświadczeniami i spostrzeżeniami dotyczącymi współczesnych wyzwań technologicznych.

    Cyfrowi bliźniacy – nowe oblicze cyberzagrożeń

    Prowadzący rozpoczęli od omówienia koncepcji cyfrowych bliźniaków (Digital Twins) – systemów, które za pomocą algorytmów kopiują działanie rzeczywistych podmiotów. Jak wyjaśnił Przemek Jurgiel-Żyła, rozwiązania te były dotychczas wykorzystywane głównie w robotyce i innych zastosowaniach przemysłowych, obecnie jednak stały się narzędziem cyberprzestępców.

    „W chwili obecnej z perspektywy CyberSecu i z perspektywy zagrożeń, które pojawiają się szerzej na rynku, to są wszelkiego rodzaju rozwiązania, gdzie przestępcy czy cyberprzestępcy próbują sklonować albo określone postaci z firmy, albo właśnie całe firmy do tego, żeby wykonać jakieś akcje, które spowodują np. naruszenie zasad bezpieczeństwa albo po prostu wyłudzenia, skracając pieniędzy.” – podkreślił Przemek Jurgiel-Żyła.

    Obaj prowadzący zgodzili się, że sztuczna inteligencja umożliwia tworzenie bardzo wiarygodnych kopii osób czy organizacji, co znacząco zwiększa skuteczność ataków socjotechnicznych. W dyskusji pojawiły się różne propozycje mechanizmów ochronnych, od haseł w stylu „word of the day” po dwuetapową weryfikację nieprzewidzianych przelewów.

    Maciek Broniarz zwrócił uwagę, że najlepszą ochroną przed tego typu atakami są dobrze zorganizowane procesy w firmie: „Zastanówmy się dlaczego nasza organizacja funkcjonuje w tak dysfunkcyjnym modelu, że prezes na callu Teamsowym może wydawać polecenia odnośnie płatności. Jak to wyeliminujemy, to tak naprawdę ten atak przestaje nas boleć.”

    Rozmówcy zaznaczyli również, że socjotechniczne aspekty ataków, takie jak wywieranie presji czasowej czy emocjonalnej, są kluczowymi elementami, które ułatwiają przestępcom osiągnięcie sukcesu. Jak podsumował Przemek: „Wydaje mi się, że z perspektywy tego typu rzeczy to trzeba siebie, klientów, organizacji uodpornić na wszelkiego rodzaju takie sytuacje związane z socjotechnicznymi aspektami, czyli właśnie ktoś nagle dzwoni, próbuje nas coś wymusić, przyspieszyć pod presją”.

    Podatność Erlanga w OTP-SSH – ukryte ryzyko w urządzeniach embedded

    Kolejnym tematem była podatność Erlanga w komponencie OTP-SSH, która otrzymała maksymalną ocenę 10 w skali CVSS. Podatność ta pozwala na zdalne wykonanie kodu na urządzeniach wykorzystujących tę bibliotekę.

    Maciek Broniarz wyjaśnił skalę problemu: „Ta podatność konkretnie to jest, ona pozwala na zdalne wykonanie kodu, to znaczy jesteśmy w stanie na zdalnej maszynie uruchomić coś, co jej prześlemy. Podatność dotyczy nie generycznie wszystkich użytkowników SSH, tylko tych, którzy używają komponentu, który nazywa się Erlang-OTP”.

    Dyskusja ukazała istotny problem – wiele organizacji nie wie, czy korzysta z podatnych komponentów w swoich urządzeniach. Jak zaznaczył Maciek: „Cały problem polega na tym, że my nie wiemy bardzo często, czy mamy tę funkcjonalność włączoną, czy my korzystamy z tego komponentu w naszym rozwiązaniu, dlatego że bardzo często mamy rozwiązania typu embedded, do których ktoś włożył taką funkcjonalność, nigdzie tego nie udokumentował, my też tego nie wiemy.”

    Prowadzący podkreślili, że zagrożenie dotyczy głównie urządzeń z publicznie dostępnymi usługami SSH, które korzystają z Erlanga-OTP, co według danych przytoczonych przez Maćka oznacza około 600 tysięcy unikalnych adresów IP w internecie. Omówili również ryzyko związane z bezkrytycznym uruchamianiem niezweryfikowanego kodu podczas sprawdzania podatności, co samo w sobie stanowi zagrożenie.

    50-lecie Microsoftu – ewolucja giganta technologicznego

    Trzecim głównym tematem odcinka były refleksje na temat 50-lecia istnienia Microsoftu. Prowadzący podzielili się swoimi pierwszymi doświadczeniami z produktami firmy – dla Maćka był to BASIC na MSX w 1988 roku, dla Przemka Windows 3.1 w latach 90.

    Dyskusja objęła ewolucję Microsoftu od firmy produkującej oprogramowanie pudełkowe do dostawcy usług chmurowych. Maciek Broniarz zwrócił uwagę na tzw. „straconą dekadę Microsoftu” na początku XXI wieku i zdolność firmy do odwrócenia negatywnego trendu: „O sile Microsoftu moim zdaniem świadczy też to, że oni potrafili jakby odwrócić jednak ten trend i po tej straconej dekadzie nagle zacząć z powrotem być jedną z najważniejszych firm, która też wyznacza trochę trendy.”

    Obaj eksperci zgodzili się, że przejście na model subskrypcyjny i rozwój usług chmurowych były kluczowymi elementami sukcesu Microsoftu w ostatnich latach. Jak zauważył Maciek: „Microsoft, wchodząc w ten model subskrypcyjny, też gdzie wszyscy mówili, nie, to się nie przyjmie, nikt nie będzie płacił tam co miesiąc za Windowsa, za Office’a. No nie, właśnie płacimy. Dlaczego? Dlatego, że to jest pomijalne.”

    Prowadzący poruszyli także problem uzależnienia od ekosystemów dużych dostawców i związane z tym zagrożenia dla niezależności użytkowników. Maciek wyraził obawę: „Oddanie pewnej suwerenności w ręce de facto dwóch dużych graczy, to nie jest coś, co nam się opłaca.”

    Cyberwojny LLM-ów – nowe zagrożenie dla infrastruktury internetowej

    Czwartym istotnym tematem były konflikty między twórcami dużych modeli językowych (LLM) a organizacjami utrzymującymi infrastrukturę internetową. Prowadzący omówili problem agresywnego crawlowania treści przez systemy AI.

    Przemek Jurgiel-Żyła zwrócił uwagę na skalę problemu: „Obecnie crawlery firm AI odpowiadają za 1% zapytań, ale dochodzą nawet do 40-50% ruchu.” Eksperci podkreślili, że boty AI ignorują zasady ustalone przez lata w internecie, takie jak plik robots.txt czy limity częstotliwości odpytywania serwerów.

    „Funkcjonujemy w internecie, gdzie jednak mamy pewne zasady, gdzie uczymy się i utrzymujemy pewne standardy i potem przychodzą firmy od AI i mówią nie respektujemy tego.” – stwierdził Maciek Broniarz, zwracając uwagę na podejście dużych firm technologicznych.

    Dyskusja objęła również kwestię praw własności intelektualnej i etyki wykorzystywania treści przez modele AI. Maciek przytoczył słowa Sama Altmana: „On oczywiście wszystko rozumie, ale wartość, która wyjdzie z tych rozwiązań szeroko pojętej sztucznej inteligencji jest na tyle duża, że nie można podejmować żadnych działań ograniczających ten rozwój, bo ten rozwój jest priorytetowy.” Dodał też swoją opinię: „Z całym szacunkiem, gównoprawda.”

    100 dni od wdrożenia rozporządzenia DORA

    Na koniec prowadzący krótko omówili temat 100 dni od pełnego wdrożenia rozporządzenia DORA w sektorze finansowym w Unii Europejskiej. Maciek Broniarz zauważył podobieństwa we wdrażaniu DORA do wcześniejszych regulacji, takich jak RODO: „Organizacje po jakimś czasie od wejścia przepisów w życie zorientowały się, że to jest tak na serio, to my jednak musimy coś zrobić.”

    Zwrócił również uwagę na to, że nawet firmy, które bezpośrednio nie podlegają regulacjom, mogą zostać zmuszone do dostosowania się przez swoich klientów: „Nawet jeżeli ty jako organizacja nie podlegasz, to może się okazać, że twoi klienci podlegają i zaczynają pewne zobowiązania przyszucać na ciebie.”

    Podsumowanie

    Piąty odcinek „Technologiczny Podcast” poruszył szereg istotnych zagadnień z obszaru technologii i cyberbezpieczeństwa. Dyskusja na temat cyfrowych bliźniaków pokazała nowe formy zagrożeń, które pojawiają się wraz z rozwojem sztucznej inteligencji, a kluczową ochroną przed nimi są dobrze zorganizowane procesy w organizacjach. Temat podatności Erlanga w OTP-SSH ukazał problem identyfikacji zagrożeń w rozwiązaniach embedded.

    Refleksje na temat 50-lecia Microsoftu przedstawiły ewolucję firmy i jej zdolność do dostosowywania się do zmieniającego się rynku, choć jednocześnie zwrócono uwagę na rosnące uzależnienie użytkowników od dużych ekosystemów technologicznych. Dyskusja o cyberkonfliktach między twórcami LLM a utrzymującymi infrastrukturę internetową zarysowała nowe pole bitwy w sieci, z poważnymi implikacjami dla całego ekosystemu internetowego.

    Odcinek zakończył się krótkim omówieniem wdrażania regulacji DORA, pokazując, jak firmy reagują na nowe wymogi regulacyjne i jak te wymogi propagują się w łańcuchu dostaw.

    Prowadzący zapowiedzieli również kontynuację tematów związanych z regulacjami (DORA, NIS) w kolejnych odcinkach oraz zarekomendowali wydarzenia Secure Way Meetups dla osób zainteresowanych tematyką cyberbezpieczeństwa i startupów z tej branży.

  • technologiczny – odcinek #1

    technologiczny – odcinek #1

    Technologia, Bezpieczeństwo i Retro-Gaming: Podsumowanie Pierwszego Odcinka Podcastu Technologicznego

    5 marca 2025 roku zadebiutował pierwszy odcinek „Podcastu Technologicznego” prowadzonego przez duet ekspertów – Maćka Broniarza i Przemka Jurgiela-Żyłę. W inauguracyjnym wydaniu prowadzący podjęli szereg istotnych tematów ze świata technologii i biznesu, które wzbudziły zainteresowanie w ostatnich tygodniach. Wśród poruszonych kwestii znalazły się: decyzja Apple o wycofaniu pełnego szyfrowania w iCloud w Wielkiej Brytanii, inwestycje gigantów technologicznych w Polsce, wciąż aktualny problem ataków ransomware oraz nostalgiczny trend powrotu do starych konsol do gier. Poniższy artykuł stanowi kompleksowe podsumowanie tej bogatej w treści dyskusji, prezentując kluczowe wnioski, argumenty i praktyczne wskazówki dla słuchaczy.

    Główne wątki tematyczne

    Apple rezygnuje z end-to-end encryption w iCloud w Wielkiej Brytanii

    Pierwszy temat poruszony przez prowadzących dotyczył decyzji Apple o wycofaniu funkcji end-to-end encryption (szyfrowania typu koniec-koniec) w usłudze iCloud na terenie Wielkiej Brytanii. Zmiana ta została zainicjowana na wniosek brytyjskiej administracji, która domagała się możliwości dostępu do zaszyfrowanych danych przechowywanych w chmurze w przypadkach związanych z przestępstwami.

    Maciek Broniarz wyjaśnił, że wcześniej, dzięki szyfrowaniu end-to-end, Apple nie miało technicznej możliwości udostępnienia danych nawet na żądanie służb. Po wprowadzeniu zmian, firma będzie mogła – na wniosek organów ścigania – udostępnić zawartość iCloud brytyjskich użytkowników.

    „To, co z mojej perspektywy jest chyba najistotniejszym problemem, to jest jednak kwestia tego, że w teoretycznym przypadku dotyczącym jakichś przestępstw, które mogą się wydarzyć w przyszłości, po prostu pozbawia się obywateli en masse w bardzo daleko poświęcony sposób prawa do prywatności.” – podkreślił Maciek Broniarz.

    Prowadzący zwrócili uwagę na kilka kluczowych kwestii związanych z tą zmianą:

    • Niejasności dotyczące implementacji – co stanie się z danymi użytkowników, którzy zmienią region, podróżują z/do Wielkiej Brytanii lub założą konto będąc tam tymczasowo
    • Potencjalne obejścia tego ograniczenia – użytkownicy mogą nadal szyfrować swoje dane samodzielnie lub korzystać z innych usług chmurowych
    • Implikacje dla bezpieczeństwa danych firmowych – pojawia się pytanie o wpływ na dane przedsiębiorstw korzystających z usług Apple
    • Niebezpieczny precedens – Apple pokazało, że pod naciskiem może zrezygnować z rozwiązań chroniących prywatność

    Dyskutanci porównali tę sytuację do innych przypadków ograniczania prywatności w imię bezpieczeństwa, jak np. polskie przepisy z 2016 roku eliminujące anonimowe karty SIM. Zauważyli, że takie działania często nie rozwiązują faktycznego problemu, ponieważ osoby zdeterminowane zawsze znajdą sposób na obejście zabezpieczeń, natomiast większość zwykłych użytkowników traci swoje prawo do prywatności.

    Inwestycje Google i Microsoft w Polsce – prestiż czy realna wartość?

    Drugim gorącym tematem były niedawno ogłoszone inwestycje technologicznych gigantów w Polsce. Microsoft zapowiedział budowę data center o wartości 2,8 miliarda złotych, a Google zadeklarował środki na projekty związane z AI oraz szkolenia.

    Prowadzący zaprezentowali dwie różne perspektywy na wartość tych inwestycji. Maciek wyraził sceptycyzm:

    „Znaczy ja mam takie poczucie, że technologicznie to te inwestycje są trochę bez znaczenia. To znaczy z punktu widzenia inżyniera nie wydarzyło się absolutnie nic interesującego. Patrząc na to szerzej to mam wrażenie, że to jest po prostu trochę taki podatek, który Polska musiała zapłacić za utrzymywanie dobrych relacji ze Stanami Zjednoczonymi.” – stwierdził.

    Przemek przedstawił bardziej optymistyczne spojrzenie, wskazując na pośrednie korzyści:

    • Tworzenie miejsc pracy i rozwój kompetencji
    • Generowanie specjalistów, którzy później mogą zakładać własne firmy
    • Wydatki na lokalnym rynku
    • Sygnał dla innych inwestorów o stabilności i bezpieczeństwie regionu

    Obaj prowadzący zgodzili się jednak, że brakuje komponentu wspierającego lokalne firmy technologiczne. Zwrócili uwagę na brak mechanizmów offsetowych, które mogłyby wzmocnić polski ekosystem technologiczny, np. poprzez współpracę z polskimi firmami czy finansowanie inicjatyw takich jak IDEAS NCBR.

    Dyskutanci podkreślili również aspekt geopolityczny tych inwestycji. Fakt, że międzynarodowe korporacje decydują się na lokowanie kapitału w Polsce, może świadczyć o postrzeganiu tego regionu jako stabilnego i bezpiecznego, co jest pewnym pośrednim wskaźnikiem bezpieczeństwa w kontekście aktualnej sytuacji w Europie Wschodniej.

    Ransomware – dlaczego wciąż jest to realny problem dla biznesu?

    Trzecim tematem była nieustająca kwestia ataków typu ransomware, które nadal stanowią poważne zagrożenie dla firm każdej wielkości. Maciek wyjaśnił, czym dokładnie jest ten typ ataku:

    „Ransomware to jest taki typ ataku na infrastrukturę informatyczną, gdzie przestępcy uzyskają dostęp do infrastruktury i do naszych danych, następnie szyfrują te dane, kopiują sobie te dane do siebie i żądają okupu po pierwsze za to, że dadzą klucz, żeby te dane zdeszyfrować, po drugie za to, żeby ich nie ujawnić światu.”

    Prowadzący obalili mit, że za atakami ransomware stoją pojedynczy hakerzy działający w zaciszu swoich pokojów:

    „To są firmy, gdzie ktoś przychodzi do pracy na ósmą czy dziewiątą, loguje się do swojej wersji Jiry i dostaje z rozdzielnika, kogo dzisiaj będzie próbował okraść z danych, wyłudzić pieniądze, zaszyfrować informacje i tak dalej. To jest normalny biznes.” – wyjaśnili.

    Eksperci omówili ewolucję ataków ransomware – obecnie grupy przestępcze nie tylko szyfrują dane, ale także grożą ich upublicznieniem, co stanowi dodatkowy poziom szantażu. Nawet firmy posiadające odpowiednie kopie zapasowe mogą być zmuszone do negocjacji, by uniknąć wycieku wrażliwych informacji.

    W dyskusji poruszono także metodologię działania grup ransomware:

    • Wybierają zazwyczaj „łatwe cele” z niedostatecznymi zabezpieczeniami
    • Dokładnie badają swoje ofiary, znając nawet ich sytuację finansową z KRS
    • Często pytają o posiadanie ubezpieczenia od cyberataków i dostosowują wysokość okupu
    • Działają głównie z krajów takich jak Rosja, Białoruś, czasem Indie czy Pakistan

    Prowadzący przedstawili konkretne rekomendacje dla firm, jak minimalizować ryzyko ataków ransomware:

    1. Wprowadzenie dwuskładnikowego uwierzytelniania wszędzie, gdzie to możliwe „Mamy 2025 rok, nie ma dobrego argumentu, żeby nie używać dwuskładnikowego uwierzytelniania i to nie używać go wszędzie.”
    2. Regularne aktualizacje systemów i urządzeń
      • Dotyczy to nie tylko komputerów, ale także drukarek, kamer, access pointów i innych urządzeń sieciowych
      • Część ataków wykorzystuje luki w niezaktualizowanych urządzeniach peryferyjnych
    3. Monitorowanie aktywności w systemach informatycznych
      • Konfiguracja alertów o nietypowych logowaniach (np. po godzinach, z zagranicy)
      • Regularne przeglądanie logów systemowych
    4. Zarządzanie danymi
      • Ograniczenie przechowywania zbędnych historycznych danych
      • Separacja danych prywatnych od służbowych
      • Szyfrowanie szczególnie wrażliwych informacji
    5. Szczególna uwaga na konta techniczne
      • Ograniczenie uprawnień kont używanych przez drukarki, skanery i inne urządzenia
      • Eliminacja współdzielonych danych dostępowych

    Prowadzący zauważyli również problem zbyt szybkiej cyfryzacji w czasie pandemii, kiedy wiele firm wdrożyło rozwiązania zdalnego dostępu bez odpowiedniego zabezpieczenia i bez świadomości konieczności ich stałego utrzymania i aktualizacji.

    Powrót do korzeni – rosnąca popularność starych konsol do gier

    Ostatni, lżejszy temat dotyczył informacji, że według badań 25% Brytyjczyków posiada w domu starą konsolę do gier z przełomu lat 80. i 90. Prowadzący omówili przyczyny rosnącej popularności retro-gamingu i powrotu do starszych technologii.

    Wśród zalet starych konsol i komputerów wymieniono:

    • Natychmiastową gotowość do użycia – bez długich aktualizacji czy ładowania
    • Prostotę obsługi i możliwość krótkich, niezobowiązujących sesji gry
    • Transparentność działania – możliwość zrozumienia całej architektury urządzenia
    • Wartość edukacyjną – nauka programowania i elektroniki na prostszych systemach
    • Możliwość modyfikacji, naprawy i dostosowania sprzętu

    Zauważyli również, że przemysł zaczął odpowiadać na ten trend, wydając odświeżone wersje klasycznych konsol, jak Nintendo NES, SNES czy urządzenia Atari i Sega.

    Prowadzący podzielili się też refleksją na temat wartości gier retro:

    „Te gry retro, one mają jeszcze inną perspektywę. Bardzo często przez to, że miały bardzo ograniczone zasoby, były mega dobrze przemyślane i to jest coś, co wiele gier, które później wychodziły, jak już były pecety, karty z dopalaniem 3D i podobne rzeczy, tego nie miały.” – zauważył Maciek.

    Dyskutujący porównali hobby związane ze starymi konsolami do majsterkowania przy zabytkowych samochodach – to zarówno działalność nostaliczna, jak i sposób na kreatywne spędzanie czasu, rozwijanie umiejętności technicznych oraz oderwanie się od współczesnego, przebodźcowanego świata.

    Podsumowanie i wnioski

    Pierwszy odcinek „Podcastu Technologicznego” zaprezentował szerokie spektrum zagadnień, od kwestii prywatności i bezpieczeństwa danych, przez inwestycje technologiczne w Polsce, po zagadnienia cyberbezpieczeństwa i nostalgiczny powrót do starszych technologii.

    Główne wnioski płynące z dyskusji to:

    1. Prywatność w erze cyfrowej pozostaje zagrożona – nawet firmy takie jak Apple, które budowały swoją markę na ochronie prywatności, mogą ustąpić pod presją rządów, co tworzy niebezpieczne precedensy.
    2. Inwestycje gigantów technologicznych w Polsce mają złożony charakter – choć medialne doniesienia koncentrują się na kwotach i prestiżu, ich rzeczywista wartość dla lokalnego ekosystemu technologicznego może być ograniczona bez mechanizmów wspierających polskie firmy i rozwiązania.
    3. Cyberbezpieczeństwo pozostaje krytycznym wyzwaniem – ransomware ewoluuje, a przestępcy stają się coraz bardziej profesjonalni. Podstawowe praktyki bezpieczeństwa, jak dwuskładnikowe uwierzytelnianie i regularne aktualizacje, są niezbędnym minimum dla każdej organizacji.
    4. Powrót do starszych technologii nie jest jedynie nostalgicznym trendem, ale również odpowiedzią na przebodźcowanie i złożoność współczesnych rozwiązań, oferując prostotę, przejrzystość i satysfakcję z własnoręcznej interakcji z technologią.

    Prowadzący zapowiedzieli regularne wydawanie kolejnych odcinków podcastu, w tym również z gośćmi, zachęcając słuchaczy do przesyłania komentarzy i feedbacku. Podcast pokazuje, że w dynamicznie zmieniającym się świecie technologii, warto regularnie analizować zarówno najnowsze trendy, jak i refleksyjnie spoglądać wstecz na ewolucję narzędzi i rozwiązań, które kształtują nasze cyfrowe doświadczenia.