5 najbardziej absurdalnych powodów, przez które firmy tracą dane.
Utrata danych w firmach rzadko wynika z wyrafinowanych cyberataków. Znacznie częściej za poważne incydenty bezpieczeństwa IT odpowiadają prozaiczne błędy, fałszywe przekonania i zwykłe zaniedbania operacyjne, które można było wyeliminować w ciągu jednego popołudnia.

Powód 01 – „Mamy kopię zapasową” – czyli backup, którego nikt nigdy nie przetestował
Backup danych to jedno z tych zagadnień, o których organizacje mówią znacznie więcej, niż faktycznie w nie inwestują. Procedura tworzenia kopii zapasowych istnieje, jest opisana w polityce bezpieczeństwa, bywa nawet zautomatyzowana. Problem pojawia się w momencie, gdy kopia jest potrzebna.
Okazuje się wówczas, że ostatni poprawnie zakończony backup miał miejsce cztery miesiące temu, pliki kopii są uszkodzone, bo na docelowym dysku miejsce kończyło się od dawna, nikt nie weryfikował logów zadań automatycznych, bo „przecież to działa”. A w najgorszym wariancie – kopia zapasowa była przechowywana na tym samym fizycznym serwerze co dane źródłowe i obydwa zasoby objęła jedna awaria.
Reguła 3-2-1 w praktyce
Profesjonalne podejście do backupu opiera się na zasadzie 3-2-1: trzy kopie danych, na dwóch różnych nośnikach, z których jedna przechowywana jest poza siedzibą firmy. Zasada ta nie jest arbitralna, wynika z analizy statystyki awarii. Żaden pojedynczy mechanizm redundancji nie jest odporny na wszystkie scenariusze jednocześnie: ani RAID, ani chmura, ani taśma magnetyczna.
Powód 02 – Dysk twardy, który „zawsze działał” – fizyczna awaria sprzętu bez ostrzeżenia
Elektronika ma to do siebie, że zużywa się w sposób nieprzewidywalny. Dyski twarde – zarówno mechaniczne HDD, jak i coraz powszechniejsze SSD – nie są wyjątkiem. Średnia żywotność dysku twardego to zazwyczaj trzy do pięciu lat, przy czym rzeczywiste zużycie zależy od intensywności użytkowania, temperatury, wstrząsów i wielu innych czynników.
W praktyce większość firm nie prowadzi żadnego monitoringu stanu fizycznego sprzętu. Dyski pracują latami bez diagnostyki, do momentu, gdy przestają pracować w ogóle. Awaria mechaniczna talerzy, degradacja komórek pamięci flash, uszkodzenie sterownika – każdy z tych scenariuszy może skutkować całkowitą lub częściową niedostępnością danych, często bez żadnych wcześniejszych sygnałów ostrzegawczych.
Warto dodać, że starzejący się sprzęt to nie tylko ryzyko utraty danych, to również problem z ich odtwarzaniem. Przestarzałe interfejsy, brakujące sterowniki, niekompatybilne systemy operacyjne potrafią zamienić odzyskiwanie danych w kosztowny i czasochłonny projekt wymagający specjalistycznej interwencji zewnętrznej.
Powód 03 – Pracownik odchodzi – i zabiera ze sobą więcej niż tylko swoje rzeczy
Utrata danych wiązana z rotacją pracowników to temat, który rzadko pojawia się w raportach bezpieczeństwa. Tymczasem jest to jeden z najczęściej pomijanych wektorów ryzyka w małych i średnich firmach.
Scenariusz jest zazwyczaj prozaiczny. Pracownik odchodzi, czasem w normalnych okolicznościach, czasem w konflikcie, i w tym momencie okazuje się, że przechowywał znaczną część danych projektowych lokalnie na swoim laptopie służbowym. Albo że był jedyną osobą, która znała hasło do kluczowego systemu. Albo że jego konto pocztowe, zawierające wieloletnią korespondencję z klientami, zostało zablokowane bez uprzedniego zarchiwizowania.
Offboarding jako element polityki bezpieczeństwa
Właściwie zaprojektowany proces offboardingu powinien obejmować: identyfikację lokalnie przechowywanych danych służbowych, transfer dostępów i dokumentacji, archiwizację korespondencji, dezaktywację kont w zewnętrznych serwisach i natychmiastową zmianę haseł do systemów współdzielonych. Żaden z tych kroków nie jest technicznie skomplikowany – problemem jest ich konsekwentne wykonywanie.
Powód 04 – Chmura jako alibi – fałszywe poczucie bezpieczeństwa w środowiskach SaaS
Migracja do chmury zrewolucjonizowała sposób pracy ale wraz z nią pojawiło się jedno z bardziej niebezpiecznych nieporozumień w obszarze ochrony danych firmowych: przekonanie, że „dane w chmurze są bezpieczne” jest równoznaczne z przekonaniem, że „dane w chmurze są chronione przed utratą”.
Dostawcy usług SaaS – Microsoft 365, Google Workspace, Salesforce, platformy ERP – zapewniają wysoką dostępność swoich systemów i redundancję infrastrukturalną. Nie oferują jednak, co do zasady, ochrony przed błędami użytkownika. Przypadkowe usunięcie pliku, nadpisanie danych przez skrypt z błędem, złośliwa modyfikacja przez wewnętrznego aktora – wszystkie te scenariusze mogą prowadzić do trwałej utraty danych, jeśli okno retencji dostawcy (zazwyczaj 30–90 dni) zostanie przekroczone zanim problem zostanie wykryty.
Kontekst regulacyjny pogłębia powagę zagadnienia. Przepisy RODO nakładają na administratorów danych obowiązek zapewnienia ciągłości i integralności danych osobowych niezależnie od tego, czy są przetwarzane on-premise czy w chmurze. Utrata danych osobowych przechowywanych w systemie SaaS nie zwalnia organizacji z odpowiedzialności wobec organu nadzorczego.
Powód 05 – Jedno hasło rządzi wszystkim – skutki słabej polityki zarządzania dostępem
Ostatni punkt jest może najbardziej przewidywalny i właśnie dlatego powinien znaleźć się w tym zestawieniu. Słabe hasła i brak wieloskładnikowego uwierzytelniania (MFA) to wektory ataku znane od dekad, opisane w tysiącach analiz, będące tematem dziesiątek szkoleń. A mimo to nadal powszechne.
Jednak problem zarządzania dostępem wykracza poza kwestię złożoności haseł. Równie groźna jest jego koncentracja: sytuacja, w której jedno konto administracyjne ma dostęp do wszystkich systemów firmy, używa tego samego hasła w wielu serwisach i nie ma skonfigurowanego MFA. Kompromitacja takiego konta — przez phishing, wyciek z zewnętrznego serwisu, atak brute force na słabym haśle oznacza potencjalnie pełny dostęp do wszystkich zasobów organizacji.
MFA nie jest luksusem
Wieloskładnikowe uwierzytelnianie redukuje ryzyko przejęcia konta nawet w przypadku wycieku danych logowania. Jego wdrożenie w środowiskach Microsoft 365, Google Workspace czy systemach VPN jest procesem liczonym w godzinach, nie tygodniach. Argumentacja „użytkownicy się skarżą, że to niewygodne” przestaje mieć sens w zestawieniu z kosztami odtwarzania danych i konsekwencjami naruszenia RODO po przejęciu konta.
Kluczowe wnioski
- Backup bez testu odtwarzania to fałszywe zabezpieczenie. Regularnie weryfikuj, czy kopie zapasowe faktycznie działają.
- Monitoruj stan fizyczny sprzętu. Parametry S.M.A.R.T. dysków twardych dają wczesne sygnały przed awarią.
- Zdefiniuj i wdrożyj procedury offboardingu obejmujące przejęcie danych i dezaktywację dostępów przy każdym odejściu pracownika.
- Chmura nie zastępuje backupu. Skonfiguruj niezależne, zewnętrzne kopie danych z systemów SaaS.
- Wdróż MFA i zasadę najmniejszych uprawnień. Kompromitacja jednego konta nie powinna oznaczać kompromitacji całej infrastruktury.
Żaden z opisanych scenariuszy nie wymaga wyrafinowanej wiedzy technicznej do zapobiegania. Wszystkie wymagają czegoś trudniejszego: konsekwentnej kultury organizacyjnej, w której bezpieczeństwo IT nie jest traktowane jako koszt operacyjny, lecz jako warunek ciągłości działania. Absurdalność wymienionych przyczyn utraty danych nie tkwi w technologii, tkwi w tym, że w 2025 roku wciąż się zdarzają.

