7 prognoz dotyczących cyberbezpieczeństwa na rok 2024: rok zdominowany przez sztuczną inteligencję


Częścią bycia częścią branży cyberbezpieczeństwa jest patrzenie w przyszłość i przewidywanie tego, co ma nadejść. Dla większości z nas rok 2024 będzie w dużej mierze zdominowany przez dyskusję o sztucznej inteligencji. Wraz z szybkim rozwojem branży cyberbezpieczeństwa sztuczna inteligencja znajduje się w czołówce planów cybernetycznych każdej organizacji i odgrywa integralną rolę we wszystkich postępach technologicznych.

Podczas gdy w 2023 r. po raz pierwszy pojawiło się powszechne zastosowanie sztucznej inteligencji oraz jej początkowy szum i reakcja na jej nieskończone możliwości, powinniśmy zobaczyć, jak sztuczna inteligencja jest stosowana na wiele bardziej praktycznych i konkretnych sposobów.

Częścią przewidywania najnowszych wiadomości w dziedzinie cyberbezpieczeństwa jest uczenie się, jak wyprzedzać konkurencję i chronić się przed nowymi zagrożeniami cybernetycznymi, nowymi metodami ataków i nowymi technologiami. Rzućmy okiem na niektóre z prognoz na nadchodzący rok.

Cyberataki oparte na sztucznej inteligencji staną się bardziej powszechne

W 2023 roku technologia sztucznej inteligencji szturmem podbiła świat, a jej powszechne przyjęcie było kluczowym celem dla wielu firm. Zdolność technologii sztucznej inteligencji do optymalizacji procesów w celu maksymalizacji wydajności, analizowania ogromnych zbiorów danych oraz, co najważniejsze, identyfikowania i reagowania na zbliżające się zagrożenia cybernetyczne stała się głównym obszarem inwestycji.

Jednak tak jak firmy i organizacje mogą wykorzystać moc sztucznej inteligencji, tak samo mogą to zrobić cyberprzestępcy i inni cyberprzestępcy. Potencjał sztucznej inteligencji do tworzenia nowych ataków phishingowych za pomocą deepfake'ów generowanych przez sztuczną inteligencję, przeprowadzania ataków botnetowych na dużą skalę lub hakowania systemów za pomocą masowych skoordynowanych cyberataków jest ogromny. W ciemnej sieci krążą już wczesne wersje złośliwych platform generatywnej sztucznej inteligencji, takich jak WormGPT.

Dzięki sztucznej inteligencji organizacje na całym świecie staną przed bezprecedensowymi wyzwaniami, z którymi nigdy wcześniej nie miały do czynienia. Ostatecznie to od organizacji będzie zależało, czy przyjmą wieloaspektowe podejście do wykorzystania sztucznej inteligencji. Muszą znaleźć sposoby na wykorzystanie narzędzi i usług sztucznej inteligencji w celu ochrony przed atakami zewnętrznymi i najnowszymi otwartymi lukami w zabezpieczeniach, szczególnie w wysoce atakowanych branżach, takich jak opieka zdrowotna czy finanse.

Generatywna sztuczna inteligencja (GenAI) zacznie na nowo odkrywać metodologie wykrywania zagrożeń i reagowania na nie

Podczas gdy wiele osób i firm wciąż zastanawia się, jak zmaksymalizować wykorzystanie generatywnej sztucznej inteligencji w celu poprawy produktywności lub usprawnienia procesów, następnym krokiem dla technologii GenAI będzie całkowita restrukturyzacja sposobu, w jaki większość organizacji radzi sobie z programami wykrywania zagrożeń i reagowania na nie. GenAI ma potencjał, aby znacznie ulepszyć obecne metodologie wykrywania zagrożeń dzięki zaawansowanemu rozpoznawaniu wzorców i analityce predykcyjnej w celu identyfikacji anomalii i innych wzorców ataków, które mogą wskazywać na zagrożenie bezpieczeństwa.

Nowoczesna analiza zagrożeń jest ograniczona przez tradycyjne systemy oparte na regułach, takie jak wyszukiwanie wskaźników naruszenia bezpieczeństwa (IOC), korzystanie z istniejących danych wyszukiwania zagrożeń TTP lub innych informacji kontekstowych w obecnym krajobrazie zagrożeń. Jednak większość danych, na których opierają się obecnie metody analizy zagrożeń, wykorzystuje tylko znane metody i techniki. Cyberprzestępcy stale stosują nowe taktyki cyberataków z jeszcze większym wyrafinowaniem, co wymaga użycia narzędzi takich jak GenAI do przewidywania i wykrywania zagrożeń ze znacznie większą dokładnością i czasem realizacji.

Tak jak GenAI może być wykorzystywany do złośliwych celów, organizacje zaczną zastanawiać się, jak go wykorzystać do zbudowania jeszcze silniejszych środków bezpieczeństwa w 2024 roku.

Regulacje dotyczące sztucznej inteligencji i kształtowanie polityki staną się głównym punktem spornym

W miarę jak sztuczna inteligencja staje się coraz powszechniej stosowana i praktyczna, uregulowanie sztucznej inteligencji będzie niezwykle trudne w nadchodzącym roku. Widzieliśmy już, jak ChatGPT doświadczył naruszenia danych na wczesnym etapie swojego cyklu życia, a pracownicy Samsunga przypadkowo ujawnili poufne dane firmowe podczas korzystania z ChatGPT. Ponieważ jednak sztuczna inteligencja jest tak nowa w krajobrazie cybernetycznym, nadal jest w dużej mierze niezrozumiana i brakuje wiedzy i doświadczenia w jej zakresie, aby uregulować tę technologię.

Regulacje cybernetyczne są niezbędne do ochrony prywatności użytkowników i praw człowieka oraz do promowania przejrzystości i bezpieczeństwa danych. Chociaż mogą istnieć najlepsze praktyki lub zalecenia dotyczące korzystania z narzędzi AI, to głównie od organizacji korzystających z tych narzędzi zależy ich użycie. Podczas gdy w 2023 r. skupiono się bardziej na tym, jak należy wykorzystywać sztuczną inteligencję, w 2024 r. pojawi się więcej praktycznych polityk i przepisów.

Już w zeszłym roku podjęto pierwsze próby stworzenia przepisów dotyczących sztucznej inteligencji. Pod koniec 2023 r. UE zatwierdziła unijny akt w sprawie sztucznej inteligencji, który ma zostać wdrożony w 2024 r., w którym kategoryzuje systemy sztucznej inteligencji według poziomu ryzyka, od "minimalnego" do "niedopuszczalnego". Ponadto ustawa ma na celu wymaganie większej przejrzystości od firm korzystających z systemów sztucznej inteligencji, pociągnięcie ich do odpowiedzialności w przypadku niewłaściwego wykorzystania systemów sztucznej inteligencji oraz wprowadzenie bardziej rygorystycznych wymogów przed wdrożeniem systemów sztucznej inteligencji.

Jednak wiele przedsiębiorstw w UE już zaczęło się sprzeciwiać, twierdząc, że wiele wymogów dotyczących systemów sztucznej inteligencji o wysokim lub niedopuszczalnym ryzyku oraz kar za nieprzestrzeganie przepisów jest zbyt wysokich. W miarę jak coraz więcej organów regulacyjnych zacznie tworzyć zasady dotyczące wykorzystania sztucznej inteligencji, powinniśmy spodziewać się dalszej debaty na temat tego, jak należy zarządzać sztuczną inteligencją.

Więcej naruszeń bezpieczeństwa niż kiedykolwiek będzie wynikiem zagrożeń wewnętrznych

W jednym z raportów Gartnera przewidują, że do 2025 r. ponad połowa znaczących incydentów cybernetycznych będzie spowodowana brakiem talentów lub błędami ludzkimi. Mówiąc najprościej, wiele organizacji nie przeszkoliło odpowiednio swoich pracowników w zakresie dobrych praktyk w zakresie cyberbezpieczeństwa. Ryzyko wewnętrzne jest już jedną z głównych przyczyn naruszeń i wycieków danych.

Jeśli w 2024 r. nie pojawi się silniejszy nacisk na edukację i szkolenia w zakresie cyberbezpieczeństwa, możemy być świadkami dużego skoku liczby incydentów cybernetycznych będącego bezpośrednim wynikiem słabych szkoleń i wewnętrznych procesów zarządzania ryzykiem. Liderzy ds. bezpieczeństwa muszą rozważyć włączenie zarządzania pracownikami podczas tworzenia programów cyberbezpieczeństwa i zapewnić lepszy wgląd w potencjalne zagrożenia, na jakie mogą być narażeni słabo wyszkoleni pracownicy.

Brak utalentowanych pracowników zajmujących się cyberbezpieczeństwem doprowadzi do większej liczby luk w zabezpieczeniach

W badaniu przeprowadzonym przez ISC2 niedobór pracowników ds. cyberbezpieczeństwa osiągnął 4 miliony pod koniec 2023 roku, co oznacza wzrost o prawie 10% w porównaniu z rokiem poprzednim. Niedobór wynika z wielu powodów, od niepewności gospodarczej, cięć budżetowych i zwolnień w branży technologicznej w połączeniu ze zwiększonym popytem spowodowanym pojawiającymi się zagrożeniami, zmieniającymi się krajobrazami zagrożeń i postępem sztucznej inteligencji.

Wiele zespołów ds. bezpieczeństwa ma rażące braki kadrowe, co oznacza, że organizacje mogą być źle wyposażone lub nieprzygotowane do wystarczającego reagowania na incydenty cybernetyczne. W wielu przypadkach cyberbezpieczeństwo jest nadal jednym z pierwszych zespołów, które zostały zredukowane w firmach po prostu dlatego, że wiele firm nie rozumie jeszcze biznesowego znaczenia utrzymania bezpiecznych systemów.

Braki kadrowe to jednak nie jedyny problem. Wiele firm doświadcza również dużej luki w umiejętnościach w swoich zespołach ds. bezpieczeństwa, co oznacza, że mają trudności ze znalezieniem wykwalifikowanych osób z odpowiednimi umiejętnościami do zarządzania programami bezpieczeństwa. O ile w 2024 r. nie pojawi się znaczny nacisk na zatrudnianie i szkolenie osób w celu wypełnienia tych luk, możemy być świadkami jeszcze większej liczby cyberataków z powodu braku talentów.

Wykorzystanie uwierzytelniania bez hasła zacznie rosnąć

W raporcie IBM Cost of a Data Breach Report 2023 stwierdzono, że głównymi wektorami ataków w 2023 r. były skradzione dane uwierzytelniające i ataki phishingowe. Oznacza to, że cyberprzestępczość odeszła od wykorzystywania złośliwego oprogramowania i hakowania w celu uzyskania nieautoryzowanego dostępu do systemów w kierunku wykorzystywania metod kradzieży ważnych danych uwierzytelniających.

Obecnie metody takie jak uwierzytelnianie wieloskładnikowe (MFA) są wykorzystywane do zwalczania przypadków kradzieży danych uwierzytelniających poprzez wymaganie drugiej formy weryfikacji. Chociaż nadal jest bardzo skuteczny, w 2024 roku możemy zobaczyć, jak coraz więcej usług online zacznie przyjmować jeszcze bezpieczniejsze opcje metod uwierzytelniania bez hasła. Obejmuje to:

  • Hasła jednorazowe (OTP) lub hasła jednorazowe oparte na czasie (TOTP)
  • Aplikacje uwierzytelniające innych firm
  • Skanowanie biometryczne
  • Klucze dostępu
  • Kryptografia klucza publicznego

Dawno już nie ma tradycyjnej kombinacji nazwy użytkownika i hasła w celu ochrony dostępu do kont lub systemów; Korzystanie z rozwiązań bez haseł szybko wyeliminuje potrzebę zapamiętywania haseł i stworzy bardziej płynny i bezpieczny sposób odblokowywania urządzeń lub logowania się na konta.

Więcej programów bezpieczeństwa cybernetycznego opartych na zachętach doprowadzi do poprawy bezpieczeństwa w całym kraju

Wdrażanie programów cyberbezpieczeństwa było powolnym procesem, pomimo szybkiego rozwoju w ostatnich latach. Niezależnie od tego, czy jest to brak zrozumienia, czy brak priorytetów, programy cyberbezpieczeństwa są często pierwsze na miejscu, jeśli chodzi o cięcia budżetowe lub zwolnienia. Wiele organizacji nie postrzega jeszcze cyberbezpieczeństwa jako konieczności biznesowej, mimo że małe i średnie korporacje często odnotowują co najmniej 20% wzrost kosztów naruszenia danych w porównaniu z większymi organizacjami (IBM Cost of a Data Breach Report 2023).

Jednak Biały Dom w USA ma na celu walkę z tym zjawiskiem, oferując zachęty zachęcające firmy do wdrażania najlepszych praktyk w zakresie cyberbezpieczeństwa. W 2023 r. widzieliśmy już, jak cztery stany rozpoczęły ten motywacyjny wysiłek (Ohio, Utah, Connecticut i Iowa). Dopóki nie zostanie uchwalona ogólnokrajowa ustawa ustanawiająca minimalny standard bezpieczeństwa, oferowanie dobrowolnych programów motywacyjnych w zakresie cyberbezpieczeństwa może pomóc w rozpoczęciu tego procesu. Wkrótce możemy zobaczyć, jak więcej państw pójdzie w ich ślady, podejmując szeroko zakrojone wysiłki na rzecz budowy silniejszego cyberbezpieczeństwa w całym kraju i na świecie.

Powiązane artykuły