Czy sztuczna inteligencja to rozwiązanie na zagrożenia cybernetyczne?
Bezpieczeństwo

Czy sztuczna inteligencja to rozwiązanie na zagrożenia cybernetyczne?

Technologia sztucznej inteligencji od lat jest kluczowym terminem w branży cyberbezpieczeństwa. Obecnie, z pojawieniem się generatywnej AI, otwierają się nowe możliwości dla obrońców w cyberprzestrzeni. Czy jednak innowacyjne narzędzia AI spełniają obietnice zwiększenia efektywności i wyprzedzenia cyberprzestępców?

AI w służbie cyberbezpieczeństwa

Od wielu lat produkty antywirusowe wykorzystują AI do skanowania kodu w poszukiwaniu złośliwego oprogramowania i wysyłania alertów w czasie rzeczywistym. Generatywna AI pozwala jednak na generowanie skomplikowanych treści – takich jak tekst, audio i wideo – z prostych ludzkich poleceń, co może znacząco zwiększyć skuteczność cyberobrony.

„Zespoły bezpieczeństwa od lat wykorzystują AI do wykrywania luk i generowania alertów dotyczących zagrożeń, ale generatywna AI podnosi to na nowy poziom,” mówi Sam King, dyrektor generalny grupy bezpieczeństwa Veracode.

Phil Venables, dyrektor ds. bezpieczeństwa informacji Google Cloud, opisuje, jak klienci używają tych narzędzi do analizowania ataków i tworzenia zautomatyzowanych obron. Czy jednak generatywna AI rzeczywiście jest w stanie zapewnić przewagę nad coraz bardziej zaawansowanymi zagrożeniami?

Generatywna AI w praktyce

Generatywna AI już teraz jest wykorzystywana do tworzenia specyficznych modeli, chatbotów czy asystentów AI, które wspierają analityków w wykrywaniu i reagowaniu na ataki. Przykłady to Security Copilot od Microsoftu czy model SEC Pub od Google.

King z Veracode wskazuje na możliwości zastosowania generatywnej AI do automatycznego rekomendowania poprawek w niezabezpieczonym kodzie czy generowania materiałów szkoleniowych dla zespołów bezpieczeństwa. Jednak Gang Wang, profesor nauk komputerowych na University of Illinois, przestrzega, że AI nie zastąpi „w pełni istniejących tradycyjnych metod”.

Potencjalne zagrożenia i wyzwania

AI może generować wiele fałszywych pozytywów i może mieć trudności z nowymi rodzajami zagrożeń, takimi jak ataki „zero day”. Cyberprofesjonaliści muszą stosować technologię AI z rozwagą, zachowując standardy dotyczące prywatności i ochrony danych.

Steve Stone z Rubrik Zero Labs wskazuje na pojawienie się generatywnych AI chatbotów przyjaznych hakerom, takich jak „FraudGPT” czy „WormGPT”. Max Heinemeyer z Darktrace odnotowuje wzrost „nowatorskich ataków socjotechnicznych” o 135 procent od stycznia do lutego 2023, po wprowadzeniu ChatGPT.

Przyszłość cyberbezpieczeństwa w erze AI

Mimo potencjalnych zagrożeń, wielu ekspertów pozostaje optymistycznie nastawionych do technologii AI w branży cyberbezpieczeństwa. „Ostatecznie to my, obrońcy, mamy przewagę, ponieważ to my posiadamy technologię i możemy kierować jej rozwojem,” mówi Venables z Google Cloud. Czy 2024 rok pokaże, że zaawansowane AI stanie się standardem w arsenale cyberobrońców?

źródło:www.imf.org