Sztuczna inteligencja to zarówno szansa, jak i potencjalne zagrożenie

Al i cyberbezpieczeństwo razem, jak i z osobna, stanowić będą w najbliższych latach największe wyzwania transformacji cyfrowej. Jednym z największych wyzwań będzie budowanie systemów uczących się, odpornych na cyberataki.

W ostatnich latach synonimem nieustającego rozwoju technologicznego stała się sztuczna inteligencja (AI). Jej coraz częstsze wykorzystywanie w różnych dziedzinach i obszarach z jednej strony prowadzi do zwiększonego na nią zapotrzebowania, a z drugiej do zwiększenia związanych z nią cyberzagrożeń. Popularyzacja systemów, narzędzi czy aplikacji opartych na modelu sztucznej inteligencji prowadzi do powstania nowych wyzwań – obok tych związanych z ochroną danych osobowych czy praw autorskich – również w zakresie cyberbezpieczeństwa.

Odkładając na bok rozważania dotyczące tego, czym właściwie jest AI i jak ją definiować, warto zastanowić się nad powiązaniami między AI a cyberbezpieczeństwem. I tak, związek cyberbezpieczeństwa z AI może być kilkuwymiarowy, na co wskazywała w swoich raportach Europejska Agencja ds. Cyberbezpieczeństwa (ENISA). Z jednej strony sztuczna inteligencja jest rozpatrywana jako jedno z narzędzi do zapewnienia odpowiedniej ochrony bezpieczeństwa informacji, z drugiej strony sztuczna inteligencja sama w sobie może być celem ataków cyberprzestępców, z trzeciej – może być wykorzystywana jako cel ataków.

Rozważając bezpieczeństwo informacji w kontekście sztucznej inteligencji, należy mieć świadomość tego, że techniki sztucznej inteligencji i systemy ją wykorzystujące mogą posłużyć jako narzędzie do przeprowadzania wyrafinowanych cyberataków.

Narzędzie do ataku

Sztuczna inteligencja może zatem stanowić narzędzie do rozwoju cyberprzestępczości. Złośliwe oprogramowania zasilane sztuczną inteligencją, coraz bardziej realne deepfaki, „hodowla” fałszywych kont w mediach społecznościowych czy fałszowanie stron internetowych, ataki DDoS wspomagane sztuczną inteligencją, modele do tworzenia fałszywych danych, kampanie dezinformacyjne przy wykorzystaniu wiarygodnych botów, łamanie haseł wspomaganych przez sztuczną inteligencję – to tylko nieliczne przykłady wykorzystania AI jako narzędzia do przeprowadzania cyberataków.

Jak wynika z raportu ENISA z marca tego roku dot. zidentyfikowanych zagrożeń i wyzwań cyberbezpieczeńtwa (ang. „Identifying emerging cyber security threats and challenges for 2030”), do 2030 r. cyberataki staną się bardziej wyrafinowane i będą skorelowane również z atakami fizycznymi czy atakami w trybie offline. Metody ataku – jako że stale ewoluują i łączą w sobie różne mechanizmy i wektory ataków – stają się coraz trudniejsze do wykrycia. Złożoność cyberataków wymusza przyjęcie zindywidualizowanego podejścia do badania każdego z ataków, w szczególności w celu przyjęcia na przyszłość rozwiązań im zapobiegających. Jak przewiduje ENISA, w kolejnych latach cyberzagrożenia będą dalej ewoluowały w kierunku stosowania nowych technologii i łączenia różnych rodzajów mechanizmów. Atakujący będą w coraz większym stopniu wykorzystywać do tego celu sztuczną inteligencję – w tym dla stworzenia takich wektorów ataków, które cechuje nieprzewidziany dotychczas sposób działania i skala. Wraz zatem ze wzrostem liczby inteligentnych urządzeń, popularyzacją narzędzi chmurowych czy wzrostem liczby tożsamości online atakujący będą mieli do dyspozycji szereg nowych obszarów, które będą mogli wykorzystać w celu tworzenia nowych, kreatywnych wektorów ataku.

Narzędzie do obrony

Jednak AI może równocześnie stanowić narzędzie/środek do tworzenia zaawansowanych rozwiązań cyberbezpieczeństwa. Sztuczna inteligencja może bowiem posłużyć jako narzędzie do budowania i rozwoju skuteczniejszych mechanizmów kontroli bezpieczeństwa, takich jak aktywne zapory ogniowe, inteligentne antywirusy, zautomatyzowane operacje cyber threat intelligence, skanowanie poczty e-mail, automatyczna analiza złośliwego oprogramowania czy generalnie zautomatyzowana cyberobrona. AI może również posłużyć jako jeden ze środków wsparcia dla organów ścigania w wykrywaniu i reagowaniu na cyberprzestępczość.

AI jako cel

Jako że sztuczna inteligencja, modelowo oparta na systemie maszynowego uczenia, jest systemem informatycznym, to też winny mieć do niej zastosowanie podstawowe kryteria ochrony informacji, tj. poufność danych (zabezpieczenie przed nieuprawnionym dostępem), integralność (brak ingerencji w strukturę danych) i dostępność (dla uprawnionych osób). Podstawowe zatem wektory ataku wymierzają właśnie w każde z tych obszarów. Sztuczna inteligencja ze swej istoty posiada jednak cechy specyficzne. W jej kontekście możemy zatem mówić o standardowych zagrożeniach i atakach, znanych dotychczasowej praktyce i skorelowanych generalnie z systemami informatycznymi, ale również o zagrożeniach specyficznych dla AI (ataki na funkcjonowanie algorytmów, danych, stosowanych modeli itd.).

Jedno jest pewne – lista zagrożeń AI w obszarze cyberbezpieczeństwa jest długa, a ich właściwe zmapowanie zależy od rodzajów wykorzystywanych algorytmów czy fazy cyklu życia AI (od podstawowych założeń działania i ustalenia celów biznesowych wykorzystania przez pozyskiwanie danych, aż po wdrożenie i funkcjonowanie danego modelu). Wśród najpowszechniejszych zagrożeń związanych z konkretnym cyklem życia AI wymienia się zarówno atak na system już działający, którego celem może być uniemożliwienie jego działania czy wykorzystanie modelu do celów niepożądanych, jak i atak na proces uczenia się AI (zatrucie danych, wprowadzanie danych fałszywych, kasowane danych etc.).

Co może być dalej ?

Sztuczna inteligencja i cyberbezpieczeństwo zarówno razem, jak i z osobna, stanowią i stanowić będą w najbliższych latach największe wyzwania transformacji cyfrowej. Im szybciej uświadomimy sobie konieczność podążania za trendami oscylującymi wokół nowych technologii oraz konieczność ciągłego podnoszenia kompetencji cyfrowych, tym lepiej i sprawniej uda nam się przygotować na to, co nieuniknione. Zdaje się, że już jakiś czas temu AI z mrzonki na temat dotychczas jedynie filmowej wizji przyszłości stała się przyszłością realną, a może i nawet teraźniejszością, której przecież – o zgrozo – nieco po fakcie dopiero się uczymy. Bez wątpienia stoimy u progu rewolucji, która odmieni naszą rzeczywistość.

Konieczność zrozumienia istoty działania AI oraz odpowiednie jej wykorzystanie staje się zatem warunkiem sine qua non dla dalszego rozwoju społeczeństwa, ale również budowania potencjału narodowych gospodarek. Jednym z największych wyzwań będzie zaś budowanie systemów uczących się odpornych na cyberataki. Zagrożenia już znamy, zbadane zostały największe słabości systemów opartych na modelu sztucznej inteligencji. Pozostaje tylko albo aż (!) odpowiednie ich zabezpieczenie. Tymczasem rynek finansowy czeka wdrożenie rozporządzenia DORA – aktu regulującego mechanizmy zwiększenia odporności operacyjnej – a tzw. kluczowe i ważne podmioty działające w sektorach mających istotne znaczenie dla kluczowych rodzajów działalności społecznej i gospodarczej na rynku wewnętrznym – wdrożenie dyrektywy NIS2. Czas pokaże, czy środki obrony będą wykorzystywać AI.

Rekomendacje Kancelarii KRWLEGAL w rankingach: IFLR1000 w kategoriach Capital Markets: Equity oraz M&A, The Legal 500 EMEA 2023 w kategoriach: Investment Funds i Capital Markets oraz jako lider  „Rzeczpospolita 2023” w kategoriach: doradzanie prywatnym klientom (Private Clients) private equity, rynki kapitałowe i doradztwo regulacyjne.