Sztuczna inteligencja to szansa dla rozwoju systemów cyberbezpieczeństwa
„AI pomaga wykrywać i identyfikować zagrożenia. Uczenie maszynowe skutecznie wspiera nas, wskazuje incydenty, których moglibyśmy nie zauważyć. Nie ma alternatywy dla rozwijania algorytmów cyberbezpieczeństwa” – przekonywali uczestnicy debaty „Sztuczna inteligencja – szansa czy zagrożenie dla cyberbezpieczeństwa”, która odbyła się Centrum Prasowym PAP.
Zastosowanie sztucznej inteligencji (ang. Artificial Intelligence, AI) niesie za sobą korzyści w obszarze cyberbezpieczeństwa. Może ona np. pomagać w zautomatyzowaniu zadań, które polegają na analizie dużych ilości danych. Coś, co człowiekowi zajęłoby wiele czasu, algorytmy sztucznej inteligencji robią szybko i sprawnie.
„AI pomaga wykrywać i identyfikować zagrożenia. Uczenie maszynowe skutecznie nas wspiera, wskazuje incydenty, których moglibyśmy nie zauważyć” – informuje Przemysław Wolek, dyrektor Pionu Bezpieczeństwa Cybernetycznego, ING Hubs Poland.
Od niedawna w obszarze sztucznej inteligencji obserwujemy „nowe otwarcie” związane z generatywną sztuczną inteligencją, którą większość z nas zna jako Chat GPT. Generatywne AI to rewolucja, ułatwia pisanie kodu; bez wiedzy informatycznej można tworzyć oprogramowanie. Sztuczna inteligencja może więc także zaszkodzić cyberbezpieczeństwu. Te same narzędzia mogą bowiem zostać użyte do obrony i do atakowania. A to oznacza, że ataki informatyczne mogą przeprowadzać osoby niebędące informatykami. Umożliwiają im to specjalne, proste narzędzia. Dzięki nim bez znajomości programowania można wyrządzić szkody np. w infrastrukturze banku.
„Nakładka na system pozwala przeprowadzić cyberatak bez znajomości informatyki i programów” – twierdził Łukasz Miedziński, dyrektor Departamentu Attack Surface Management, ING Hubs Poland.
Według ekspertów to początek, wczesny etap pojawiania się pierwszych produktów związanych z szerokim zastosowaniem AI.
„Szacuję, że przed nami dynamiczny rozwój generatywnej sztucznej inteligencji” – przekonywał Szymon Sobczyk, dyrektor Zespołu Usług Technologicznych Cyberbezpieczeństwa, PwC.
Już dziś powstają nowe rodzaje zagrożeń wykorzystujące to rozwiązanie techniczne. Przykładowo możliwe jest zmylenie biometrycznych systemów identyfikacji poprzez „podrobienie” rysów twarzy.
„Obrońcy nie mogą się pomylić, bo każdy błąd oznacza poważne konsekwencje np. dla klienta banku” – przestrzegał Przemysław Wolek.
Zdaniem uczestników debaty sztuczna inteligencja jest szansą dla wewnątrzfirmowych informatyków, żeby skuteczniej zabezpieczać systemy i budować bezpieczne rozwiązania.
„Nie ma alternatywy dla rozwijania algorytmów cyberbezpieczeństwa. Jednak czeka nas nauczenie się AI i zapanowanie nad jej algorytmami” – zapowiadał prof. Dariusz Szostek, ze Śląskiego Centrum Inżynierii Prawa, Technologii i Kompetencji Cyfrowych CYBER SCIENCE.
Sztuczna inteligencja w cyberbezpieczeństwie to szansa dla informatyków, którzy dzięki jej wykorzystaniu mogą usprawnić swoją pracę. „Na razie, kiedy za każdym jej działaniem jeszcze stoi operator, czyli człowiek, nie ma cyberzagrożeń nie do opanowania. Ale za jakiś czas, gdy pojawią się autonomiczne systemy AI, zacznie się nowa dyskusja i pojawią się nowe dylematy” – podsumował Przemysław Wolek.
Przeczytaj także: Ekspert: wpływ sztucznej inteligencji (AI) sprzyja powstawaniu nowych stanowisk pracy
Źródło: pap-mediaroom.pl
Last Updated on 10 października, 2023 by Krzysztof Kotlarski