Sieci neuronowe a błędy AI. Jak nauczyć algorytmy pokory?
Sztuczna inteligencja coraz częściej pomaga nam w stawianiu diagnoz medycznych czy prowadzeniu samochodów. Jednak nawet najbardziej zaawansowane modele mają jedną, bardzo ludzką wadę: bywają chorobliwie pewne siebie, nawet gdy kompletnie nie mają racji. Zjawisko to nazywamy brakiem kalibracji niepewności. Polega ono na tym, że system przypisuje bardzo wysokie prawdopodobieństwo odpowiedziom, które są po prostu błędne lub zmyślone. Naukowcy z koreańskiego instytutu KAIST znaleźli jednak prosty i genialny sposób, by temu zaradzić.
Standardowy trening to źródło problemu
Współczesne sieci neuronowe uczą się poprzez rozpoznawanie skomplikowanych wzorców w ogromnych zbiorach danych. Większość z nich generuje przy tym tzw. wyniki ufności. Są to wartości określające, jak bardzo model wierzy we własną prognozę. Niestety, dotychczasowe standardy szkolenia algorytmów sprawiały, że systemy te stawały się „przebojowe”, ale nieuważne. Jeonghwan Cheon i Se-Bum Paik w swojej publikacji na łamach Nature Machine Intelligence udowadniają, że to właśnie powszechnie stosowane metody inicjalizacji sieci są głównym źródłem tej szkodliwej pewności siebie.
Rozgrzewka na szumie, czyli treningowa pokora
Rozwiązanie zaproponowane przez badaczy z KAIST jest inspirowane procesami neurorozwojowymi zachodzącymi w mózgu. Zamiast od razu rzucać model na głęboką wodę konkretnych zadań, naukowcy wprowadzili krótki etap „rozgrzewki”. Podczas tej fazy sieci neuronowe są karmione całkowicie losowym szumem oraz arbitralnymi wynikami, które nie mają ze sobą żadnego związku. Ten etap uczy algorytm, że nie każdy sygnał niesie ze sobą sensowne informacje. Dopiero po takim wstępie model przechodzi do nauki na realnych bazach danych. Dzięki temu system zachowuje optymalną kalibrację przez cały proces dalszego szkolenia.
Mniej błędów tam, gdzie stawka jest wysoka
Wyniki testów porównawczych okazały się przełomowe. Modele przeszkolone nową metodą znacznie lepiej radziły sobie z rozpoznawaniem wejść typu „unknown”, czyli danych, których wcześniej nie widziały. Systemy te generowały niskie wyniki ufności przy błędnych odpowiedziach, zachowując jednocześnie wysoką pewność siebie przy tych poprawnych. Co najważniejsze, metoda ta nie wymaga skomplikowanej inżynierii ani dodatkowego przetwarzania danych po treningu. Jest to gotowy przepis na bezpieczniejszą sztuczną inteligencję, która potrafi przyznać się do niewiedzy. Taka zmiana jest niezbędna, abyśmy mogli bez obaw powierzyć technologii zdrowie pacjentów w szpitalach czy bezpieczeństwo pasażerów w autach autonomicznych.
Przeczytaj także: ChatGPT a Twoja osobowość. Czy AI wie o Tobie wszystko?
Opracowanie na podstawie: techxplore.com
Last Updated on 6 maja, 2026 by Karolina Bandulet