Debata/ Nie wiemy, czy AI będzie lepsza niż naukowcy, ale naukowcy będą lepsi z AI

Debata/ Nie wiemy, czy AI będzie lepsza niż naukowcy, ale naukowcy będą lepsi z AI

Na razie naukowcy są jak stażyści, którzy czasem się mylą. Czy AI będzie kiedyś mądrzejsze niż naukowcy – nie wiadomo, ale wiadomo, że naukowcy będą mądrzejsi z wykorzystaniem AI niż bez niej – uważa prof. Aleksander Mądry.

Podczas spotkania z OpenAI, organizowanego przez IDEAS NCBR na Uniwersytecie Warszawskim, 8 lipca, naukowcy dyskutowali o tym, jak sztuczna inteligencja może zmienić naukę.

AI jako stażysta, z którym trzeba nauczyć się współpracy

Prof. Aleksander Mądry – informatyk i matematyk z amerykańskiego MIT, szef Działu Gotowości w OpenAI (to firma, która opracowała ChatGPT) – zwrócił uwagę na dwa procesy: po pierwsze AI będzie działać coraz lepiej, a po drugie naukowcy nauczą się z nią coraz lepiej współpracować. „Pomyślmy, że AI to jest taki stażysta. Stażysta, który nie do końca wszystko ogarnia. Czasem przekazuje informacje prawdziwe i użyteczne, a czasem – nie. I teraz wyobraźmy sobie, że zamiast 5 mamy 500 stażystów, którzy częściej mówią prawdę niż się mylą. W jaki sposób możemy zmienić naukę, żeby wykorzystać tę szansę? To dopiero początek, ale myślę, że nauczymy się z tego korzystać” – powiedział prof. Mądry.

AI wpleciona w badawcze plany

Prof. Piotr Sankowski, informatyk, założyciel IDEAS NCBR, zapowiadał z kolei, że sposób prowadzenia badań naukowych w ciągu kolejnej dekady mocno się zmieni. Zaznaczał, że jeśli jakiś naukowiec planuje projekt, który będzie trwał np. 10 lat, to powinien od razu się zastanowić, jak wbudować AI w swoją pracę. „Badania, które będziemy prowadzić, w jakiś sposób będą wspierane przez sztuczną inteligencję” – uważa. Dodał, że modele językowe będą się stawały coraz lepsze i może wkrótce nie będą już porównywalne z pomocą stażysty, ale magistranta czy doktoranta.

Przewyższy nas czy nie, ale na pewno pomoże

Aleksander Mądry powiedział: „Nie jest jasne, czy AI będzie lepsze niż naukowcy, ale jest jasne, że naukowcy z AI będą lepsi niż naukowcy bez AI”. Dodał, że mogą się pojawić takie obszary badań – np. matematyki – w których możliwości AI w eksplorowaniu hipotez będą większe niż najlepszego badacza. Mądry zwrócił uwagę na sytuację, jaka miała miejsce w grze w go czy w szachach, gdzie algorytmy AI nie tylko pokonały mistrzów świata, ale i pokazały ludziom nowe rozumienie gry, nowe strategie.

Prof. Mądry wychodzi z założenia, że każda technologia zawiera błędy. Nie wierzy, że nadejdzie czas, że AI będzie zawsze lepsza od człowieka. „Będą rzeczy, w których AI będzie lepsza od człowieka, a będą rzeczy, w których człowiek będzie lepszy od AI. Zrozumienie tego, co jest mocnymi stronami AI, a co nie jest, jest bardzo ważne” – powiedział.

AI nie zawsze omylna jak człowiek

Prof. Andrzej Dragan z Uniwersytetu Warszawskiego zwrócił uwagę, że np. w fizyce sztuczna inteligencja nie zastąpi na razie naukowców – nie jest w stanie zaprojektować i przeprowadzić badań. Są jednak obszary, w których AI radzi sobie coraz lepiej. Podał przykład algorytmu AlphaGeometry do dowodzenia niektórych twierdzeń matematycznych, który rozwiązuje zadania na poziomie międzynarodowej olimpiady matematycznej porównywalnie z przeciętnym jej uczestnikiem. „Co ciekawe, algorytm nie uczył się na bazie danych dostarczonych przez człowieka, tylko na danych, które sam generował. Przesądem jest więc to, że kompetentne modele są ograniczone jakością danych dostarczonych przez człowieka. To nie jest fundamentalne ograniczenie” – skomentował fizyk.

Piotr Sankowski zwrócił uwagę, że jest dużo scenariuszy, w których – jeśli dysponuje się ogromną ilością danych – można stworzyć modele, które będą lepsze niż to, co są w stanie robić ludzie. Podał przykład diagnozy lekarskiej: algorytm AI – w odróżnieniu od człowieka – jest w stanie przejrzeć np. setki tysięcy zdjęć RTG. W dodatku może nie tylko przeanalizować to, jaką diagnozę postawił wtedy lekarz, ale i zapoznać się z całą historią leczenia – jak się zaczęła choroba, czy pacjent wyzdrowiał i czy decyzja lekarza była słuszna. „Mając takie dane historyczne, jesteśmy w stanie tworzyć algorytmy, które nie odtwarzają decyzji człowieka, ale są w stanie nauczyć się skuteczniejszego leczenia danej choroby” – powiedział prof. Sankowski.

Plagiaty i czaty

Na spotkaniu poruszono też problem używania AI przy pisaniu prac naukowych i wykrywalności użycia AI w programach antyplagiatowych. Prof. Mądry uznał, że to gra w kotka i myszkę. Jego zdaniem, jeśli opracowany zostanie detektor AI, to od razu będzie go można użyć do usprawnienia tych modeli językowych.

Prof. Dragan zauważył, że jeżeli gdzieś w akademii prace studentów są na takim poziomie, że może je pisać chat GPT, to czas zreformować tę gałąź nauki, a nie walczyć z używaniem tych narzędzi. „To jest weryfikacja: co jest wartościowe, co jako ludzie możemy dawać od siebie, a w czym nasz wysiłek już jest niepotrzebny, bo mamy do tego lepsze narzędzia” – skomentował fizyk.

T-AI-emnica

Dragan zwrócił uwagę na problem związany z tajemnicami przedsiębiorstw pracujących nad AI – nie publikują tego, na jakich zasadach działają ich algorytmy. Skrytykował za ten proces kreatorów ChatGPT – firmę Open AI (Otwarta Sztuczna Inteligencja). „Open AI jest ostatnio nazwą humorystyczną. Ale najgorsze jest to, że wszyscy inni przestali być 'open’” – ubolewał. Jego zdaniem skończyły się publiczne badania nad AI, a nad AGI – Ogólną Sztuczną Inteligencją, (a więc algorytmem, który mógłby myśleć na wzór człowieka) pracuje się w zaciszu prywatnych firm. Prof. Dragan przypomniał, że do postępu w historii prowadziło to, że laboratoria badawcze dzieliły się swoją wiedzą. A nauka bazuje na tym, że wyniki prac się publikuje. W badaniach nad sztuczną inteligencją to się zaś skończyło. „To by dobrze było w inny sposób mądrze zagospodarować” – skomentował. Zwracał uwagę, że dostępny jest przecież choćby proces patentowania, który na jakiś czas gwarantuje ochronę własności intelektualnej.

Wywołany do odpowiedzi prof. Mądry z Open AI zgodził się, że obecny system teraz jest nieoptymalny, ale na razie nie znaleziono dobrego rozwiązania. Odpowiedział, że algorytmy wprawdzie można opatentować, ale prawda jest taka, że patenty te można też łatwo obejść. Podał przykład, że czasami firma, aby dojść do jakiegoś jednego zdania kluczowego dla pracy algorytmu, musi wydać setki milionów dolarów.

Debata zorganizowana została przez IDEAS NCBR – polski ośrodek badawczo-rozwojowy zajmujący się sztuczną inteligencją.

Przeczytaj także: Ekspert: nie ma w najbliższych latach zagrożenia, że sztuczna inteligencja zastąpi człowieka


Źródło: naukawpolsce.pap.pl

Last Updated on 10 lipca, 2024 by Anastazja Lach

Udostępnij
KATEGORIA
TAGS