Mówi: | dr Harish Tayyar Madabushi |
Firma: | Uniwersytet w Bath |
Obecna technologia sztucznej inteligencji nie stanowi zagrożenia dla istnienia ludzkości. Nie jest zdolna do samodzielnego myślenia i planowania
Duże modele językowe, takie jak ChatGPT, nie potrafią samodzielnie nabywać nowych umiejętności, rozumować czy planować. Nie stanowią więc egzystencjalnego zagrożenia dla ludzkości – dowiedli naukowcy, którzy przeanalizowali możliwości dużych modeli językowych właśnie pod takim kątem. Nie oznacza to jednak, że narzędzia te nie stanowią żadnego zagrożenia. Wykorzystane niewłaściwie już dziś służą chociażby do szerzenia dezinformacji.
– Modele językowe nie stanowią zagrożenia, ponieważ nie mogą samodzielnie tworzyć planów czy strategii, które mogłyby być skierowane przeciwko nam. Kiedy korzystamy z dużego modelu językowego, takiego jak ChatGPT, mechanizm jego działania opiera się na rozwiązywaniu problemów na podstawie przykładów. Oznacza to, że nasze sugestie muszą być jasne, bardzo przejrzyste, proste, a model nie jest w stanie zrobić czegoś zupełnie odbiegającego od naszych wskazań. Jeśli nie wydamy polecenia, model nie będzie w stanie wykonać działania – informuje w wywiadzie dla agencji Newseria Innowacje dr Harish Tayyar Madabushi, wykładowca w dziedzinie sztucznej inteligencji na Uniwersytecie w Bath.
W ramach badania zrealizowanego przez naukowców z Uniwersytetu w Bath we współpracy z Uniwersytetem Technicznym w Darmstadt w Niemczech przeprowadzono eksperymenty mające na celu sprawdzenie zdolności dużych modeli językowych do wykonywania zadań, z którymi modele nigdy wcześniej się nie zetknęły. Chodziło o zweryfikowanie ich tzw. umiejętności emergentnych. Testy wyraźnie wykazały brak umiejętności złożonego rozumowania. Oznacza to, że modele – takie jakie znamy dzisiaj, ale i najprawdopodobniej te, które powstaną w przyszłości – mimo zwiększenia możliwości operacyjnych nie posiądą zdolności rozumowania i planowania.
– Trzeba jednak brać pod uwagę, że te modele mogą zostać wykorzystane w sposób, którego byśmy sobie nie życzyli. Na przykład ludzie mogą korzystać z modeli językowych, aby tworzyć bardzo dobrze skonstruowane fake newsy czy dobrze napisane wiadomości spam. Typowe wiadomości spam nie są zbyt dobrze zredagowane, więc łatwo je rozpoznać i usunąć. Teraz możemy dostawać takie wiadomości napisane nienagannym językiem. To samo dotyczy fake newsów, a generowanie takich materiałów będzie łatwiejsze. Nasze badanie ma na celu odróżnianie od siebie tych problemów. Nie musimy się martwić, że modele językowe zaczną działać niezależnie i stwarzać dla nas zagrożenie. Zamiast tego skupmy się na tym, co stanowi realne ryzyko – radzi dr Harish Tayyar Madabushi.
Niedocenianie możliwości, jakie w negatywnym kontekście stwarzają modele językowe, to jeden problem. Na drugim biegunie stoi natomiast drugi – przecenianie możliwości, jakimi dysponują narzędzia takie jak ChatGPT.
– Kiedy widzimy tekst wygenerowany przez model językowy, przypisujemy mu znaczenie, co w tym przypadku niekoniecznie jest właściwym podejściem. Tylko dlatego, że model potrafi wygenerować wypowiedź, która ma jakieś znaczenie, nie oznacza, że model przeanalizował i przyswoił to znaczenie. Przeważnie nie dysponuje on tego rodzaju informacjami, co potwierdzają nasze obserwacje. Wcale nie twierdzę, że AI nie należy się ekscytować, przeciwnie – modele językowe stanowią przełom i są zdolne do niewiarygodnych rzeczy, zwiększą wydajność w wielu dziedzinach. Jednak przecenianie tych modeli lub bezpodstawne obawy nie są właściwym podejściem do tego tematu. Myślę, że warto zwracać uwagę na pozytywne aspekty i zachować realistyczne podejście w zakresie możliwości tych modeli, żeby nie były one źródłem obaw, ale były postrzegane jako pozytywne zjawisko i ekscytujące narzędzie, z którego możemy korzystać – wskazuje badacz Uniwersytetu w Bath.
Według Polaris Market Research światowy rynek dużych modeli językowych do 2032 roku osiągnie roczne przychody w wysokości niemal 62 mld dol. przy średniorocznym tempie wzrostu wynoszącym 32 proc. W 2023 roku ten rynek był wart 5 mld dol. Analitycy podkreślają, że kluczowym czynnikiem napędzającym rozwój tego rynku w najbliższych latach będzie wprowadzenie funkcji zerowej ingerencji człowieka. Dzięki temu wzrośnie wydajność modeli i ich możliwość autonomicznego uczenia się, bez ręcznej ingerencji człowieka. Na rozwój rynku będzie też miała wpływ stale rosnąca liczba danych, na których modele mogą się uczyć.
Czytaj także
- 2025-01-28: Europa bierze bezpieczeństwo w swoje ręce. Potencjał obronny może być nawet kilkukrotnie większy niż Rosji
- 2025-01-31: Sztuczna inteligencja pomoże we wczesnym wykrywaniu wrodzonych wad serca. Obecnie rozpoznawalność wynosi 40 proc.
- 2024-12-30: Ludzie przestają ufać treściom publikowanym w internecie. Rośnie także potrzeba bycia offline
- 2025-01-02: Zmieniają się zagrożenia dla polskiej gospodarki. Ekonomiści boją się skutków szybkiego zadłużania się rządu i napięć geopolitycznych
- 2024-12-18: Inżynierowie z Warszawy pracują nad innowacjami dla całej Grupy Orange. Ich specjalności to AI i cyberbezpieczeństwo
- 2025-01-08: Strach przed porażką i brak wiary we własne siły blokują rozwój przedsiębiorczości kobiet. Częściej zakładają za to firmy z misją
- 2025-01-13: Sztuczna inteligencja zmienia e-handel. Będzie wygodniej dla konsumentów, ale też sporo zagrożeń
- 2024-12-04: Ulga na badania i rozwój może być lekiem na rosnące koszty zatrudnienia. Korzysta z niej tylko 1/4 uprawnionych firm
- 2024-12-12: Wdrażanie GenAI może oznaczać nasilenie stresu wśród pracowników. Firmy potrzebują odpowiedniej strategii komunikacyjnej
- 2024-11-27: Fundusze Norweskie wspierają innowacje w polskich firmach. Ponad 200 projektów otrzymało granty o wartości 92 mln euro
Kalendarium
Więcej ważnych informacji
Jedynka Newserii
Prawo
Unijne przepisy zwiększą bezpieczeństwo inwestycji w kryptowaluty. Nowe regulacje mają uporządkować rynek
Wprowadzona przez Unię Europejską regulacja Markets in Crypto-Assets (MiCA) to pierwsza na świecie duża próba regulacyjna, która ma wprowadzić standaryzację i bezpieczeństwo do branży kryptowalut. Według założeń nowe przepisy mają uporządkować rynek i stanowić pierwszy krok do dogonienia Stanów Zjednoczonych. Nie brakuje jednak przeciwników takiej próby, którzy ostrzegają, że regulacje nie tylko nie spełnią swojej funkcji, ale mogą de facto zahamować rozwój kryptowalut w Europie.
Edukacja
Kompetencje STEM wchodzą szerzej do edukacji. Inicjatywa edukacyjna Amazon objęła już pół miliona dzieci w Polsce
Na warszawskiej Pradze Północ otwarto właśnie pierwszą STEM Kindlotekę, czyli przestrzeń edukacyjną dla dzieci i młodzieży, która stawia na rozwój kompetencji w obszarze nauki, technologii, inżynierii i matematyki. To inicjatywa Amazon i stowarzyszenia Cyfrowy Dialog rozwijana od 2019 roku, w ramach której funkcjonuje ponad 100 takich placówek, a z prowadzonych w nich zajęć skorzystało już pół miliona dzieci. STEM uważane są za kompetencje przyszłości, a badania wskazują, że można je rozwijać już u najmłodszych uczniów.
Prawo
Zmieni się definicja mobbingu. Nowe prawo da skuteczniejsze narzędzia ochrony nękanym pracownikom
Ministerstwo Rodziny, Pracy i Polityki Społecznej chce uprościć prawną definicję mobbingu. Dodatkowo opracowywana nowelizacja przepisów ma nałożyć nowe obowiązki na pracodawców, których celem będzie określenie zasad przeciwdziałania mobbingowi i to na poziomie regulaminu pracy lub innych wewnętrznych regulacji. Dzięki któremu podwładni będą bardziej świadomi swoich praw i będą mogli lepiej reagować na przypadki ich łamania.
Partner serwisu
Szkolenia
Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.