Newsy

Obecna technologia sztucznej inteligencji nie stanowi zagrożenia dla istnienia ludzkości. Nie jest zdolna do samodzielnego myślenia i planowania

2024-10-04  |  06:20

Duże modele językowe, takie jak ChatGPT, nie potrafią samodzielnie nabywać nowych umiejętności, rozumować czy planować. Nie stanowią więc egzystencjalnego zagrożenia dla ludzkości – dowiedli naukowcy, którzy przeanalizowali możliwości dużych modeli językowych właśnie pod takim kątem. Nie oznacza to jednak, że narzędzia te nie stanowią żadnego zagrożenia. Wykorzystane niewłaściwie już dziś służą chociażby do szerzenia dezinformacji.

– Modele językowe nie stanowią zagrożenia, ponieważ nie mogą samodzielnie tworzyć planów czy strategii, które mogłyby być skierowane przeciwko nam. Kiedy korzystamy z dużego modelu językowego, takiego jak ChatGPT, mechanizm jego działania opiera się na rozwiązywaniu problemów na podstawie przykładów. Oznacza to, że nasze sugestie muszą być jasne, bardzo przejrzyste, proste, a model nie jest w stanie zrobić czegoś zupełnie odbiegającego od naszych wskazań. Jeśli nie wydamy polecenia, model nie będzie w stanie wykonać działania – informuje w wywiadzie dla agencji Newseria Innowacje dr Harish Tayyar Madabushi, wykładowca w dziedzinie sztucznej inteligencji na Uniwersytecie w Bath.

W ramach badania zrealizowanego przez naukowców z Uniwersytetu w Bath we współpracy z Uniwersytetem Technicznym w Darmstadt w Niemczech przeprowadzono eksperymenty mające na celu sprawdzenie zdolności dużych modeli językowych do wykonywania zadań, z którymi modele nigdy wcześniej się nie zetknęły. Chodziło o zweryfikowanie ich tzw. umiejętności emergentnych. Testy wyraźnie wykazały brak umiejętności złożonego rozumowania. Oznacza to, że modele – takie jakie znamy dzisiaj, ale i najprawdopodobniej te, które powstaną w przyszłości – mimo zwiększenia możliwości operacyjnych nie posiądą zdolności rozumowania i planowania.

– Trzeba jednak brać pod uwagę, że te modele mogą zostać wykorzystane w sposób, którego byśmy sobie nie życzyli. Na przykład ludzie mogą korzystać z modeli językowych, aby tworzyć bardzo dobrze skonstruowane fake newsy czy dobrze napisane wiadomości spam. Typowe wiadomości spam nie są zbyt dobrze zredagowane, więc łatwo je rozpoznać i usunąć. Teraz możemy dostawać takie wiadomości napisane nienagannym językiem. To samo dotyczy fake newsów, a generowanie takich materiałów będzie łatwiejsze. Nasze badanie ma na celu odróżnianie od siebie tych problemów. Nie musimy się martwić, że modele językowe zaczną działać niezależnie i stwarzać dla nas zagrożenie. Zamiast tego skupmy się na tym, co stanowi realne ryzyko – radzi dr Harish Tayyar Madabushi.

Niedocenianie możliwości, jakie w negatywnym kontekście stwarzają modele językowe, to jeden problem. Na drugim biegunie stoi natomiast drugi – przecenianie możliwości, jakimi dysponują narzędzia takie jak ChatGPT.

– Kiedy widzimy tekst wygenerowany przez model językowy, przypisujemy mu znaczenie, co w tym przypadku niekoniecznie jest właściwym podejściem. Tylko dlatego, że model potrafi wygenerować wypowiedź, która ma jakieś znaczenie, nie oznacza, że model przeanalizował i przyswoił to znaczenie. Przeważnie nie dysponuje on tego rodzaju informacjami, co potwierdzają nasze obserwacje. Wcale nie twierdzę, że AI nie należy się ekscytować, przeciwnie – modele językowe stanowią przełom i są zdolne do niewiarygodnych rzeczy, zwiększą wydajność w wielu dziedzinach. Jednak przecenianie tych modeli lub bezpodstawne obawy nie są właściwym podejściem do tego tematu. Myślę, że warto zwracać uwagę na pozytywne aspekty i zachować realistyczne podejście w zakresie możliwości tych modeli, żeby nie były one źródłem obaw, ale były postrzegane jako pozytywne zjawisko i ekscytujące narzędzie, z którego możemy korzystać – wskazuje badacz Uniwersytetu w Bath.

Według Polaris Market Research światowy rynek dużych modeli językowych do 2032 roku osiągnie roczne przychody w wysokości niemal 62 mld dol. przy średniorocznym tempie wzrostu wynoszącym 32 proc. W 2023 roku ten rynek był wart 5 mld dol. Analitycy podkreślają, że kluczowym czynnikiem napędzającym rozwój tego rynku w najbliższych latach będzie wprowadzenie funkcji zerowej ingerencji człowieka. Dzięki temu wzrośnie wydajność modeli i ich możliwość autonomicznego uczenia się, bez ręcznej ingerencji człowieka. Na rozwój rynku będzie też miała wpływ stale rosnąca liczba danych, na których modele mogą się uczyć.

Czytaj także

Kalendarium

Więcej ważnych informacji

Jedynka Newserii

Jedynka Newserii

Szkolenie Online IMM

Ochrona środowiska

PGE mocno inwestuje w odnawialne źródła energii. Prowadzi też analizy dotyczące Bełchatowa jako lokalizacji drugiej elektrowni jądrowej

Rekordowe w historii zyski Grupy PGE pozwolą na dalszą transformację energetyczną i kolejne inwestycje. Spółka planuje budowę bateryjnych magazynów energii, będzie też intensywnie rozwijać inwestycje w odnawialne źródła energii, szczególnie offshore, a także sieci dystrybucyjne. Analizuje też możliwość budowy elektrowni jądrowej w Bełchatowie. – Nasze plany to dalsza transformacja grupy zmierzająca w stronę tego, czego oczekuje od nas rynek – zapowiada Dariusz Marzec, prezes zarządu PGE Polskiej Grupy Energetycznej.

Handel

Niepewność powodowana amerykańskimi cłami wstrzymuje inwestycje. Firmy skupiają się na gromadzeniu zapasów

Chaotyczna polityka celna administracji Donalda Trumpa, polegająca na zapowiadaniu, wprowadzaniu, a potem zawieszaniu ceł na różne sektory działalności i kraje, utrudnia planowanie działalności gospodarczej i inwestowanie w warunkach rosnącej niepewności. W tej sytuacji wiele firm wstrzymuje się z inwestycjami bądź gromadzi zapasy surowców i półproduktów na kolejne tygodnie działalności. Amerykańskie cła powodują wprowadzenie taryf odwetowych ze strony dotkniętych nowymi przepisami krajów. W efekcie globalny handel wyhamuje, a wraz z nimi spowolni rozwój gospodarczy.

Bankowość

Phishing największym cyberzagrożeniem. Przestępcy będą coraz częściej sięgać po AI, by skutecznie docierać do potencjalnych ofiar

Choć liczba zablokowanych przez CyberTarczę fałszywych stron internetowych wyłudzających dane spadła w ubiegłym roku z 360 tys. do 305 tys., to wciąż najczęstszym typem ataku, po jaki sięgają cyberprzestępcy, jest phishing. Ten trend prawdopodobnie utrzyma się w najbliższych latach, m.in. dlatego że sztuczna inteligencja umożliwia hakerom dużo łatwiejsze podszywanie się pod cudzą tożsamość. Choć CyberTarcza działająca w sieci Orange Polska skutecznie chroni internautów przed atakami, to wciąż jednak to właśnie człowiek jest ich głównym celem.

Partner serwisu

Instytut Monitorowania Mediów

Szkolenia

Akademia Newserii

Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a  także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.