Newsy

Obecna technologia sztucznej inteligencji nie stanowi zagrożenia dla istnienia ludzkości. Nie jest zdolna do samodzielnego myślenia i planowania

2024-10-04  |  06:20

Duże modele językowe, takie jak ChatGPT, nie potrafią samodzielnie nabywać nowych umiejętności, rozumować czy planować. Nie stanowią więc egzystencjalnego zagrożenia dla ludzkości – dowiedli naukowcy, którzy przeanalizowali możliwości dużych modeli językowych właśnie pod takim kątem. Nie oznacza to jednak, że narzędzia te nie stanowią żadnego zagrożenia. Wykorzystane niewłaściwie już dziś służą chociażby do szerzenia dezinformacji.

– Modele językowe nie stanowią zagrożenia, ponieważ nie mogą samodzielnie tworzyć planów czy strategii, które mogłyby być skierowane przeciwko nam. Kiedy korzystamy z dużego modelu językowego, takiego jak ChatGPT, mechanizm jego działania opiera się na rozwiązywaniu problemów na podstawie przykładów. Oznacza to, że nasze sugestie muszą być jasne, bardzo przejrzyste, proste, a model nie jest w stanie zrobić czegoś zupełnie odbiegającego od naszych wskazań. Jeśli nie wydamy polecenia, model nie będzie w stanie wykonać działania – informuje w wywiadzie dla agencji Newseria Innowacje dr Harish Tayyar Madabushi, wykładowca w dziedzinie sztucznej inteligencji na Uniwersytecie w Bath.

W ramach badania zrealizowanego przez naukowców z Uniwersytetu w Bath we współpracy z Uniwersytetem Technicznym w Darmstadt w Niemczech przeprowadzono eksperymenty mające na celu sprawdzenie zdolności dużych modeli językowych do wykonywania zadań, z którymi modele nigdy wcześniej się nie zetknęły. Chodziło o zweryfikowanie ich tzw. umiejętności emergentnych. Testy wyraźnie wykazały brak umiejętności złożonego rozumowania. Oznacza to, że modele – takie jakie znamy dzisiaj, ale i najprawdopodobniej te, które powstaną w przyszłości – mimo zwiększenia możliwości operacyjnych nie posiądą zdolności rozumowania i planowania.

– Trzeba jednak brać pod uwagę, że te modele mogą zostać wykorzystane w sposób, którego byśmy sobie nie życzyli. Na przykład ludzie mogą korzystać z modeli językowych, aby tworzyć bardzo dobrze skonstruowane fake newsy czy dobrze napisane wiadomości spam. Typowe wiadomości spam nie są zbyt dobrze zredagowane, więc łatwo je rozpoznać i usunąć. Teraz możemy dostawać takie wiadomości napisane nienagannym językiem. To samo dotyczy fake newsów, a generowanie takich materiałów będzie łatwiejsze. Nasze badanie ma na celu odróżnianie od siebie tych problemów. Nie musimy się martwić, że modele językowe zaczną działać niezależnie i stwarzać dla nas zagrożenie. Zamiast tego skupmy się na tym, co stanowi realne ryzyko – radzi dr Harish Tayyar Madabushi.

Niedocenianie możliwości, jakie w negatywnym kontekście stwarzają modele językowe, to jeden problem. Na drugim biegunie stoi natomiast drugi – przecenianie możliwości, jakimi dysponują narzędzia takie jak ChatGPT.

– Kiedy widzimy tekst wygenerowany przez model językowy, przypisujemy mu znaczenie, co w tym przypadku niekoniecznie jest właściwym podejściem. Tylko dlatego, że model potrafi wygenerować wypowiedź, która ma jakieś znaczenie, nie oznacza, że model przeanalizował i przyswoił to znaczenie. Przeważnie nie dysponuje on tego rodzaju informacjami, co potwierdzają nasze obserwacje. Wcale nie twierdzę, że AI nie należy się ekscytować, przeciwnie – modele językowe stanowią przełom i są zdolne do niewiarygodnych rzeczy, zwiększą wydajność w wielu dziedzinach. Jednak przecenianie tych modeli lub bezpodstawne obawy nie są właściwym podejściem do tego tematu. Myślę, że warto zwracać uwagę na pozytywne aspekty i zachować realistyczne podejście w zakresie możliwości tych modeli, żeby nie były one źródłem obaw, ale były postrzegane jako pozytywne zjawisko i ekscytujące narzędzie, z którego możemy korzystać – wskazuje badacz Uniwersytetu w Bath.

Według Polaris Market Research światowy rynek dużych modeli językowych do 2032 roku osiągnie roczne przychody w wysokości niemal 62 mld dol. przy średniorocznym tempie wzrostu wynoszącym 32 proc. W 2023 roku ten rynek był wart 5 mld dol. Analitycy podkreślają, że kluczowym czynnikiem napędzającym rozwój tego rynku w najbliższych latach będzie wprowadzenie funkcji zerowej ingerencji człowieka. Dzięki temu wzrośnie wydajność modeli i ich możliwość autonomicznego uczenia się, bez ręcznej ingerencji człowieka. Na rozwój rynku będzie też miała wpływ stale rosnąca liczba danych, na których modele mogą się uczyć.

Czytaj także

Kalendarium

Więcej ważnych informacji

Jedynka Newserii

Jedynka Newserii

Polityka

Zdrowie

Ochrona zdrowia w Polsce ma być bardziej oparta na jakości. Obowiązująca od roku ustawa zostanie zmieniona

Od października placówki ochrony zdrowia mogą się ubiegać o akredytację na nowych zasadach. Nowe standardy zostały określone we wrześniowym obwieszczeniu resortu zdrowia i dotyczą m.in. kontroli zakażeń, sposobu postępowania z pacjentem w stanach nagłych czy opinii pacjentów z okresu hospitalizacji. Standardy akredytacyjne to uzupełnienie obowiązującej od stycznia br. ustawy o jakości w opiece zdrowotnej i bezpieczeństwie pacjenta, która jest istotna dla całego systemu, jednak zdaniem resortu zdrowia wymaga poprawek.

Konsument

Media społecznościowe pełne treści reklamowych od influencerów. Konieczne lepsze ich dopasowanie do odbiorców

Ponad 60 proc. konsumentów kupiło produkt na podstawie rekomendacji lub promocji przez twórców internetowych. 74 proc. uważa, że treściom przekazywanym przez influencerów można zaufać – wynika z badania EY Future Consumer Index. W Polsce na influencer marketing może trafiać ok. 240–250 mln zł rocznie, a marki widzą ogromny potencjał w takiej współpracy. Coraz większym zainteresowaniem cieszą się mikroinfluencerzy, czyli osoby posiadające od kilku do kilkudziesięciu tysięcy followersów, ale o silnym zaangażowaniu.

Partner serwisu

Instytut Monitorowania Mediów

Szkolenia

Akademia Newserii

Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a  także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.