Newsy

Scrollowanie na nowych zasadach. Użytkownicy z większym wpływem na podpowiadane treści w mediach społecznościowych

2023-10-30  |  06:20

Na podstawie gromadzonych danych o użytkownikach algorytmy wielkich internetowych platform są w stanie podrzucać im spersonalizowane treści, często niskiej jakości, które głównie żerują na emocjach. – Projektujący te usługi doskonale wiedzą, jak wciągnąć nas w scrollowanie, żebyśmy korzystali z mediów społecznościowych więcej, intensywniej, niż racjonalnie sobie tego życzymy – mówi Katarzyna Szymielewicz z Fundacji Panoptykon. Korzystanie z takich feedów ma jednak negatywny wpływ na zdrowie psychiczne, zwłaszcza młodszych pokoleń, i może napędzać depresję, lęki, uzależnienia czy zaburzenia odżywiania. Na mocy nowego unijnego prawa Digital Services Act do 25 sierpnia br. platformy takie jak Facebook czy TikTok były jednak zobowiązane wdrożyć zmiany umożliwiające użytkownikom korzystanie z lepszych feedów. Eksperci zachęcają, by sprawdzać nowe rozwiązania dostępne na social mediach.

– Badania pokazują, że czas, jaki spędzamy na platformach internetowych, scrollując niewysokiej jakości treści, które budzą emocje i sensację, ale nie przekazują nam wartościowych informacji, ma daleko idące skutki dla naszej psychiki. Jest na ten temat cała grupa badań pokazujących negatywne skutki dla psychiki ludzi, szczególnie młodych. Ewidentnie widać wzrost odsetka ludzi z depresją, uzależnionych od urządzeń, którzy mają problemy ze snem, z koncentracją etc. – mówi agencji Newseria Biznes Katarzyna Szymielewicz, prawniczka, współzałożycielka i prezeska Fundacji Panoptykon.

Z Facebooka, TikToka, X (dawniej Twitter) czy YouTube’a korzystają codziennie setki milionów użytkowników. Te największe platformy internetowe gromadzą na ich temat ogromne ilości danych. Dzięki temu algorytmy porządkujące treści w tzw. newsfeedzie są w stanie podrzucać użytkownikom coraz lepiej dopasowane treści, które angażują, żerują na emocjach, przykuwają do ekranów, pożerają czas i uzależniają od scrollowania. Korzystanie z takich feedów ma jednak negatywny wpływ na zdrowie psychiczne, zwłaszcza młodszych pokoleń, i może napędzać depresję, lęki, uzależnienia czy zaburzenia odżywiania.

– Projektujący te usługi doskonale wiedzą, jak wciągnąć nas w scrollowanie, jak wciągnąć nas w to, żebyśmy korzystali z mediów społecznościowych więcej, intensywniej, niż racjonalnie sobie tego życzymy – podkreśla ekspertka.

To, w jaki sposób działanie algorytmów reklamowych i porządkujących treści wpływa na zdrowie psychiczne, pokazało m.in. badanie, które Fundacja Panoptykon przeprowadziła w 2021 roku we współpracy z Piotrem Sapieżyńskim, badaczem z University of Northwestern. Z pomocą fundacji prześledził on ponad 2 tys. reklam, które w ciągu dwóch miesięcy pojawiły się w newsfeedzie jednej z użytkowniczek – młodej matki, dla której zdrowie było drażliwym tematem od czasu śmierci jednego z rodziców na raka. Eksperyment, szeroko opisywany m.in. przez „Financial Times”, dowiódł, że algorytm bazował na jej lęku przez zachorowaniem na nowotwór i niepokoju o zdrowie najbliższych. Dlatego ok. 20 proc. wyświetlanych jej reklam dotyczyło właśnie zdrowia. Do tego na liście zainteresowań badanej, które do celów reklamowych przypisał jej Facebook, znalazło się 21 kategorii związanych ze zdrowiem, w tym onkologia, świadomość raka, wady genetyczne i nowotwory. Użytkowniczka dostała też treści dotyczące zdrowia w określonej kolejności – najpierw te wywołujące u niej najsilniejsze emocje, np. zbiórki na leczenie ciężko chorych dzieci, a następnie zniżki na badania genetyczne w kierunku nowotworu albo innej choroby.

Dziś w zasadzie wszystkie firmy, które projektują algorytmy serwujące nam treści, opierają się na tym samym modelu. Modelu, w którym zysk pochodzi z angażowania naszej uwagi i z reklamy. Dopóki ten model jest obowiązujący, trudno liczyć na to, że sam algorytm stanie się dla nas łaskawszy, że będzie nam proponował lepsze treści. On jest tylko narzędziem – tłumaczy Katarzyna Szymielewicz. – Jeżeli model się zmieni, jeżeli pod spodem będziemy mieli inne przepływy finansowe, jeżeli ludzie będą płacili za jakościowe treści, będą ich aktywnie szukali i media będą takie treści serwowały, to również algorytm – jako narzędzie doboru treści – nie będzie problemem. To jest wyłącznie pośrednik, który w tym momencie podrzuca nam to, co jest w sieci i na co my prawdopodobnie zareagujemy silnymi emocjami.

Wbrew temu, co deklarują platformy internetowe, ich użytkownicy nie mają możliwości wyeliminowania niepożądanych treści. Eksperyment Sapieżyńskiego i Panoptykonu dowiódł, że nawet wyczyszczenie preferencji w ustawieniach reklamowych Facebooka nie daje żadnego efektu, ponieważ platforma szybko przypisuje użytkownikowi nowe, podobne kategorie zainteresowań.

Istotne jest też to, że w praktyce bardzo trudno jest zrezygnować z użytkowania tej platformy, chociażby ze względu na fakt, że kontakty międzyludzkie w ogromnej części przeniosły się do świata online. Facebook stał się forum wymiany informacji, ale też umożliwia uczestnictwo np. w grupach czy wydarzeniach. Wiele firm wręcz wymaga od swoich pracowników aktywnego korzystania z tego portalu.

– To jest wyścig zbrojeń, w którym człowiek zawsze przegrywa. Dlatego my nie mówimy: „Człowieku, ogarnij się, odłóż telefon, nie scrolluj”, nie proponujemy takiego rozwiązania. Oczywiście tak jest lepiej i jeśli ktoś ma świadomość, że jest uzależniony od telefonu, że scrolluje za dużo, ogląda treści, które powodują negatywne skutki dla psychiki, to powinien coś z tym zrobić. Ale to jest bardzo trudne. Dlatego potrzebujemy prawa i regulacji, które zmienią naturę tych usług, zakażą najgorszych, najbardziej inwazyjnych praktyk. I właśnie to robi dziś Unia Europejska po przyjęciu, po pełnym wdrożeniu w życie DSA, czyli Kodeksu usług cyfrowych, który zakazuje projektowania wciągającego ludzi, manipulowania ich uwagą – mówi Katarzyna Szymielewicz.

Na mocy nowego unijnego prawa – Digital Services Act – wielkie platformy internetowe takie jak Facebook czy TikTok były zobowiązane do 25 sierpnia br. wdrożyć zmiany umożliwiające użytkownikom korzystanie z lepszych feedów. Te zmiany na platformach dotyczą m.in. algorytmów rekomendujących treści. Od 25 sierpnia br. platformy muszą nie tylko wyjaśniać logikę funkcjonowania swoich feedów, ale też proponować użytkownikom możliwość wyboru przynajmniej jednego systemu doboru treści, który nie bazuje na śledzeniu, czyli nie wykorzystuje danych osobowych do rekomendowania treści. Platformy muszą też regularnie oceniać ryzyka związane z działaniem swoich algorytmów i wykazywać, jak starają się im zapobiegać.

 Korzystając z nowych funkcji, jakie platformy wprowadziły pod wpływem nowego prawa unijnego, przede wszystkim możemy dziś wybrać sobie feed, który nie jest profilowany w oparciu o nasze dane. To oznacza, że nie musimy zgadzać się na to, że nasz telefon podpowiada nam treści, które oparte są na śledzeniu naszego zachowania i są obliczone na taki efekt, w którym nie możemy się od tego odkleić. W zamian można wybrać sobie np. strumień aktualności, który pokazuje treści popularne w mojej okolicy, treści jakościowe, które nie są dobrane do mnie, ale mimo to mogą być dla mnie ciekawe. Niektóre platformy poszły innym tropem i pokazują nam np. treści chronologicznie wrzucane przez naszych znajomych, co może być mniej angażujące, ale bardziej wartościowe, jeżeli interesuje mnie właśnie to, co robią moi znajomi. Dlatego zachęcamy do eksperymentowania z tym, jaki feed można sobie ustawić, bo te opcje się pojawiają – mówi ekspertka. 

Jak podkreśla, może to mieć skutki także dla debaty publicznej. Dziś – ze względu na sposób działania algorytmów – promowane są treści niskiej jakości, szybkie, clickbaitowe, angażujące emocje. Dlatego też media idą właśnie tym tropem i w ten sposób tworzą swoje treści, bo w ten sposób konkurują o uwagę scrollującego użytkownika

– To jest błędne koło, w którym my dostajemy coraz gorsze treści, bo nie ma lepszych, a nie ma lepszych, bo ludzie klikają w te słabe, a klikają w nie, bo właśnie te słabe, ale angażujące są podbijane najwyżej w newsfeedach. Cały ten model musi się zmienić, żebyśmy zaczęli mieć dostęp do treści jakościowych, karmiących naszą potrzebę wiedzy o świecie, a nie tylko potrzebę bycia zaangażowanym – podkreśla prezeska Fundacji Panoptykon. 

Czytaj także

Kalendarium

Więcej ważnych informacji

Jedynka Newserii

Jedynka Newserii

Prawo

Polityka

Wynik wyborów prezydenckich w USA zależeć będzie od kilku stanów. Jest ryzyko nieuznania przegranej jednej ze stron, zwłaszcza przez Donalda Trumpa

Kończy się kampania prezydencka w Stanach Zjednoczonych, obfitująca w historyczne wydarzenia. Symbolicznie wybory rozstrzygną się we wtorek 5 listopada, ale ostateczną decyzję podejmie Kolegium Elektorów dopiero w grudniu. O wyniku zadecydują głosy w tzw. stanach wahających się, czyli niepopierających tradycyjnie demokratów ani republikanów. Najnowszy sondaż wskazuje na minimalną przewagę Kamali Harris w większości tych okręgów. Istnieje ryzyko, że Donald Trump nie uzna niekorzystnego dla siebie wyniku wyborów, jak było to cztery lata temu.

Konsument

Sztuczna inteligencja wzbudza w Polakach głównie ciekawość i obawy. Ponad połowa widzi w niej zagrożenie

Prawie połowa Polaków twierdzi, że myśląc o sztucznej inteligencji, odczuwa zaciekawienie, ale aż 39 proc. przyznaje, że są to głównie obawy. Dotyczą one niewłaściwego wykorzystania SI, utraty kontroli nad nią i marginalizacji roli człowieka na rynku pracy. Na razie jednak tylko 11 proc. badanych używa narzędzi opartych na sztucznej inteligencji w swojej pracy. Chociaż rozwiązania te zyskują zwolenników, to wciąż duża grupa pracowników nie wie, w jaki sposób mogłyby one wspomóc ich w obowiązkach zawodowych – wskazuje badanie „Polacy o AI. Codzienność, nadzieje, obawy”.

Partner serwisu

Instytut Monitorowania Mediów

Szkolenia

Akademia Newserii

Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a  także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.