Algorytmy, bańki i dezinformacja. Co naprawdę decyduje o tym, co widzisz w sieci?

09d2333b-acff-4c23-9d54-ce8148d562f9

To nie magia ani widzimisię internetu decyduje o tym, co widzisz na swoim Facebooku czy TikToku, ale bardzo konkretne mechanizmy biznesowe, psychologiczne i technologiczne. A coraz częściej także polityczne. O tym, jak działają algorytmy, czym różni się bańka informacyjna od komory echa i dlaczego walka z dezinformacją jest tak trudna, opowiada Marcin Kostecki, redaktor naczelny portalu Demagog, gość webinaru Strefy Wiedzy Uniwersytetu SWPS.​

Co naprawdę robią algorytmy?

Algorytmy mediów społecznościowych mają jedno podstawowe zadanie: zatrzymać użytkownika jak najdłużej i pokazać mu jak najwięcej reklam, jednocześnie zachęcając do tworzenia kolejnych treści. W praktyce oznacza to, że platformy analizują nasze wcześniejsze aktywności – lajki, komentarze, czas spędzony przy danym materiale – i na tej podstawie decydują, co może nas najbardziej wciągnąć.​

Choć pod presją unijnego Aktu o Usługach Cyfrowych takie firmy jak Meta, TikTok czy X muszą dziś opisywać zasady działania swoich systemów rekomendacji, to wciąż robią to w sposób wybiórczy i mało przejrzysty. Badacze, którzy próbują zweryfikować realny wpływ algorytmów – na przykład na uprzywilejowanie określonych poglądów politycznych – często odbijają się od ściany braku dostępu do danych lub dostają informacje niepełne i niewiarygodne.​

 

Bańki informacyjne czy komory echa?

Pojęcie bańki informacyjnej zrobiło zawrotną karierę, ale – jak przypomina Marcin Kostecki, odwołując się do krytycznych analiz filozofa Davida Codda – nie ma mocnych dowodów na to, że media społecznościowe całkowicie odcinają nas od innych punktów widzenia. Konstrukcja samych platform, oparta m.in. na publikacjach znajomych czy obecności w wielu grupach, sprawia wręcz, że z odmiennymi poglądami stykamy się regularnie, choć bardzo często w trybie konfliktu i hejtu.​

Dużo trafniejsze jest pojęcie komory echa – sytuacji, w której nowe informacje sprzeczne z naszym światopoglądem są automatycznie odrzucane jako niewiarygodne, opłacone czy spiskowe. Ten mechanizm działa po obu stronach sporów – mogą w nim funkcjonować zarówno przeciwnicy szczepień, jak i osoby przekonane o realności ocieplenia klimatu, które z góry odrzucają każdego klimatycznego sceptyka jako „szura”.​

 

Dezinformacja. Jak się robi propagandę?

Najbardziej widocznym polem zorganizowanej dezinformacji w Polsce jest dziś propaganda antyukraińska i prorosyjska. Jej zaplecze stanowi cała infrastruktura – od pseudoportali informacyjnych podszywających się pod niezależne media, przez sieci stron z „prawdą” w tytule, kanały na Telegramie, aż po armie botów i trolli wzmacniających zasięg określonych przekazów.​

Rosyjskie operacje informacyjne polegają m.in. na tworzeniu patriotycznie lub obywatelsko brzmiących serwisów, które w praktyce systematycznie powielają rosyjskie tezy, a także na przejmowaniu (lub kupowaniu) i masowym wykorzystaniu istniejących kont w serwisach społecznościowych. Gotowe narracje – o roszczeniowych uchodźcach, luksusach Zełeńskiego, czy niewdzięcznych Ukraińcach – wplatają się potem w autentyczne emocje użytkowników, którzy je podchwytują i dalej rozpowszechniają.​

 

Fact-checkerzy kontra ocean treści

Zadaniem takich organizacji jak Demagog jest wyłapywanie fałszywych, szkodliwych informacji i ich rzetelne prostowanie w oparciu o wiarygodne źródła. Zespół kilku analityków codziennie przegląda media społecznościowe i tradycyjne, wybierając do weryfikacji te treści, które są jednocześnie nieprawdziwe, mają duże zasięgi i mogą realnie szkodzić – np. w obszarze zdrowia publicznego, bezpieczeństwa finansowego czy postaw wobec wojny.​

Współpraca z platformami – jak w przypadku Facebooka, gdzie Demagog może oznaczać treści jako zweryfikowane – sprowadza się głównie do dołączania do kontrowersyjnych postów jasnego, udokumentowanego sprostowania. Marcin Kostecki podkreśla, że fact-checkerzy nie usuwają treści z internetu i nie chcą wykluczać głosów z debaty, ale starają się pokazywać konkretne dowody: oryginalne nagrania, wyniki badań, zrzuty z narzędzi wykrywających deepfake’i.​

 

Dlaczego platformy nie wyłączą fejków?

Choć nacisk regulacyjny rośnie, interes największych platform wciąż stoi w sprzeczności z radykalną walką z dezinformacją. Z ujawnionych danych wynika, że same oszukańcze reklamy i scamowa treść mogą generować istotną część przychodów reklamowych (nawet do 10%), więc całkowite odcięcie tego strumienia oznaczałoby realną stratę w walce o użytkownika i zysk.​

Dlatego – jak zauważa Marcin Kostecki – działania platform są widoczne, ale niewystarczające. Wdrażają programy współpracy z fact-checkerami, dodają opcje ograniczania treści politycznych czy wyłączania najbardziej kontrowersyjnych rekomendacji, jednak nie decydują się na rozwiązania, które mogłyby istotnie zmniejszyć zasięgi najbardziej szkodliwych zjawisk. Bez silnego, spójnego nacisku regulacyjnego – także na poziomie Unii Europejskiej – trudno liczyć na głęboką zmianę tego modelu działania.​

 

Co może zrobić użytkownik?

Paradoks polega na tym, że większość z nas rzadko ma wątpliwości wobec informacji idealnie pasujących do naszych przekonań – a to właśnie one najczęściej okazują się elementem dezinformacyjnych kampanii. Dlatego pierwszy krok to nauczenie się zatrzymywania przy treściach, które bardzo mocno nas oburzają lub wzbudzają silną satysfakcję, i zadanie sobie pytania: „kto i po co chce, żebym to zobaczył?”.​

Narzędzia potrzebne do weryfikacji są w zasięgu ręki: od zwykłej wyszukiwarki i funkcji „szukaj obrazem”, która pomaga odnaleźć źródłowe konteksty zdjęć i filmów, po możliwość pobrania od platform pełnego zestawu danych, jakie na nasz temat gromadzą. Coraz więcej serwisów – pod wpływem Aktu o Usługach Cyfrowych – pozwala też użytkownikom ograniczać widoczność treści politycznych, filtrować wrażliwe słowa kluczowe czy wyłączać personalizację opartą na naszej aktywności.​

Marcin Kostecki przyznaje, że prawdziwa, wiarygodna informacja nigdy nie była darmowa. Zawsze wymagała czasu, krytycznego namysłu i świadomego wyboru źródeł. Cyfrowy świat nie zlikwidował tego kosztu – tylko go uwidocznił, pokazując, jak bardzo to, co widzimy na ekranie, jest wspólnym dziełem algorytmów i nas samych.​

 

Opracowano na podstawie webinaru Strefy Wiedzy Uniwersytetu SWPS. Rozmowę prowadzili Marcin Kostecki, redaktor naczelny portalu demagog.org.pl oraz dr Max Bielecki, psycholog i neurokognitywista.

 

Facebook
Twitter
Email

Newsletter

Co miesiąc najlepsze teksty WW w Twojej skrzynce!

Newsletter

Co miesiąc najlepsze teksty WW w Twojej skrzynce!