To nie magia ani widzimisię internetu decyduje o tym, co widzisz na swoim Facebooku czy TikToku, ale bardzo konkretne mechanizmy biznesowe, psychologiczne i technologiczne. A coraz częściej także polityczne. O tym, jak działają algorytmy, czym różni się bańka informacyjna od komory echa i dlaczego walka z dezinformacją jest tak trudna, opowiada Marcin Kostecki, redaktor naczelny portalu Demagog, gość webinaru Strefy Wiedzy Uniwersytetu SWPS.
Co naprawdę robią algorytmy?
Algorytmy mediów społecznościowych mają jedno podstawowe zadanie: zatrzymać użytkownika jak najdłużej i pokazać mu jak najwięcej reklam, jednocześnie zachęcając do tworzenia kolejnych treści. W praktyce oznacza to, że platformy analizują nasze wcześniejsze aktywności – lajki, komentarze, czas spędzony przy danym materiale – i na tej podstawie decydują, co może nas najbardziej wciągnąć.
Choć pod presją unijnego Aktu o Usługach Cyfrowych takie firmy jak Meta, TikTok czy X muszą dziś opisywać zasady działania swoich systemów rekomendacji, to wciąż robią to w sposób wybiórczy i mało przejrzysty. Badacze, którzy próbują zweryfikować realny wpływ algorytmów – na przykład na uprzywilejowanie określonych poglądów politycznych – często odbijają się od ściany braku dostępu do danych lub dostają informacje niepełne i niewiarygodne.
Bańki informacyjne czy komory echa?
Pojęcie bańki informacyjnej zrobiło zawrotną karierę, ale – jak przypomina Marcin Kostecki, odwołując się do krytycznych analiz filozofa Davida Codda – nie ma mocnych dowodów na to, że media społecznościowe całkowicie odcinają nas od innych punktów widzenia. Konstrukcja samych platform, oparta m.in. na publikacjach znajomych czy obecności w wielu grupach, sprawia wręcz, że z odmiennymi poglądami stykamy się regularnie, choć bardzo często w trybie konfliktu i hejtu.
Dużo trafniejsze jest pojęcie komory echa – sytuacji, w której nowe informacje sprzeczne z naszym światopoglądem są automatycznie odrzucane jako niewiarygodne, opłacone czy spiskowe. Ten mechanizm działa po obu stronach sporów – mogą w nim funkcjonować zarówno przeciwnicy szczepień, jak i osoby przekonane o realności ocieplenia klimatu, które z góry odrzucają każdego klimatycznego sceptyka jako „szura”.
Dezinformacja. Jak się robi propagandę?
Najbardziej widocznym polem zorganizowanej dezinformacji w Polsce jest dziś propaganda antyukraińska i prorosyjska. Jej zaplecze stanowi cała infrastruktura – od pseudoportali informacyjnych podszywających się pod niezależne media, przez sieci stron z „prawdą” w tytule, kanały na Telegramie, aż po armie botów i trolli wzmacniających zasięg określonych przekazów.
Rosyjskie operacje informacyjne polegają m.in. na tworzeniu patriotycznie lub obywatelsko brzmiących serwisów, które w praktyce systematycznie powielają rosyjskie tezy, a także na przejmowaniu (lub kupowaniu) i masowym wykorzystaniu istniejących kont w serwisach społecznościowych. Gotowe narracje – o roszczeniowych uchodźcach, luksusach Zełeńskiego, czy niewdzięcznych Ukraińcach – wplatają się potem w autentyczne emocje użytkowników, którzy je podchwytują i dalej rozpowszechniają.
Fact-checkerzy kontra ocean treści
Zadaniem takich organizacji jak Demagog jest wyłapywanie fałszywych, szkodliwych informacji i ich rzetelne prostowanie w oparciu o wiarygodne źródła. Zespół kilku analityków codziennie przegląda media społecznościowe i tradycyjne, wybierając do weryfikacji te treści, które są jednocześnie nieprawdziwe, mają duże zasięgi i mogą realnie szkodzić – np. w obszarze zdrowia publicznego, bezpieczeństwa finansowego czy postaw wobec wojny.
Współpraca z platformami – jak w przypadku Facebooka, gdzie Demagog może oznaczać treści jako zweryfikowane – sprowadza się głównie do dołączania do kontrowersyjnych postów jasnego, udokumentowanego sprostowania. Marcin Kostecki podkreśla, że fact-checkerzy nie usuwają treści z internetu i nie chcą wykluczać głosów z debaty, ale starają się pokazywać konkretne dowody: oryginalne nagrania, wyniki badań, zrzuty z narzędzi wykrywających deepfake’i.
Dlaczego platformy nie wyłączą fejków?
Choć nacisk regulacyjny rośnie, interes największych platform wciąż stoi w sprzeczności z radykalną walką z dezinformacją. Z ujawnionych danych wynika, że same oszukańcze reklamy i scamowa treść mogą generować istotną część przychodów reklamowych (nawet do 10%), więc całkowite odcięcie tego strumienia oznaczałoby realną stratę w walce o użytkownika i zysk.
Dlatego – jak zauważa Marcin Kostecki – działania platform są widoczne, ale niewystarczające. Wdrażają programy współpracy z fact-checkerami, dodają opcje ograniczania treści politycznych czy wyłączania najbardziej kontrowersyjnych rekomendacji, jednak nie decydują się na rozwiązania, które mogłyby istotnie zmniejszyć zasięgi najbardziej szkodliwych zjawisk. Bez silnego, spójnego nacisku regulacyjnego – także na poziomie Unii Europejskiej – trudno liczyć na głęboką zmianę tego modelu działania.
Co może zrobić użytkownik?
Paradoks polega na tym, że większość z nas rzadko ma wątpliwości wobec informacji idealnie pasujących do naszych przekonań – a to właśnie one najczęściej okazują się elementem dezinformacyjnych kampanii. Dlatego pierwszy krok to nauczenie się zatrzymywania przy treściach, które bardzo mocno nas oburzają lub wzbudzają silną satysfakcję, i zadanie sobie pytania: „kto i po co chce, żebym to zobaczył?”.
Narzędzia potrzebne do weryfikacji są w zasięgu ręki: od zwykłej wyszukiwarki i funkcji „szukaj obrazem”, która pomaga odnaleźć źródłowe konteksty zdjęć i filmów, po możliwość pobrania od platform pełnego zestawu danych, jakie na nasz temat gromadzą. Coraz więcej serwisów – pod wpływem Aktu o Usługach Cyfrowych – pozwala też użytkownikom ograniczać widoczność treści politycznych, filtrować wrażliwe słowa kluczowe czy wyłączać personalizację opartą na naszej aktywności.
Marcin Kostecki przyznaje, że prawdziwa, wiarygodna informacja nigdy nie była darmowa. Zawsze wymagała czasu, krytycznego namysłu i świadomego wyboru źródeł. Cyfrowy świat nie zlikwidował tego kosztu – tylko go uwidocznił, pokazując, jak bardzo to, co widzimy na ekranie, jest wspólnym dziełem algorytmów i nas samych.
Opracowano na podstawie webinaru Strefy Wiedzy Uniwersytetu SWPS. Rozmowę prowadzili Marcin Kostecki, redaktor naczelny portalu demagog.org.pl oraz dr Max Bielecki, psycholog i neurokognitywista.