Facebook, firma, dzięki której jedna trzecia ludzkości komunikuje się i zdobywa informacje, ma nie tylko technologiczne problemy, które są w stanie unieruchomić ją na kilka godzin na całym świecie. Ma też coraz poważniejsze trudności z przekonywaniem ludzi, że jest neutralnym mechanizmem, który bez żadnych manipulacji i przy pomocy pozbawionych emocji i uczuć algorytmów, kontroluje ruch na swojej platformie. Jak się okazuje, te algorytmy potrafią również wykrzywiać rzeczywistość, żeby ten ruch dodatkowo napędzać.

  • Algorytm Facebooka kocha złe rzeczy: promuje nienawistne i szkodliwe treści i tworzy zachęty finansowe dla uczestników działających ze złych pobudek
  • Facebook wie o tym, ale niewiele z tym robi, jak wynika z jego wewnętrznych dokumentów i zeznań sygnalistki Frances Haugen
  • Nawet Zuckerberg namawiał, aby używać emoji z gniewną miną zamiast like'a, aby wyrazić niechęć, bo Facebook traktuje go jako czterokrotnie ważniejszy niż podstawowy "like"
  • Wbudowane w angielskojęzyczną część platformy mechanizmy kontroli rzetelności treści, są dużo mniej rozbudowane dla wielu innych dużych języków na świecie
  • W niektórych językach takiej kontroli w ogóle nie ma, co powoduje, że na Facebooku mogą pojawiać się nienawistne i fałszywe treści bez żadnej moderacji
  • Więcej takich historii znajdziesz na stronie głównej Onet.pl

Jak ujawniają wewnętrzne dokumenty Facebooka uzyskane przez konsorcjum organizacji informacyjnych, w tym POLITICO, algorytm platformy kocha złe rzeczy. Promuje nienawistne i szkodliwe treści, i tworzy niekończące się zachęty finansowe dla działających ze złych pobudek uczestników. Firma wie o tym, ale niewiele z tym zrobiła.

Badania, przeprowadzone w Europie przez ekipę Facebooka na początku 2019 r., pokazały sposoby, dzięki którym dezinformacja rozprzestrzenia się na platformie.

Na przykład, jak pisze Mark Scott z POLITICO, w Rumunii i Grecji stwierdzono, że "dezinformacja przybiera przerażającą formę, bo jest pozostawiona bez kontroli" a "ludzie uciszani są przez napastliwych komentatorów". Ponadto, jak dodaje Scott, Facebook zrobił niewiele, aby moderować posty w najbardziej brutalnych krajach na świecie.

Okazuje się, że Facebook nigdy nie ujawnił, które języki są objęte moderacją i jakie systemy kontroli rzetelności są stosowane dla tych języków. Działające w angielskojęzycznej części platformy mechanizmy kontroli rzetelności treści, są dużo mniej rozbudowane dla wielu innych dużych języków na świecie.

W niektórych językach takiej kontroli w ogóle nie ma, co powoduje, że na Facebooku mogą pojawiać się nienawistne i fałszywe treści bez żadnej moderacji

Z tego powodu, jak stwierdziła na przesłuchaniu w brytyjskim parlamencie sygnalistka z Facebooka Frances Haugen, użytkownicy posługujący się większością dużych języków na świecie są aktywnie wprowadzani w błąd.

– Wspieramy 50 języków, ale w większości z nich działa jedynie ułamek systemów bezpieczeństwa, w jaki wyposażona jest komunikacja w języku angielskim. Sam Facebook przyznaje, że ranking oparty na zaangażowaniu jest niebezpieczny — powiedziała Haugen — Kiedy mówimy, jak działa algorytm, trzeba pamiętać, czym on jest dla wielu oddzielnych populacji, ponieważ jego działanie tam, gdzie nie ma systemów kontroli rzetelności, jest bardzo odmienne, niż powiedzmy w siedzibie Facebooka w Menlo Park.

Skarżą się politycy

Partie w całej Unii skarżą się na zmiany w algorytmie Facebooka, które zmusiły je do forsowania bardziej negatywnych treści atakujących przeciwników i słabszego promowania bardziej pozytywnych materiałów dotyczących ich własnych programów politycznych.

"Zaangażowanie w pozytywne i polityczne posty zostało poważnie zmniejszone, czyniąc partie coraz bardziej zależnymi od zapalnych postów i ataków na swoich konkurentów", głosi wewnętrzny dokument Facebooka, w odniesieniu do zmian w sposobie wyświetlania postów na platformie. "Wiele partii, w tym te, które mocno przesunęły się w kierunku negatywnym, niepokoją się o długoterminowe skutki tego dla demokracji".

W wewnętrznej prezentacji z 2019 r. pracownik opisuje, jak trudno jest Facebookowi odfiltrować złe treści. Gdy użytkownicy angażują się w szkodliwe posty, np. komentując coś, co jest "fałszywe" lub niechciane, algorytm Facebooka je podbija.

W innej notatce z 2018 r. pracownik Facebooka przyznaje, że zachęta finansowa, jaką tworzy jego algorytm, "nie wydaje się być zgodna z naszą misją".

Nawet sam Mark Zuckerberg sugerował, aby użytkownicy używali emoji z gniewną miną zamiast like'a, aby zasygnalizować niechęć. Facebook traktowała go jako czterokrotnie ważniejszy niż podstawowy "like".

Wirale są dobre, ale nie zawsze

Facebookowi można przypisać wiele zasług w tworzeniu internetowej wiralności, dzięki czemu algorytm stał się dla niego samego i wielu użytkowników potężnym narzędziem do zarabiania pieniędzy, które nie jest w pełni możliwe do skontrolowania, ani nawet zrozumienia.

Jednak wiralowe treści są świetne, jeśli chodzi o dowcipy lub filmy o kotach, ale mniej, gdy są to porady medyczne, które często bywają dezinformacją, która może mieć katastrofalne skutki. Albo gdy dzieje się to w miejscach, gdzie nie ma wolnej prasy i gdzie istnieją napięcia etniczne.

W efekcie oparty na zaangażowaniu ranking treści dotyczących zdrowia czy też polityki prowadzi do "wypaczonych" bodźców i "problemów z rzetelnością", jak twierdzą analitycy.

Jak to kontrolować

Nie ma takich przepisów, które mogłyby rozwiązać podstawowe problemy, jakie ujawniono na temat nadzoru Facebooka nad treściami online.

Wewnętrzne badania, e-maile i rozmowy na czatach w Facebooku, pokazują złożoną sieć wzajemnie powiązanych dźwigni, które razem stworzyły prawdopodobnie jedną z najbardziej dochodowych firm, jakie świat kiedykolwiek widział, ale i zbudowały giganta, który kształtuje to jak żyjemy.

Jak pisze wspomniany Mark Scott, lektura tych wewnętrznych dokumentów, pokazuje jak wszechogarniający jest Facebook i jak jego inżynierowie rutynowo podrasowywali algorytmy, by priorytetowo traktować niektóre treści.

Zarząd regularnie dokonywał wyborów, które wpływały na ludzi w odległych miejscach na świecie w czasie niemal rzeczywistym. To, co ten gigant technologiczny wie na temat codziennych cyfrowych nawyków ludzi (w oparciu o monitorowanie każdej interakcji online minuta po minucie) sprawiłoby, że "Rok 1984" George'a Orwella wyglądałby jak bajka na dobranoc dla dzieci, pisze Scott.

Facebook broni się w sprawie swojego nadzoru nad treściami online, mówiąc, że wydał miliardy euro, zatrudnił dziesiątki tysięcy moderatorów treści i zmienił swoje algorytmy, aby powstrzymać mowę nienawiści, dezinformację i skłócające materiały polityczne i chronić swoje 2,4 mld użytkowników na całym świecie.

Jednak koncentrował się on głównie na nielegalnych treściach. Inne materiały, w tym podejrzane posty w mediach społecznościowych, które zbliżają się do granicy nielegalności, ale nigdy jej nie przekraczają, pozostają poniżej horyzontu algorytmów.

Wewnętrzne dokumenty Facebooka pokazują, że takie "szkodliwe narracje bez przemocy", używając języka firmy, wielokrotnie odgrywały znaczącą rolę w podsycaniu podziałów, a w niektórych przypadkach przemocy w sieci.

Na przykład w dniach poprzedzających zamieszki na Kapitolu 6 stycznia 2021 r., inżynierowie Facebooka nie podjęli działań przeciwko postom, które kwestionowały legalność wyborów prezydenckich w USA, nawet jeśli takie materiały były wykorzystywane do promowania ataków politycznych w Waszyngtonie.

Inny przykład: treści ocierające się o dezinformację antyszczepionkową, obecnie zakazane na platformie, również nie były poddawane przeglądowi, mimo że podsycały internetowe teorie spiskowe wokół COVID-19.

Wewnętrzne dokumenty Facebooka ujawniły, że płatne, stronnicze wiadomości odgrywały znaczącą rolę w promowaniu dzielących, niepłatnych treści na platformie.

Prawne uregulowanie tych kwestii nie nadejdzie szybko. Proponowane ustawy – z których większość uczyniłaby firmy social media bardziej odpowiedzialnymi za to, co jest umieszczane w sieci i wymusiła większą przejrzystość decyzji podejmowanych w Dolinie Krzemowej – nie rozwiązują problemu tego, jak algorytmy tych firm często przesuwają szkodliwe, wirusowe treści nad bardziej spokojne materiały.

Dokumenty Facebooka, pokazują, jak jego zautomatyzowane systemy priorytetowo traktują negatywne treści, ponieważ jest bardziej prawdopodobne, że staną się wiralami, a tym samym utrzymają się na platformie.

Żadne możliwe prawo nie poradzi sobie z tym podstawowym problemem.

Wykorzystane zostały fragmenty artykułów opublikowanych na portalu POLITICO w ramach serii "The Facebook papers" oraz w newsletterze "AI – decoded".

Jeśli ciekawią was tematy związane z internetem i mediami społecznościowymi, to polecamy wam także sprawdzenie podcastu Technicznie Rzecz Biorąc. W tym odcinku posłuchacie o internetowych influencerach:

Źródła: Komputer Świat
Tags:
  • mowa nienawiści
  • Internet
  • Facebook