Jak podaje Reuters, tysiące stron wewnętrznych materiałów, analiz ekspertów i zapisów korespondencji pracowniczej malują obraz firmy, która wielokrotnie przedkładała wzrost i zaangażowanie użytkowników ponad bezpieczeństwo, zwłaszcza najmłodszych.
Jak Facebook i Instagram szkodzą młodym użytkownikom?
W ramach postępowania przedstawiono analizy czterech niezależnych zespołów badawczych, które na zlecenie pełnomocników szkół prześledziły setki wewnętrznych raportów Mety. Wnioski były jednoznaczne – ryzyko związane z uzależnieniem, presją społeczną, zaburzeniami odżywiania czy kontaktami dorosłych z nieletnimi znane było firmie od dawna. Mimo to pozostawało na drugim planie wobec dążenia do utrzymania wysokiej aktywności młodych użytkowników.
Najbardziej obciążającym dla Mety elementem pozwu jest opis badań prowadzonych w ramach tzw. Project Mercury. Wspólnie z firmą Nielsen Meta analizowała wpływ tygodniowej dezaktywacji Facebooka na dobrostan użytkowników. Wyniki były niekorzystne: osoby, które zrobiły tygodniową przerwę od serwisu, odczuwały mniejsze nasilenie depresji, lęku, samotności i porównań społecznych. Jak wynika z dokumentów przytoczonych przez Reuters, zamiast kontynuować projekt lub opublikować jego wyniki, firma miała go przerwać. Jeden z badaczy porównał decyzję o zatrzymaniu prac do działań „przemysłu tytoniowego”.
Znaczną część ujawnionych materiałów stanowią dokumenty dotyczące prywatności i ochrony nieletnich. Już w 2019 r. zespoły bezpieczeństwa Mety rekomendowały, aby konta nastolatków były domyślnie prywatne. Jednak dział odpowiedzialny za wzrost miał wskazać, że taki krok mógłby oznaczać spadek aktywności o około 1,5 mln młodych użytkowników rocznie. Funkcja nie została wówczas wdrożona. Meta dopiero w 2024 roku wdrożyła kompletny pakiet domyślnych ustawień prywatności dla kont młodzieży, mimo że jej własne analizy wskazywały na taką potrzebę już pięć lat wcześniej.
Meta i inne platformy pod lupą
Prawnicy reprezentujący szkoły wskazują, że Meta dysponowała systemami sztucznej inteligencji zdolnymi niemal z pełną skutecznością wykrywać treści dotyczące samookaleczania, zaburzeń odżywiania czy inne materiały stanowiące zagrożenie dla młodych użytkowników. Mimo tego firma nie usuwała ich automatycznie, powołując się na konieczność ręcznego potwierdzenia naruszeń. Skutkiem było to, że szkodliwe treści przez długi czas pozostawały dostępne w serwisach.
Pozew obejmuje również inne platformy – TikToka, Snapchata i YouTube – którym zarzuca się projektowanie funkcji w sposób sprzyjający uzależnianiu nastolatków. Jednak to Meta pozostaje w centrum sprawy ze względu na skalę ujawnionych dokumentów oraz liczne odniesienia do świadomości kierownictwa firmy.
W oświadczeniu cytowanym przez Reuters Meta odrzuca zarzuty i podkreśla, że przedstawione cytaty nie oddają pełnego obrazu jej działań. Firma wskazuje na wprowadzenie w ostatnich latach licznych zabezpieczeń, narzędzi kontroli rodzicielskiej oraz rozwiązań mających chronić najmłodszych użytkowników. Koncern złożył również wniosek o usunięcie części dokumentów z akt, argumentując zbyt szeroki zakres żądania powodów.
Kluczowe przesłuchania w tym głośnym procesie zaplanowano na koniec stycznia. Jak wskazuje Reuters, sprawa może mieć dalekosiężne skutki nie tylko dla Mety, ale i dla całej branży mediów społecznościowych. Zakres i treść ujawnionych dokumentów sugerują bowiem, że świadomość ryzyka związanego z użytkowaniem platform przez dzieci była w branży znacznie większa, niż deklarowano publicznie.


