Nieoczekiwana blokada konta w mediach społecznościowych to największy koszmar, jaki spędza sen z powiek internetowych twórców. Lata pracy i nakładów finansowych nad budowaniem wielkich społeczności, mogą zniknąć. W jednej chwili i bez żadnego powodu. Takie sytuację dotknęły profil mistrzowie.org, czy też blogerce modowej Harel, którzy na pewien czas stracili dostęp do swych kont. Właściciele profilu kartypodarunkowe.online mieli mniej szczęścia, bo Meta aż dwukrotnie całkowicie usuwała ich profil, przez co musieli od początku go zakładać. Co jednak gorsze nikt z nich nie poznał tajemnicy, co kryło się zablokowaniem konta, a potem jego odblokowaniem lub usunięciem. Wnioski wszyscy mają takie same – nie wolno opierać swojego biznesu tylko na social mediach.

Pod koniec września admin fanpage’a Mistrzowie.org, Mariusz Składanowski, zaczął otrzymywać informację od znajomych, że prowadzona przez niego strona nie działa. Po zalogowaniu się na profil zobaczył, że konto zostało zablokowana za “naruszenie standardów Facebooka”. Po zagłębieniu się w zgłoszenie, jako konkretny powód znalazł informację, że blokada została spowodowana “podszywaniem się pod inne osoby lub markę”. Nie za bardzo dowierzał, że strona zbierająca memy będące fragmentami komentarzy i cytatami z innych stron, może ukraść tożsamość innej marce czy osobie, więc szybko zgłosił blokadę do weryfikacji. Chwilę później otrzymał automatyczną odpowiedź, że zgłoszenie zostanie rozpatrzone w ciągu kilku dni przez "technologię lub weryfikatora". Nie musiał jednak zbyt długo czekać, gdyż w ciągu kilku chwil podanie zostało rozpatrzone przez system… negatywnie, a strona zablokowana. “Brak mi słów. Żyjemy w świecie, w którym algorytmy decydują o być albo nie być całych kawałków internetu, bez żadnego rozsądnego uzasadnienia, bez możliwości odwołania, za to zgodnie z zasadami bezpieczeństwa" - napisał na swoim profilu Mariusz Składanowski, gdy w wyniku decyzji algorytmu stracił społeczność o wielkości niemal 370 tysięcy osób, budowaną od 2010 roku.

Do sytuacji popularnego fanpage’a szybko odnieśli się inni twórcy i dziennikarze. Sylwia Czubkowska, współautorka podcastu Techstories w TOK FM, na swoim profilu na platformie X skomentowała, że działanie jest z jednej strony przykładem “prywatnej cenzury, ale także underblokingu, a z drugiej niewystarczającej walki z dezinformacją, scamem i po prostu przestępstwami, odkąd Facebook w 2010 r. wprowadził algorytmy”.

Na szczęście twórca Mistrzowie.org nie zaprzestał na odwołaniu od decyzji algorytmu w ramach “oficjalnej drogi administracyjnej”, ale zaczął szukać rozwiązania problemu poza formalnymi kanałami.

Mistrzowie.org: Zrobić stypę i zapomnieć

Składanowski postanowił skorzystać z najbardziej efektywnej metody rozwiązywania problemów na świecie - “po znajomości”. Odezwał się do weterana underblockingu Michała Marszała, który obiecał zainterweniować u “znajomych znajomych” z Facebooka. Skontaktował się również z agencją interaktywną, a ta zaczęła szukać kontaktu z pracownikami Meta. Nie wie, która metoda zadziała, ale czwartego dnia blokady, bez kontaktu ze strony portalu, bez podania uzasadnienia, dostęp do strony został przywrócony. Trudno podejrzewać, że w ciągu 3 dni dzielących zablokowanie konta i przywrócenie dostępu algorytm zdobył nowe dane i przyjrzał się “kontekstowi” sytuacji. Za weryfikacją zawieszania musiał stać “prawdziwy człowiek”.

- Gdyby nie udało odzyskać dostępu zrobiłbym stypę i zapomniał o temacie. Odbudowanie społeczności składającej się z niemal 370 tysięcy osób, przy obecnych zasięgach byłoby niemożliwe - komentuje Składanowski.

Harel: Udowodnij maszynie, że jesteś człowiekiem

Na początku 2020 roku dziennikarka i blogerka modowa Harel próbowała bezskutecznie zalogować się na swoje konto na Instagramie. Na ekranie pojawiła się informacja, że konto zostało zawieszone za “złamanie zasad społeczności”. Bez żadnego wcześniejszego ostrzeżenia, z dnia na dzień, straciła dostęp do konta, na którym przez lata uzbierała społeczność składającą się z prawie 40 tys. użytkowników. Poszkodowana nie była w stanie stwierdzić jakie działanie doprowadziło do decyzji platformy. Próbowała odwołać się od blokady przez formularz reklamacyjny, po wysłaniu, którego otrzymała automatyczną odpowiedzieć proszącą o dokonanie weryfikacji swoich personaliów. Przypominała ona scenę z filmu, gdzie porywacz proszony jest o wysłanie “dowodu życia” - Harel musiała zrobić sobie selfie trzymając na nim zapisany na kartce kod, dołączony do automatycznej odpowiedzi. Dziennikarka wysłała nawet pismo drogą pocztową do europejskiej siedziby Mety w Dublinie i z prośbą o przywrócenie konta. Po 3 dniach dostęp do profilu został przywrócony tak samo jak wcześniej zablokowany - bez żadnego wyjaśnienia. Harel do tej pory nie wie, czy zadziałał proces reklamacji, czy może interwencja koleżanki, która “znała kogoś w Instagramie”, czy może po prostu minęły “symboliczne 3 dni” o których krążyła legenda, że właśnie na tyle dni ostrzegawczo nakładano blokadę. Tymczasem po około 3 tygodniach twórczyni otrzymała odpowiedziedź na swoje pismo (również w formie listu), która brzmiała mniej więcej tak “to nie my tym zajmujemy się, więc nie możemy pomóc”. Harel, wiedząc, że nie może liczyć na wsparcie Mety, a biorąc pod uwagę, że ta blokada może być tylko początkiem problemów - postawiła przygotować się na kolejną batalię.

Seksualizacja pieroga

Po blokadzie konta Harel spotkało również usuwanie publikowanych na Instagramie treści. Jedną z bardziej pamiętnych sytuacji było usunięcie rolki o zamówionych w restauracji pierogach przez nią i jej przyjaciółkę. Jako powód blokady Instagram podał “nacechowanie rolki treściami erotycznymi”.

- Przyglądałyśmy się tym pierogom z każdej strony, szukając czegokolwiek co automat mógł uznać za “erotyczne” ale nie byłyśmy w stanie znaleźć żadnego uzasadnienia - komentuje Harel.

Ta sytuacja była dla niej kolejnym “ostrzeżeniem” i że jeżeli nie chce narazić się na “shadow banning” - musi coś zmienić. - Doszłam do wniosku, że opieranie mojej zawodowej komunikacji tylko na Instagramie, nie jest bezpieczne, ponieważ to konta nie jest naprawdę moje - komentuje dziennikarka.

ZVZ: Gdy z forumowicza stajesz się spamerem

Underbloking nie jest tylko problemem kanałów należących do Marka Zuckerberga, ale też ich “młodszego brata” Discorda. Właśnie na nim, Paweł Opydo, podcaster i youtuber, założył forum dla społeczności patronów swojego podcastu “ZVZ” (współtworzonego z Katarzyną Czajką-Kominiarczuk). Parę miesięcy temu podczas logowania na portal wyskoczyło mu powiadomienie informujące o blokadzie konta przez “chroniczne wysyłanie spamu”. Jako że korzystał z niego do kontaktu ze znajomymi, do administrowania grupy i do komunikacji z patronami ZVZ, nie dostrzegł w swoich aktywnościach znamion spamu. Tymczasem z dnia na dzień został pozbawiony dostępu do kilkutysięcznej grupy. Szybko wysłał odwołanie, postępując z wytycznymi podanymi przez portal, mając na uwadzę, że na całość procesu ma tylko 30 dni. Zgodnie z regulaminem po tym okresie zablokowane konto zostaje usunięte. Odpowiedź na zgłoszenie przyszła po 2 miesiącach….

Algorytm przyznaje rację większemu

Paweł Opydo miał “szczęście” walczyć z algorytmem nie tylko na Discordzie, ale również na YouTubie. W wyniku “alternatywne postrzeganie prawa autorskiego” przez system moderujący portal, musiał stoczyć batalię o uznanie swoich praw z międzynarodowym dystrybutorem muzyki. Na prowadzonym na YouTubie kanale “Złe piosenki” recenzuje utwory muzyczne, ilustrując omawiane fragmenty wybranymi urywkami z piosenki. Jedna z recenzji okazała się viralowa, ale ku zaskoczeniu twórcy wytwórnia muzyczna chciała przejąć zmonetyzowane na wyświetleniach materiału środki. Autor szybko zainterweniował, ale od dystrybutora usłyszał, że YouTube umożliwia im monetyzację User Generated Content, gdzie w ramach cytatu zostały użyte ich dzieła i oni po prostu z tej możliwości korzystają. Tymczasem nie istnieje żaden wyjątek w prawie autorskim, który pozwalałby monetyzować cudze treści, w których są cytowane inne utwory. Wiedząc, że prawo jest po jego stronie, Paweł Opydo interweniował po raz kolejny i po odpowiedniej liczbie odwołań YouTube przekazał informację, że właściciel praw - dystrybutor muzyki - odpuścił roszczenie. Nie wszyscy twórcy mieli tyle wytrwałości i szczęścia co Paweł. Model działania YouTube nierozróżniania “prawa cytatu” przez co prowadzi do faworyzacji większych kont i zabierania twórcom bez zaplecza prawników - zmonetyzowanych na treści środków.

Kartypodarunkowe.online: ten kto płaci też nie jest bezpieczny

Nie trzeba być influencerem by narazić się na blokadę. Dostawca voucherów prezentowych, firma Karty Podarunkowe Online już 3 razy musiał odbudowywać swoją społeczność, po zawieszeniach konta reklamowego na Facebooku. Pierwsza została nałożona za “permanentne naruszanie zasad społeczności” w 2021 roku. Administrator szybko przyjrzał się reklamom i nie widząc w ich treściach winy, natychmiast odwołał się od zawieszenia za pomocą formularza. Po miesiącu oczekiwania na rozpatrzenie wniosku, sprawa przedawniła się i firmie nie pozostało nic innego jak … ponownie założyć konto. Stworzyli nowy profil i zaczęli zbieranie społeczności od zera. Jednak ten manewr okazał się nieskuteczny, gdyż niedługo potem - nowe konto zostało zablokowane z tego samego powodu co pierwsze.

Gdy algorytm jest sędzią szybkim,  ale niesprawiedliwym

- Podejrzewam, że padliśmy ofiarą account bombingu ze strony konkurencji - komentuje ponowne zablokowanie konta Małgorzata Sakowska, Managing Director Kart Podarunkowych. - Przedstawiciel jednej z firm notorycznie wysyłał nam wezwanie do usunięcia jednego z używanych w naszych publikacjach słów, gdyż uważał je za swoją nazwę własną. Pomimo tego, że nie było ono w żaden sposób zastrzeżone - dodaje.

Przy tej blokadzie firma ponownie wysłała odwołanie. Tym razem udało im umówić się na rozmowę telefoniczną z pracownikiem Facebooka. Szczęśliwi, uznali, że kontakt z prawdziwym człowiekiem rozwiąże ich problem. Ten, przeanalizował sprawę i uznał, że nie widzi żadnych naruszeń. Obiecał procedować zniesienie blokady i … sprawa zakończyła się, bez odzyskania dostępu do konta. Karty Podarunkowe musiały założyć trzecie konto.

Pomimo tego, że firma regularnie wydaje pieniądze na platformie, wykupując tam reklamę, nie mogła liczyć na efektywną obsługę klienta.

- Gdy korzystam z usługi jakiejś firmy i pojawiają się problemy, to zawsze mogę liczyć na kogoś z obsługi klienta. Tymczasem proces odwołania w Meta nie jest transparentny, nie znamy konkretnej przyczyny zawieszenia konta, ani nawet miejsca czy osoby, z którą możemy porozmawiać o odwołaniu - dodaje Sakowska. - Przez brak konta na Facebooku, zablokowanie działań reklamowych dostrzegliśmy mniejszą ilość wejść na naszą stronę i tym samym na zmniejszenie obrotów. Jednak najgorsze było dwuktrotne stracenie naszej społeczność, co musiało wpłynąć na zaufanie do nas - kończy Sakowska.

Granie nie do swojej bramki

Twórcy internetowi rozumieją, że by docierać do publiczności potrzebują mediów społecznościowych. Pomimo chimeryczności i zmnienności zarządzających nimi algorytmów, nie mają alternatywnego, efektywniejszego i tańszego sposobu na dotarcie do szerokiej publiczności, bez ponoszenia kosztów na reklamy. Jednocześnie gromadzenie kapitału społecznego w żadnym innym miejscu nie jest aż tak bardzo pozbawione kontroli. - Zbieramy klientów na platformach, które do nas nie należy - komentuje Paweł Opydo, ZVZ.

Mariusz Składanowski radzi innym twórcom, by nie budować na mediach społecznościowych jedynego źródła swoich dochodów, i tak jak na początkach Internetu, postawić na własne strony www., aby zabezpieczyć się przed zapędami “cenzorów ze sztucznej inteligencji”.

Zdaniem Harel twórcy powinni tworzyć alternatywne dla platform społecznościowych miejsca do komunikacji ze swoimi fanami/klientami. Do prowadzonego przez siebie bloga dorzuciła newsletter, który szybko zyskał kilka tysięcy subskrybentów.

- Teoretycznie platformy społecznościowe udostępniają nam swoje narzędzia za darmo, ale darmowe nie są. Płacimy za nie udostępniając swoje dane. Jednak traktuję ten układ jako uczciwy. Sporo ludzi zarabia na Instagramie, więc trudno oczekiwać, że narzędzie jakie im to umożliwia będzie darmowe - dopowiada.

Dlatego pomimo tych trudności, wciąż prowadzi kanał na Instagramie, a innym twórcom poleca dywersyfikację kanałów: - Nie skupiajmy się na rozwoju tylko jednego medium, zwłaszcza jeśli to medium nie jest nasze - kończy Harel.

Twórcy jeszcze górą

Influencerzy wydają się być skazani na obecność w mediach społecznościowych i na ich łaskę. Czy przyszłość twórców na platformach malowana jest w czarnych barwach, a rządy nad internetem zostały przyznane algorytmowi? Niekoniecznie. Najbardziej nieprzewidywalną i nielogiczną siłą w internecie są … jego użytkownicy. To właśnie ludzie takimi działaniami jak #blockout2024 niszczą algorytmy, zmieniają trendy i narzucają kierunki dyskusji. Choć walka jest nierówna i coraz trudniejsza, na razie w walce influencerów z algorytmem o władzę nad Internetem, twórcy zdają się wygrywać.

Harel
dziennikarka i blogerka modowa

„Nie skupiajmy się na rozwoju tylko jednego medium, zwłaszcza jeśli to medium nie jest nasze”

Małgorzata  Sakowska
kartypodarunkowe.online

„Gdy korzystam z usługi jakiejś firmy i pojawiają się problemy, to zawsze mogę liczyć na kogoś z obsługi klienta. Tymczasem proces odwołania w Meta nie jest transparentny, nie znamy konkretnej przyczyny zawieszenia konta, ani nawet miejsca czy osoby, z którą możemy porozmawiać o odwołaniu”

Mariusz  Składanowski
mistrzowie.org

„Gdyby nie udało odzyskać dostępu zrobiłbym stypę i zapomniał o temacie. Odbudowanie społeczności składającej się z niemal 370 tysięcy osób, przy obecnych zasięgach byłoby niemożliwe”

Paweł Opydo
ZVZ

"Najpopularniejsze serwery na Discordzie czy Facebooku mają po parę milionów użytkowników. Społeczność, która składa się z 200, 300, czy 500 tys. osób dla platformy jest więc mało znaczącym pyłkiem. Ale dla zwykłego użytkownika stanowi bazę tysięcy klientów i od niej może zależeć "życie jego biznesu". Dla tych "małych" podmiotów to ogromna skala, ale dla platform mających ograniczone zasoby do zajmowania się zgłoszeniami, to zbyt mała grupa by interweniować. Przez te skalę "mali" przedsiębiorcy zostają pozbawieni narzędzi do pracy, nie mając jakiejkolwiek drogi do odwołania."

DSA i DMA

Oczekiwany ratunek?

Platformy takie jak Discord, Facebooka, czy X nieodpłatnie udostępniają użytkownikom przestrzeń i narzędzia do publikowania i pierwotnie w zamian oczekiwały tylko treści. Obecnie model biznesowy cyfrowych gigantów opiera się na obserwacji i analizie zachowań użytkowników tych pozornie darmowych usług. Pozyskane dane i wnioski sprzedawane są następnie innym podmiotom, które podsuwają użytkownikom reklamy i treści, które mają zatrzymać ich na platformach i wpływać na podejmowane decyzje (przede wszystkim) konsumenckie, (ale w konsekwencji) życiowe i polityczne.

Korzystając z wielkich platform akceptujemy ich regulaminy, które mają na celu kształtowanie dyskusji zgodnej z przyjętymi zasadami. O ile takie ogólne standardy jak traktowanie z szacunkiem innych użytkowników portalu, czy nie wysyłanie spamu zdają się być zasadne, to już arbitralny sposób cenzurowania treści, decydowania o tym jakie materiały są usuwane, a jakie podbijane budzi wiele wątpliwości. Te decyzje wcale nie mają przypadkowego charakteru, ale odzwierciedlają politykę i cele biznesowe platformy. Decyzje dotyczące samoregulacji, zasad publikacji, zarządzania treściami, leżą po stronie właścicieli platformy, a inni interesariusze mają niewielki wpływ na ich zarządzenie. To więc oni w realu wpływają nie tylko na to jaka piosenka będzie modna latem, ale na to kto ma większe szanse wygrać wybory.

Prawo powoli dogania rozwój cyfrowych platform i tworzy rozwiązania mające na celu chronić użytkowników. W lutym 2022 parlament Europejski uchwalił dwa akty: o usługach cyfrowych (DSA – Digital Services Act) i o rynkach cyfrowych (DMA –Digital Markets Act). Owe ustawy narzucają na cybergigantów wymogi m.in. opracowana i przestrzegania jaśniejszych i bardziej spójnych zasad moderacji treści, zwiększenia dostępności do informacji jak działają algorytmy podpowiadające dobór treści, czy próbują ograniczyć dominację największych graczy w sieci.

Te akty prawne mają wprowadzić przejrzystość w działania, które stanowią obecnie największą zmorę platform, czyli autorytatywne usuwanie treści oraz blokowanie kont użytkowników.

Ustawy zakładają, że platformy będą mogły zdecydować jakie kategorii treści są zabronione (np. wulgaryzmy), ale tylko pod warunkiem, że jasno opiszą to w regulaminie. Regulacje wpływają również na podbijanie lub obniżanie zasięgów danych treści. Np. zabronione będzie blokowanie kontrowersyjnych materiałów, które realizują ważny interes społeczny (np. zaangażowanej sztuki). Narzucają również na platformy nakaz publikowania „raportów przejrzystości” ujawniające m.in. statystyki usuwanych treści.

Akty zakładają również, że użytkownicy, których wpisy zostaną usunięte lub konta zablokowane, mają dostawać szczegółowe wyjaśnienie przyczyn takich restrykcji wraz z informacją o tym, jakie postanowienie regulaminu naruszyli. To co istotne, będą oni mogli odwołać się od takiej decyzji, a decyzja będzie musiała być zweryfikowana przez człowieka, a nie algorytm. To rozporządzenie narzuca również na cybergigantów zatrudnienie wystarczającej liczby moderatorów, aby umożliwić właściwą weryfikację treści we wszystkich językach UE.

Za nieprzestrzeganie tych przepisów na platformy będzie można nałożyć kary pieniężnie. Naruszenia w ramach DSA mogą być karane w wysokości do 6 proc. globalnego przychodu, w ramach DMA jest to aż 10 proc. Za powtarzające się naruszenia regulacji może to być nawet 20 proc. Ostatnie z rozporządzeń weszły w życie na początku 2024 roku i jednak jak pokazują doświadczenia - nie zostały wciąż zrealizowane przez platformy.

Wolność kontra bezpieczeństwo

 

Wolność słowa jest jednym z podstawowych praw człowieka, jednak nawet w demokratycznym świecie istnieją pewne wyjątki, gdy jest ono odbierane. W niektórych krajach zabranie prawa do wolności słowa ma na celu zapobieganie mowie nienawiści, zniesławieniom lub groźbom, podczas gdy w innych takie komunikaty są uważane za niesmaczne, ale jednak legalne wyrażanie opinii.

Właściciele mediów społecznościowych jak Elon Musk czy Mark Zuckerberg często mówią o znaczeniu zasad wolności słowa jako podstawowej misji ich platform. Rzeczywiście, portale takie jak Facebook czy X (dawniej Twitter) umożliwiają niezwykle szybkie rozprzestrzenianie się wypowiedzi. Odegrały niezwykłą rolę w procesach konstytuujących pozytywne zmiany społeczne jak Arabska Wiosna, ruch #Metoo, czy Occupy Wall Street. Niestety umożliwiają również rozprzestrzenianie się mowy nienawiści, przez co wpływały na eskalację przemocy jak podczas zamieszek na tle rasowym w Londynie, czy przy ludobójstwie muzułmanów Rohingya w Mjanmie.

Z powodu tych konsekwencji rządy wielu krajów pozwalają cyfrowym gigantom na czasowe zawieszenie prawa do wolności słowa. Jednak samo ustalanie przez platformy czy dana wypowiedź zasługuje na publikację czy blokadę stanowi delikatny i złożony temat. Zwłaszcza gdy metody moderowania treści, oparte na maszynowym uczeniu algorytmu, przybierają nieraz przypadkowy przebieg.

Na czym polega automatyczna moderacja na social mediach?

Automatyzacja procesów moderacyjnych umożliwia szybkie reagowanie na treści nieodpowiednie lub szkodliwe. Jednak większość problemów związanych z zawieszeniami i blokadami kont wynika z faktu, że algorytmy dostrzegają naruszenia, tak gdzie ich nie ma. Moderacja przez boty przypomina często zjawisko zwane “halucynacjami AI”. Sztuczna inteligencja tworząc treści na podstawie promptów (komend) podanych przez użytkownika i uzupełnia braki wynikające z nieznajomości kontekstu, informacjami, które odczytane przez człowieka wydają się niedorzeczne.

Podobnie działają mechanizmy moderujące treści w mediach społecznościowych. Jeśli blokują konta to dlatego, że wyłapały na nich informacje, które w wyniku uczenia maszynowego zostały oznaczone za niebezpieczne lub szkodliwe. Jednak nie rozumieją kontekstu, cytatu czy krytyki. Niejednokrotnie algorytmy często mylnie interpretują obiekty na zdjęciach. Niedoskonałość rozpoznania co znajduje się na obrazie czy w treści, powoduje, że wiele kont zostaje zablokowanych przypadkowo co tworzy zjawisko tzw. underblockingu.