Choć zwolennicy środowisk LGBTQ pochwalają te działania, apelują o bardziej zdecydowane zmiany na platformach mediów społecznościowych.
Według Instytutu Williamsa w UCLA School of Law, osoby LGBTQ są prawie cztery razy bardziej narażone na przemoc. Nawet w mediach społecznościowych – gdzie wiele osób znajduje afirmujące się społeczności – są one narażone na nadużycia. Według danych Anti-Defamation League około 64 procent członków tej społeczności doświadczyło w ciągu ostatniego roku nękania w sieci.
Jednak 8 lutego jedna z głównych platform – TikTok – podjęła próbę uczynienia tej przestrzeni nieco bezpieczniejszą dla użytkowników LGBTQ. Zaktualizowała ona swoje wytyczne dotyczące społeczności, aby wyraźnie zakazać na swojej platformie stosowania tzw. deadnamingu, błędnego utożsamiania płci, mizoginii oraz promowania tzw. terapii konwersyjnej.
„Chociaż te ideologie są od dawna zabronione na TikTok, usłyszeliśmy od twórców i organizacji społeczeństwa obywatelskiego, że ważne jest, aby wyraźnie zaznaczyć to w naszych Wytycznych dla społeczności” – powiedział Cormac Keenan, dyrektor ds. zaufania i bezpieczeństwa w TikTok, w komunikacie prasowym.
Misgendering to odnoszenie się do osoby transpłciowej z użyciem niewłaściwej płci, a deadnaming to odnoszenie się do dawnego imienia osoby transpłciowej lub ujawnianie go bez jej zgody. „Terapia konwersyjna jest naukowo zdyskredytowaną i szkodliwą praktyką polegającą na próbach „nawrócenia” osób LGBTQ na heteroseksualność lub cisgender.
Chociaż użytkownicy LGBTQ i grupy obrońców przyklasnęli zaktualizowanym wytycznym społecznościowym, nie jest jasne, w jaki sposób będą one egzekwowane ani o ile bezpieczniejsi staną się użytkownicy LGBTQ na TikTok. Zaktualizowane wytyczne to tylko jedna z wielu zmian, które obrońcy praw osób LGBTQ chcieliby, aby wprowadziły firmy z branży mediów społecznościowych.
Zapobieganie krzywdom w świecie rzeczywistym
Jak mówi Jenni Olson, dyrektor programowy ds. bezpieczeństwa w mediach społecznościowych w GLAAD, organizacji działającej na rzecz osób LGBTQ, złośliwe przeinaczanie płci i nadawanie imion może powodować realne szkody. Na przykład, według badania przeprowadzonego w 2021 r. przez Trevor Project, młodzież transpłciowa i niebinarna, która zgłosiła, że mieszka z osobami, które nie szanują ich zaimków, podejmowała próby samobójcze niemal dwukrotnie częściej niż młodzież, która zgłosiła, że mieszka ze wszystkimi osobami szanującymi ich zaimki.
Równie niebezpieczne może być promowanie tzw. terapii konwersyjnej. Młodzież LGBTQ, która poddawała się takim praktykom, była ponad dwukrotnie bardziej narażona na próby samobójcze niż osoby, które nie były poddawane takim praktykom – również według Trevor Project.
Homofobia i transfobia, podobnie jak inne formy bigoterii, szerzą się w mediach społecznościowych po części ze względu na to, jak zaprojektowane są platformy – mówi Jeffrey Marsh, trans-, niebinarny autor i twórca TikTok z ponad 500 000 obserwujących.
„Nienawiść jest uzależniająca” – mówi Marsh. Jeśli platformie najbardziej zależy na zaangażowaniu, to – dodaje – „nienawiść jest bardzo wciągającym zajęciem”.
Marsh sprawił, że wiele z ich filmów stało się wiralami po „złej stronie TikTok”, kiedy ich wideo pojawia się częściej na kanałach homofobicznych i transfobicznych użytkowników, ponieważ gorliwie i zaciekle się w nie angażują. Marsh otrzymał nawet groźby śmierci, ale wierzy, że dzielenie się nawet najbardziej złośliwymi komentarzami jest okazją do edukowania innych.
„Częścią mojej misji jest pomaganie innym w zrozumieniu osób LGBTQ, nawet jeśli sami są nienawistnymi bigotami” – mówi Marsh. „Ale gdybym był kimś o innym profilu zdrowia psychicznego, mogłoby to być bardzo niebezpieczne położenie”.
Użytkownicy i obrońcy praw osób LGBTQ pochwalają zmiany
Zaktualizowane wytyczne dla społeczności pojawiły się po tym, jak w listopadzie GLAAD i ponad 75 innych grup podpisało list otwarty, w którym zwróciło się do TikTok i innych platform mediów społecznościowych z prośbą o lepszą ochronę użytkowników przed homofobią, transfobią, mizoginią i rasizmem.
W maju GLAAD opublikowała swój inauguracyjny Indeks Bezpieczeństwa Mediów Społecznościowych, który ocenia platformy na podstawie tego, jak chronią lub nie chronią użytkowników LGBTQ. Przedstawia również rekomendacje dotyczące tego, jak mogą się one poprawić. Olson twierdzi, że GLAAD regularnie spotyka się ze wszystkimi platformami, by udzielać im wskazówek. Jednoznaczny zakaz nadawania imion, błędnego utożsamiania się i promowania terapii konwersyjnej był jednym z zaleceń Indeksu, ale GLAAD zwraca uwagę, że w 2018 roku Twitter wyraźnie zakazał błędnego utożsamiania się i nadawania imion, a Pinterest wyraźnie zakazał promowania terapii konwersyjnej i „zaprzeczania tożsamości płciowej lub orientacji seksualnej danej osoby”.
„To naprawdę potężne, że firma może wydać oświadczenie, w którym mówi: 'Oto oczekiwania, jakie mamy wobec osób korzystających z naszych produktów'” – mówi Olson.
Zdaniem Marsh, biorąc pod uwagę popularność TikTok, fakt, że ukochana platforma wyraźnie zakazuje takich zachowań, może być bardzo budujący dla młodzieży LGBTQ. Marsh od lat tworzy treści na platformach społecznościowych, w tym na Vine, jednym z poprzedników TikTok, i uważa, że TikTok jest pierwszą platformą, która naprawdę skupiła na sobie głosy marginalizowanych.
„To wspaniałe, że dostrzegli wartość w nawoływaniu do tego szczególnego rodzaju nienawiści. Dla mnie jest to forma szacunku” – mówi Marsh. „Jednocześnie nie jestem pewien, czy codzienne życie twórców LGBTQ zmieni się aż tak bardzo”.
Egzekwowanie przepisów jest trudne do przewidzenia
Chociaż TikTok stwierdził, że używa „kombinacji technologii i ludzi do identyfikowania i usuwania naruszeń naszych Wytycznych dla społeczności”, firma nie zaoferowała wielu szczegółów na temat tego, jak będzie egzekwować konkretne, zaktualizowane wytyczne. Zarówno Olson, jak i Marsh mają wątpliwości co do tego, w jaki sposób platforma będzie rozliczać użytkowników.
„Jest polityka, a potem jest jej egzekwowanie” – mówi Olson. „A egzekwowanie tych wszystkich rzeczy jest, delikatnie mówiąc, bardzo nierówne”.
Według TikTok, algorytmy sprawdzają filmy przed ich załadowaniem i oznaczają lub usuwają filmy, które wydają się naruszać wytyczne społeczności. Dotyczy to głównie kategorii, w których technologia ta może być najbardziej dokładna, takich jak bezpieczeństwo nieletnich, nagość i aktywność seksualna dorosłych oraz treści brutalne i graficzne.
W przypadku bardziej zniuansowanych kategorii, takich jak nienawistne zachowania, nękanie i zastraszanie, TikTok w większym stopniu polega na ludzkich moderatorach – powiedział Eric Han, szef działu bezpieczeństwa TikTok w USA, w lipcowej informacji prasowej.
Marsh uważa, że TikTok będzie polegał głównie na zgłoszeniach użytkowników, aby egzekwować zaktualizowane wytyczne dla społeczności.
Jamie Favazza, dyrektor ds. polityki i komunikacji bezpieczeństwa w TikTok, mówi przez e-mail: „Staramy się proaktywnie egzekwować nasze zasady wykorzystując zarówno technologię, jak i ludzi, a także cenimy i przeglądamy zgłoszenia, które otrzymujemy od naszej społeczności”.
Przejrzystość, brak konkretów i odpowiedzialności
TikTok publikuje kwartalne raporty dotyczące egzekwowania wytycznych dla społeczności, w których podaje liczbę usuniętych filmów, uporządkowanych według ogólnych wytycznych. Od lipca do września 2021 roku TikTok usunął ponad 91 milionów filmów, czyli około 1 procent wszystkich filmów przesłanych na platformę, z czego nieco ponad jedna trzecia została usunięta automatycznie. Spośród wszystkich usuniętych filmów około 1,5 procenta zostało usuniętych za „nienawistne zachowanie”, a około 5 procent za „nękanie i zastraszanie”.
Olson zwraca jednak uwagę, że liczby te nie są podzielone według konkretnych form prześladowania, takich jak homofobia czy transfobia.
„Podają, ile stron usunęli” – mówi Olson. „Nie mamy pojęcia, ile pominęli”.
Chociaż Olson pochwala aktualizacje wytycznych społecznościowych TikTok i chciałaby, aby inne platformy mediów społecznościowych poszły w jej ślady, chciałaby zobaczyć więcej nadzoru regulacyjnego nad platformami, aby upewnić się, że przestrzegają one swoich zasad i zapewniają użytkownikom bezpieczeństwo.
„Każda inna branża w Ameryce jest regulowana w taki sposób, że ponosi się konsekwencje za wpływ produktów na zdrowie publiczne i bezpieczeństwo” – mówi Olson. „Nie powinniśmy być zmuszani do ponoszenia konsekwencji związanych ze zdrowiem i bezpieczeństwem publicznym, skoro istnieją rzeczy, które można zrobić, aby złagodzić te szkody”.
Odnosi się ona w szczególności do ustawy Social Media NUDGE Act, dwupartyjnego projektu wprowadzonego do Kongresu na początku tego miesiąca, którego celem jest zbadanie i ograniczenie szkodliwych treści na platformach mediów społecznościowych. Planuje się to osiągnąć poprzez dodanie poziomów „tarcia”, takich jak polityka Twittera, który pyta użytkowników, czy przeczytali artykuł, zanim go opublikują. Olson twierdzi również, że GLAAD pracuje obecnie nad Indeksem Bezpieczeństwa Mediów Społecznościowych na rok 2022, który będzie zawierał karty wyników dla platform społecznościowych.
Tymczasem Marsh przyznaje, że firmom z branży mediów społecznościowych trudno jest w pełni wyeliminować homofobię i transfobię ze swoich platform, ponieważ odzwierciedlają one homofobię i transfobię w społeczeństwie.
„Nienawiść do osób LGBTQ nie została wymyślona przez TikTok. Nie została wymyślona przez ludzi, którzy używają TikTok. Jest to systemowy problem globalny” – mówi Marsh. „Pozbycie się z platformy nienawiści do osób LGBTQ nie jest najłatwiejszą rzeczą na świecie, ponieważ jako społeczeństwo jest to wciąż bardzo uzależniająca nienawiść”.