
Nowe regulacje mają na celu zwiększenie bezpieczeństwa użytkowników.
Platformy społecznościowe, takie jak TikTok, Facebook i Instagram, wprowadzają istotne zmiany dotyczące nadzoru nad treściami oraz możliwości odwołań od decyzji o usunięciu postów. Nowe regulacje mają na celu zwiększenie bezpieczeństwa użytkowników, zwłaszcza nastolatków.
Kontrola rodzicielska w TikTok
TikTok ogłosił wdrożenie nowych narzędzi umożliwiających rodzicom kontrolowanie aktywności ich dzieci w aplikacji. Wprowadzone rozwiązania pozwolą na ustalanie godzin, w których korzystanie z TikToka będzie blokowane, na przykład podczas lekcji, w nocy czy w trakcie weekendowych wyjazdów.
Dodatkowo, rodzice uzyskają większy wgląd w aktywność swoich dzieci – będą mogli zobaczyć, kogo nastolatek obserwuje, kto obserwuje jego profil oraz jakie konta zostały przez niego zablokowane.
W aplikacji pojawi się także funkcja pomagająca młodym użytkownikom rozwijać zdrowe nawyki cyfrowe. Pełnoekranowe powiadomienie aktywujące się o 22:00 wraz z uspokajającą muzyką ma pomóc w wyciszeniu i ograniczeniu czasu spędzanego przed ekranem.
Nie tylko TikTok zaostrza zasady. Instagram również prowadzi szeroko zakrojoną kampanię informującą o nowych rozwiązaniach mających na celu ochronę młodych użytkowników.
Zmiany te są odpowiedzią na rosnące obawy dotyczące wpływu mediów społecznościowych na zdrowie psychiczne, szczególnie wśród młodych dziewcząt.
Skargi użytkowników
Wraz z wprowadzaniem nowych regulacji w zakresie kontroli rodzicielskiej rośnie także liczba odwołań od decyzji platform społecznościowych. W odpowiedzi na ten problem powstało Europejskie Centrum Odwoławcze, które zajmuje się rozpatrywaniem skarg dotyczących moderacji treści.
Instytucja, mająca swoją siedzibę w Dublinie, działa od listopada i przyjmuje wnioski od użytkowników z całej Unii Europejskiej. Obecnie zajmuje się sprawami dotyczącymi Facebooka, TikToka i YouTube’a, ale planuje rozszerzyć swoją działalność na inne platformy społecznościowe.
Od początku działalności Centrum wpłynęło ponad 1 500 skarg, z czego 76% dotyczyło Facebooka, 21% TikToka, a 3% YouTube’a. Najczęściej zgłaszane problemy obejmowały nagość osób dorosłych, zastraszanie i nękanie oraz promowanie produktów objętych regulacjami, takich jak alkohol czy narkotyki.
Do tej pory wydano już ponad 150 decyzji, z czego 141 dotyczyło Facebooka. W niemal połowie przypadków Centrum uchyliło decyzję platformy, uznając, że treści zostały niesłusznie usunięte lub powinny zostać usunięte, mimo wcześniejszej decyzji Meta.
Nowe prawo
Centrum działa w ramach unijnego Digital Services Act (DSA), który zobowiązuje platformy do zapewnienia użytkownikom dostępu do pozasądowego mechanizmu odwoławczego. Mimo to wiele osób nadal nie jest świadomych, że może złożyć skargę na decyzję platformy.
Chociaż nowe regulacje przyznają użytkownikom prawo do kwestionowania decyzji o moderacji treści, same platformy nie informują o tym w wystarczającym stopniu.
Aby zmienić tę sytuację, Centrum domaga się, by serwisy społecznościowe wyraźnie wskazywały użytkownikom dostępne ścieżki odwoławcze.
Obecnie złożenie skargi do Centrum jest bezpłatne, ale w przyszłości użytkownicy będą zobowiązani do wniesienia symbolicznej opłaty w wysokości 5 euro, która zostanie zwrócona w przypadku wygranej sprawy.
Organizacja podkreśla swoją niezależność, mimo że początkowe finansowanie pochodziło z funduszu powiązanego z Meta. W przyszłości Centrum ma być utrzymywane z opłat pobieranych od platform społecznościowych za każdą rozpatrywaną sprawę.
Problemy użytkowników
Najwięcej skarg wpłynęło z Włoch, Francji i Niemiec, natomiast Irlandia zajęła drugie miejsce w Unii Europejskiej pod względem liczby skarg w przeliczeniu na mieszkańca.
Najczęściej zgłaszane problemy przez irlandzkich użytkowników dotyczyły: zastraszania i nękania, mowy nienawiści i niebezpiecznych organizacji i jednostek.