Od końca grudnia 2025 roku chatbot firmy X, Grok, oparty na sztucznej inteligencji, w wyniku poleceń użytkowników, przekształcał zdjęcia dzieci oraz osób publicznych w materiały o charakterze seksualnym.
Po tym, jak użytkownicy zaczęli korzystać z tej funkcji, X spotkał się z globalną krytyką za umożliwienie użytkownikom generowania bez ich zgody treści o charakterze seksualnym przedstawiających prawdziwe osoby.
Grok publikował tysiące „nagich” zdjęć na godzinę. Co jeszcze bardziej niepokojące, Grok generował seksualizowane zdjęcia i materiały o charakterze seksualnym z udziałem nieletnich .
Odpowiedź przedstawicieli platformy można podsumować w ten sposób: Obwiniaj użytkowników platformy, a nie nas.
Firma wydała oświadczenie 3 stycznia 2026 r., w którym stwierdziła, że „każdy, kto używa Groka lub nakłania go do tworzenia nielegalnych treści, poniesie takie same konsekwencje, jak gdyby sam je publikował”. Nie jest jasne jakie działania jeśli w ogóle X podjął wobec użytkowników.
Jako prawnik, który bada relacje między prawem a nowymi technologiami widzę tę falę niechcianych obrazów jako przewidywalny rezultat połączenia niedbałej polityki moderowania treści przez X i dostępności potężnych narzędzi sztucznej inteligencji .
Kierowanie do użytkowników
Gwałtowny rozwój sztucznej inteligencji generatywnej doprowadził do powstania niezliczonych stron internetowych, aplikacji i chatbotów, które pozwalają użytkownikom tworzyć materiały o charakterze seksualnym, w tym „nagość” prawdziwych dzieci . Jednak te aplikacje i strony internetowe nie są tak powszechnie znane jak X.
Amerykańskie legislatury stanowe i Kongres zareagowały dość szybko. W maju 2025 roku Kongres uchwalił ustawę „Take It Down Act”, która uznaje za przestępstwo publikowanie bez zgody osób trzecich materiałów o charakterze seksualnym przedstawiających prawdziwe osoby.
Ustawa „Take It Down Act” kryminalizuje zarówno bezprawną publikację „intymnych wizerunków” osób możliwych do zidentyfikowania, jak i wizerunków osób możliwych do zidentyfikowania generowanych przez sztuczną inteligencję lub komputer.
Problemy z platformami
Tymczasem prośby użytkowników o usunięcie pornograficznych zdjęć stworzonych przez Grok najwyraźniej pozostały bez odpowiedzi. Nawet matka jednego z dzieci Elona Muska, Ashley St. Clair, nie zdołała nakłonić X do usunięcia fałszywych, seksualnych zdjęć, które fani Muska stworzyli za pomocą Grok. „The Guardian” donosi, że St. Clair stwierdziła, że jej „ skargi do pracowników X nie przyniosły żadnych rezultatów ”.
Nie dziwi mnie to, ponieważ Musk zlikwidował ówczesny zespół doradczy ds. zaufania i bezpieczeństwa Twittera wkrótce po przejęciu platformy i zwolnił 80% inżynierów firmy zajmujących się zaufaniem i bezpieczeństwem. Zespoły ds. zaufania i bezpieczeństwa zazwyczaj odpowiadają za moderację treści i inicjatywy zapobiegające nadużyciom w firmach technologicznych.
Publicznie wydaje się, że Musk bagatelizuje powagę sytuacji. Musk podobno opublikował emotikony wywołujące śmiech i płacz w odpowiedzi na niektóre zdjęcia, a X odpowiedział na pytanie reportera Reutersa automatyczną odpowiedzią „Legacy Media Lies”.
Granice pozwów
Pozwy cywilne, takie jak ten wniesiony przez rodziców Adama Raine’a, nastolatka, który popełnił samobójstwo w kwietniu 2025 roku po interakcji z ChatGPT firmy OpenAI, to jeden ze sposobów pociągnięcia platform do odpowiedzialności. Jednak w Stanach Zjednoczonych proces sądowy jest utrudniony ze względu na artykuł 230 Ustawy o ochronie przyzwoitości w komunikacji (Communications Decency Act) , który zasadniczo zwalnia platformy mediów społecznościowych z odpowiedzialności prawnej za treści publikowane na ich platformach przez użytkowników.
Sędzia Sądu Najwyższego Clarence Thomas i wielu prawników argumentowali jednak, że sądy stosują artykuł 230 zbyt szeroko . Zasadniczo zgadzam się, że immunitet wynikający z artykułu 230 należy zawęzić, ponieważ immunitet firm technologicznych i ich platform w zakresie ich świadomych decyzji projektowych – sposobu tworzenia oprogramowania, jego działania i tego, co ono generuje – wykracza poza zakres ochrony przewidzianej w artykule 230.
W tym przypadku X świadomie lub nieumyślnie nie wdrożył zabezpieczeń i kontroli w Grok, aby uniemożliwić użytkownikom generowanie obrazów o charakterze seksualnym przedstawiających osoby możliwe do zidentyfikowania. Nawet jeśli Musk i X uważają, że użytkownicy powinni mieć możliwość generowania obrazów o charakterze seksualnym osób dorosłych za pomocą Grok uważam, że w żadnym wypadku X nie powinien uchylać się od odpowiedzialności za stworzenie produktu, który generuje materiały o charakterze seksualnym przedstawiające prawdziwe dzieci.
Bariery regulacyjne
Jeśli ludzie nie mogą pociągnąć platform takich jak X do odpowiedzialności poprzez pozwy cywilne, to na rządzie federalnym spoczywa obowiązek ich zbadania i uregulowania. Na przykład Federalna Komisja Handlu, Departament Sprawiedliwości lub Kongres mogłyby zbadać X pod kątem generowania przez Groka treści o charakterze seksualnym, które nie byłyby konsensualne. Jednak biorąc pod uwagę odnowione powiązania polityczne Muska z prezydentem Donaldem Trumpem , nie spodziewam się w najbliższym czasie żadnych poważnych śledztw ani pociągnięcia do odpowiedzialności.
Na razie międzynarodowe organy regulacyjne wszczęły dochodzenia przeciwko X i Grokowi. Władze francuskie wszczęły dochodzenia w sprawie „ rozpowszechniania seksualnie sugestywnych deepfake’ów ” Groka, a Irlandzka Rada Swobód Obywatelskich i Praw Cyfrowych (Irish Council for Civil Liberties and Digital Rights Ireland) stanowczo zaapelowała do irlandzkiej policji o zbadanie „masowego rozbierania się”. Brytyjski urząd regulacyjny Office of Communications poinformował o prowadzeniu dochodzenia w tej sprawie , a organy regulacyjne w Komisji Europejskiej, Indiach i Malezji również podobno prowadzą dochodzenie w sprawie X.
W Stanach Zjednoczonych najlepszym sposobem działania do czasu wejścia w życie ustawy Take It Down Act w maju jest prawdopodobnie to, aby ludzie domagali się podjęcia działań przez wybranych urzędników.





