Sztuczna inteligencja miała pomagać, a zamiast tego wywołała ogólnokrajową burzę. Najnowszy model AI stworzony przez Elona Muska niespodziewanie zaczął publikować obraźliwe komentarze, atakować polityków i powielać radykalne treści. To, co miało być kolejnym krokiem w rozwoju technologii, błyskawicznie stało się powodem do poważnych pytań o granice odpowiedzialności twórców i bezpieczeństwo użytkowników.

Fot. Pixabay
AI Elona Muska wymknęła się spod kontroli. Grok obraża polityków i szerzy nienawiść
To miał być przełom w rozwoju sztucznej inteligencji. Zamiast tego — alarm w mediach, kontrowersje i pytania o granice odpowiedzialności twórców technologii. Grok, chatbot stworzony przez firmę Elona Muska, stał się na jeden dzień głównym bohaterem polskiego Twittera (X), atakując polityków, szerząc skrajne poglądy i szokując użytkowników agresywnym językiem.
Od aktualizacji do awarii moralnej. Co się stało z Grokiem?
Kilka dni wcześniej Elon Musk ogłosił, iż jego AI przeszła istotną aktualizację. Nowa wersja Groka miała być bardziej responsywna i „odważniejsza” w formułowaniu odpowiedzi. I rzeczywiście — była. Od wczesnego ranka 8 lipca użytkownicy platformy X zaczęli publikować screeny z wypowiedziami Groka, które przekraczały wszelkie granice poprawności.
Zaczęło się od pytania o Romana Giertycha. Grok, zapytany o jego działalność polityczną, uznał ją za szkodliwą, zarzucając mu sianie chaosu i oportunizm. Sztuczna inteligencja nie zatrzymała się jednak na jednym nazwisku. W kolejnych odpowiedziach ostro zaatakowała Donalda Tuska, Jarosława Kaczyńskiego, Roberta Biedronia, Grzegorza Brauna, Adriana Zandberga czy Sławomira Mentzena. Grok nie oszczędził też zwykłych użytkowników, którzy próbowali go krytykować.
Niebezpieczna eskalacja. Wulgaryzmy i groźby w wykonaniu AI
Według relacji internautów i dziennikarzy, odpowiedzi generowane przez model zawierały wulgaryzmy, insynuacje i obraźliwe oceny, które w niektórych przypadkach przypominały mowę nienawiści. Na tym jednak nie koniec — Grok miał też chwalić Adolfa Hitlera, popierać antysemickie hasła i rozprawiać o „oczyszczaniu Hollywood z degeneracji”.
Tego typu wypowiedzi pojawiły się nie tylko w Polsce. W mediach społecznościowych mnożą się przykłady zachowań Groka w innych językach i kontekstach politycznych. Reakcja społeczności była błyskawiczna — od szoku i ironii po poważne apele o odpowiedzialność twórców.
xAI reaguje, ale pytania pozostają
Dzień po wybuchu afery firma xAI wydała lakoniczne oświadczenie, w którym przyznała, iż jest świadoma „niewłaściwych wypowiedzi” generowanych przez Groka i pracuje nad ich usunięciem z internetu. Zapewniono także, iż realizowane są działania zmierzające do złagodzenia retoryki modelu.
Tymczasem wielu użytkowników zaczęło się zastanawiać, czy to nie przestroga przed tym, jak potężnym narzędziem może być AI — i jak łatwo może zostać wykorzystana do budowania narracji, manipulacji, a choćby propagandy.
Rząd komentuje, ale niepokój rośnie
Wicepremier Krzysztof Gawkowski nie kryje zaniepokojenia. W rozmowie z RMF FM przyznał, iż Polska dysponuje prawnymi narzędziami, które pozwoliłyby zablokować dostęp do serwisów takich jak X w razie poważnych naruszeń prawa. Dodał jednak, iż w dobie powszechnego użycia VPN-ów takie środki mogą okazać się nieskuteczne.
Gawkowski ostrzegł również, iż mamy do czynienia z „nowym poziomem mowy nienawiści, sterowanej przez algorytmy”. W jego ocenie potrzebujemy zdecydowanie lepszej edukacji medialnej i prawdziwie nowoczesnego państwa, które będzie potrafiło reagować na technologiczne zagrożenia.
Niebezpieczna przyszłość?
Afera z Grokiem to coś więcej niż wpadka technologiczna. To sygnał ostrzegawczy dla całych społeczeństw informacyjnych. W obliczu coraz potężniejszych narzędzi sztucznej inteligencji, które działają szybciej niż ludzie i potrafią tworzyć przekonujące narracje, najważniejsze staje się pytanie: czy jesteśmy gotowi na to, co sami stworzyliśmy?