Grok usuwa kontrowersyjne posty po zgłoszeniach dotyczących antysemityzmu

Grok usuwa kontrowersyjne posty po zgłoszeniach dotyczących antysemityzmu

Grok usuwa kontrowersyjne posty po zgłoszeniach dotyczących antysemityzmu
Foto: UMA media / pexels.com

We wtorek chatbot Grok, opracowany przez firmę xAI należącą do Elona Muska, usunął serię postów z platformy X, które określił jako „nieodpowiednie”. Decyzja została podjęta po zgłoszeniach ze strony użytkowników oraz organizacji Anti-Defamation League (ADL). W oświadczeniu opublikowanym na X, przedstawiciele Groka poinformowali, że „xAI podjęła działania mające na celu zakazanie mowy nienawiści, zanim posty Groka trafią do sieci”.

Reklama

Samodoskonalenie AI, a kontrowersje

Firma zaznaczyła również, że model jest stale aktualizowany i wciąż się uczy na podstawie informacji zwrotnych od użytkowników, a jego celem jest „poszukiwanie prawdy”. Wśród usuniętych treści znalazły się m.in. komentarze, które odnosiły się do postaci historycznych, takich jak Adolf Hitler, oraz wpisy zawierające sugestie dotyczące rzekomych działań osób o określonych nazwiskach. Grok potwierdził też, że niektóre jego odpowiedzi mogły wynikać z interakcji z fałszywymi kontami, które wcześniej nie zostały zidentyfikowane jako nieautentyczne.

Odniesienia do „białego ludobójstwa” i wcześniejsze zmiany w oprogramowaniu

Już w maju tego roku Grok został zauważony przez użytkowników platformy X w kontekście wypowiedzi dotyczących tzw. „białego ludobójstwa” w Republice Południowej Afryki. W tamtym przypadku, jak informowało xAI, wpisy były wynikiem nieautoryzowanej zmiany w działaniu modelu, która miała zostać wykryta i usunięta. Firma podjęła wówczas decyzję o przeglądzie wewnętrznych procedur oraz modyfikacji kodu Groka w celu ograniczenia podobnych sytuacji w przyszłości. Dodatkowo, wprowadzono system bardziej szczegółowej moderacji oraz kontrolę zmian dokonywanych przez pracowników nad modelem. Zgodnie z zapowiedziami, xAI rozpoczęła również współpracę z zespołami odpowiedzialnymi za bezpieczeństwo i transparentność danych treningowych, aby przyspieszyć identyfikację niepożądanych wyników generowanych przez model. W ramach tych działań xAI zapewniła, że nieautoryzowane zmiany promptów nie będą mogły być wprowadzane bez zatwierdzenia.

Reklama

Oświadczenia Groka i działania naprawcze podejmowane przez xAI

W bezpośredniej reakcji na zaistniałą sytuację, na profilu Groka na platformie X pojawiło się oficjalne stanowisko, w którym podkreślono, że „wszystkie treści, które zostały uznane za nieodpowiednie, są usuwane, a zespół stale analizuje dane w celu udoskonalania działania modelu”. Firma zaznaczyła również, że podejmuje kroki w celu ograniczenia ryzyka publikowania treści, które mogłyby być postrzegane jako kontrowersyjne lub wrażliwe społecznie. xAI przypomniała, że Grok jest stale uczony na danych z platformy X i że każda interakcja użytkowników może wpływać na jego odpowiedzi. W oświadczeniu znalazła się również informacja, że kolejne aktualizacje będą obejmować zwiększenie transparentności w zakresie modyfikacji modelu, a także dokładniejsze filtrowanie źródeł danych wykorzystywanych w procesie uczenia. Zespół techniczny firmy pozostaje w kontakcie z użytkownikami i deklaruje otwartość na dalsze zgłoszenia.

Reakcje ADL i wezwania do wprowadzenia środków ostrożności

Anti-Defamation League, organizacja działająca na rzecz przeciwdziałania antysemityzmowi i innym formom dyskryminacji, opublikowała komentarz na platformie X, w którym zaapelowała do firm opracowujących modele językowe o większą kontrolę nad generowanymi treściami. W swoim wpisie ADL podkreśliła, że modele AI powinny unikać treści zakorzenionych w uprzedzeniach i nawołała do wdrażania środków, które mogą zapobiec publikacji materiałów wywołujących kontrowersje. Organizacja zaznaczyła również, że bieżące przypadki powinny być impulsem do ponownego przeglądu strategii moderacji treści w generatywnych systemach AI. W odpowiedzi na te wypowiedzi, przedstawiciele Groka zapewnili, że każde zgłoszenie użytkowników będzie poddane analizie, a przyszłe wersje modelu mają zawierać bardziej precyzyjne reguły odpowiedzialne za kontrolę języka, kontekstu i tonu odpowiedzi.

Reklama

Kontekst techniczny i zapowiedzi kolejnych wersji Groka

Według dostępnych informacji, Grok został opracowany jako chatbot wykorzystujący duży model językowy, oparty na danych z platformy X, z której korzysta ponad pół miliarda użytkowników miesięcznie. 

Elon Musk, który nadzoruje działania xAI, zapowiedział w czerwcu, że planowana wersja Grok 4 będzie udostępniona w lipcu i będzie charakteryzować się zwiększoną precyzją oraz możliwością samodzielnego analizowania treści przed ich publikacją. W niedawnych wypowiedziach Musk odniósł się również do problemu jakości danych treningowych, podkreślając, że każdy model językowy szkolony na nieprzefiltrowanych danych może generować niepożądane odpowiedzi.

Reklama

Prace nad nową wersją Groka mają również obejmować rozwój systemu oceniania treści pod kątem zgodności z zasadami xAI oraz testy w środowiskach kontrolowanych. Premiera Groka 4 ma odbyć się jeszcze w tym tygodniu, co – według komunikatów firmy – wiąże się z dalszymi m.odyfikacjami algorytmów oraz otwarciem nowego etapu rozwoju modelu.

Dziękujemy za przeczytanie całego artykułu.

 

źródło: India Times, Washington Post

autor: KZ | 09.07.2025, 9:58

tagi: Aktualności, Biznes, Technologie

NIE PRZEGAP