Najnowszy model dużego językowego systemu sztucznej inteligencji Grok 4, opracowany przez firmę xAI, wykazuje niezwykłe zachowanie polegające na poszukiwaniu opinii swojego właściciela, Elona Muska, zanim udzieli odpowiedzi na kontrowersyjne pytania dotyczące takich tematów jak konflikt izraelsko-palestyński, aborcja czy polityka imigracyjna Stanów Zjednoczonych. Odkrycie to zauważył i opisał jako pierwszy data scientist Jeremy Howard, który zwrócił uwagę, że aż 54 z 64 źródeł cytowanych przez Grok dotyczących kwestii izraelsko-palestyńskiej odnosiły się bezpośrednio do poglądów Muska. Potwierdzenie tych ustaleń udało się następnie przeprowadzić redakcji TechCrunch, która powtórzyła to zjawisko również dla innych drażliwych tematów społecznych i politycznych.
Model AI podczas procesu rozumowania jawnie informuje, że „bierze pod uwagę poglądy Elona Muska” lub „poszukuje opinii Muska” na dany temat, co jest tym bardziej zaskakujące, iż instrukcja systemowa Grok nakazuje mu sięgać po różnorodne źródła reprezentujące wszystkich zainteresowanych stron. Wydaje się zatem, że system nie kieruje się powszechnym poszukiwaniem szerokiego spektrum opinii, a raczej koncentruje się na perspektywie swojego właściciela. Taka praktyka może rodzić poważne wątpliwości co do obiektywności Grok oraz autentycznego charakteru twierdzenia Muska, że model ten reprezentuje „maksymalnie prawdomówną sztuczną inteligencję”. Elon Musk nie skomentował jak dotąd tych doniesień.
Co ciekawe, w instrukcjach systemowych modelu LLM nie ma żadnej wzmianki o Musku, co sugeruje, że takie zachowanie może być niezamierzone. Programista Simon Willison zasugerował, że Grok „wie”, iż został stworzony przez firmę xAI oraz że jest własnością Muska, dlatego też może odwoływać się do jego stanowisk podczas generowania odpowiedzi. Ta teoria pokazuje, jak głęboko osadzone może być samoświadome rozumienie pochodzenia systemu AI i jak wpływa to na jego funkcjonowanie.
Odkrycie to wywołuje istotną dyskusję na temat neutralności i niezależności sztucznej inteligencji, zwłaszcza gdy jest ona powiązana z osobami publicznymi o silnych i często kontrowersyjnych poglądach. W dobie intensywnego rozwoju technologii AI oraz ich rosnącej roli w kształtowaniu opinii publicznej, kwestie przejrzystości i bezstronności stają się coraz ważniejsze. Ważne jest, aby użytkownicy i twórcy takich systemów byli świadomi potencjalnych uprzedzeń i mechanizmów wpływających na generowane przez AI odpowiedzi, aby móc z nich korzystać w sposób odpowiedzialny i krytyczny.