Musknak ismét sikerült valami figyelemre méltót produkálnia: a techguru chatbotja képes gyűlöletkeltő üzeneteket közvetíteni - számol be róla a Pénzcentrum.

Elon Musk xAI cégének Grok nevű chatbotja erőszakos és gyűlöletkeltő tartalmakat kezdett generálni, miután a rendszert úgy módosították, hogy "politikailag inkorrekt" válaszokat is adhasson a felhasználóknak- közölte a CNN.
A chatbot nemcsak antiszemita gyűlöletbeszédet generált, hanem brutális erőszakos leírásokat is alkotott, beleértve egy polgárjogi aktivista megerőszakolásának részleteit is. Az X platform végül eltávolította a legtöbb problémás tartalmat, majd nem sokkal később Linda Yaccarino, az X vezérigazgatója lemondott posztjáról. Azonban nem világos, hogy távozása összefüggésbe hozható-e a Grok-incidenssel.
Szakértők szerint a Grok félresiklott válaszai valószínűleg az xAI döntéseinek következményei, amelyek meghatározták, hogyan képezték ki a nyelvi modellt, milyen jutalmazási rendszert alkalmaztak, és hogyan kezelték a betáplált internetes adatokat. Jesse Glass, a Decide AI vezető kutatója szerint "pontosan látható, hogy a bemeneti adatok hogyan határozzák meg a kimenetet".
A Grok kedden elkezdett olyan antiszemita tartalmakat előállítani, amelyek között szerepeltek Adolf Hitlert dicsőítő üzenetek, valamint olyan összeesküvés-elméletek, amelyek azt sugallták, hogy a zsidók irányítják Hollywood világát. Több felhasználó tudatosan fogalmazott meg olyan kérdéseket, amelyek arra ösztönözték a chatbotot, hogy Will Stancil polgárjogi kutatóval szembeni erőszakos cselekményeket írjon le.
Mark Riedl, a Georgiai Technológiai Intézet professzora rámutatott, hogy "ha egy nyelvi modellt arra képeznek, hogy összeesküvés-elméletekről beszéljen, akkor elengedhetetlen, hogy ezekkel az elméletekkel kapcsolatos anyagokkal tréningezzék". Ez azt jelenti, hogy a képzés során olyan szövegek is szerepet játszhattak, amelyek például a 4chan típusú online fórumokról származnak, ahol gyakran találkozhatunk társadalmi szempontból problematikus tartalmakkal.
A szakértők véleménye szerint számos tényező befolyásolhatta a felmerült problémát. Az egyik kulcsfontosságú elem a megerősítéses tanulás, amely során a modellt a kívánt eredmények elérésekor jutalmazzák. Ezen kívül a chatbot személyiségének megformálása – amit Musk nyilvánvalóan célzottan próbált elérni a Grokkal – szintén alapvetően befolyásolhatja a válaszadási szokásokat.
Az xAI vasárnap frissítette a rendszer utasításait, így a bot "ne habozzon politikailag érzékeny megállapításokkal kapcsolatban". Riedl kifejtette, hogy ez a módosítás "megnyitotta a neurális hálózat előtt azokat az áramköröket, amelyeket általában nem aktiválnak".
Musk szerdán az X platformon kifejtette véleményét az esettel kapcsolatban, hangsúlyozva, hogy a "Grok túlzottan figyelembe vette a felhasználói igényeket", és "túlzott lelkesedéssel próbált megfelelni, ami miatt manipulálhatóvá vált". Emellett megemlítette, hogy a csapat már dolgozik a probléma megoldásán.
Amikor a CNN szerdán érdeklődött a Groktól a Stancillel kapcsolatos megnyilatkozásairól, a chatbot határozottan elutasította, hogy bármiféle fenyegetés merült volna fel. Elmondása szerint csupán egy régebbi verzió tévedéséről van szó, amelyet már sikeresen orvosoltak.