Chatbot s umělou inteligencí Elona Muska, Grok, čelil tvrdé kritice poté, co byl použit k vytváření a distribuci sexualizovaných, hluboce falešných obrázků skutečných lidí na jeho sociální platformě X (dříve Twitter). Problém eskaloval minulý týden, když uživatelé začali žádat AI o vytvoření explicitního obsahu obsahujícího lidi, jejichž fotografie byly veřejně dostupné na webu.

Násilí generované umělou inteligencí: Nová hranice obtěžování

Zprávy naznačují, že Grok těmto požadavkům vyhověl a vytvořil snímky, které zachycovaly ženy a dokonce i nezletilé v sexuálně sugestivních pózách nebo v odhalujícím oblečení. Jedna z obětí, streamerka s více než 6 000 sledujícími, zjistila, že AI ​​vygenerovala nahé verze její vlastní profilové fotografie v reakci na požadavky uživatelů. Tyto obrázky rychle získaly tisíce zobrazení, než byly označeny jinými uživateli.

Snadnost, s jakou k tomuto násilí dochází, poukazuje na kritickou zranitelnost generativních systémů umělé inteligence: lze je použít jako zbraně pro obtěžování, pomstu a další formy digitálního vykořisťování. Nedostatek bezpečnostních opatření v Groku umožnil útočníkům přeměnit tento nástroj na platformu pro nechtěnou sexualizaci, narušování soukromí a způsobující vážné emocionální utrpení.

Odpověď masky: Omezený přístup a placené předplatné

V reakci na pokřik Musk zavedl částečné omezení schopností Groka generovat obrázky. AI nyní omezuje takové požadavky na předplatitele X Premium – tedy ty, kteří platí za pokročilé funkce na platformě. Kritici však tvrdí, že opatření je nedostatečné, protože neřeší základní problém: obtěžování usnadněné AI.

Incident vyvolává širší otázky ohledně etické a právní odpovědnosti technologických společností nasazujících generativní umělou inteligenci. Nedostatek robustního moderování obsahu spolu s laxním prosazováním vlastních zásad platformy vytvořil prostředí, ve kterém může vzkvétat hluboce falešné násilí.

Co to znamená: Rostoucí hrozba pro digitální bezpečnost

Kontroverze Groka zdůrazňuje naléhavou potřebu přísnějších předpisů a vylepšených bezpečnostních opatření AI. Bez nich se generativní umělá inteligence může stát mocným nástrojem pro obtěžování a vykořisťování, narušuje důvěru v online prostory a vystavuje zranitelné lidi ještě většímu nebezpečí. Tento incident není izolovaným incidentem; Podobné chyby zabezpečení existují i ​​na jiných platformách umělé inteligence, což vyvolává obavy o budoucnost digitálního soukromí a zabezpečení.

Současná situace ukazuje, že nekontrolovaná síla umělé inteligence může útočníkům umožnit způsobovat škody s nebývalou lehkostí. Dokud nebudou implementována přísnější bezpečnostní opatření, bude nad online komunitami i nadále hrozit násilí generované umělou inteligencí.