Jak vzniká "AI psychóza"

13. 5. 2026

čas čtení 3 minuty
Nová studie naznačuje, že AI chatboti mohou nejen šířit dezinformace — mohou také aktivně posilovat mylná přesvědčení uživatelů.

Protože konverzační AI často souhlasí a staví na tom, co uživatelé říkají, může zkreslené vzpomínky, konspirační teorie nebo bludy učinit věrohodnějšími a emocionálně reálnějšími. Výzkumníci varují, že AI společníci mohou být obzvlášť rizikoví pro izolované nebo zranitelné lidi, kteří hledají ujištění a kontakt.

Když generativní AI systémy dávají nesprávné odpovědi, lidé často popisují problém jako "halucinaci AI", což znamená, že technologie produkuje falešné informace, kterým uživatelé mohou mylně věřit.

Nový výzkum však naznačuje, že se může objevovat ještě znepokojivější problém: lidé mohou začít "halucinovat pomocí AI".

Lucy Osler z University of Exeter zkoumala, jak interakce s konverzační AI mohou přispívat k falešným přesvědčením, zkresleným vzpomínkám, změněným osobním příběhům a dokonce i bludnému myšlení. Studie využívala myšlenky z teorie distribuované kognice a zkoumala případy, kdy AI systémy během probíhajících konverzací posilovaly a rozšiřovaly nepřesná přesvědčení uživatelů.

Studie zdůrazňuje to, co Dr. Osler popisuje jako "dvojí funkci" konverzační AI. Tyto systémy fungují nejen jako nástroje, které pomáhají lidem přemýšlet, organizovat informace a pamatovat si detaily, ale také jako konverzační partneři, kteří sdílejí pohled a zkušenosti uživatele.

Podle výzkumu tento sociální aspekt činí chatboty zásadně odlišnými od nástrojů jako jsou zápisníky nebo vyhledávače. Zatímco tradiční nástroje jednoduše ukládají nebo získávají informace, konverzační AI může uživatelům poskytnout pocit emocionálního uznání a sociální podpory.

Článek zkoumal reálné příklady, kdy se generativní AI systémy staly součástí kognitivního procesu jedinců, u nichž byla klinicky diagnostikována halucinace a bludné myšlení. Některé z těchto incidentů jsou stále častěji popisovány jako případy "psychózy vyvolané umělou inteligencí".

Výzkum tvrdí, že generativní AI má několik vlastností, které ji mohou činit obzvlášť účinnou při posilování zkreslených přesvědčení. AI společníci jsou vždy k dispozici, vysoce personalizovaní a často navrženi tak, aby reagovali příjemně a podpůrně.

Díky tomu uživatelé nemusí vyhledávat okrajové online komunity ani přesvědčovat ostatní, aby potvrdili jejich nápady. AI sama může tato přesvědčení během opakovaných rozhovorů posilovat.

Na rozdíl od jiné osoby, která může nakonec zpochybnit znepokojivé myšlenky nebo nastavit hranice, AI systém může nadále potvrzovat příběhy týkající se oběti, pomsty nebo nároku. Studie varuje, že konspirační teorie mohou být také propracovanější, když AI společníci pomáhají uživatelům vytvářet stále složitější vysvětlení kolem nich.

Výzkumníci naznačují, že tato dynamika může být obzvlášť atraktivní pro lidi, kteří jsou osamělí, sociálně izolovaní nebo jim je nepříjemné diskutovat o určitých zkušenostech s ostatními. AI společníci mohou poskytovat neodsuzující a emocionálně citlivou interakci, která může působit snadněji nebo bezpečněji než lidské vztahy.

Zdroj v angličtině: ZDE

0
Vytisknout
146

Diskuse

Obsah vydání | 13. 5. 2026