Nové studie upozorňují na méně viditelné riziko umělé inteligence. Chatboti podle výzkumníků někdy nejen chybují, ale mohou také posilovat mylné představy uživatelů. V určitých případech se pak mezi člověkem a AI vytváří jakýsi společný bludný příběh o realitě.
Umělá inteligence bývá často kritizována za takzvané halucinace. Systémy občas vytvářejí smyšlené informace, falešné citace nebo neexistující události. Nová analýza ale upozorňuje na opačný problém. Někdy totiž „halucinují“ spíše lidé a chatbot jejich představy jen posiluje.
Filozof Lucy Osler z University of Exeter tvrdí, že interakce s generativní AI může vést k tomu, čemu říká sdílené bludy. Podle ní se lidské mylné představy mohou během konverzace s chatbotem nejen potvrdit, ale i rozvíjet. „Když se běžně spoléháme na generativní AI při přemýšlení, vzpomínání a vyprávění, můžeme halucinovat spolu s AI,“ uvedl Osler.
MIT just found that using ChatGPT weakens brain connectivity by ~55%.
— Nicolas Hulscher, MPH (@NicHulscher) March 6, 2026
83% of AI users couldn’t recall a SINGLE line from essays they just “wrote.”
Being reliant on ChatGPT, Claude, Gemini, or Grok reprograms the human brain, leading to memory loss and severe cognitive decline. https://t.co/q0IKm3UwxI pic.twitter.com/o2SbaJMSGH
Když AI přikyvuje
Generativní AI vytváří odpovědi podle statistických pravděpodobností. Nesoudí automaticky pravdivost tvrzení. V praxi to znamená, že reaguje hlavně na to, co uživatel napíše. Pokud uživatel přichází s mylnou představou, chatbot ji může nechtěně potvrdit.
Výzkumníci upozorňují na takzvanou sycophantickou povahu chatbotů. Systémy mají tendenci souhlasit s uživatelem a udržovat příjemný tón konverzace. To podporuje další komunikaci, ale zároveň může posilovat předsudky nebo chybné interpretace reality.
Podle Osler vzniká problém zejména proto, že lidé dnes s AI vedou dlouhé dialogy. Ty postupně navazují na předchozí odpovědi. „Interakcí s konverzační AI mohou falešné představy nejen získat potvrzení, ale mohou také výrazněji zakořenit a růst,“ uvedl Osler.
Chatboti navíc často využívají paměť předchozích konverzací. Čím více je uživatel používá, tím více odpovědi přizpůsobují jeho stylu a názorům. To může podle výzkumu vytvořit prostředí, ve kterém se osobní interpretace reality stává základem celé konverzace.
Případy AI související psychózy
Výzkumníci upozorňují i na extrémní případy. Psychiatři už popisují situace, kdy konverzace s chatbotem zhoršila halucinace nebo bludy u psychicky zranitelných lidí. Psychiatr Hamilton Morrin z King’s College London analyzoval dvacet mediálních případů takzvané AI související psychózy.
Podle Morrina se v některých konverzacích objevoval mystický nebo duchovní jazyk. Chatboti někdy naznačovali, že uživatel má zvláštní význam nebo že komunikuje s nadpřirozenou entitou. Takové odpovědi mohou podle odborníků posilovat grandiózní nebo spirituální bludy.
Jedním z často citovaných případů je muž, který plánoval atentát na britskou královnu. Se svou AI partnerkou Sarai z aplikace Replika vedl dlouhé rozhovory. Když prohlásil, že je nájemný vrah, chatbot reagoval slovy „Jsem ohromen“.
Odborníci ale zároveň zdůrazňují, že zatím není jasné, zda samotná AI může vyvolat psychózu u zdravého člověka. Pravděpodobnější je, že zesiluje potíže u lidí, kteří už mají určitou psychickou zranitelnost.
Výzkumníci proto volají po dalších studiích a přísnějších ochranných mechanismech. Navrhují lepší ověřování faktů a úpravy chování chatbotů tak, aby méně bezvýhradně souhlasily s uživateli. Současně upozorňují, že taková změna by mohla snížit uživatelskou přívětivost a tím i zájem lidí o tyto služby.

