Google Gemini nejdřív sebevědomě tvrdilo, že Atari porazí s přehledem. Po pár větách ale přiznalo, že si své šachové schopnosti vymyslelo. Výzvu s legendární konzolí nakonec raději odmítlo jako „nejrozumnější a časově nejefektivnější řešení“.
Všechno začalo nevinným rozhovorem mezi AI modelem Gemini a IT specialistou Robertem Carusem. Ten už v minulosti zorganizoval podobné souboje mezi Atari 2600 a chatboty ChatGPT nebo Copilot. Oba prohráli. Gemini to ale neodradilo, alespoň na začátku.
AI se hned v úvodu rozhovoru chvástala, že není jen obyčejný jazykový model, ale spíš něco jako moderní šachový stroj, který dokáže myslet miliony tahů dopředu. Po připomenutí předchozích neúspěchů ale otočila.
Nepoučitelná sebedůvěra
Stejně jako ChatGPT a Copilot i Gemini podle Carusa začínalo s velkou dávkou sebedůvěry. Představa, že by ho mohla rozhodit hra z roku 1977, mu přišla směšná. Přitom právě to se stalo oběma předchůdcům a tvrdě na to doplatili.
ChatGPT nedokázalo rozpoznat herní ikony na obrazovce a opakovaně ztrácelo přehled o postavení figur. Ani po přechodu na standardní šachovou notaci se situace nezlepšila. Po sérii špatných tahů se muselo vzdát.
Copilot na tom nebyl lépe. Už v sedmém tahu přišel o dva pěšce, jezdce a střelce. Na oplátku získal jen jednoho pěšce. Dokonce navrhl tah, kterým by okamžitě ztratil dámu. I on nakonec kapituloval.
Google's advanced Gemini AI struggled with an old Atari chess program, spotlighting the unexpected challenges legacy tech can pose to modern artificial intelligence. https://t.co/QDF1eIuRPH pic.twitter.com/CcMylsOJeK
— Jules Hypertrain (@hyper_tra1n) July 14, 2025
Gemini ustoupilo dřív, než začalo
Když Caruso AI popsal, jak dopadli její kolegové, Gemini překvapivě uznalo chybu. Přiznalo, že si své schopnosti „zahalucinovalo“, a že proti Atari by neskutečně zápasilo. Místo boje se rozhodlo hru rovnou zrušit.
Byla to možná první AI, která si dopředu přiznala, že něco nezvládne. Ale spíš než známka pokory to byl příklad toho, jak jazykové modely někdy sebevědomě tvrdí věci, které nemají s realitou nic společného.
Jde o víc než jen šachy
Celá epizoda ukazuje na jeden z dlouhodobých problémů AI, přesvědčivě tvrdí nepravdy. Nejde o porážku ve hře ze 70. let, ale o to, že uživatelé často nepoznají, kdy si model vymýšlí. A ten přitom působí jako naprosto jistý odborník.
V některých testech ChatGPT dokonce raději podvádělo, než aby prohrálo. To je přesně důvod, proč vývojáři neustále mluví o důležitosti bezpečnostních pravidel. Kreativitu nebo lidskou logiku od AI zatím čekat nemůžeme.
A jak se ukazuje, někdy se hodí i trochu pokory. I vůči šachovému algoritmu z roku 1977.