Zprávy o podivné chybě v softwaru Apple pro převod řeči na text (tzv. Dictation) baví uživatele sociálních sítí. Jeden z nich na TikToku upozornil na to, že při vyslovení slova „rasista“ se na displeji nejprve objeví „Trump“, aby se teprve po krátké chvilce slovo opravilo na správný tvar. Celá situace vyvolala řadu otázek ohledně možné zaujatosti umělé inteligence a strhla se diskuse, zda je tento jev jen náhodnou chybou, nebo zda v pozadí stojí hlubší algoritmická předpojatost.
Kromě rozruchu na sociálních sítích se do zkoumání pustili i odborníci. Kurt „CyberGuy“ Knutsson, který si odchylku osobně otestoval, několikrát potvrdil, že při vyslovení „rasista“ ho systém přepsal jako „Trump“. Tato chyba nahrává teorii, že rozpoznávací algoritmy mohou být ovlivněny častými jazykovými vzorci či mediálními asociacemi, v nichž bývá jméno „Trump“ zmiňováno ve spojitosti s tématy kolem rasismu.
Apple AI tool transcribed the word 'racist' as 'Trump' https://t.co/vbf4GcbS3z
— BBC News (World) (@BBCWorld) February 26, 2025
Expertní analýza problému
Apple mezitím potvrdil, že si je problému vědom a slíbil rychlou nápravu. Oficiální vysvětlení společnosti tvrdí, že chyba vzniká kvůli obtížím při rozlišování slov začínajících na „r“.
V reakci na to vystoupil odborník na rozpoznávání řeči Peter Bell z univerzity v Edinburghu, který toto vysvětlení označil za „nepříliš přesvědčivé“. Podle Bella by šlo spíše o úpravu základní softwarové logiky nebo dokonce možný zásah třetí strany — nikoli o problémy s výslovností.
Zatímco někteří uživatelé chybu zažili na vlastní kůži, jiným se ji reprodukovat nepodařilo. Například redakce BBC se s touto závadou již nesetkala, což může naznačovat, že Apple pracuje na opravě. Uvnitř společnosti se rovněž spekuluje o tom, zda nešlo o „vtip“ skrytý v kódu, nebo o zcela nečekanou vadu softwaru.
Nejasná je však i budoucnost technologie rozpoznávání řeči jako takové. Incident poukazuje na to, že ačkoliv nám aplikace pro převod hlasu na text dokážou život zpříjemnit a urychlit psaní, stále nejsou bezchybné. Kurt Knutsson zdůrazňuje, že podobné případy upozorňují na potřebu důsledného ověřování konečného textu. Příběh tedy mimo jiné otevírá zásadní debatu o etice a zodpovědnosti tvůrců umělé inteligence — zvláště pokud se jejich výtvory začnou (ne)úmyslně propojovat s politickým či společenským kontextem.