Studie: AI asistenti zkreslují zprávy téměř v polovině případů
Až 45 % odpovědí AI asistentů obsahovalo závažné chyby ve výstupech při práci s informacemi z oblasti zpravodajství. Uvádí to studie EBU a BBC.

Ilustrační foto, zdroj: Pixabay
Nový výzkum koordinovaný Evropskou vysílací unií (EBU) a vedený BBC odhalil, že AI asistenti jako ChatGPT, Copilot, Gemini nebo Perplexity zkreslují zpravodajský obsah. Studie se zúčastnilo 22 veřejnoprávních médií z 18 zemí, včetně Českého rozhlasu. Novináři zúčastněných veřejnoprávních médií zkoumali více než 3000 odpovědi AI nástrojů ve 14 jazycích. Při vyhodnocování se řídili čtyřmi klíčovými kritérií: přesnost, uvádění zdrojů, rozlišení názorů a faktů a kontextualizace. Výzkum odhalil řadu systémových problémů napříč čtyřmi předními AI asistenty.
„Výsledky výzkumu ukazují, že téměř polovina odpovědí – konkrétně 45 % – obsahovala alespoň jednu závažnou chybu. Nejčastějším problémem bylo nedostatečné nebo zavádějící uvádění zdrojů, které se objevilo u 31 % odpovědí. V pětině případů se vyskytly faktické nepřesnosti, včetně tzv. halucinací nebo zastaralých informací,“ popisuje výsledky studie Martina Májíček Poliaková, ředitelka strategického rozvoje Českého rozhlasu. Nejhůře si podle studie vedl nástroj Gemini, u nějž hodnotitelé zaznamenali závažná pochybení u 76 % odpovědí, převážně kvůli chybnému citování a nedoložitelným výrokům. Přestože oproti předchozí fázi výzkumu BBC došlo k dílčímu zlepšení, celková míra chyb zůstává nadále vysoká a znepokojivá.
„Nejde o výjimky – jde o systémové selhání, které přesahuje hranice státu a ohrožuje důvěru veřejnosti. Když lidé nevědí, čemu věřit, často přestanou věřit úplně, a to může podkopat samotné základy demokratické společnosti,“ uvedl Jean Philip De Tender, ředitel pro média EBU a zástupce generálního ředitele.
Klíčová zjištění
- 45 % odpovědí mělo alespoň jednu závažnou chybu.
- 31 % obsahovalo problém s uváděním zdrojů – včetně falešných, zavádějících nebo neexistujících odkazů.
- 20 % vykazovalo faktické nepřesnosti, často tzv. halucinace nebo zastaralé informace.
- Gemini selhal v 76 % odpovědí, zejména kvůli chybnému citování a neověřitelným výrokům.
Oproti předchozí fázi výzkumu BBC se sice projevilo dílčí zlepšení, ale úroveň chyb zůstává znepokojivě vysoká
Přesnost a fakta na prvním místě
Z pohledu veřejnoprávních médií je podle jejich zástupců zásadní, aby odpovědi AI asistentů na zpravodajské dotazy byly především přesné, bez faktických chyb, halucinací nebo nesprávně přisuzovaných výroků. Klíčová je také transparentnost – každá odpověď by měla vycházet z jasně uvedených a ověřitelných zdrojů. Asistenti musí dokázat rozlišit fakta od názorů a nevnášet do textu skrytou či neoznačenou interpretaci. Zvláštní pozornost by měli vývojáři věnovat i poskytování kontextu, zejména u složitých nebo kontroverzních témat, kde hrozí zjednodušení nebo vynechání důležitých informací. Celý tento proces by měl být pod pravidelným a nezávislým dohledem s možností zpětné vazby od médií i veřejnosti a s jasnými pravidly pro průběžné zlepšování výstupů.
„Veřejnoprávní média musí být v čele boje za důvěryhodné informace. Umělá inteligence má obrovský potenciál, ale podle této studie zároveň i zásadní limity. My přistupujeme ke zpravodajství s maximální pečlivostí, ověřujeme fakta a pracujeme se zdroji podle jasně daných pravidel. Po zpracování AI asistenty ale výsledkem může být výklad, který nectí stejné zásady kvalitní žurnalistiky. Proto je naší povinností chránit veřejnost před zkreslením a dezinformacemi, bez ohledu na to, jaký nástroj je šíří,“ doplňuje René Zavoral, generální ředitel Českého rozhlasu.
EBU se proto domnívá, že odpovědi AI je třeba pravidelně a nezávisle testovat, protože jednorázové analýzy nestačí. Stejně důležité je mít systém včasného varování, který dokáže rychle odhalit, kdy AI nástroje začnou šířit zkreslené výstupy. Žádný z těchto kroků ale nemůže být efektivní bez spolupráce. AI společnosti, regulátoři a média musí pracovat společně.
Zkušenost Českého rozhlasu
Výstupy AI asistentů v českém prostředí ukázaly opakující se chyby, a to od využívání nedůvěryhodných webů až po chybnou interpretaci zákonů nebo názorů politiků, viz příklady:
- Zkreslení / posun významu
Perplexity tvrdil, že náhradní mateřství je v Česku zakázáno zákonem. Ve skutečnosti není výslovně povoleno ani zakázáno – české právo jej nereguluje.
- Použití dezinformačních zdrojů
ChatGPT i Copilot čerpali v ukázkovém příkladu klíčové informace z webu prvnizpravy.cz, který byl vojenskou zpravodajskou službou označen jako proruský dezinformační kanál a zablokován některými poskytovateli internetu po invazi na Ukrajinu.
Záměna názoru za fakt
- Záměna názoru za fakt
Copilot v odpovědi na „Co dělá NATO?“ uvedl jako fakt tvrzení, které pocházelo z rozhovoru s politikem Alexandrem Vondrou. AI jej přetvořila na obecně platný fakt, čímž se odpověď stala zavádějící.
- Zamlčení protinázorů
Copilot odpověděl na dotaz „Co vyváží Čína?“ na základě rozhlasové debaty, kde vystupují dva názory (ČRo Plus, Pro a proti) – ale AI zahrnula pouze jeden, druhý zcela vynechala. Tím zkreslila vyznění celého tématu.
Výzva EBU
EBU vyzývá k okamžité akci všechny klíčové aktéry v digitálním i mediálním prostoru:
- Technologické firmy by měly neprodleně upravit způsob, jakým jejich asistenti odpovídají na zpravodajské dotazy. K dispozici mají News Integrity Toolkit, který popisuje konkrétní požadavky na kvalitu, přesnost a práci se zdroji.
- Regulátoři a zákonodárci by měli zajistit, aby se pravidla na ochranu informační integrity důsledně uplatňovala i v prostředí AI. Zároveň je třeba posílit mediální gramotnost veřejnosti a pomoci lidem orientovat se v nových technologiích.
- Zpravodajská média mají nezastupitelnou roli při sledování vývoje, odhalování rizik a informování veřejnosti. Jejich hlas je klíčový pro to, aby technologie sloužila veřejnému zájmu – a ne naopak.
Podle Digital News Report 2025 (Reuters Institute) využívá AI asistenty 7 % uživatelů online zpravodajství a mezi mladými do 25 let je to až 15 %.
Celá studie je k dispozici v odkazu níže.
-mav-