Autor textu MediaGuru
Až 45 % odpovědí AI asistentů obsahovalo závažné chyby ve výstupech
při práci s informacemi z oblasti zpravodajství. Uvádí to studie EBU
a BBC.
Nový výzkum koordinovaný Evropskou vysílací unií (EBU) a vedený BBC odhalil, že AI asistenti jako ChatGPT, Copilot, Gemini nebo Perplexity zkreslují zpravodajský obsah. Studie se zúčastnilo 22 veřejnoprávních médií z 18 zemí, včetně Českého rozhlasu. Novináři zúčastněných veřejnoprávních médií zkoumali více než 3000 odpovědi AI nástrojů ve 14 jazycích. Při vyhodnocování se řídili čtyřmi klíčovými kritérií: přesnost, uvádění zdrojů, rozlišení názorů a faktů a kontextualizace. Výzkum odhalil řadu systémových problémů napříč čtyřmi předními AI asistenty.
„Výsledky výzkumu ukazují, že téměř polovina odpovědí – konkrétně 45 % – obsahovala alespoň jednu závažnou chybu. Nejčastějším problémem bylo nedostatečné nebo zavádějící uvádění zdrojů, které se objevilo u 31 % odpovědí. V pětině případů se vyskytly faktické nepřesnosti, včetně tzv. halucinací nebo zastaralých informací,“ popisuje výsledky studie Martina Májíček Poliaková, ředitelka strategického rozvoje Českého rozhlasu. Nejhůře si podle studie vedl nástroj Gemini, u nějž hodnotitelé zaznamenali závažná pochybení u 76 % odpovědí, převážně kvůli chybnému citování a nedoložitelným výrokům. Přestože oproti předchozí fázi výzkumu BBC došlo k dílčímu zlepšení, celková míra chyb zůstává nadále vysoká a znepokojivá.
„Nejde o výjimky – jde o systémové selhání, které přesahuje hranice státu a ohrožuje důvěru veřejnosti. Když lidé nevědí, čemu věřit, často přestanou věřit úplně, a to může podkopat samotné základy demokratické společnosti,“ uvedl Jean Philip De Tender, ředitel pro média EBU a zástupce generálního ředitele.
Oproti předchozí fázi výzkumu BBC se sice projevilo dílčí zlepšení, ale úroveň chyb zůstává znepokojivě vysoká
Z pohledu veřejnoprávních médií je podle jejich zástupců zásadní, aby odpovědi AI asistentů na zpravodajské dotazy byly především přesné, bez faktických chyb, halucinací nebo nesprávně přisuzovaných výroků. Klíčová je také transparentnost – každá odpověď by měla vycházet z jasně uvedených a ověřitelných zdrojů. Asistenti musí dokázat rozlišit fakta od názorů a nevnášet do textu skrytou či neoznačenou interpretaci. Zvláštní pozornost by měli vývojáři věnovat i poskytování kontextu, zejména u složitých nebo kontroverzních témat, kde hrozí zjednodušení nebo vynechání důležitých informací. Celý tento proces by měl být pod pravidelným a nezávislým dohledem s možností zpětné vazby od médií i veřejnosti a s jasnými pravidly pro průběžné zlepšování výstupů.
„Veřejnoprávní média musí být v čele boje za důvěryhodné informace. Umělá inteligence má obrovský potenciál, ale podle této studie zároveň i zásadní limity. My přistupujeme ke zpravodajství s maximální pečlivostí, ověřujeme fakta a pracujeme se zdroji podle jasně daných pravidel. Po zpracování AI asistenty ale výsledkem může být výklad, který nectí stejné zásady kvalitní žurnalistiky. Proto je naší povinností chránit veřejnost před zkreslením a dezinformacemi, bez ohledu na to, jaký nástroj je šíří,“ doplňuje René Zavoral, generální ředitel Českého rozhlasu.
EBU se proto domnívá, že odpovědi AI je třeba pravidelně a nezávisle testovat, protože jednorázové analýzy nestačí. Stejně důležité je mít systém včasného varování, který dokáže rychle odhalit, kdy AI nástroje začnou šířit zkreslené výstupy. Žádný z těchto kroků ale nemůže být efektivní bez spolupráce. AI společnosti, regulátoři a média musí pracovat společně.
Výstupy AI asistentů v českém prostředí ukázaly opakující se chyby, a to od využívání nedůvěryhodných webů až po chybnou interpretaci zákonů nebo názorů politiků, viz příklady:
Perplexity tvrdil, že náhradní mateřství je v Česku zakázáno zákonem. Ve skutečnosti není výslovně povoleno ani zakázáno – české právo jej nereguluje.
ChatGPT i Copilot čerpali v ukázkovém příkladu klíčové informace z webu prvnizpravy.cz, který byl vojenskou zpravodajskou službou označen jako proruský dezinformační kanál a zablokován některými poskytovateli internetu po invazi na Ukrajinu.
Záměna názoru za fakt
Copilot v odpovědi na „Co dělá NATO?“ uvedl jako fakt tvrzení, které pocházelo z rozhovoru s politikem Alexandrem Vondrou. AI jej přetvořila na obecně platný fakt, čímž se odpověď stala zavádějící.
Copilot odpověděl na dotaz „Co vyváží Čína?“ na základě rozhlasové debaty, kde vystupují dva názory (ČRo Plus, Pro a proti) – ale AI zahrnula pouze jeden, druhý zcela vynechala. Tím zkreslila vyznění celého tématu.
EBU vyzývá k okamžité akci všechny klíčové aktéry v digitálním i mediálním prostoru:
Podle Digital News Report 2025 (Reuters Institute) využívá AI asistenty 7 % uživatelů online zpravodajství a mezi mladými do 25 let je to až 15 %.
Celá studie je k dispozici v odkazu níže.
-mav-
# výzkum # zpravodajství # studie # online # BBC # EBU # AI # Gemini # chatGPT # Copilot
Autor textu MediaGuru
Většina české internetové populace považuje výzvy k souhlasu se
zpracováním dat za obtěžující a rušivé. Vadí jim i cílená onlinová
reklama, zjistil výzkum ResSolution Group.
Datové modely od Seznam.cz umožňují bližší popis cílových skupin.
První díl seriálu je věnován cílové skupině mladých mužů.
Studie ukazují, že DOOH nejen zaujme, ale také zvyšuje dopad na vnímání
značky a podporuje následnou interakci, shrnuje Hana Friedlaenderová.