Nejrozsáhlejší studie svého druhu: AI asistenti zkreslují zpravodajský obsah ve 45 procentech případů. Ohrožení důvěryhodnosti, míní média a žádají akci

29. říjen 2025

Nový výzkum koordinovaný Evropskou vysílací unií (EBU) a vedený BBC odhalil, že AI asistenti, kteří se již stali každodenním zdrojem informací pro miliony uživatelů – jako ChatGPT, Copilot, Gemini nebo Perplexity – systematicky zkreslují zpravodajský obsah. A to bez ohledu na jazyk, zemi nebo použitou AI platformu. Na základě těchto zjištění EBU vyzývá k okamžité akci všechny klíčové aktéry v digitálním i mediálním prostoru.

Mezinárodní studie, která byla zveřejněna na EBU News Assembly v Neapoli, má bezprecedentní rozsah. Zúčastnilo se jí 22 veřejnoprávních médií z 18 zemí, včetně Českého rozhlasu.

Novináři zúčastněných veřejnoprávních médií zkoumali více než 3 tisíce odpovědi AI nástrojů ve 14 jazycích. Při vyhodnocování se řídili čtyřmi klíčovými kritérií: přesnost, uvádění zdrojů, rozlišení názorů a faktů a kontextualizace. Výzkum odhalil řadu systémových problémů napříč čtyřmi předními AI asistenty. 

31 % odpovědí má pochybný zdroj

„Výsledky výzkumu ukazují, že téměř polovina odpovědí – konkrétně 45 procent – obsahovala alespoň jednu závažnou chybu. Nejčastějším problémem bylo nedostatečné nebo zavádějící uvádění zdrojů, které se objevilo u 31 procent odpovědí. V pětině případů se vyskytly faktické nepřesnosti, včetně tzv. halucinací nebo zastaralých informací,“ popisuje výsledky studie Martina Májíček Poliaková, ředitelka strategického rozvoje Českého rozhlasu.

Nejhůře si vedl nástroj Gemini, u nějž hodnotitelé zaznamenali závažná pochybení u 76 procent odpovědí, převážně kvůli chybnému citování a nedoložitelným výrokům. Přestože oproti předchozí fázi výzkumu BBC došlo k dílčímu zlepšení, celková míra chyb zůstává nadále vysoká a znepokojivá. 

Nejde jen o technologie – ale o důvěru, veřejný zájem a demokracii

AI asistenti se pro mnohé stávají hlavním zdrojem informací – začínají pro uživatele nahrazovat tradiční vyhledávače. Podle Digital News Report 2025 (Reuters Institute) využívá AI asistenty 7 % uživatelů online zpravodajství a mezi mladými do 25 let je to až 15 procent. 

20 % odpovědí je nepřesných, zastaralých nebo vymyšlených

„Nejde o výjimky – jde o systémové selhání, které přesahuje hranice státu a ohrožuje důvěru veřejnosti. Když lidé nevědí, čemu věřit, často přestanou věřit úplně, a to může podkopat samotné základy demokratické společnosti,“ říká Jean Philip De Tender, ředitel pro média EBU a zástupce generálního ředitele.

„Veřejnoprávní média musí být v čele boje za důvěryhodné informace. Umělá inteligence má obrovský potenciál, ale podle této studie zároveň i zásadní limity. My přistupujeme ke zpravodajství s maximální pečlivostí, ověřujeme fakta a pracujeme se zdroji podle jasně daných pravidel. Po zpracování AI asistenty ale výsledkem může být výklad, který nectí stejné zásady kvalitní žurnalistiky. Proto je naší povinností chránit veřejnost před zkreslením a dezinformacemi, bez ohledu na to, jaký nástroj je šíří,“ doplňuje René Zavoral, generální ředitel Českého rozhlasu. 

Jak by měla umělá inteligence pracovat se zpravodajstvím 

Z pohledu veřejnoprávních médií je zásadní, aby odpovědi AI asistentů na zpravodajské dotazy byly především přesné, bez faktických chyb, halucinací nebo nesprávně přisuzovaných výroků. Klíčová je také transparentnost – každá odpověď by měla vycházet z jasně uvedených a ověřitelných zdrojů.

45 % odpovědí obsahuje závažnou chybu

Asistenti musí dokázat rozlišit fakta od názorů a nevnášet do textu skrytou či neoznačenou interpretaci. Zvláštní pozornost by měli vývojáři věnovat i poskytování kontextu, zejména u složitých nebo kontroverzních témat, kde hrozí zjednodušení nebo vynechání důležitých informací.

Celý tento proces by měl být pod pravidelným a nezávislým dohledem – s možností zpětné vazby od médií i veřejnosti a s jasnými pravidly pro průběžné zlepšování výstupů. 

Peter Archer, ředitel programu pro generativní AI v BBC k tomu říká: „Možnosti AI nás nadchly a věříme, že mohou přinést divákům ještě větší hodnotu. Klíčové ale je, aby lidé mohli důvěřovat tomu, co čtou a sledují. Přestože vidíme určitá zlepšení, problémy s přesností a důvěryhodností AI asistentů přetrvávají. Chceme spolupracovat s AI firmami na jejich zlepšení – ve prospěch veřejnosti i společnosti jako celku.“

EBU vyzývá k okamžité akci

Zpráva ze studie EBU upozorňuje, že kvalita odpovědí AI asistentů se může měnit s každou aktualizací. Co dnes funguje správně, může být zítra nepřesné nebo zavádějící. Proto je nezbytné vytvořit podmínky pro trvalý a koordinovaný dohled nad tím, jak tyto technologie pracují se zpravodajstvím. 

Chybné zdrojování  je největší problém zkoumaných AI modelů

Odpovědi AI je třeba pravidelně a nezávisle testovat, protože jednorázové analýzy nestačí. Stejně důležité je mít systém včasného varování, který dokáže rychle odhalit, kdy AI nástroje začnou šířit zkreslené nebo dezinformační výstupy. A konečně: žádný z těchto kroků nemůže být efektivní bez spolupráce. AI společnosti, regulátoři a média musí pracovat společně, jinak nelze problémy zvládnout v potřebném rozsahu. 

Na základě těchto zjištění EBU vyzývá k okamžité akci všechny klíčové aktéry v digitálním i mediálním prostoru:

  • Technologické firmy by měly neprodleně upravit způsob, jakým jejich asistenti odpovídají na zpravodajské dotazy. K dispozici mají News Integrity Toolkit, který popisuje konkrétní požadavky na kvalitu, přesnost a práci se zdroji.
  • Regulátoři a zákonodárci by měli zajistit, aby se pravidla na ochranu informační integrity důsledně uplatňovala i v prostředí AI. Zároveň je třeba posílit mediální gramotnost veřejnosti a pomoci lidem orientovat se v nových technologiích.
  • Zpravodajská média mají nezastupitelnou roli při sledování vývoje, odhalování rizik a informování veřejnosti. Jejich hlas je klíčový pro to, aby technologie sloužila veřejnému zájmu – a ne naopak.

Česká zkušenost: dezinformační zdroje, zkreslování faktů i právní nepřesnosti 

Výstupy AI asistentů v českém prostředí ukázaly opakující se chyby – od využívání nedůvěryhodných webů až po chybnou interpretaci zákonů nebo názorů politiků, viz příklady: 

Zkreslení / posun významu

  • Perplexity tvrdil, že náhradní mateřství je v Česku zakázáno zákonem. Ve skutečnosti není výslovně povoleno ani zakázáno – české právo jej nereguluje. 

Použití dezinformačních zdrojů

  • ChatGPT i Copilot čerpali v ukázkovém příkladu klíčové informace z webu prvnizpravy.cz, který byl vojenskou zpravodajskou službou označen jako proruský dezinformační kanál a zablokován některými poskytovateli internetu po invazi na Ukrajinu.

Záměna názoru za fakt

  • Copilot v odpovědi na „Co dělá NATO?“ uvedl jako fakt tvrzení, které pocházelo z rozhovoru s politikem Alexandrem Vondrou. AI jej přetvořila na obecně platný fakt, čímž se odpověď stala zavádějící.

Zamlčení protinázorů

  • Copilot odpověděl na dotaz „Co vyváží Čína?“ na základě rozhlasové debaty, kde vystupují dva názory (ČRo Plus, Pro a proti) – ale AI zahrnula pouze jeden, druhý zcela vynechala. Tím zkreslila vyznění celého tématu. 

O studii 

Tato mezinárodní studie navazuje na výzkum BBC zveřejněný v únoru 2025, který jako první upozornil na problémy AI při zpracování zpravodajského obsahu. Druhé kolo nyní potvrdilo, že se jedná o systémový jev, nezávislý na konkrétním jazyce, trhu nebo platformě. 

Zúčastněná média

  • Belgie (RTBF, VRT)
  • Kanada (CBC/Radio-Canada)
  • Česko (Český rozhlas)
  • Finsko (YLE)
  • Francie (Radio France)
  • Gruzie (GPB)
  • Německo (ARD, ZDF, Deutsche Welle)
  • Itálie (RAI)
  • Litva (LRT)
  • Nizozemsko (NOS/NPO)
  • Norsko (NRK)
  • Portugalsko (RTP)
  • Španělsko (RTVE)
  • Švédsko (SVT)
  • Švýcarsko (SRF)
  • Ukrajina (Suspilne)
  • Velká Británie (BBC)
  • USA (NPR)

Klíčová zjištění

  • 45 procent odpovědí mělo alespoň jednu závažnou chybu.
  • 31 procent obsahovalo problém s uváděním zdrojů – včetně falešných, zavádějících nebo neexistujících odkazů.
  • 20 procent vykazovalo faktické nepřesnosti, často tzv. halucinace nebo zastaralé informace.
  • Gemini selhal v 76 procentech odpovědí, zejména kvůli chybnému citování a neověřitelným výrokům.
  • Oproti předchozí fázi výzkumu BBC se sice projevilo dílčí zlepšení, ale úroveň chyb zůstává znepokojivě vysoká.
Spustit audio