
Tisková zpráva
Nejrozsáhlejší studie svého druhu ukazuje: AI asistenti zkreslují zpravodajský obsah ve 45 % případů
23. 10. 2025
Nejrozsáhlejší studie svého druhu ukazuje: AI asistenti zkreslují zpravodajský obsah ve 45 % případů – bez ohledu na jazyk nebo území. Ohrožení důvěryhodnosti, míní média a žádají akci.
Nový výzkum koordinovaný Evropskou vysílací unií (EBU) a vedený BBC odhalil, že AI asistenti, kteří se již stali každodenním zdrojem informací pro miliony uživatelů – jako ChatGPT, Copilot, Gemini nebo Perplexity – systematicky zkreslují zpravodajský obsah. A to bez ohledu na jazyk, zemi nebo použitou AI platformu. Na základě těchto zjištění EBU vyzývá k okamžité akci všechny klíčové aktéry v digitálním i mediálním prostoru.
Mezinárodní studie, která byla zveřejněna na EBU News Assembly v Neapoli, má bezprecedentní rozsah. Zúčastnilo se jí 22 veřejnoprávních médií z 18 zemí, včetně Českého rozhlasu. Novináři zúčastněných veřejnoprávních médií zkoumali více než 3000 odpovědi AI nástrojů ve 14 jazycích. Při vyhodnocování se řídili čtyřmi klíčovými kritérií: přesnost, uvádění zdrojů, rozlišení názorů a faktů a kontextualizace. Výzkum odhalil řadu systémových problémů napříč čtyřmi předními AI asistenty.
„Výsledky výzkumu ukazují, že téměř polovina odpovědí – konkrétně 45 % – obsahovala alespoň jednu závažnou chybu. Nejčastějším problémem bylo nedostatečné nebo zavádějící uvádění zdrojů, které se objevilo u 31 % odpovědí. V pětině případů se vyskytly faktické nepřesnosti, včetně tzv. halucinací nebo zastaralých informací,“ popisuje výsledky studie Martina Májíček Poliaková, ředitelka strategického rozvoje Českého rozhlasu. Nejhůře si vedl nástroj Gemini, u nějž hodnotitelé zaznamenali závažná pochybení u 76 % odpovědí, převážně kvůli chybnému citování a nedoložitelným výrokům. Přestože oproti předchozí fázi výzkumu BBC došlo k dílčímu zlepšení, celková míra chyb zůstává nadále vysoká a znepokojivá.
Nejde jen o technologie – ale o důvěru, veřejný zájem a demokracii
AI asistenti se pro mnohé stávají hlavním zdrojem informací – začínají pro uživatele nahrazovat tradiční vyhledávače. Podle Digital News Report 2025 (Reuters Institute) využívá AI asistenty 7 % uživatelů online zpravodajství a mezi mladými do 25 let je to až 15 %.
„Nejde o výjimky – jde o systémové selhání, které přesahuje hranice státu a ohrožuje důvěru veřejnosti. Když lidé nevědí, čemu věřit, často přestanou věřit úplně, a to může podkopat samotné základy demokratické společnosti,“ říká Jean Philip De Tender, ředitel pro média EBU a zástupce generálního ředitele.
„Veřejnoprávní média musí být v čele boje za důvěryhodné informace. Umělá inteligence má obrovský potenciál, ale podle této studie zároveň i zásadní limity. My přistupujeme ke zpravodajství s maximální pečlivostí, ověřujeme fakta a pracujeme se zdroji podle jasně daných pravidel. Po zpracování AI asistenty ale výsledkem může být výklad, který nectí stejné zásady kvalitní žurnalistiky. Proto je naší povinností chránit veřejnost před zkreslením a dezinformacemi, bez ohledu na to, jaký nástroj je šíří,“ doplňuje René Zavoral, generální ředitel Českého rozhlasu.
Jak by měla umělá inteligence pracovat se zpravodajstvím
Z pohledu veřejnoprávních médií je zásadní, aby odpovědi AI asistentů na zpravodajské dotazy byly především přesné, bez faktických chyb, halucinací nebo nesprávně přisuzovaných výroků. Klíčová je také transparentnost – každá odpověď by měla vycházet z jasně uvedených a ověřitelných zdrojů. Asistenti musí dokázat rozlišit fakta od názorů a nevnášet do textu skrytou či neoznačenou interpretaci. Zvláštní pozornost by měli vývojáři věnovat i poskytování kontextu, zejména u složitých nebo kontroverzních témat, kde hrozí zjednodušení nebo vynechání důležitých informací. Celý tento proces by měl být pod pravidelným a nezávislým dohledem – s možností zpětné vazby od médií i veřejnosti a s jasnými pravidly pro průběžné zlepšování výstupů.
Peter Archer, ředitel programu pro generativní AI v BBC k tomu říká: „Možnosti AI nás nadchly a věříme, že mohou přinést divákům ještě větší hodnotu. Klíčové ale je, aby lidé mohli důvěřovat tomu, co čtou a sledují. Přestože vidíme určitá zlepšení, problémy s přesností a důvěryhodností AI asistentů přetrvávají. Chceme spolupracovat s AI firmami na jejich zlepšení – ve prospěch veřejnosti i společnosti jako celku.“
EBU vyzývá k okamžité akci
Zpráva ze studie EBU upozorňuje, že kvalita odpovědí AI asistentů se může měnit s každou aktualizací. Co dnes funguje správně, může být zítra nepřesné nebo zavádějící. Proto je nezbytné vytvořit podmínky pro trvalý a koordinovaný dohled nad tím, jak tyto technologie pracují se zpravodajstvím.
Odpovědi AI je třeba pravidelně a nezávisle testovat, protože jednorázové analýzy nestačí. Stejně důležité je mít systém včasného varování, který dokáže rychle odhalit, kdy AI nástroje začnou šířit zkreslené nebo dezinformační výstupy. A konečně: žádný z těchto kroků nemůže být efektivní bez spolupráce. AI společnosti, regulátoři a média musí pracovat společně, jinak nelze problémy zvládnout v potřebném rozsahu.
Na základě těchto zjištění EBU vyzývá k okamžité akci všechny klíčové aktéry v digitálním i mediálním prostoru:
· Technologické firmy by měly neprodleně upravit způsob, jakým jejich asistenti odpovídají na zpravodajské dotazy. K dispozici mají News Integrity Toolkit, který popisuje konkrétní požadavky na kvalitu, přesnost a práci se zdroji.
· Regulátoři a zákonodárci by měli zajistit, aby se pravidla na ochranu informační integrity důsledně uplatňovala i v prostředí AI. Zároveň je třeba posílit mediální gramotnost veřejnosti a pomoci lidem orientovat se v nových technologiích.
· Zpravodajská média mají nezastupitelnou roli při sledování vývoje, odhalování rizik a informování veřejnosti. Jejich hlas je klíčový pro to, aby technologie sloužila veřejnému zájmu – a ne naopak.
Česká zkušenost: dezinformační zdroje, zkreslování faktů i právní nepřesnosti
Výstupy AI asistentů v českém prostředí ukázaly opakující se chyby – od využívání nedůvěryhodných webů až po chybnou interpretaci zákonů nebo názorů politiků, viz příklady:
Zkreslení / posun významu
· Perplexity tvrdil, že náhradní mateřství je v Česku zakázáno zákonem. Ve skutečnosti není výslovně povoleno ani zakázáno – české právo jej nereguluje.
Použití dezinformačních zdrojů
· ChatGPT i Copilot čerpali v ukázkovém příkladu klíčové informace z webu prvnizpravy.cz, který byl vojenskou zpravodajskou službou označen jako proruský dezinformační kanál a zablokován některými poskytovateli internetu po invazi na Ukrajinu.
Záměna názoru za fakt
· Copilot v odpovědi na „Co dělá NATO?“ uvedl jako fakt tvrzení, které pocházelo z rozhovoru s politikem Alexandrem Vondrou. AI jej přetvořila na obecně platný fakt, čímž se odpověď stala zavádějící.
Zamlčení protinázorů
· Copilot odpověděl na dotaz „Co vyváží Čína?“ na základě rozhlasové debaty, kde vystupují dva názory (ČRo Plus, Pro a proti) – ale AI zahrnula pouze jeden, druhý zcela vynechala. Tím zkreslila vyznění celého tématu.
O studii
Tato mezinárodní studie navazuje na výzkum BBC zveřejněný v únoru 2025, který jako první upozornil na problémy AI při zpracování zpravodajského obsahu. Druhé kolo nyní potvrdilo, že se jedná o systémový jev, nezávislý na konkrétním jazyce, trhu nebo platformě.
Zúčastněná média
· Belgie (RTBF, VRT)
· Kanada (CBC/Radio-Canada)
· Česko (Český rozhlas)
· Finsko (YLE)
· Francie (Radio France)
· Gruzie (GPB)
· Německo (ARD, ZDF, Deutsche Welle)
· Itálie (RAI)
· Litva (LRT)
· Nizozemsko (NOS/NPO)
· Norsko (NRK)
· Portugalsko (RTP)
· Španělsko (RTVE)
· Švédsko (SVT)
· Švýcarsko (SRF)
· Ukrajina (Suspilne)
· Velká Británie (BBC)
· USA (NPR)
Klíčová zjištění
· 45 % odpovědí mělo alespoň jednu závažnou chybu.
· 31 % obsahovalo problém s uváděním zdrojů – včetně falešných, zavádějících nebo neexistujících odkazů.
· 20 % vykazovalo faktické nepřesnosti, často tzv. halucinace nebo zastaralé informace.
· Gemini selhal v 76 % odpovědí, zejména kvůli chybnému citování a neověřitelným výrokům.
· Oproti předchozí fázi výzkumu BBC se sice projevilo dílčí zlepšení, ale úroveň chyb zůstává znepokojivě vysoká.
Diskuse