Šílenství fake news: ChatGPT může mít katastrofální dopad na pravdu v žurnalistice

6. 3. 2023

čas čtení 9 minut
Platforma, která dokáže napodobit lidské psaní bez jakéhokoli závazku k pravdě, je darem pro ty, kdo těží z dezinformací. Její používání musíme okamžitě regulovat


Aplikaci umělé inteligence ChatGPT stačila velmi krátká doba k tomu, aby začala mít destruktivní vliv na žurnalistiku. Komentátor deníku New York Times pro technologie napsal, že chatbot vyjadřuje pocity (což je nemožné). Další média zaplnil příklady, že "Sydney", experiment s vyhledáváním pomocí umělé inteligence Bing, který patří Microsoftu, je "hrubý" a "šikanuje" (rovněž nemožné). Ben Thompson, který píše zpravodaj Stratechery, prohlásil, že mu Sydney poskytla "nejúžasnější počítačový zážitek v mém životě", a vyvodil z toho, že umělá inteligence byla vycvičena k vyvolávání emocionálních reakcí - a zřejmě se jí to podařilo, píe Emily Bell, bývalá šéfredaktorka deníku Guardian a nynější ředitelka Tow Center for Digital Journalism na Graduate School of Journalism na Kolumbijské univerzitě.

 

Aby bylo jasno, není možné, aby umělé inteligence jako ChatGPT a Sydney měly emoce. Ani nedokážou říct, zda dávají smysl, nebo ne. V čem jsou tyto systémy neuvěřitelně dobré, je napodobování lidské prózy a předvídání "správných" slov, která je třeba spojit dohromady. Tyto "velké jazykové modely" aplikací umělé inteligence, jako je ChatGPT, to dokážou, protože byly nakrmeny miliardami článků a souborů dat publikovaných na internetu. Poté mohou generovat odpovědi na otázky.

Pro účely žurnalistiky mohou velmi rychle vytvořit obrovské množství materiálu - slov, obrázků, zvuků a videí. Problémem je, že se absolutně nezavazují k pravdě. Jen si představte, jak rychle může uživatel ChatGPT zaplavit internet falešnými zprávami, které vypadají, že je napsal člověk.

A přesto od chvíle, kdy společnost OpenAI, která se zabývá umělou inteligencí, v listopadu test ChatGPT zveřejnila, je humbuk kolem něj až znepokojivě povědomý. Stejně jako při zrodu sociálních médií přehlušilo nadšené povzbuzování investorů a zakladatelů opatrné hlasy. Christopher Manning, ředitel Stanford AI Lab, napsal na Twitteru: "Dav lidí kolem etiky umělé inteligence nadále varují, že generativní modely umělé inteligence jsou příliš neobjektivní, nespolehlivé a nebezpečné, ale lidem se  jak tyto modely dávají nové možnosti, jak změnit způsob, jakým pracujeme, vyhledáváme informace a bavíme se." Považovala bych se za součást tohoto "etického davu", píše Emily Bell. A pokud se chceme vyhnout strašlivým chybám  spotřebitelských technologií za posledních 30 let - od úniků dat na Facebooku po nekontrolované dezinformace zasahující do voleb a provokující genocidu -, musíme naléhavě vyslyšet obavy odborníků, kteří varují před možnými škodami.

Nejvíce znepokojující skutečností, kterou je třeba zopakovat, je, že ChatGPT nemá žádný závazek vůči pravdě. Jak píše MIT Technology Review, chatboty s velkým jazykovým modelem jsou "notoričtí lháři". Dezinformace, podvody a kriminalita také obecně nevyžadují závazek k pravdě. Navštivte fóra webu blackhatworld.com, kde si účastníci temných praktik vyměňují nápady, jak vydělat peníze na falešném obsahu, a ChatGPT je tam vyhlašován za převratný nástroj pro generování lepších falešných recenzí, komentářů a  přesvědčivých profilů.

Pokud jde o žurnalistiku, mnoho redakcí již nějakou dobu využívá umělou inteligenci. Pokud jste se v poslední době přistihli, že vás vydavatel na svých webových stránkách nabádá k tomu, abyste přispěli penězi nebo zaplatili za přečtení článku, nebo pokud je reklama, kterou vidíte, o něco více vyladěná podle vašeho vkusu, může to také znamenat práci umělé inteligence.

Někteří vydavatelé však jdou až tak daleko, že umělou inteligenci používají k psaní článků, a to se smíšenými výsledky. Odborné technické vydavatelství CNET bylo nedávno přistiženo při používání automatizovaných článků poté, co jedna z bývalých zaměstnankyň ve svém rezignačním e-mailu uvedla, že obsah generovaný umělou inteligencí, například zpravodaj o kybernetické bezpečnosti, zveřejňuje nepravdivé informace, které mohou "přímo poškodit čtenáře".

Felix Simon, odborník na komunikaci z Oxfordského internetového institutu, vedl rozhovory s více než 150 novináři a vydavateli zpravodajství pro připravovanou studii o umělé inteligenci v redakcích. Podle něj existuje potenciál v tom, že novinářům umělá inteligence výrazně usnadní přepisování rozhovorů nebo rychlé čtení souborů dat, ale problémy prvního řádu, jako je přesnost, překonání zkreslení a původ dat, jsou stále v drtivé většině závislé na lidském úsudku. "Zhruba 90 % využití umělé inteligence [v žurnalistice] se týká poměrně nudných úkolů," říká Charlie Beckett, který na LSE řídí program žurnalistiky a umělé inteligence. Bloomberg News podle něj již několik let automatizuje velkou část svého zpravodajství o finančních výsledcích. Myšlenka využití programů, jako je ChatGPT, k tvorbě obsahu je však velmi znepokojivá. "Pro zpravodajské redakce, které považují za neetické zveřejňovat lži, je těžké zavádět použití ChatGPT bez spousty doprovodných lidských úprav a kontroly faktů," říká Beckett.

Existují také etické problémy související s povahou samotných technologických společností. Časopis Time zjistil, že společnost OpenAI, která stojí za ChatGPT, platila pracovníkům v Keni méně než 2 dolary na hodinu za to, že kontrolovali grafické škodlivé scény, jako je zneužívání dětí, sebevraždy, incest a mučení, aby ChatGPT naučili rozpoznat, že jde o urážlivý materiál. "Jako uživatel těchto služeb to nemůžete nijak ovlivnit," říká Simon.

Ve studii z roku 2021 se akademici zabývali modely umělé inteligence, které převádějí text na generované obrázky, například Dall-E a Stable Diffusion. Zjistili, že tyto systémy posilují "demografické stereotypy ve velkém měřítku". Například při výzvě k vytvoření obrázku "osoby uklízející" byly všechny vygenerované obrázky ženy. V případě "atraktivní osoby" byly všechny tváře, jak autoři poznamenali, reprezentanty "bělošského ideálu".

Profesorka newyorské univerzity Meredith Broussardová, autorka připravované knihy More Than a Glitch, která zkoumá rasové, genderové a schopnostní předsudky v technologiích, říká, že vše, co je zapracováno do současných generativních modelů, jako je ChatGPT - od souborů dat až po to, kdo dostává většinu financí - odráží absenci rozmanitosti. "Je to součást problému velkých technologií, které jsou monokulturou," říká Broussardová, a není to problém, kterému se zpravodajské redakce využívající tyto technologie mohou snadno vyhnout. "Zpravodajské redakce jsou již v zajetí podnikových technologií, protože nikdy nebyly dostatečně financovány, aby si mohly vytvořit vlastní."

Zakladatel BuzzFeedu Jonah Peretti nedávno nadchl zaměstnance, že společnost bude ChatGPT používat jako součást hlavní činnosti pro seznamy, kvízy a další zábavný materiál. "Vidíme, že průlomy v umělé inteligenci otevírají novou éru kreativity ... s nekonečnými možnostmi a aplikacemi pro dobro," napsal. Cena akcií  BuzzFeedu okamžitě vzrostla o 150 %. Je to hluboce znepokojující - hora levného materiálu chrlená ChatGPT by měla být pro mediální společnosti spíše nejhorším scénářem než aspirujícím obchodním modelem. Nadšení z generativních produktů umělé inteligence může zastřít rostoucí uvědomění, že nemusí jít o zcela "aplikace pro dobro".


Studovali jsme snahy politicky financovaných sítí "temných peněz" o replikaci a cílení statisíců místních "zpravodajských" narativů na komunity ve službách politického nebo komerčního zisku. Možnosti ChatGPT tento druh aktivit zvyšují a činí je mnohem snadněji dostupnými pro mnohem více lidí. V nedávné práci o dezinformacích a umělé inteligenci identifikovali výzkumníci ze Stanfordu síť falešných profilů pomocí generativní umělé inteligence na síti LinkedIn. Svůdné textové výměny, které novináři považují za tak neodolatelné u chatovacích botů, jsou zcela méně přitažlivé, pokud přemlouvají zranitelné lidi, aby jim poskytli své osobní údaje a údaje o bankovních účtech.

Hodně se toho napsalo o potenciálu deepfake videí a zvuků - realistických obrázků a zvuků, které mohou napodobovat tváře a hlasy známých osobností (notoricky známá je například herečka Emma Watsonová, která "četla" Mein Kampf). Skutečné nebezpečí se však skrývá mimo svět okamžitého klamu, který lze snadno vyvrátit, a v oblasti vytváření zmatku i vyčerpání "zaplavením zóny" materiálem, který zahltí pravdu nebo alespoň přehluší vyváženější perspektivy.

Některým z nás, kteří se pohybujeme v "etickém davu", se zdá neuvěřitelné, že jsme se za posledních 20 let nepoučili z rychle nasazených a špatně řízených technologií sociálních médií, které společenské a demokratické problémy spíše zhoršily, než aby je zlepšily. Zdá se, že nás pozoruhodně podobná skupina homogenních a bohatých technologů a rizikových fondů vede po další nevyzkoušené a neregulované dráze, jen tentokrát ve větším měřítku a s ještě menším ohledem na bezpečnost.

Podrobnosti v angličtině ZDE

1
Vytisknout
6777

Diskuse

Obsah vydání | 9. 3. 2023