Přední japonské společnosti požadují regulaci umělé inteligence: "Demokracie a společenský řád by se mohly zhroutit"

10. 4. 2024

čas čtení 3 minuty
Dvě přední japonské společnosti, Nippon Telegraph and Telephone (NTT) a Yomiuri Shimbun Group Holdings, údajně požadují rychlé přijetí regulace umělé inteligence (AI) poté, co tvrdily, že neregulovaná AI by mohla způsobit zhroucení společenského řádu a způsobit války.

Manifest japonských firem sice zdůraznil potenciální přínosy generativní umělé inteligence při zvyšování produktivity, ale o této technologii do značné míry pochybuje.

Aniž by uvedl příklady, tvrdí, že technologie umělé inteligence již začaly poškozovat lidskou důstojnost, protože jsou někdy navrženy tak, aby upoutaly pozornost uživatelů bez ohledu na morálku nebo pravdivost.

"V nejhorším případě by se demokracie a společenský řád mohly zhroutit, což by vedlo k válkám," tvrdí manifest, pokud nebude umělá inteligence omezena.

Uvedl, že Japonsko by mělo rychle reagovat, včetně přijetí pravidel na ochranu voleb a národní bezpečnosti před zneužíváním generativní umělé inteligence.

Tento nový vývoj přichází po nedávném výzkumu Voting Rights Lab, nestranného pozorovatele hlasovacích práv, který naznačuje, že rychlý růst umělé inteligence přiměl vlády několika států USA k zavedení ochranných opatření proti ní, a to vše v rámci přípravy na budoucí volby promořené umělou inteligencí.

Záruky USA v oblasti umělé inteligence

Laboratoř hlasovacích práv oznámila, že sleduje více než 100 právních předpisů ve 39 státních zákonodárných sborech, včetně ustanovení zaměřených na omezení schopnosti umělé inteligence produkovat volební dezinformace.

Návrh zákona následuje po mnoha významných případech týkajících se "deep-fake" video technologie, počítačem generovaných avatarů a hlasů v politických kampaních a reklamách.

Jednotné testování bezpečnosti umělé inteligence

Spojené státy a Velká Británie také oznámily záměr spolupracovat na testování bezpečnosti umělé inteligence. Podle tiskové zprávy vyvinou skupiny obou zemí pro testování bezpečnosti umělé inteligence společný přístup, který vyžaduje použití stejných postupů a podpůrné infrastruktury.

Instituty chtějí provést společné testování na veřejně dostupném modelu umělé inteligence. Organizace by se pokusily vyměnit si pracovníky a sdělovat informace v souladu s národními zákony, předpisy a smlouvami.

Britský a americký institut pro bezpečnost umělé inteligence byly založeny v první den summitu o bezpečnosti umělé inteligence pořádaného Spojeným královstvím v Bletchley Parku v listopadu 2023.

Zákonodárci a vedoucí pracovníci v oboru se budou pravděpodobně do značné míry spoléhat na bezpečnostní instituty umělé inteligence, aby zmírnili rizika spojená s rychle se vyvíjejícími systémy umělé inteligence.

Společnosti, které vytvořily ChatGPT a Claude, OpenAI a Anthropic, poskytly podrobné plány vysvětlující, jak bude testování bezpečnosti informovat o budoucím vývoji produktu.

Nedávno dokončila zákon o umělé inteligenci Evropské unie. Exekutivní příkaz prezidenta Joea Bidena vyžaduje, aby firmy, které vytvářejí výkonné modely umělé inteligence, zveřejňovaly výsledky svých bezpečnostních testů.

Probíhá celosvětové úsilí o řízení umělé inteligence, v jehož čele stojí Evropská unie. Nové pravidlo EU vyžaduje, aby tvůrci nejvýkonnějších modelů umělé inteligence prováděli hodnocení bezpečnosti a upozorňovali orgány na závažné nehody. Má také v úmyslu zakázat používání umělé inteligence pro rozpoznávání emocí ve školách a podnicích.

Podrobnosti v angličtině: ZDE

0
Vytisknout
2849

Diskuse

Obsah vydání | 12. 4. 2024