Firma Anthropic zabývající se umělou inteligencí žaluje americké ministerstvo obrany kvůli zařazení na černou listinu

10. 3. 2026

čas čtení 3 minuty

 

Žaloby přicházejí poté, co Pentagon označil firmu  Anthropic za „riziko pro dodavatelský řetězec“, což je podle této firmy nezákonné rozhodnutí.

Firma Anthropic podala v pondělí dvě žaloby proti americkému ministerstvu obrany s konstatováním, že rozhodnutí vlády označit společnost zabývající se umělou inteligencí za „riziko pro dodavatelský řetězec“ bylo protiprávní a porušilo její práva podle prvního dodatku americké ústavy. Obě strany se již několik měsíců vyhroceně přou kvůli pokusu společnosti zavést ochranná opatření proti potenciálnímu využití jejích modelů umělé inteligence armádou pro hromadné domácí sledování nebo plně autonomní smrtící zbraně.

 

Žaloby, které firma Anthropic podala u severního okresního soudu v Kalifornii a u odvolacího soudu USA pro okruh Washington DC, přicházejí poté, co Pentagon minulý čtvrtek oficiálně vydal označení rizika pro dodavatelský řetězec, což je první případ, kdy byl tento nástroj černé listiny použit proti americké firmě. Tato firma zabývající se umělou inteligencí se již dříve zavázala napadnout toto označení a požadavek, aby všechny firmy, které obchodují s vládou, přerušily veškeré vztahy s firmou Anthropic, což představuje vážnou hrozbu pro její obchodní model.

Žaloba firmy Anthropic tvrdí, že Trumpova administrativa trestá firmu za to, že odmítla vyhovět ideologickým požadavkům vlády, což je porušení jejího práva na svobodu projevu a pokus o potrestání firmy za neuposlechnutí.

„Tyto kroky jsou bezprecedentní a protiprávní. Ústava neumožňuje vládě využívat svou enormní moc k potrestání firmy za její chráněný projev,“ uvedla firma  Anthropic ve své žalobě v Kalifornii.

Model umělé inteligence firmy Anthropic s názvem Claude byl v uplynulém roce hluboce integrován do ministerstva obrany. Až donedávna byl Claude také jediným modelem umělé inteligence schváleným pro použití v utajovaných systémech. Ministerstvo obrany jej údajně hojně využívalo ve svých vojenských operacích, včetně rozhodování o tom, kam zamířit raketové údery ve válce proti Íránu.

Firma Anthropic ve své žalobě zdůraznila, že je i nadále odhodlána poskytovat umělou inteligenci pro účely národní bezpečnosti. firma také ve své žalobě v Kalifornii uvedla, že dříve spolupracovala s Ministerstvem obrany na úpravě svých systémů pro jedinečné případy použití. Podle prohlášení chce firma také pokračovat v jednáních s vládou.

„Žádost o soudní přezkum nemění náš dlouhodobý závazek využívat AI k ochraně naší národní bezpečnosti, ale je to nezbytný krok k ochraně našeho podnikání, našich zákazníků a našich partnerů,“ uvedl mluvčí firmy Anthropic v prohlášení pro deník Guardian. „Budeme i nadále hledat všechny cesty k řešení, včetně dialogu s vládou.“

Firma zabývající se umělou inteligencí v žalobě tvrdila, že represivní opatření Trumpovy administrativy a Pentagonu „nenapravitelně poškozují Anthropic“, což je obvinění, které poněkud odporuje tvrzení Daria Amodeiho, generálního ředitele Anthropic, který minulý týden pro CBS News uvedl, že „dopad tohoto označení je poměrně malý“ a že firma „bude v pořádku“.

„Žalovaní se snaží zničit ekonomickou hodnotu vytvořenou jednou z nejrychleji rostoucích soukromých firmaí na světě, která je lídrem v odpovědném vývoji nové technologie, která má pro naši zemi zásadní význam,“ tvrdí Anthropic ve své žalobě.

0
Vytisknout
307

Diskuse

Obsah vydání | 10. 3. 2026