Napětí mezi technologickým sektorem a americkým obranným aparátem roste. Technologická společnost Anthropic, tvůrce jazykového modelu Claude, veřejně oznámila, že raději opustí spolupráci s Pentagonem, než aby přistoupila na podmínky, které podle ní ohrožují demokratické hodnoty. Spor se přitom netýká peněz ani technických parametrů, ale samotné podstaty toho, jak může být umělá inteligence využívána státem.
Ministr války Spojených států Pete Hegseth se v úterý setkal s generálním ředitelem společnosti Anthropic Dario Amodei, aby mu předal varování. Buď do pátečního večera poskytne armádě neomezený přístup k modelu Claude, nebo vláda firmu označí za „riziko“ pro dodavatelský řetězec.
Dario Amodei ve svém vyjádření po schůzce uvedl, že společnost nemůže „v dobrém svědomí“ souhlasit s požadavkem umožnit „jakékoli zákonné využití“ svých nástrojů. Takto široce formulovaná podmínka by podle něj otevřela dveře scénářům, které firma dlouhodobě odmítá. Zejména pak masovému domácímu dohledu a plně autonomním zbraňovým systémům. „Některá použití jsou jednoduše mimo hranice toho, co dnešní technologie dokáží bezpečně a spolehlivě dělat,“ tvrdí Amodei.
Vyřazení Anthropicu z dodavatelského řetězce ministerstva obrany by pro technologickou společnost znamenalo citelnou ztrátu prestiže i budoucích kontraktů. Amodei však dal jasně najevo, že existenční tlak firmu nepřiměje změnit postoj.
Jádrem sporu je využití modelu Claude, jednoho z nejvyspělejších jazykových systémů současnosti. Podle vedení Anthropicu nikdy nebylo součástí smluv s vládou, aby byl tento nástroj nasazován pro plošné sledování amerických občanů nebo jako „mozek“ plně autonomních zbraní. Nové znění smlouvy, které firma obdržela, prý sice obsahovalo určité ústupky, avšak zároveň právní formulace umožňující ochranné pojistky kdykoli obejít.
Zajímavostí je, že americká armáda podle deníku The Wall Street Journal využila Claude při americké operaci související s venezuelským prezidentem Nicolásem Madurem.
Anthropic zároveň zdůrazňuje, že současné systémy umělé inteligence nejsou dostatečně spolehlivé, aby mohly samostatně rozhodovat o použití smrtící síly. Bez důkladného dohledu a jasně nastavených mantinelů podle firmy nelze garantovat, že budou činit odpovědná rozhodnutí srovnatelná s vycvičenými vojáky.
Společnost prý nabídla ministerstvu spolupráci na výzkumu a vývoji s cílem zvýšit spolehlivost těchto systémů. Tato nabídka však nebyla přijata.
Celý spor odhaluje hlubší otázku: kdo bude určovat etické hranice využití umělé inteligence v bezpečnostní oblasti? Stát, který nese odpovědnost za obranu země, nebo technologické firmy, které nástroje vyvíjejí?
Anthropic se rozhodl vsadit na reputaci a principy. Pokud Pentagon skutečně přistoupí k tvrdým opatřením, půjde o precedent, který může ovlivnit celý sektor. Technologické společnosti tak stojí před volbou: stát se bezvýhradnými dodavateli státu, nebo aktivními spolutvůrci pravidel, podle nichž bude AI formovat budoucnost demokracií.
Chceš mít přehled o tom, co se děje kolem tebe?