Claude je rodina velkých jazykových modelů (LLM) vyvinutých firmou Anthropic od roku 2023. Modely (Haiku, Sonnet, Opus) generují text a zpracovávají i obrázky nebo soubory a byly navrženy s důrazem na bezpečnost a předcházení škodlivému obsahu.
Pentagon a přístup k Anthropic AI
Šéf startupu Anthropic Dario Amodei čelí tlaku Donalda Trumpa kvůli etice umělé inteligence
Obsah této stránky je strojově generovaný pomocí pokročilých systémů umělé inteligence (AI). Neprošel redakčním zpracováním a může obsahovat chyby nebo nepřesnosti.
Co se děje?
Anthropic odmítá povolit, aby jejich model Claude byl nasazen pro autonomní zbraně nebo pro hromadné sledování bez lidské kontroly; tato pozice vyvolává tlak ze strany amerických činitelů včetně Donalda Trumpa a ministra obrany Pete Hegsetha[2][1].
Pentagon požaduje širší přístup k technologiím Anthropic a hrozí ztrátou vládní zakázky v hodnotě předešlých vyjednávání; firma má podle dřívějších zpráv lhůtu a Pentagon zvažoval i použití zákona o obranné výrobě k získání přístupu[1].
Vývoj ukazuje posun od jednání o komerčním přístupu k jasnému etickému vymezení použití: Anthropic explicitně vylučuje nasazení pro autonomní operace a masové domácí sledování, postupně potvrzeno více zdrojů v článcích v tématu[1][2].
Zdroje:
Šéf startupu Anthropic Dario Amodei čelí tlaku Donalda Trumpa kvůli etice umělé inteligence
Přehled citací
Imperativem je plná kontrola.
zakázal používat technologie společnosti Anthropic.
Pravidla firmy Anthropic zakazují využívat chatbota Claude k násilí, vývoji zbraní či sledování.
Kdo si polepší, kdo tratí?
Anthropic
Firma čelí přímému tlaku Pentagonu a ztrátě přístupu k federálním zakázkám poté, co odmítla uvolnit omezení vojenského využití své AI; riziko zahrnuje i označení za riziko v dodavatelském řetězci a zákaz federálního nasazení.
Dario Amodei
Generální ředitel odmítá ustoupit etickým pravidlům společnosti, což ho staví do konfliktu s Pentagonem a ohrožuje obchodní vztahy s vládou.
Ministerstvo obrany USA (Pentagon)
Pentagon vyvíjí tlak na dodavatele AI (hrozí označením za riziko dodavatelského řetězce nebo použitím zákona o obranné výrobě) a současně ztrácí přístup k technologie Anthropicu; krok může přinést krátkodobé omezení nabídky, ale posílit kontrolu nad bezpečností.
Federální vláda USA (administrativa prezidenta)
Administrativa zakázala federálním orgánům používat technologie Anthropicu, čímž omezuje přístup k jedné z předních AI platforem a prohlubuje konflikt se soukromým sektorem AI.
Investoři a akcionáři Anthropicu
Zákaz federálního nasazení a hrozba omezení vládních kontraktů mohou snížit hodnotu firmy a omezit budoucí příjmy z klíčového trhu obranných zakázek.
Ostatní AI firmy (např. xAI, Palantir, OpenAI)
Konkurenční firmy, které spolupracují s Pentagonem, mohou získat výhodu na vládním trhu díky uprázdněnému prostoru po Anthropicu a bližší integraci s vojenskými systémy.
Zákazníci vládních zakázek / dodavatelské řetězce obranného průmyslu
Omezení přístupu k Anthropicu může zkrátit nabídku technologických řešení a způsobit nejistotu či zpoždění v projektech vyžadujících pokročilou AI.
Americká veřejnost / občané
Etická omezení Anthropicu snižují riziko masového sledování a autonomních útoků, ale zákaz vládního nasazení může vést k širšímu používání jiných, méně restriktivních systémů.
Pentagonští dodavatelé alternativních AI řešení
Dodavatelé, kteří jsou ochotni integrovat své modely do vojenské sítě bez restrikcí, mohou získat nové kontrakty uvolněné z rozhodnutí proti Anthropicu.
Dříve jsme psali...
Ministr obrany Pete Hegseth tlačí na firmu Anthropic kvůli neomezenému přístupu k AI
$200M
Hodnota vládní zakázky
(25. 2. 2026)
2026-02-24
Setkání Hegseth–Amodei
(25. 2. 2026)
zákaz federálu
Trump zakázal nasazení Anthropic
(1. 3. 2026)
Dario Amodei
Zakladatel odmítá ústupky
(25. 2. 2026)
označené riziko
Hrozba zařazení do rizik
(25. 2. 2026)
5 let
Vývoj modelu Claude trvá
(1. 3. 2026)
Co a kdy?
Příbuzná témata
Co se děje
Pentagon vyhrožuje sankcemi a blokádou Anthropicu kvůli odmítnutí vojenského použití AI
Srovnání před a po
Anthropic držel restrikce proti vojenskému použití svých modelů, zůstával mimo interní armádní síť, přesto měl vládní kontrakty (zakázka z léta 2025)
Pentagon hrozí označením Anthropicu jako rizika dodavatelského řetězce, zákazem nasazení ve federálních systémech a využitím zákona o obranné výrobě; prezident Trump federálně zakázal nasazení technologií Anthropicu po vypršení ultimáta
Firemní pravidla striktně zakazují využití Claude pro násilí, vývoj zbraní a masové sledování občanů
Pentagon požaduje zmírnění těchto omezení a umožnění používání bez běžných restrikcí; Anthropic odmítá ustoupit
Anthropic měl vládní zakázku v hodnotě 200 milionů dolarů získanou v létě 2025
V sázce je pokračování této a dalších zakázek; Pentagon hrozí ztrátou zakázek a použitím právních nástrojů k převzetí nebo donucení (defense production act), prezident zakázal federální nasazení Anthropicu
Klíčové postavy
International Comparison
Historický kontext
Vysvětlení pojmů
Co to je
Jak to funguje
Claude trénují na velkém množství textu a podle filosofie „konstituční AI“ mu vývojáři nastavují pravidla, která omezují nebezpečné nebo neetické výstupy bez potřeby neustálého lidského dohledu. Různé verze (Claude 2, 3, 4 a meziverze 3.5/3.7/4.1) zvyšují kontextové okno, rychlost, multimodální schopnosti (text + obraz) a přidávají nástroje jako spouštění kódu nebo práci se soubory.
Proč je to důležité
Claude se používá v komerčních službách a integracích, například ve firmách Notion a Quora. Jeho zaměření na bezpečnost pomocí „konstituční AI“ je klíčové pro jeho nasazení v praxi. Novější verze s pokročilým uvažováním (reasoning) a nástroji pro vývojáře (API) umožňují firmám model efektivněji využívat pro složitější úkoly.
Co to je
Anthropic je americká technologická firma založená v roce 2021, která vyvíjí velké jazykové modely s názvem Claude. Založili ji bývalí zaměstnanci OpenAI a firma se profiluje na výzkum bezpečnosti umělé inteligence. Cílem je vytvořit modely, které fungují výkonně a zároveň minimalizují rizika.
Jak to funguje
Anthropic trénuje velké jazykové modely podobně jako jiné firmy — sbírá data, trénuje neuronové sítě a ladí chování modelu, aby byly užitečné a 'bezpečnější'. Firma dělá výzkum bezpečnostních vlastností AI a podle toho upravuje návrh modelů a způsoby nasazení. Pro rozvoj a provoz získala významné investice od velkých firem, což jí umožňuje škálovat infrastrukturu a výzkum.
Proč je to důležité
Anthropic konkuruje hráčům jako OpenAI a Google, takže ovlivňuje technologickou konkurenci a ceny služeb s AI. Investice od Amazonu a Googlu (miliardy dolarů) ukazují, jak velké firmy vsází na kapacity Anthropic a tím i na směr vývoje AI. Pro čtenáře ekonomických zpráv to znamená, že kapitálové toky a partnerství v AI trhu mohou měnit rozložení moci a dostupnost služeb pro firmy i spotřebitele.
Ministerstvo obrany Spojených států amerických
ministerstvo federální vlády Spojených států amerických
Země: Spojené státy americké

Zaměstnanci: 2.87 (9. února 2021)
Sídlo: Pentagon
Data pocházejí z datové položky WikiData
Kvíz: Spor mezi Anthropic a Pentagonem o vojenské využití Claude
Claude
rodina velkých jazykových modelů společnosti Anthropic
Data pocházejí z datové položky WikiData
Donald Trump
americký podnikatel a politik

Pozice: prezident Spojených států amerických (20. ledna 2025 - dosud)
Narození: 14. června 1946
Místo narození: Jamaica Hospital Medical Center
Státní občanství: Spojené státy americké
Politická strana: Republikánská strana (Invalid Date - dosud)
Data pocházejí z datové položky WikiData
Pete Hegseth
americký televizní moderátor, spisovatel a politik

Povolání: politik, televizní moderátor, spisovatel, basketbalista, důstojník, politický dárce, státní úředník
Pozice: ministr obrany Spojených států amerických (25. ledna 2025 - dosud)
Narození: 6. června 1980
Místo narození: Minneapolis
Státní občanství: Spojené státy americké
Politická strana: Republikánská strana
Data pocházejí z datové položky WikiData
Strojově generováno
Veškerý obsah této stránky je strojově generovaný pomocí pokročilých systémů umělé inteligence (AI). Neprošel redakčním zpracováním a může obsahovat chyby nebo nepřesnosti. Je určen pro získání rychlého přehledu a orientace. Ověřené informace naleznete v původních článcích Hospodářských novin, které jsou uvedené v odkazech u jednotlivých témat.
Poslední aktualizace: 13. 4. 2026 0:01:04
