Op 28 februari 2026 onderging het landschap van defensie-technologie een snelle verschuiving toen OpenAI een historisch akkoord bereikte om zijn AI-modellen in te zetten op geclassificeerde netwerken van het Amerikaanse leger.
De deal werd slechts enkele uren nadat de regering-Trump federale agentschappen de opdracht gaf om te stoppen met het gebruik van technologie van Anthropic, definitief afgerond. Deze overstap markeert een cruciaal moment voor het Department of War (voorheen het Department of Defense), dat frontier-AI wil integreren in nationale veiligheidsoperaties terwijl het navigeert tussen de uiteenlopende ethische kaders van de leidende labs in Silicon Valley.
De Anthropic-impasse en de gevolgen voor de toeleveringsketen
De breuk tussen het Pentagon en Anthropic bereikte een kookpunt na een publiek geschil over AI-veiligheidsrichtlijnen. Anthropic, de ontwikkelaar van de Claude-modelreeks, had aangedrongen op contractuele verboden op het gebruik van zijn technologie voor massale binnenlandse surveillance en volledig autonome wapensystemen.
Op 27 februari bestempelde minister van Defensie Pete Hegseth Anthropic officieel als een “risico voor de toeleveringsketen van de nationale veiligheid”. Hegseth voerde aan dat de weigering van het bedrijf om “elk rechtmatig gebruik” van zijn modellen toe te staan, onverenigbaar was met de Amerikaanse defensieprincipes.
Belangrijkste ontwikkelingen in de breuk tussen Anthropic en het Pentagon:
- Beëindiging van het contract: Het Pentagon is overgegaan tot het annuleren van zijn overeenkomst van $200 miljoen met Anthropic.
- Zwarte lijst voor de toeleveringsketen: De aanduiding als “risico” verbiedt defensie-aannemers effectief om commerciële activiteiten uit te voeren met Anthropic.
- Overgangsperiode: Federale agentschappen hebben een respijtperiode van zes maanden gekregen om huidige Claude-deployments uit te faseren.
- Juridische aanvechting: Anthropic-CEO Dario Amodei heeft aangegeven dat het bedrijf de kwalificatie voor de rechtbank zal aanvechten en noemde de stap “juridisch onhoudbaar”.
OpenAI stapt in met “gelaagde” safety stack
Na het mislukken van de onderhandelingen met Anthropic kondigde OpenAI CEO Sam Altman aan dat zijn bedrijf een overeenkomst heeft gesloten om AI-capaciteiten te leveren aan de geclassificeerde omgevingen van het leger. Hoewel de stap door sommige sectorwaarnemers bekritiseerd is vanwege de timing, presenteerde Altman de deal als een manier om de spanningen tussen de overheid en de AI-sector te “de-escaleren”.
De overeenkomst van OpenAI omvat wat het een “multi-layered safety stack” noemt. Volgens verklaringen van het bedrijf zal OpenAI zijn modellen uitrollen via een cloud-only architectuur, waardoor de firma de technische controle behoudt en garandeert dat modellen niet direct worden geïntegreerd in “edge”-apparaten, zoals autonome drones.
De onderhandelde “rode lijnen” van OpenAI:
- Geen massale binnenlandse surveillance: Expliciete verboden op het gebruik van de technologie voor ongecontroleerde monitoring van Amerikaanse personen.
- Geen autonome dodelijke inzet: Menselijke verantwoordelijkheid is vereist voor het gebruik van geweld; modellen kunnen niet onafhankelijk wapensystemen aansturen.
- Geen geautomatiseerde beslissingen met een groot risico: Verboden op “social credit”-achtige scores of geautomatiseerde rechterlijke beslissingen.
- Forward-deployed engineers: Geautoriseerd personeel van OpenAI zal helpen bij het toezicht op de prestaties en veiligheid van de modellen binnen het Department of War.
Strategische implicaties voor het defensie-AI-ecosysteem
Het standpunt van het Pentagon tegenover Anthropic dient als een belangrijk signaal voor andere frontier-labs. Door gebruik te maken van de Defense Production Act en risico-aanduidingen voor de toeleveringsketen, heeft de regering aangegeven dat zij prioriteit zal geven aan operationele flexibiliteit en de “elk rechtmatig gebruik”-standaard in haar inkoopproces.
Voor het leger biedt de overstap naar OpenAI toegang tot de nieuwste generatieve mogelijkheden. De stap heeft echter geleid tot een fel debat binnen Silicon Valley. Honderden werknemers van zowel OpenAI als Google zouden brieven hebben ondertekend ter ondersteuning van het oorspronkelijke standpunt van Anthropic, wat wijst op een groeiende kloof tussen het bedrijfsmanagement en technisch personeel over de ethiek van militaire AI.
Industrie-experts merken op dat deze ontwikkeling de migratie van geclassificeerde workflows naar de GPT-serie van OpenAI waarschijnlijk zal versnellen, terwijl andere aanbieders zoals xAI en Google hun eigen onderhandelingen met het Department of War voortzetten.
Ga voor meer informatie over dit onderwerp naar de officiële verklaring van Anthropic