OpenAI heeft zijn overeenkomst met het Amerikaanse ministerie van Defensie herzien om het gebruik van zijn kunstmatige intelligentietechnologieën voor binnenlandse surveillance van Amerikaanse burgers expliciet te verbieden. De stap komt na wijdverbreide kritiek op de oorspronkelijke deal, die het Pentagon brede toegang leek te verlenen tot de AI-systemen van OpenAI voor elk wettig doel.

Eerste controverse en de rol van de regering-Trump

Het eerste partnerschap, dat vrijdag werd aangekondigd, viel samen met de richtlijn van president Trump aan federale agentschappen om hun gebruik van AI, ontwikkeld door OpenAI-concurrent Anthropic, stop te zetten. Deze timing riep vragen op over de politieke invloed op AI-aankoopbeslissingen. Onder de eerste versie van de deal behield OpenAI het recht om ‘technische vangrails’ op te leggen aan zijn technologie om naleving van de veiligheidsprincipes te garanderen, maar het open karakter van het contract leidde tot angst voor mogelijk misbruik.

Herziene contractdetails

De gewijzigde overeenkomst omvat nu duidelijke beperkingen tegen het opzettelijk toezicht houden op Amerikaanse personen of onderdanen, evenals de verwerving of het gebruik van persoonlijke gegevens voor tracking- of monitoringdoeleinden. OpenAI beweert dat dit in lijn is met bestaande federale wetten die privacy en burgerlijke vrijheden regelen. Het bedrijf benadrukte zijn engagement om de gestelde veiligheidsnormen te handhaven en tegelijkertijd samen te werken met de defensiesector.

Reactie van het Pentagon en het standpunt van Anthropic

Het ministerie van Defensie bracht een verklaring uit waarin werd gesuggereerd dat het ontvankelijk was voor onderhandelingen, in tegenstelling tot Anthropic, dat zij ervan beschuldigde persoonlijke geschillen voorrang te geven boven samenwerking. De bereidheid van het Pentagon om over de voorwaarden te praten staat in contrast met de weigering van Anthropic om soortgelijke gesprekken aan te gaan.

Het bijgewerkte contract is een directe reactie op de publieke reacties op de oorspronkelijke overeenkomst. De implicaties zijn aanzienlijk: het duidt op een groeiende druk op AI-ontwikkelaars om nationale veiligheidsbelangen in evenwicht te brengen met zorgen over de burgerrechten. Deze zaak benadrukt het delicate evenwicht tussen militaire toepassingen van AI en de noodzaak om de individuele privacy te beschermen, en roept vragen op over hoe soortgelijke deals in de toekomst zullen worden gestructureerd.

Uiteindelijk laat het besluit van OpenAI om de deal te wijzigen zien dat zelfs in partnerschappen met overheidsinstanties waar veel op het spel staat, publieke controle bedrijven kan dwingen prioriteit te geven aan ethische overwegingen.