AI-bedrijf Anthropic klaagt Amerikaanse overheid aan na controversieel ‘risicolabel’

Het AI-bedrijf Anthropic, bekend van de chatbot Claude, heeft de Amerikaanse overheid aangeklaagd. Volgens het bedrijf heeft het Pentagon Anthropic onterecht bestempeld als een zogenoemd supply chain risk.
Anthropic stelt dat deze beslissing geen veiligheidskwestie is, maar een reactie op het feit dat het bedrijf weigerde zijn AI-technologie zonder beperkingen voor militaire doeleinden beschikbaar te stellen. De zaak kan grote gevolgen hebben voor de toekomst van AI in defensie én voor de positie van Amerikaanse technologiebedrijven.
Waarom Anthropic de overheid voor de rechter sleept
Anthropic heeft een rechtszaak aangespannen tegen meerdere Amerikaanse overheidsinstanties, waaronder het ministerie van Defensie. Ook minister van Defensie Pete Hegseth, het ministerie van Financiën en het ministerie van Buitenlandse Zaken worden in de zaak genoemd.
De directe aanleiding is een besluit van het Pentagon om Anthropic officieel aan te merken als supply chain risk. Dat label werd op 3 maart bevestigd.
Zo’n classificatie betekent dat organisaties die samenwerken met het Amerikaanse leger geen zaken meer mogen doen met het betreffende bedrijf. Voor een technologiebedrijf kan dat grote commerciële gevolgen hebben.
Normaal krijgt zo’n label vooral buitenlandse bedrijven die mogelijk een risico vormen voor de nationale veiligheid. Het is voor het eerst dat een Amerikaans AI-bedrijf deze status krijgt.
Anthropic noemt het besluit daarom “ongekend en onwettig”.
Conflict over militair gebruik van AI
Het conflict draait vooral om de manier waarop de Amerikaanse overheid AI wil inzetten.
De technologie van Anthropic wordt sinds 2024 gebruikt door verschillende overheidsinstanties. De AI-software Claude werd zelfs ingezet bij bepaalde vertrouwelijke werkzaamheden.
Volgens Anthropic wilde het Pentagon echter verder gaan. Het ministerie zou hebben geëist dat het bedrijf alle gebruiksbeperkingen uit zijn contract verwijderde.
Anthropic weigerde dat.
Het bedrijf heeft namelijk duidelijke regels voor hoe Claude gebruikt mag worden. Zo wil Anthropic niet dat zijn AI wordt ingezet voor autonome dodelijke wapens of voor grootschalige surveillance van Amerikaanse burgers.
Autonome wapens zijn systemen die zelfstandig doelen kunnen selecteren en aanvallen zonder directe menselijke controle. Dat onderwerp ligt wereldwijd gevoelig, omdat AI-beslissingen in oorlogssituaties grote ethische risico’s met zich meebrengen.
Anthropic zegt bovendien dat Claude nooit is getest voor dit soort militaire toepassingen en dat het bedrijf daarom niet kan garanderen dat het systeem veilig of betrouwbaar zou functioneren.
Volgens Anthropic gaat het om vergelding
In de rechtszaak stelt Anthropic dat de Amerikaanse overheid haar macht gebruikt om het bedrijf te straffen.
Volgens het bedrijf schendt de beslissing de grondwet, omdat de overheid bedrijven niet mag benadelen vanwege hun standpunten of beperkingen rondom technologiegebruik.
Anthropic probeert via een federale rechtbank in Californië het besluit van het Pentagon terug te draaien. Tegelijkertijd heeft het bedrijf ook een juridische procedure gestart bij een hof in Washington.
Steun uit de AI-industrie
Anthropic staat niet alleen in de discussie.
Meer dan 30 AI-onderzoekers en engineers van bedrijven zoals OpenAI en Google hebben een juridisch document ingediend waarin zij het bedrijf steunen. Onder hen bevindt zich ook Jeff Dean, hoofdwetenschapper bij Google.
De groep waarschuwt dat de aanpak van de Amerikaanse overheid negatieve gevolgen kan hebben voor de internationale concurrentiepositie van de Verenigde Staten op het gebied van kunstmatige intelligentie.
Volgens hen kan het bestraffen van een toonaangevend AI-bedrijf innovatie afremmen en het vertrouwen binnen de sector onder druk zetten.
Waarom deze zaak belangrijk is voor de AI-sector
De rechtszaak van Anthropic raakt aan een groter debat dat momenteel speelt in de technologiesector: hoe ver moeten AI-bedrijven gaan in samenwerking met defensie?
Veel AI-technologie is zogenoemde dual-use technologie. Dat betekent dat dezelfde software zowel civiele als militaire toepassingen kan hebben.
Bedrijven staan daardoor voor lastige keuzes. Ze willen innovatieve technologie ontwikkelen, maar tegelijk voorkomen dat hun systemen voor controversiële toepassingen worden gebruikt.
De uitkomst van deze rechtszaak kan bepalen hoeveel invloed de overheid heeft op technologiebedrijven wanneer het gaat om nationale veiligheid en militaire samenwerking.
Conclusie
De rechtszaak tussen Anthropic en de Amerikaanse overheid laat zien hoe gevoelig de relatie tussen AI en defensie is geworden.
Als de rechtbank Anthropic gelijk geeft, kan dat belangrijke grenzen stellen aan hoe de overheid technologiebedrijven onder druk zet. Verliest het bedrijf de zaak, dan kan dat betekenen dat AI-ontwikkelaars minder controle krijgen over hoe hun technologie wordt ingezet.
Voor de snel groeiende AI-sector staat er dus meer op het spel dan alleen een conflict met het Pentagon.
FAQ
Wat is Anthropic?
Anthropic is een Amerikaans AI-bedrijf dat geavanceerde taalmodellen ontwikkelt. Het bekendste product is de chatbot Claude, een concurrent van systemen zoals ChatGPT.
Wat betekent ‘supply chain risk’?
Een supply chain risk is een classificatie die de Amerikaanse overheid gebruikt wanneer een bedrijf mogelijk een veiligheidsrisico vormt binnen kritieke infrastructuur of defensie-ketens. Bedrijven met dat label kunnen uitgesloten worden van samenwerking met overheidsorganisaties.
Waarom wil Anthropic beperkingen op AI-gebruik?
Anthropic wil voorkomen dat zijn AI-technologie wordt ingezet voor toepassingen zoals autonome wapens of massale surveillance. Volgens het bedrijf brengt dat grote ethische en veiligheidsrisico’s met zich mee.









Gerelateerd Nieuws



