Overslaan en naar de inhoud gaan Overslaan en naar de footer gaan Overslaan en naar de zoekbalk gaan Overslaan en naar de navigatie gaan

AI, Defensie en het recht: waarom ethiek zonder juridische borging tekortschiet

Waar twee van mijn passies samenkomen, AI en defensie, dringt zich een belangrijke vraag op: hoe zorgen we ervoor dat het gebruik van AI binnen Defensie binnen ethische grenzen blijft en tegelijkertijd juridisch zorgvuldig is geborgd? Deze week spreken op de internationale REAIM-top ruim honderd landen over het verantwoord gebruik van AI in militaire toepassingen. De centrale gedachte is helder: AI mag ondersteunen, maar niet zelfstandig beslissen over leven en dood. Dat uitgangspunt is begrijpelijk en noodzakelijk. Tegelijkertijd zie ik in de praktijk hoe ingewikkeld die norm is zodra technologie daadwerkelijk wordt toegepast.

Door Alexander Klein Hofmeijer

Defensie, AI en Recht

Internationale afspraken over ethisch gebruik van AI binnen defensie

Op de internationale REAIM-top spreken meer dan honderd landen over het verantwoord gebruik van AI in militaire toepassingen. De afspraken die daar worden gemaakt, richten zich primair op ethische uitgangspunten. De kern daarvan is inmiddels breed gedeeld: AI mag militaire besluitvorming ondersteunen, maar mag niet autonoom beslissen over de inzet van dodelijk geweld. Menselijke controle en eindverantwoordelijkheid blijven leidend. Deze afspraken krijgen vorm in gezamenlijke kaders waarin staten zich committeren, maar zijn juridisch niet bindend.

De snelheid van AI-ontwikkelingen binnen Defensie

Parallel aan deze internationale gesprekken ontwikkelt de technologie zich in hoog tempo. Dat werd voor mij al zichtbaar tijdens Eurosatory 2024, waar ik hoorde en zag hoe snel AI zijn weg vindt naar defensie- en veiligheidstoepassingen. Juist daarom is het goed dat dit internationale initiatief nu wordt genomen. Tegelijkertijd valt op dat de praktijk vaak verder is dan het normenkader. 

Systemen worden geïntegreerd in processen terwijl nog niet altijd scherp is vastgelegd wie wanneer beslist, waar menselijke controle precies plaatsvindt en hoe wordt omgegaan met onvoorziene uitkomsten. Die snelheid is begrijpelijk vanuit operationeel perspectief, maar vergroot de druk op governance en verantwoordelijkheid.

Het gemis van juridische kaders binnen AI en defensie

Juist daar wringt het. De ethische afspraken bieden richting, maar worden niet automatisch vertaald naar juridisch afdwingbare kaders. Er is geen uniform juridisch raamwerk dat vastlegt hoe menselijke controle moet worden ingericht, hoe verantwoordelijkheid wordt verdeeld of wie aanspreekbaar is wanneer systemen falen of anders uitpakken dan bedoeld. Zonder die juridische uitwerking ontstaat een grijs gebied. In dat grijze gebied wordt achteraf pas duidelijk dat verantwoordelijkheden onvoldoende zijn belegd. Voor een domein waarin publieke middelen, veiligheid en ingrijpende besluiten samenkomen, is dat een kwetsbare positie.

Zorg voor juridische borging vóórdat keuzes vastliggen

Juist in dit spanningsveld ligt mijn rol als sparringpartner. In defensie- en veiligheidsdossiers word ik vaak betrokken vóórdat technologie wordt aanbesteed of geïmplementeerd. Niet om achteraf juridisch te toetsen, maar om vooraf te helpen ordenen: welke keuzes worden hier gemaakt, wie draagt verantwoordelijkheid en hoe wordt menselijke controle juridisch geborgd? Binnen Brackmann werken wij dagelijks aan die ordening, op het snijvlak van recht, technologie en publieke verantwoordelijkheid, door governance, beleid en contracten zo in te richten dat innovatie mogelijk blijft zonder dat verantwoordelijkheid diffuus wordt.

Wie vandaag met AI innoveert binnen Defensie, doet er goed aan deze vragen nu te stellen. Ik ga graag met je in gesprek over AI in Defensie, aanbestedingen of juridische randvoorwaarden.

Geschreven door Alexander Klein Hofmeijer

Specialist aanbestedingsrecht Defensie Kom in contact met Alexander