Opkomst van de militaire machine: Hoe AI het tempo van oorlog bepaalt
Opkomst van de militaire machine: Hoe AI het tempo van oorlog bepaaltHet gebruik van artificiële intelligentie op het slagveld leidt tot een afname van menselijke controle, wat een groot nadeel is.
Een op afstand bedienbaar machinegeweer is bevestigd aan een Israëlisch militair voertuig tijdens een Israëlische inval in Jenin, in de door Israël bezette Westelijke Jordaanoever, op 4 maart 2025 (Reuters/Raneen Sawafta).
30 mei 2025

De snelle en verbluffende groei van artificiële intelligentie heeft wereldwijd tot veel bezorgdheid geleid, maar misschien wel het meest tot bezorgdheid over de verspreiding ervan in het militaire domein.

Voor pacifisten en vredelievende mensen, evenals voor miljoenen lijdende burgers van Palestina tot Oekraïne, is het nog zorgwekkender dat regeringen over de hele wereld zoveel aandacht besteden aan AI.

Volgens een conservatieve schatting hebben ten minste 20 landen militaire AI-programma's opgezet.

Het Pentagon alleen al voert momenteel meer dan 800 AI-gerelateerde projecten uit, variërend van autonome voertuigen tot inlichtingenanalyse en besluitvormingsondersteuning.

Ook China investeert fors in geïntelligentiseerde oorlogsvoering.

Daarom is de discussie over artificiële intelligentie en oorlogsvoering niet langer theoretisch.

Naarmate AI steeds dieper verankerd raakt in militaire planning en operaties, verandert het de manier waarop oorlogen worden gevoerd en geeft het een nieuwe vorm aan de fundamentele dynamiek van conflicten, zoals escalatie en terughoudendheid.

Reeds in gebruik

Wanneer artificiële intelligentie ter sprake komt in discussies over oorlogsvoering, zijn de eerste beelden bijna filmisch.

Autonome drones die doelen aanvallen, cyberunits die aanvallen uitvoeren, machines die zonder menselijke tussenkomst beslissingen nemen over leven en dood.

Dit is niet de toekomst. AI is niet langer een experiment in de marge. Het bepaalt nu al hoe legers plannen, vechten en denken over macht.

De toepassingen zijn breed en nemen toe. AI-bewakingssystemen kunnen duizenden feeds tegelijk scannen en bedreigingen sneller signaleren dan welk menselijk team dan ook.

Autonome voertuigen worden getraind om doelen te vinden met weinig direct toezicht. Door AI aangestuurde geïntegreerde luchtverdedigingssystemen zijn in staat om inkomende luchtdreigingen te identificeren en te neutraliseren met een snelheid en precisie dat geen enkel door mensen bediend systeem kan evenaren.

Zowel cyberaanvallen als cyberverdedigingsstrategieën zijn in toenemende mate afhankelijk van AI om elkaar te overtreffen en te slim af te zijn in een voortdurend veranderend digitaal slagveld.

Zelfs beslissingen op het slagveld worden steeds vaker genomen op basis van algoritmen die informatie sneller kunnen verwerken dan traditionele commandostructuren.

Sommige van deze ontwikkelingen zorgen nu al voor wereldwijde onrust, zoals het gebruik van AI-systemen als Gospel en Lavender door Israël in de aanhoudende oorlog tegen Gaza. Deze platforms werden gebruikt om aanbevelingen te doen voor luchtaanvallen, vaak met minimale menselijke toezichthouding.

Het beschikbare bewijs wijst op hun rol in het hoge aantal burgerslachtoffers en het vervagen van het onderscheid tussen strijders en burgers.

In deze gevallen is de waargenomen wreedheid niet alleen een gevolg van de inzet van AI.

De kern van de zaak ligt in de politieke besluitvorming over hoe leiders deze instrumenten willen inzetten, het niveau van risico voor burgers dat ze bereid zijn te tolereren en de mate waarin ze de output van AI koppelen aan menselijk oordeel.

Hier fungeert AI als een spiegel van de machthebbers, door politieke keuzes te rationaliseren die morele en wettelijke verantwoordelijkheid terzijde schuiven onder het mom van door machines aangestuurde efficiëntie.

Er is echter een diepere verschuiving gaande. AI begint de dynamiek van conflicten zelf, zoals het ontstaan en de escalatie ervan, te hervormen op manieren die we nog maar net beginnen te begrijpen.

AI en conflicten

In de internationale betrekkingen wordt al lang de nadruk gelegd op elementen als onzekerheid, signalen en geloofwaardigheid bij het vormgeven van de dynamiek van conflicten. AI geeft elk van deze elementen een nieuwe vorm, op een manier die serieuze aandacht vereist.

Ten eerste kan het vermogen van AI om snel beslissingen te nemen en autonoom te handelen de drempel voor het aangaan van conflicten verlagen. Wanneer machines binnen milliseconden dreigingen kunnen beoordelen en reacties kunnen lanceren, worden de politieke en operationele kosten die leiders vroeger deden twijfelen om vijandelijkheden te beginnen, verminderd.

Deze verschuiving vergroot het risico dat crises uit de hand lopen voordat menselijke besluitvormers kunnen ingrijpen. Traditionele barrières tegen escalatie, zoals beraadslagingstijd, de zichtbare opbouw van troepen en de wrijving van menselijke besluitvorming, verdwijnen.

Ten tweede ondermijnt de integratie van AI traditionele afschrikkingsmodellen. Afschrikking is gebaseerd op duidelijke communicatie en voorspelbare vergeldingskaders.

AI-systemen kunnen echter nieuwe onduidelijkheden introduceren door ondoorzichtige besluitvormingsprocessen te creëren die het voor tegenstanders moeilijker maken om intenties te doorgronden of de geloofwaardigheid van dreigingen in te schatten.

Als een door AI ondersteunde militaire houding in staat lijkt om snelle preventieve aanvallen uit te voeren, kunnen rivalen zich onder druk gezet voelen om nog sneller te handelen, wat de instabiliteit zou aanwakkeren.

Ten derde verhoogt AI het risico op nieuwe vormen van escalatie.

Machine-tot-machine-interacties, zoals autonome drones die reageren op autonome raketafweersystemen, kunnen feedbackloops veroorzaken die mensen moeilijk kunnen voorzien of onderbreken.

Escalatie zou moeilijker te beheersen kunnen worden, juist omdat de snelheid en complexiteit van AI-systemen de organisatorische capaciteiten van de mens overstijgen.

Alles bij elkaar genomen duiden deze trends op een verschuiving, hoewel wetenschappers nog steeds verdeeld zijn over waar deze transformatie precies toe leidt.

Het gevaar schuilt echter in de stille transformatie van de structuren die van oudsher conflicten beheersen, zoals de mechanismen van terughoudendheid, de signaalprocessen en de wegen naar de-escalatie.

Strategische stabiliteit, die ooit was gebaseerd op aannames over menselijk oordeelsvermogen en overleg, kan door een nieuwe realiteit op zijn kop worden gezet.

Overweging wordt een hinderpaal in oorlog

De betrokkenheid van AI bij oorlogsvoering versnelt niet alleen de bekende dynamiek. Het brengt ook het risico met zich mee dat een wereld die is gebaseerd op menselijke timing, menselijke ethiek en menselijke risicocalculaties, wordt gedwongen om het hoofd te bieden aan een slagveld dat in toenemende mate wordt beheerst door de logica van machines.

De kern van deze verschuiving is de strategische verkorting van de beslissingstijd.

Nu AI-gestuurde systemen realtime gegevens van het slagveld analyseren, wordt de tijd tussen detectie en reactie steeds korter.

In een dergelijke wereld wordt menselijke overweging, ooit beschouwd als de essentie van verstandig staatsmanschap, een risico. Hoe sneller een leger kan verwerken en handelen, hoe groter zijn tactische voordeel.

Dit impliceert een brute logica. In een race waarin reactietijd doorslaggevend is, zullen legers zich genoodzaakt voelen om meer te automatiseren en minder te overleggen.

Traditionele strategische culturen, die zijn opgebouwd rond cycli van reflectie, communicatie en afgewogen reacties, kunnen uit balans raken met de realiteit op het slagveld die door machines wordt bepaald.

In dit tijdsregime dreigt strategie een overblijfsel te worden van geautomatiseerde interacties in plaats van een kwestie van bewuste keuzes.

Tegelijkertijd zal AI het mogelijk maken om verschillen in autonomie als wapen te gebruiken.

Overal waar ethische of wettelijke kaders beperkingen opleggen aan hoe autonome systemen kunnen handelen, zullen tegenstanders trachten misbruik te maken van die zelfopgelegde beperkingen. Als gevolg daarvan zullen oorlogen ook worden bepaald door welke partij bereid is minder beperkingen op het handelen van machines te accepteren.

Bovendien zal de mate van autonomie die in militaire AI-systemen wordt toegestaan, een vorm van dwangmatige signalering worden.

Door te laten zien dat hun systemen kunnen functioneren zonder menselijke tussenkomst, kunnen actoren aangeven dat ze meer bereid zijn om het geweld te escaleren en tegenstanders onder druk te zetten om het risico te nemen of zich in te houden.

Zelfs voordat een conflict begint, kan een grotere mate van autonomie het dwingende effect versterken.

De integratie van AI in militaire aangelegenheden gaat niet alleen over nieuwe technologieën. De risico's van verkeerde inschattingen, ongecontroleerde escalatie en moreel verval worden groter.

De toekomst van conflicten zal niet alleen worden bepaald door wie de meest geavanceerde systemen bouwt, maar ook door wie kiest hoe en in welke mate deze worden ingezet.

Neem een ​​kijkje bij TRT Global. Deel uw feedback!
Contact us