Lufta moderne nuk përfshin vetëm raketa gjithnjë e më të sakta, bomba inteligjente, dronë të vështirë për t’u interceptuar të dërguar në masë, apo “vrasës fluturues” që ndjekin një ushtar deri në transhe. Sot përdoren edhe topa-robot, dronë që bllokojnë tankerët në det, dronë nënujore që fundosin anije në Detin e Zi, sabotojnë gazsjellës nënujor në Baltik apo prekin kabllot e fibër-optikës që lidhin kontinente. Të gjitha këto janë relativisht të lehta dhe jo të shtrenjta për ata që dinë të përdorin me mjeshtëri inteligjencën artificiale (AI).
Në vitet e fundit, veçanërisht pas ardhjes së modele të gjuhës si ChatGPT, përdorimi i AI ka eksploduar. Jo vetëm për sulme fizike, si shpërthimet e koordinuara të pajisjeve të Hezbollahut në Liban, që sipas raporteve janë realizuar nga Mossad.
Me përhapjen e modeleve AI në të gjitha aktivitetet, përfshirë ato ushtarake, dhe me adoptimin e inteligjencës më të avancuar, Claude nga Anthropic, në rrjedhat e informacionit sekret të Forcave të Armatosura të SHBA-ve, kjo teknologji është bërë kyçe për sigurinë. AI hyn në jetën e strategëve si një ndihmës, por edhe si një asistencë e rëndë: Analizon me shpejtësi të jashtëzakonshme sasi të pafund të dhënash nga interneti, telefonat inteligjentë, satelitët, kartat e kreditit, kamerat dhe sisteme të tjera mbikëqyrjeje, duke i përkthyer ato brenda pak sekondash në plane logjistike, simulime skenarësh dhe hipoteza angazhimi.
Në përdorimin tonë të përditshëm, jemi të entuziazmuar nga shërbimet falas dhe premtimet për një jetë më të lirë dhe të vetëdijshme përmes internetit. Por realiteti ka qenë ndryshe: më shumë pabarazi, përhapja e zërave ekstremë dhe brutalë, kaosi i informacionit të infektuar me lajme të rreme, ndryshime të thella në mënyrën e të nxënit, të dialoguarit dhe marrëdhënieve shoqërore.
Rreziku i përsëritjes së gabimeve
Tani, kur AI po ndryshon edhe mënyrën e luftimit dhe marrëdhëniet e qytetarëve me shtetin, i cili mund të përdorë survejancë masive për të kufizuar liritë, ekziston rreziku i përsëritjes së gabimeve të së shkuarës, me pasoja edhe më shkatërruese.
Ky është konflikti midis Pentagonit, që nuk pranon kufizime nga kompanitë private, dhe Dario Amodei, kreu i Anthropic, i cili paralajmëron për rreziqet e mëdha për shkak të mungesës së kornizës ligjore për “cunamin” teknologjik. Shembuj kemi parë nga lufta në Ukrainë, më pas në Gaza dhe tani në Iran.
AI dhe delegimi i vendimeve vdekjeprurëse
AI mund të planifikojë operacione, të zëvendësojë pjesërisht strategët dhe, veçanërisht, lejon autoritetet që vendosin për përdorimin e forcës vdekjeprurëse të delegojnë makinave vendime për shënjestrimin automatik të objektivave dhe, në raste të caktuara, të qëllojnë pa komandë përfundimtare njerëzore.
Problemet e përdorimit të AI janë analizuar edhe në Itali. Sipas Dario Guarascio, nga lufta e Irakut deri te ajo në Ukrainë, përdorimi i sistemeve informatike ka ndryshuar thelbësisht: Algoritmet nuk japin vetëm të dhëna përshkruese, por edhe të dhëna prediktive dhe udhëzuese, duke treguar direkt veprimet që duhet ndërmarrë, duke e përjashtuar njeriun ose duke e margjinalizuar atë.
Sipas gazetarit dhe analistit ushtarak Gianluca Di Feo, në katër vitet e fundit të luftës në Ukrainë, 70% e viktimave janë shkaktuar nga dronë vrasës, shumë më të lirë se një raketë apo predhë artilerie, të gjitha operacione të udhëhequra nga AI.
Një shembull dramatik i përdorimit të AI në vendimmarrjen vdekjeprurëse u dha edhe në fillimet e operacioneve izraelite në Gaza, ku një algoritëm zgjodhi 33,000 persona të dyshuar si terroristë ose mbështetës të Hamas për shënjestrim.







