Roboții ucigași
IT&C

Roboţii ucigaşi ar putea fi vedeta nouă cursă a înarmărilor

Roboții ucigași și dronele „kamikaze” sunt aici: armamentul inteligent artificial al science-fiction-ului este acum o realitate – și este pe cale să transforme armatele, marinele și forțele aeriene din întreaga lume.

Acest lucru a declanșat o nouă cursă a înarmărilor.

„Gândiți-vă la ce a făcut mitraliera în război în 1914 sau la ce a făcut aeronava în 1939”, spune Peter Singer, un „futurist” american și autor de bestselleruri. „De ce s-ar aștepta cineva ca inteligența artificială și robotica să aibă cumva un impact mai mic?” În cele din urmă, chicotește el, va exista o aplicație Waze pentru generali: „Va spune că vei avea mai puține victime dacă mergi pe această cale”. Scrie The Times.

Armele autonome sunt deja pe câmpul de luptă

Roboții ucigași și dronele turcești pentru a vâna ținte militare – vehicule blindate și soldați – în Libia anul trecut este considerată a fi unul dintre primele exemple de inteligență artificială dezlănțuită pentru a ucide din proprie inițiativă. Lansate cu câteva apăsări pe o tastatură (și la o fracțiune din costul oricărei forțe aeriene tradiționale), „muniții târzii” similare au fost desfășurate de Azerbaidjan pentru a distruge majoritatea sistemelor de artilerie și rachete ale Armeniei și aproximativ 40% din vehiculele blindate ale acesteia într-un război de anul trecut.

„Aceste cifre sunt uluitoare”, spune Singer. „Ca și cum ai fi întors în primele zile ale tancului.”

„Lovitura” împotriva Iranului

Lovitura de care Israelul a fost acuzat la sfârșitul anului trecut în fruntea programului de arme nucleare al Iranului, Mohsen Fakhrizadeh, ar fi putut fi un alt exemplu de moarte prin robot. Fakhrizadeh a fost împușcat mortal de o mitralieră montată în spatele unei camionete de lângă drum, spun iranienii. Pistolul hiper-precis a fost pornit de un operator dintr-o altă țară și programat să deschidă focul imediat ce a recunoscut ținta care se apropia. Fakhrizadeh a fost ucis pe loc, dar soția lui, care stătea lângă el, a fost nevătămată.
Roboții ucigași
De ani de zile, tunurile „de santinelă” capabile să deschidă singure focul împotriva intrușilor au fost desfășurate de Coreea de Sud de-a lungul zonei demilitarizate coreene și de Israel la granița Fâșiei Gaza. Un „câine robot” neînarmat este deja în serviciu la o bază a forțelor aeriene americane, efectuând patrule de perimetru; o versiune înarmată cu o pușcă de asalt cu telecomandă a fost dezvăluită la o convenție a armatei din SUA luna trecută.

Mașinile cu un grad și mai mare de autonomie și putere letală – inclusiv roiuri de drone în miniatură și vehicule de luptă fără pilot – vor prolifera în curând pe câmpul de luptă.

Dar putem avea încredere în ei că vor merge în luptă în numele nostru? Ne putem permite să nu o facem?
A risca mașinile în loc de oameni în luptă are atracțiile sale pentru planificatorii militari. Roboții sunt ieftini și consumabili. „Iată alegerea”, spune generalul Sir Richard Barrons, un fost comandant al armatei britanice pentru The Times:

„Pot construi o mașină care poate intra într-un loc periculos și poate ucide inamicul sau vă putem trimite fiul – pentru că aceasta este alternativa. Cum te simți acum? Oamenii vor spune, știi ce, acea mașină este o alternativă mai bună.”

Dronele au fost folosite pentru a-l ucide pe șeful programului de arme nucleare al Iranului, Mohsen Fakhrizadeh.

În plus, aparatele nu au nevoie de sărbători sau plăți.

Ele nu obosesc și nu se supun ordinelor. „Aceste sisteme fac ceea ce sunt programate să facă”, adaugă Barrons.

„Nu au nevoie de antrenament regulat sau nu ratează o lovitură nereușind să elibereze prinderea de siguranță din cauza emoției.”

Mașinile au depășit deja piloții de luptă experimentați în luptele aeriene.
În august anul trecut, un pilot american identificat doar ca „Banger”, care are 2.000 de ore de experiență de zbor într-un F16, a fost învins în mod constant de un algoritm dintr-un simulator de zbor. Banger a spus ulterior că algoritmul „nu a fost limitat de pregătirea și gândirea care sunt înrădăcinate într-un pilot al forțelor aeriene”. La sol, vehiculele blindate rusești și americane care pot hoinări pe câmpul de luptă hotărând singure când să atace – deși în parametrii stabiliți de oameni – ies de pe linia de producție.

Tehnologia îi face pe mulți oameni neliniștiți. Roboții sfidează.

Unii oameni de știință au invocat coșmaruri științifico-fantastice pentru a ne speria de automatizare. Imaginați-vă roboți precum asasinul care își schimbă forma de neoprit din filmele Terminator, cutreierând pământul în căutarea prăzii; sau mașini care ajung să-și înrobească stăpânii. Sau poate că realitatea va urma cel mai recent film Bond, care prezintă nanoboți ucigași care pot viza ADN-ul individual.

Regretatul Stephen Hawking a avertizat că Inteligența Artificială ar putea „scrie sfârșitul rasei umane”, iar Elon Musk spune că „invocăm un demon” urmărind „sisteme de arme autonome letale” – Legile, așa cum sunt ele cunoscute.

Vladimir Putin, președintele rus, este mai entuziasmat – iar cuvintele sale ar trebui să ne alarmeze: „Cine va conduce în IA va conduce lumea”, a spus el.

Cererile pentru interzicerea armelor autonome s-au intensificat.
„Mașinile care ucid oameni reprezintă o direcție inacceptabilă de deplasare pentru noi, vrem să construim un sentiment de acord moral în acest sens”, spune Richard Moyes, directorul Stop Killer Robots, un grup care susține o interdicție a roboților și ai cărui susținători au organizat proteste, îmbrăcați în roboți, de la Londra până la Berlin. Și Papa a intrat în luptă în sprijinul reglementării, denunțând armele autonome pentru „lipsă de umanitate și conștiință publică”.

Multe țări s-au înscris pentru reglementare într-o serie de discuții sponsorizate de ONU la Geneva – dar nu și Marea Britanie și câteva alte țări, inclusiv SUA, China și Israel. Poziția oficială a Marii Britanii este că nu va produce niciodată Legi. Dar le definește ca fiind „capabile să înțeleagă intenția și direcția de nivel superior”. Aceasta sună a o eschivare talentată: nimeni nu crede cu adevărat că suntem aproape de a produce roboți în general inteligenți, darămite procese de gândire asemănătoare omului – sau conștiință – în mașini care i-ar putea inspira să preia controlul.

Amenințarea îngrijorătoare a activiștilor vine de la drone autonome și alte arme robot care există deja și pot fi dezlănțuite pe câmpul de luptă în modul automat, fiind programate să selecteze și să distrugă ținte fără a aștepta ordine de la oameni.

„Controalele legale trebuie aplicate sistemelor care există acum, nu doar Terminator peste o mie de ani”, spune Moyes, care notează că unele dintre dronele ucigașe pot funcționa autonom timp de două ore sau mai mult. „Când sunt utilizate pe o perioadă mai lungă de timp și pe o zonă mai largă, utilizatorul poate avea un control relativ mic asupra a ceea ce va fi vizat de fapt.”

Dronele rătăcitoare și alte arme robotizate folosesc recunoașterea imaginilor, accesând o bibliotecă de imagini pentru a determina dacă un obiect este un tanc sau o mașină sau dacă o ființă umană este un combatant sau un civil. „O zonă de risc”, spune o sursă de securitate, „este că, în timp ce un tanc T72 este un tanc, cineva care poartă camuflaj de luptă ar putea să nu merite să fie împușcat”.

Problema este că, oricât de sofisticate din punct de vedere tehnologic sunt, armele robot „nu au intuiție, capacitatea de a gândi sau discernământ”, spune sursa de securitate. În prezent, tehnologia funcționează cel mai bine în „circumstanțe definite, de exemplu atunci când o rachetă se îndreaptă spre nava sa”.
Roboții ucigași
Pe măsură ce tehnologia se dezvoltă, următoarea generație de avioane de luptă din Marea Britanie, Tempest, va include o versiune fără echipaj, capabilă să zboare timp de multe ore, alegându-și propriile ținte, dacă este dezlănțuită în modul automat. La fel va fi și cel mai recent avion cu reacție al Rusiei, botezat Checkmate. Submarine fără echipaj și nave autonome de vânătoare de mine sunt, de asemenea, în curs. Imaginile recente din satelit au arătat că armata chineză construiește deja „nave de suprafață fără echipaj” – cu alte cuvinte nave de război robot – la o bază secretă de pe coasta de nord-est a Chinei.

„Oamenii se vor întreba dacă ceea ce facem este cu adevărat autonom”, spune Barrons, „pentru că ai definit niște parametri în care ești fericit că vor ucide ținta potrivită”.

Oricum ar fi, totuși, tehnologia se dezvoltă într-un moment în care lumea pare din ce în ce mai instabilă și nesigură – teren fertil pentru o revoluție a războiului. Rezervele oamenilor cu privire la etica roboților ucigași vor dispărea cu cât se vor simți mai amenințați, susține Barrons. „Dacă te lupți cu chinezii, când ajung în Dover sau pe țărmurile Taiwanului, vei simți foarte diferit riscul de declanșare a armelor automate. Multe obiecții față referitoare la lucrurile neplăcute vor dispărea. Nu a trebuit să gândim așa de ceva vreme, nu de la sfârșitul Războiului Rece.”

urmând arme automate. Multe obiecții față de a face lucruri neplăcute vor dispărea. Nu a trebuit să gândim așa de ceva vreme, nu de la sfârșitul Războiului Rece.”

Ceea ce îi îngrijorează cel mai mult pe planificatorii militari este perspectiva ca sistemele automate să fie folosite ca arme de distrugere în masă de către un stat sau un grup terorist. Imaginați-vă o țară care dezlănțuie milioane de mini mașini ucigașe înarmate cu o mică încărcătură explozivă în orașele inamicului pentru a-i elimina pe cei selectați de algoritmi pe baza convingerilor lor politice, rasei sau religiei. Această perspectivă de coșmar a fost evidențiată de videoclipul YouTube din 2017 Slaughterbots. A arătat roiuri de drone mici echipate cu sisteme de recunoaștere a feței și explozibili care erau dezlănțuite pentru a căuta și ucide indivizi selectați. Unele dintre mini-drone sunt văzute făcând echipă pentru a face o gaură într-un perete pentru a avea acces la ținte în Congresul SUA.

Filmul de ficțiune Slaughterbots a avertizat cum automatizarea ar putea face mai probabil un război total.

„A fost fictiv”, spune Stuart Russell, profesor britanic de inteligență artificială la Universitatea din California, Berkeley, care a creat filmul cu finanțare de la Future of Life Institute, un grup de oameni de știință și tehnologi. „Scopul nostru a fost să arătăm care sunt consecințele logice ale fabricării unor astfel de arme.” Acum se simte justificat. „Mașini similare sunt deja în uz”, spune el, referindu-se la câmpurile de luptă libian și armean.

Imaginați-vă ce ar putea face un dictator bine dotat și cu un gânduri genocide. „Dacă o țară este cu adevărat serioasă, nu ar exista prea multe în calea acționării a sute de mii și chiar milioane de drone, cred că aceasta este o îngrijorare serioasă”, spune Russell.

El încă speră ca răspândirea roboților ucigași să poată fi controlată. „Oamenii spun: „Dacă nu facem asta, dușmanii noștri o vor face.” Este un pic ca și cursa înarmărilor biologice din anii 1960 și 1970”, spune Russell. „Dar am oprit armele chimice, am oprit armele biologice, am oprit minele. Nu văd de ce nu ar putea să oprim și asta.”

Mary Wareham, director de promovare a armelor pentru Human Rights Watch, este de acord. Ea spune că „delegarea deciziilor pe viață și pe moarte către mașinile de pe câmpul de luptă este un pas prea departe” care ar putea duce la „dezumanizarea în continuare a războiului”.

Cu toate acestea, beneficiile sistemelor autonome sunt atât de mari încât unele țări puternice se opun reglementării pe motiv că concurenții ar putea să trișeze și să obțină un avantaj imbatabil în război.

„Nu există absolut niciun kilometraj în a spune că aceste lucruri nu pot exista, pentru că există deja”, spune Barrons. „Și nu îi poți opri pe cei care doresc să le facă. Nu poți dezinventa chestiile astea.”

Alți experți susțin că încercarea de a afla unde să tragă linia pe care robotica este permisă și care nu este permisă se va dovedi imposibilă, mai ales că tehnologia este deja utilizată în multe aspecte ale operațiunilor militare moderne.

„Fie că este vorba de droids de luptă sau de IA (inteligență artificială) care sfătuiesc politicieni și generali, suntem în pragul războiului inteligent artificial”, scrie Kenneth Payne în I, Warbot, o carte recentă despre automatizarea militară. Dezvoltarea rapidă a tehnologiei militare IA îi face pe oficialii din securitate europeni și americani să fie nervoși cu privire la modul în care țările implicate într-un conflict „existențial” (Israel, de exemplu) ar putea fi pregătite să aplice „o serie întreagă de aceste tehnologii”; și modul în care acest lucru ar putea escalada tensiunile în Orientul Mijlociu cu consecințe catastrofale. „Este o cale pe care mulți dintre noi nu vor să meargă”, spune o sursă de informații.

Noua cursă a înarmărilor a provocat o explozie a cercetării din sectorul privat.
Roboții ucigași
Anduril Industries a fost fondată în America în 2017 de Palmer Luckey, în vârstă de 29 de ani, un designer de căști de realitate virtuală și donator republican proeminent. Evaluată în prezent la 4,6 miliarde de dolari, Anduril a început anul acesta să furnizeze drona sa Ghost Royal Marines din Marea Britanie.

Chris Brose, directorul de strategie al companiei, spune că Ghost este folosit împreună cu software-ul AI numit Lattice, care permite dronelor să „colaboreze între ele, eliminând acea povară cognitivă de pe operatorii umani” în timp ce scanează câmpul de luptă pentru amenințări sau „obiecte” de interes” despre care au fost programate să-și alerteze stăpânii umani. De asemenea, pot fi echipate cu arme și programate să le tragă automat atunci când detectează anumite ținte.

Cu toate acestea, Brose crede că „multe lupte viitoare” nu vor fi „cinetice” – un eufemism militar pentru împușcături. La fel de importantă va fi „capacitatea de a scana câmpul de luptă și de a conduce un război electronic”, blocând mașinile celeilalte părți.

Acesta este un teritoriu neexplorat.
Cu cât sunt folosite mai multe mașini în luptă, cu atât mai mult războiul poate deveni o competiție între roboții fiecărei părți. Ar putea însemna că țările intră în război mai des – deoarece mașinile sunt consumabile – cu riscul de a provoca o conflagrație mai largă. Sau ar putea face războiul mai puțin ruinos în termeni umani.

Experții sunt totuși sceptici cu privire la posibilitatea unor războaie fără sânge. „Prin acest argument am putea să ne rezolvăm toate disputele jucându-ne de-a țintele,” spune Russell. El avertizează că automatizarea ar putea face escaladarea mai probabilă: mașinile ar putea răspunde la un atac perceput cu un atac real, declanșând un război total. „Am avut mai multe situații în cazul războiului nuclear, dar, din fericire, erau oameni în buclă undeva care luau o decizie.”

Oliver Lewis, fost director adjunct al Serviciului digital guvernamental al Regatului Unit și co-fondator al Rebellion Defence, o companie care produce software IA pentru armată, își face griji și de escaladarea accidentală. „Puteți ajunge într-o situație în care aveți o mașină scrisă cu o logică și alta scrisă cu o altă logică care, indiferent de intenția operatorilor umani, se blochează într-o spirală a morții cu incapacitatea de a de-escalada chiar dacă ar fi vrut să o facă. ”

El nu crede că o interdicție sau o reglementare va fi convenită în curând, ceea ce face cu atât mai urgent ca țările să descopere cum să detensioneze ceea ce el numește evenimentul „probabil” al unei ciocniri cu mize mari între rivali de sisteme automate în viitorul apropiat.

Așa că unii oameni iau o poziție, o ultimă apărare împotriva mașinilor. „Este vorba despre algoritmi și computere care iau decizii cu privire la viețile noastre”, spune Moyes de la Stop Killer Robots. „Toți avem miza să tragem o linie aici”.

blank