Der Spiegel
Life

Der Spiegel: Există arme mai periculoase decât bomba nucleară. „E un coșmar!”

Într-un interviu pentru publicația germană Der Spiegel, expertul australian în tehnologie Toby Walsh discută despre efectele potențial devastatoare ale utilizării inteligenței artificiale pe câmpul de luptă. Nu putem scăpa de AI, spune el, dar trebuie să o aducem în concordanță cu valorile societății.

Utilizarea roboților ucigași controlați de AI este doar o chestiune de timp

Der Spiegel: Războiul de agresiune rusesc împotriva Ucrainei pare uneori un test pentru sistemele de arme moderne.

Ucraina s-a bazat foarte mult pe dronele turcești Bayraktar de la început, iar acum Rusia ar putea urma exemplul cu dronele iraniene.

Ar putea aceste arme să fie folosite și în mod autonom în viitor, controlate cu ajutorul inteligenței artificiale (AI)?

Walsh: Da, utilizarea roboților ucigași controlați de AI este doar o chestiune de timp. Tocmai am avertizat într-un eseu despre un nou tip de mină antipersonal rusă numită POM-3. POM-3 se bazează pe un design german al Wehrmacht numit Schrapnellmine, numit în glumă „Bouncing Betty” de către soldații aliați.

Asta pentru că această mină detectează pași, sare mai întâi în aer și apoi detonează la o înălțime de un metru pentru a sfârteca cât mai mulți soldați cu schije.

Rusia a anunțat că va controla această mină folosind un software AI care poate distinge cu precizie dacă propriile sale unități rusești se apropie, caz în care nu va exploda sau dacă sunt soldați inamici, caz în care se va declanșa. Astfel de mine sunt groaznice.

De aceea sunt scoase în afara legii la nivel internațional; 164 de state s-au angajat să nu le folosească, inclusiv Ucraina.

Rusia nu se numără printre ele. Critica mea la adresa POM-3 mi-a dat acces la un club: am ajuns pe o listă cu interdicție de intrare și nu mai am voie să călătoresc în Rusia. O iau ca pe un compliment.

Există o cursă globală a înarmărilor AI

DER SPIEGEL: Forțele aeriene mondiale par să fie cu un pas înainte. Forțele aeriene australiane, de exemplu, testează în prezent noi tipuri de drone de luptă cu reacție semi-autonome împreună cu compania americană Boeing.

Aceste drone interceptoare sunt menite să ofere piloților de bombardiere protecție de escortă ca așa-numit „camarad loial” (loyal wingman).

Walsh: Termenul „loyal wingman” este eufemistic și înșelător, sugerând că este vorba pur și simplu despre protejarea vieții umane, în acest caz a vieții piloților.

Dar este vorba de fapt despre cu totul altceva: o cursă globală a înarmărilor AI a fost în desfășurare de mult timp, despre care publicul nu a fost în mare parte conștient până acum.

Armata SUA dezvoltă un tanc robot numit Atlas. Marina SUA lucrează la o navă de război robotizată complet automatizată numită Sea Hunter, care a încheiat deja în mod autonom o călătorie din Hawaii până pe coasta Californiei.

China dezvoltă, de asemenea, rachete controlate de AI. Și Rusia vrea să dezvolte un submarin autonom, fără pilot, numit Poseidon, care poate fi echipat chiar cu arme nucleare. E un coșmar.

Vă puteți gândi la ceva mai terifiant decât un submarin în care, în loc de un căpitan, un program de calculator decide dacă începe un război nuclear?

Armele autonome – mai periculoase decât bombele nucleare
DER SPIEGEL: Nu sunt acestea scenarii de groază care nu se împlinesc până la urmă?

Walsh: Deloc. Armele autonome sunt poate chiar mai periculoase decât bombele nucleare. Asta pentru că construirea unei bombe nucleare necesită o cantitate incredibilă de know-how, ai nevoie de fizicieni și ingineri remarcabili, ai nevoie de material fisionabil, ai nevoie de mulți bani.

Prin urmare, din fericire, armele nucleare nu vor fi la îndemâna multor țări în viitorul apropiat. Cu armele AI, pe de altă parte, situația este destul de diferită.

Adesea, sistemele de arme convenționale pe care fiecare mic lord războinic le are la dispoziție sunt suficiente; cu cipurile de computer și accesoriile adecvate de la o imprimantă 3D, acestea sunt apoi transformate într-o armă autonomă.

DER SPIEGEL: Cine poartă răspunderea dacă armele robotizate comit crime de război? Încă din 2017, în Parlamentul European s-a discutat serios despre acordarea unor mașinării ceva asemănător statutului de persoană specială, pentru a putea fi trase la răspundere în cazul unei abateri.

Walsh: Da, dar la ce ar folosi asta? La urma urmei, corporațiile sunt considerate și „persoane juridice” în unele țări. Dar asta de multe ori nu este de mare ajutor atunci când vine vorba de crime.

Dictaturile s-ar putea folosi de AI pentru a îngrozi populația
DER SPIEGEL: Sunt deja folosiți roboții criminali ofensivi?

Walsh: Există multe speculații. Dar se pare că Turcia a trimis o dronă autonomă numită Kargu cu software de recunoaștere facială pentru a vâna oameni la granița cu Siria.

Se pare că Kargu folosește aceiași algoritmi de recunoaștere facială ca și în smartphone-ul tău, cu toate erorile lor, pentru a identifica și ucide oameni pe teren. Imaginează-ți cât de înfricoșător ar fi să fii urmărit de un roi de drone ucigașe.

Chiar dacă nu funcționează în mod deosebit de fiabil, desigur, dictaturile le-ar putea folosi pentru a îngrozi populația. Ar fi ideal pentru teroarea de stat.

DER SPIEGEL: Odată ați prezis corect că o mașină cu conducere autonomă va provoca un accident mortal cu un biciclist și un pieton, ceea ce s-a întâmplat exact un an mai târziu. Ce preziceți pentru următorii cinci ani?

Walsh: Cu recunoașterea facială automată, vom vedea scandaluri. Startup-ul american Clearview AI a adunat milioane de fotografii fără acordul persoanelor implicate.

Compania a fost dată în judecată pentru asta, dar continuă. Este incredibil că nu au fost deja trimiși în faliment. Și încă o predicție: falsurile profunde (deep fake) – adică filme și fotografii manipulate cu ajutorul AI pe internet – vor crește.

În câțiva ani, falsurile profunde vor decide alegerile sau vor declanșa un război – sau chiar ambele.

blank