En commemoració del 75è aniversari de la Convenció de Ginebra, s’ha celebrat a la Universitat Pontifícia Gregoriana la conferència #TheSpiritofGeneva: The Impact of Al on International Humanitarian Law, 75 Years of the Geneva Conventions.
L’esdeveniment ha tractat els riscos i les oportunitats que la intel·ligència artificial presenta en l’àmbit dels conflictes armats i la protecció civil.
Especialistes en dret, tecnologia i ètica han discutit discutint sobre la necessitat de regulacions que assegurin la humanitat i dignitat en l’ús d’aquestes tecnologies en temps de guerra i pau.
Avui dia, amb gravíssimes violacions del dret internacional humanitari i de la convenció de Ginebra, és urgent introduir perspectives ètiques jurídiques en la situació esquizofrènica que s’està vivint. Els creadors dels algoritmes no poden quedar fora de l’ètica.
Setanta-cinc anys després de la seva adopció, la Convenció de Ginebra són tan rellevants com sempre. El respecte per les seves disposicions protegeix milions de vides en més de cent conflictes arreu del món. Aquests textos fonamentals són la pedra angular del dret internacional humanitari i el seu missatge és clar: la guerra té límits.
Quan es compleixen 75 anys de la Convenció de Ginebra és urgent reflexionar sobre l’impacte de la intel·ligència artificial. Quins riscos representa en les guerres i com es pot fer servir per a la protecció civil?
Per al secretari d’Estat vaticà, el cardenal Pietro Parolin, les lleis humanitàries i els dictats de la consciència pública subratllen la possibilitat que la intel·ligència artificial representi un risc en la protecció de qui no participa en les hostilitats i en la creació de patiments innecessaris.
Tot això depèn de l’home i de la consciència humana, element que el distingeix de les màquines i que li permet decidir de manera moralment responsable.
Donada la naturalesa de la intel·ligència artificial, una eina complexa amb cert grau d’autonomia, resulta encara més clar que és fonamental que l’ésser humà en determini l’ús i sigui el responsable últim per garantir els límits necessaris.
No podem permetre que la vida i el futur d’algú siguin decidits per una màquina
Com assenyala el papa Francesc, una màquina mai no hauria de tenir la facultat de decidir sobre la vida humana. Per això, és crucial que l’ésser humà mantingui la fidelitat al principi d’humanitat, a la dignitat humana atorgada per Déu i al caràcter inviolable de la vida.
En aquest context, mentre l’ús de la intel·ligència artificial s’expandeixi, és indispensable que la població civil, així com els malalts, presoners i caiguts en combat, siguin protegits i es respectin els principis de distinció i proporcionalitat, ha afirmat el cardenal Parolin.
Guerra i IA
La comunitat internacional, incloent-hi nombrosos estats i el secretari general de l’ONU, han reiterat la necessitat d’una regulació per prevenir les conseqüències negatives de les armes autònomes. És essencial que ens comprometem a continuar aquest esforç.
En temps de pau i conflicte, tenim la responsabilitat de promoure la humanització dels efectes dels conflictes armats. La intel·ligència artificial ha de ser emprada al servei del desenvolupament integral, de l’agricultura, de la cultura i de la pau entre els pobles, de la protecció dels civils en la guerra. Aquests són els criteris perquè pugui ser legislada convenientment.
Els sistemes informàtics que es fan servir en armament mai no haurien d’emprar-se sense la responsabilitat humana; l’ús de la tecnologia ha de prohibir-se quan es fa servir sense cap tipus de supervisió humana. Cada suport de la IA ha de ser transparent, respectuosa amb el dret internacional humanitari.
Això és possible perquè aquests sistemes, en principi, no tenen ànima, però les investigacions més recents semblen albirar que podem arribar a una IA ètica, amb un cert grau d’empatia.
S’està treballant en la prohibició de les armes autònomes. La IA es pot prestar a ser favorablement utilitzada per a la protecció de la pau de la Convenció de Ginebra, a través de la col·laboració multilateral i del diàleg dels actors polítics, científics, religiosos i empresarials.
El principi filosòfic que ha d’implementar-se a la IA emprada en les armes de guerra, com els drons, ha de ser la prudència, la frònesi, la qual no es pot efectuar amb els algoritmes, sinó només amb la supervisió i el control humà adequat i coherent, la qual cosa implica un alentiment necessari del sistema, renunciar a la fascinació per un avantatge ràpid tàctic.
Avui tenim l’oportunitat de reglamentar el sistema. No hem de rebutjar-la, perquè ella pot salvar vides humanes, convenientment utilitzada en el camp de la medicina, com en el cas dels exoesquelets que ajuden persones paralitzades a tornar a caminar.
D’altra banda, el desafiament també passa per ajudar els joves, que estudien en les àrees tecnològiques i científiques, inserint la reflexió ètica i la filosofia.
IA i la persona humana
El professor Paolo Benanti, un dels experts mundials sobre la IA, es pregunta quina relació hi ha entre ètica i IA.
Quan veiem un jove que controla amb el dit l’smartphone hem de preguntar-nos si no és l’smartphone el qui controla el seu dit. Gràcies als ordinadors, els Estats Units van poder vèncer l’estat nazi.
La potència de càlcul estava molt vinculada a la geopolítica, l’ordinador més gran del món era al Pentàgon.
En el primer decenni d’aquest segle va arribar l’smartphone; al segon, vam tenir la pandèmia. I hem descobert en els darrers anys el Chat GPT. Els ordinadors actuals ja comencen a tenir la IA integrada.
La tecnologia mai no és neutra, té un impacte positiu o negatiu en la societat. La tecnologia canvia la manera com actua una societat.
IA i pau
A Líbia els mitjans de comunicació han contribuït al diàleg de pau entre els actors que no poden asseure’s a la taula. Hi ha xats capaços de fer de mitjancer en els processos de pau de societats molt polaritzades. Els científics auguren una millora en la interacció entre les persones i els ordinadors.
D’aquí a 10 anys s’esperen sistemes capaços d’identificar mines antipersones, de salvar la vida de moltes persones. Això permetria el desenvolupament de fàrmacs nous i vacunes, el tractament del Parkinson i de l’estrès posttraumàtic
També s’entrena la IA per a la protecció civil en cas de guerres i desastres naturals. Es busca entendre la manera com les persones reaccionen en els moments dramàtics.
La IA pot simular escenaris diferents per ajudar l’exèrcit i les entitats civils a preveure i actuar de la millor manera possible. Sabem que la IA és molt bona en el reconeixement d’objectes i imatges. Si és entrenada convenientment pot descobrir les mines explosives i evitar-les.
En aquest sentit, hi ha camp per a la fantasia. Potser un dron entrenat per portar aigua a les persones que ho necessiten, en circumstàncies dramàtiques on cada minut, cada instant, compta?
La IA és un desafiament important per al dret humanitari. Com garantir que els combatents i no combatents puguin ser diferents? La IA necessita un apropament interdisciplinari que comprengui diferents actors.
Seria possible que un dia la IA pogués guanyar el premi Nobel de la Pau?