Pau en l'era digital

Riscos de la IA per a una pau sostenible

La pau sovint es mal interpreta com a mera absència de guerra o violència manifesta: un estat d’ordre i estabilitat. No obstant això, aquesta concepció limitada del que Johan Galtung ha anomenat «pau negativa»[1] passa per alt els fonaments relacionals, sistèmics i ètics més profunds que fan que la pau sigui sostenible en el temps. Per contra, la pau sostenible no és un assoliment estàtic o un estat final institucional, sinó una condició dinàmica que sorgeix de la qualitat de les relacions, la resiliència de les xarxes de connexió i la presència de la dignitat i la llibertat humanes.

Per tant, per comprendre millor la pau cal anar més enllà dels ideals abstractes o els marcs dels tractats i prestar atenció a com es relacionen entre si les persones, els grups i les institucions. La pau no és una substància o una estructura, sinó un patró positiu d’interacció, una cosa que està estretament vinculada amb el comportament humà. És un fenomen que passa «entre els nodes»: en les connexions, els intercanvis i els reconeixements mutus que uneixen les persones a través d’experiències i intercanvis positius. Aquests vincles es poden traçar com a xarxes, en què cada node (ja sigui una persona, un grup o una institució) és portador de capacitats i vulnerabilitats, i cada baula que connecta els diferents nodes reflecteix una qualitat particular de la relació, una combinació única de característiques com la confiança i la cura, però també el conflicte o l’abandonament. Aquesta visió d’una pau interconnectada desplaça el focus d’atenció dels indicadors estàtics a la dinàmica de la connexió: com es construeixen, tensen o trenquen les relacions, com es distribueix el poder i com coexisteixen la pau i la violència en una línia contínua. Les xarxes relacionals poden ser robustes, salvar divisions i donar suport a la cooperació; o poden ser fràgils, marcades per la por, l’exclusió i la fragmentació. Així, doncs, la pau no és una cosa que ens ve donada, sinó (igual que la violència) una propietat que emergeix de les condicions que defineixen les característiques del sistema, sempre en risc d’esfondrar-se, especialment quan es veu pertorbat per crisis, injustícies o, també, transformacions tecnològiques (inclosa la Intel·ligència Artificial, IA).

La dignitat i la llibertat són fonaments ètics de la pau, i la resiliència n’és la columna vertebral: saber gestionar les crisis i transformar els conflictes de manera sostenible depèn del nivell de resiliència de les comunitats

Al centre de les xarxes pacífiques hi ha els principis ètics de la dignitat humana i la llibertat. La dignitat no és només un valor intrínsec, sinó una qualitat relacional, que es manté quan les persones són reconegudes en la seva singularitat i tractades amb veu i valor. La llibertat no és només estar lliure de coerció, sinó la capacitat de participar de manera significativa en la configuració de la pròpia vida i les relacions. Tal com han argumentat Hannah Arendt[2] i Amartya Sen[3], la llibertat és la capacitat real de decidir i actuar dins d’un context, enmig d’estructures que la poden impulsar o limitar. Quan es neguen sistemàticament la dignitat i la llibertat (mitjançant la vigilància, l’exclusió o el desinterès), la infraestructura relacional de la pau comença a desfer-se. La confiança s’erosiona, la participació s’esvaeix i la violència sorgeix majoritàriament no de l’odi, sinó del col·lapse sistèmic: la «banalitat del mal», com advertia Arendt, en què els actors ordinaris segueixen normes perjudicials en sistemes disfuncionals. El genocidi a Gaza i l’augment de la violència per part dels colons a Cisjordània després de l’atac de Hamàs del 7 d’octubre del 2023 en són un exemple tràgic.

Mentre que la dignitat i la llibertat són els fonaments ètics de la pau, la resiliència n’és la columna vertebral operativa: el conjunt de capacitats que permeten que els individus, les comunitats i els sistemes resisteixin a les pertorbacions i es recuperin o es transformin sense caure en la violència. Sempre hi haurà crisis i, fins i tot, conflictes, però que esclati la violència o que, per contra, els individus, les comunitats i les institucions aconsegueixin gestionar les crisis de manera sostenible i transformar els conflictes per mitjans noviolents en estats de coexistència pacífica depèn dels seus nivells de resiliència. La resiliència no consisteix únicament a sobreviure o recuperar-se. Es tracta d’afrontar les crisis de manera que es preservin els valors i les relacions fonamentals, adaptar-se a les condicions canviants i obrir espai per al canvi positiu i la renovació.

Podem identificar quatre pilars interdependents de la resiliència:

  1. Recursos: Accés a aliments, refugi, atenció sanitària, coneixements, sentit emocional. Totes les eines materials i simbòliques necessàries per fer front a les crisis.
  2. Capital social: Confiança, solidaritat i xarxes de suport mutu que permetin que les persones comparteixin responsabilitats, accedeixin a recursos i coordinin respostes.
  3. Capacitat d’adaptació: Capacitat d’aprendre, innovar i ajustar estratègies quan les antigues ja no funcionen.
  4. Entorns propicis: Institucions i polítiques que garanteixin l’equitat, protegeixin els drets humans i ofereixin vies per al canvi pacífic.

Aquests factors, junts, determinen si la pau pot perdurar sota pressió. Quan la resiliència és forta, les xarxes de connexió es flexionen però no es trenquen. Quan és feble, les crisis poden empènyer els sistemes cap apunts d’inflexió en què les espirals de violència s’autoreforcen (vegeu, per exemple, els recents brots de violència tribal a Síria, aquest 2025). Aquests punts d’inflexió es produeixen quan les normes socials viren cap a la por o l’agressió, els recursos escassegen, la confiança s’erosiona o els actors oportunistes s’aprofiten dels conflictes. Com passa a la teoria de les xarxes, una petita ruptura en una part del sistema pot produir una reacció en cascada, especialment si els llaços relacionals ja eren tensos. La secció següent analitza la força disruptiva de la IA i el seu impacte potencial en la resiliència, que configura la capacitat de les xarxes per salvaguardar la pau.

La IA com a risc per a la resiliència de les xarxes i la seva capacitat per salvaguardar la pau

La intel·ligència artificial està reconfigurant la manera de treballar, comunicar-se i governar-se de les persones, i sovint s’emmarca en termes d’innovació, eficiència o optimització. No obstant això, quan es mira a través de la lent de la pau relacional, la IA revela un risc més profund: redueix la resiliència dels individus i les societats a l’hora de gestionar les crisis i els conflictes de manera pacífica.

Per tant, entendre l’impacte de la IA sobre la pau fa necessari anar més enllà d’amenaces manifestes com ara els sistemes d’armes autònomes o les noves amenaces cibernètiques. Pel que fa a la resiliència, s’han d’examinar els efectes de la IA sobre els recursos, el capital social, la capacitat d’adaptació i els entorns propicis, els elements que formen la infraestructura relacional de la pau sostenible.

La IA i l’alteració dels recursos: la dignitat mitjançant el treball i la integritat emocional

Els recursos són la base de la resiliència a qualsevol xarxa: no només els béns materials com el menjar o el refugi, sinó també les capacitats simbòliques, emocionals i d’informació. Les tecnologies de la IA controlen cada cop més el flux i la distribució d’aquests recursos i, quan ho fan, remodelen les condicions en què s’afirma o es nega una vida amb dignitat.

Des d’una mirada de pau relacional, la IA revela un risc profund: redueix la resiliència dels individus i les societats a l’hora de gestionar les crisis i els conflictes de manera pacífica

Des d’un punt de vista estructural, les eines potenciades per la IA s’ocupen cada cop més de tasques administratives repetitives que tradicionalment feien els empleats d’oficina, com ara processar factures, actualitzar registres de nòmines o verificar formularis electrònics. Tot i que és possible que aquests sistemes no substitueixin funcions completes d’avui per demà, redueixen significativament la demanda de mà d’obra, cosa que es tradueix en menys oportunitats laborals. En altres sectors s’observen tendències semblants que redueixen la necessitat de personal: els chatbots d’IA gestionen gran part de les consultes d’atenció al client; els sistemes de visió per ordinador que hi ha als magatzems guien els robots autònoms per recollir, classificar i embalar mercaderies; en les finances, els sistemes de trading algorítmic executen operacions i optimitzen tasques que abans eren gestionades per equips d’analistes júnior.

Si bé sorgeixen alguns llocs de treball nous (per exemple, en la formació de models d’IA, l’etiquetatge de dades o el manteniment i la supervisió de sistemes automatitzats), la naturalesa d’aquestes oportunitats sol tenir una definició molt limitada. Molts estan vinculats a funcions específiques dins del procés de desenvolupament de la IA, com ara l’anotació de conjunts de dades per a l’aprenentatge automàtic, l’ajustament fi de models lingüístics, la supervisió de resultats algorísmics a la recerca d’errors o el manteniment de maquinària autònoma. Altres comporten funcions de supervisió en què els humans examinen els processos automatitzats i només hi intervenen quan el sistema troba excepcions o errors. A més, moltes d’aquestes noves oportunitats laborals solen ser temporals, estan concentrades geogràficament o requereixen coneixements avançats que molts treballadors no poden adquirir fàcilment.

Per tant, l’efecte net de la IA sobre el mercat laboral probablement serà desigual i disruptiu per tres motius. En primer lloc, l’automatització tendeix a beneficiar els actors altament qualificats o amb gran poder adquisitiu, mentre que els treballadors del Sud Global, els mercats laborals precaris i els treballadors de feines rutinàries s’enfronten al major risc de despossessió. En segon lloc, els períodes de transició entre la pèrdua de feina i una nova ocupació poden ser llargs i desestabilitzadors, i erosionar la seguretat econòmica. En tercer lloc, fins i tot quan la IA augmenta l’eficiència i redueix el cost dels béns, això no es tradueix automàticament en millors condicions de vida.

La IA contribueix al «colonialisme de dades»: s’extreuen quantitats ingents de dades i les persones passen a ser explotables seguint els patrons històrics d’extracció i domini dels recursos

Els guanys sovint es distribueixen de manera desigual: mentre que alguns individus i regions es beneficien de productes més barats, millores dels serveis i noves oportunitats de mercat, d’altres experimenten la pèrdua d’ocupació, l’estancament salarial o l’afebliment de les proteccions laborals. Aquestes disparitats poden incrementar les desigualtats existents, tant dins dels països com entre ells, ja que els treballadors altament qualificats i els propietaris de capital s’emporten una part desproporcionada dels beneficis. El resultat per a molts és una pèrdua de dignitat econòmica: la capacitat de mantenir-se a si mateix i la família amb propòsit i seguretat. Aquests canvis tecnològiques proporcionen un argument sòlid a favor d’una renda bàsica incondicional: un pagament garantit i regular a tots els ciutadans, basat en el dret a una vida digna en què se satisfacin les necessitats bàsiques.

A més, els sistemes algorítmics de contractació i rendiment (com, per exemple, les eines automatitzades de selecció de personal o els programes informàtics de seguiment de la productivitat basats en la IA) redueixen les persones a mètriques, cosa que dona lloc a la discriminació (per exemple, candidats rebutjats a causa de llacunes en l’historial laboral) i la infravaloració de les dimensions humanes com la creativitat, l’atenció i la col·laboració.

A escala mundial, la IA contribueix a allò que els erudits han anomenat «colonialisme de dades».[4] S’extreuen quantitats ingents de dades (tot sovint sense consentiment) d’individus, comunitats i dispositius d’arreu del món perquè siguin analitzades, monetitzades i controlades per unes quantes empreses i estats poderosos. Aquest procés reflecteix els patrons històrics d’extracció i domini de recursos, amb el gir inesperat que el «recurs» en qüestió és la petjada relacional i de comportament de les vides humanes. La dignitat es veu compromesa no només perquè s’eludeix el consentiment, sinó perquè les persones esdevenen “llegibles” i explotables sense reciprocitat ni recurs.

Fins i tot els recursos emocionals i psicològics se’n veuen afectats. Les plataformes millorades amb la IA, com el feed «Per a tu» de TikTok, la pàgina «Explorar» d’Instagram, el «News Feed» de Facebook, l’algorisme de línia temporal de X (abans Twitter) o la reproducció automàtica i els vídeos suggerits de YouTube, utilitzen l’aprenentatge automàtic per predir i amplificar els continguts amb més probabilitats de captar i mantenir l’atenció.

La IA pot millorar l’accés a la informació o a determinats serveis, però també mina la dignitat humana

Especialment a les xarxes socials, aquests mecanismes intensifiquen la comparació, la competició i la performativitat, ja que els usuaris estan exposats contínuament a representacions dels èxits, els estils de vida i les opinions dels altres. Mitjançant la captació de l’atenció i les emocions amb fins lucratius, aquests sistemes erosionen l’estabilitat interior i l’autoestima de les persones, dimensions essencials de la resiliència. Els sistemes de vigilància degraden encara més aquests recursos perquè produeixen una ansietat constant de baix nivell, especialment entre les poblacions marginades i els actors de la societat civil que ja s’enfronten a una vigilància desproporcionada, ja sigui mitjançant algorismes policials predictius, la supervisió al lloc de treball, el reconeixement facial automatitzat en espais públics o la vigilància de l’activisme en línia impulsada per la IA.

En conjunt, la IA reconfigura els fluxos de recursos de manera que pot millorar l’accés a la informació o a determinats serveis, però també mina la dignitat que es deriva del fet que es valori la pròpia feina, se satisfacin les pròpies necessitats i es respectin els propis límits.

La IA i l’erosió del capital social: fracturar la confiança que sustenta la pau

El capital social (la xarxa de confiança, normes i relacions informals que uneixen les persones) és un pilar bàsic de la resiliència en qualsevol comunitat. Permet la coordinació, l’ajuda mútua i l’acció col·lectiva. Quan la confiança i l’empatia circulen amb facilitat, les xarxes poden resistir la pressió sense arribar a trencar-se. En canvi, quan aquests vincles són febles, les crisis desemboquen més ràpidament en retrets, por i divisió.

Els sistemes d’IA intervenen cada cop més en l’entramat relacional que sustenta la pau. De manera més visible, els algorismes de les xarxes socials, optimitzats per  la interacció (engagement), donen prioritat als continguts que provoquen indignació, reafirmació o altres emocions fortes. Això canvia l’equilibri del que circula per dins de les xarxes i entre elles, i dona més visibilitat al material que divideix o que té càrrega emocional i, al mateix temps, desplaça el contingut que fomenta el diàleg o el matís. Amb el temps, aquest filtrat algorítmic fomenta la formació de cambres d’eco polaritzades: agrupacions molt unides dins de xarxes més àmplies en què la informació flueix principalment entre persones d’idees afins. Aquests conglomerats fragmenten la xarxa en general, bo i afeblint el capital social que fa de pont (les connexions que uneixen les persones d’orígens o perspectives diferents), alhora que reforcen el capital social d’unió dins de grups homogenis.

A mesura que s’enforteixen les identitats dins del grup, també s’enforteix la polarització tòxica (afectiva), una forma de divisió en què els individus no només discrepen, sinó que desenvolupen un profund menyspreu pels que tenen opinions oposades, juntament amb una intensa lleialtat al seu propi grup. Aquesta mentalitat de «nosaltres contra ells» redueix el ventall de perspectives i menyscaba la confiança, la reciprocitat i les normes compartides que sustenten la cooperació. Tot i que la polarització no és nova, la IA l’accelera i l’amplifica (sovint de manera invisible), modificant la dinàmica de xarxa que afavoreix l’entesa i el reconeixement mutu.

Els algoritmes de les xarxes socials prioritzen els continguts que generen divisió i indignació.  IA accelera i amplifica la polarització

Més enllà de donar forma al que es veu a Internet, la IA modela cada cop més la manera com sentim i com ens comportem. Les tecnologies de la IA implementades a les xarxes socials, el petit comerç, l’ensenyament, els llocs de treball i l’administració pública sovint utilitzen l’anàlisi facial, la detecció del to de veu i les dades biomètriques per provocar emocions en temps real. Un cop detectats, aquests estats emocionals es poden utilitzar per adaptar el contingut o les respostes: un client frustrat podria rebre un to tranquil·litzador d’un chatbot; un estudiant que una plataforma d’aprenentatge d’IA indica que està desmotivat podria rebre material més estimulant; si es detecta que un empleat no té una veu prou «positiva» a les trucades, se li podria sol·licitar que faci servir un to més optimista.

Tot i que sovint aquestes es presenten com a eines per millorar la qualitat dels serveis o el rendiment laboral, les mateixes tècniques per llegir les emocions i influir-hi es poden reutilitzar en contextos polítics o socials. Per exemple, les campanyes polítiques o d’activistes podrien fer servir la IA emocional per identificar i dirigir-se a persones ja preparades per a la ira o la por impulsant continguts que reforcin els greuges i enforteixin la solidaritat dins del grup. Tots dos efectes intensifiquen les divisions existents, i fan més difícil que les persones interactuïn de manera constructiva per sobre de les diferències. Quan es combinen amb la vigilància impulsada per la IA, els efectes es magnifiquen. La consciència permanent de ser vigilats o perfilats fomenta l’autocensura i reprimeix la dissidència. Això mina l’autenticitat, la confiança i l’obertura necessàries per a una pau resilient, i les substitueix per interaccions cauteloses i calculades que debiliten les xarxes de les quals depèn la cohesió social.

En règims autoritaris com ara Rússia o la Xina, la vigilància impulsada per la IA i els sistemes de crèdit social formalitzen aquesta ruptura de la confiança. Quan les persones temen que qualsevol vincle social les pugui fer vulnerables al control de l’estat o a danys en la seva reputació, comencen a retirar-se de la vida cívica i comunitària. El teixit social no es desfà per la violència directa, sinó per l’erosió relacional, un col·lapse lent de les institucions intermediàries i de les solidaritats quotidianes.

La IA afebleix la capacitat d’adaptació: encadenar les societats a pràctiques perjudicials del passat

La capacitat d’adaptació potser és la forma més subtil però essencial de resiliència. És el que permet que els individus i les institucions afrontin les novetats, donin resposta a la retroalimentació i canviïn de rumb quan les estratègies antigues ja no funcionen. Sense ella, els sistemes esdevenen fràgils, incapaços de recuperar-se o transformar-se sota pressió. En un món modelat per la IA, aquesta capacitat és cada cop més limitada.

Mentre que abans les persones confiaven en el propi judici i sentit comú, ara s’espera que segueixin el que marquen els algoritmes

Molts sistemes d’IA estan dissenyats per optimitzar resultats específics basant-se en dades històriques. Ara bé, quan ho fan, sovint s’aferren a determinats supòsits, mètriques o patrons que es resisteixen al qüestionament o a l’adaptació. Per exemple: els sistemes policials predictius poden perpetuar prejudicis històrics basats en l’origen ètnic o socioeconòmic. A més, les persones afectades per les decisions de la IA sovint no tenen la capacitat de comprendre, qüestionar o resistir-se a aquests sistemes. Això és especialment cert en el cas de les poblacions marginades que es poden veure sotmeses a avaluacions algorítmiques de benestar, denegacions automatitzades de visats o vigilància digital, tot això sense accés a explicacions, reparació o possibilitats de participació. Això no només genera una injustícia epistèmica, sinó també desempoderament pràctic, frustració i una eventual resignació: la negació de la capacitat per aprendre dels sistemes que conformen la pròpia vida i respondre-hi.

Potser el més important és que la IA pot dissuadir la iniciativa i la capacitat de fer excepcions, totes dues fonamentals per a la capacitat d’adaptació. En els casos en què abans les persones confiaven en el propi judici i sentit comú, ara s’espera que compleixin protocols algorítmics, fins i tot quan no s’ajusten a la realitat de la situació viscuda.

Per exemple: en el sistema de justícia penal, els algoritmes d’avaluació de riscos poden recomanar sentències severes per als joves aturats de barris marginats sense tenir en compte les causes profundes de la delinqüència, com ara la desocupació (potencialment vinculada a l’automatització) o l’absència de perspectives significatives per al futur. La capacitat de fer excepcions, de reconèixer el potencial de rehabilitació, d’oferir segones oportunitats i de sospesar factors que no recullen les dades és crucial no només per a les perspectives a llarg termini de les persones, sinó també per a la cohesió social. De la mateixa manera, en els sistemes d’assistència social, les comprovacions automatitzades d’elegibilitat poden denegar l’ajut a les famílies amb grans necessitats si les seves circumstàncies no coincideixen amb les categories preestablertes, i poden deixar els treballadors de primera línia amb poc marge per anul·lar la decisió. En tots dos casos, l’adhesió rígida als resultats algorítmics redueix l’espai per al judici moral sensible al context i la resolució pragmàtica de problemes, les mateixes qualitats que permeten que les societats s’adaptin de manera constructiva a les circumstàncies canviants al llarg del temps.

La IA i el col·lapse dels entorns propicis: el deteriorament de les institucions democràtiques

L’últim pilar de la resiliència, l’entorn propici, inclou els sistemes jurídics, les institucions polítiques i els marcs de governança que gestionen el risc, protegeixen els drets i en garanteixen l’equitat. Aquestes institucions exerceixen un paper fonamental en l’estructuració de les relacions, la mediació en els conflictes i la defensa de la dignitat i la llibertat dels  membres d’una comunitat. Tot i això, la IA s’està desenvolupant de maneres que cada vegada més superen, eludeixen o malmeten aquestes estructures.

En molts contextos, l’ús de la IA en la vigilància, el control de fronteres o el seguiment de protestes erosiona les llibertats civils, especialment dels grups vulnerables

L’opacitat de molts sistemes d’IA, sovint protegits per la llei de propietat intel·lectual o el secret comercial, dificulta que les persones afectades (o fins i tot els reguladors) entenguin com es prenen les decisions administratives i de governança. Això afecta la rendició de comptes i la justícia processal. El fet que la IA sovint obtingui coneixements a partir de dades esbiaixades o incompletes encara agreuja més aquest repte: quan les injustícies sistèmiques es codifiquen en lògiques algorítmiques, la injustícia es naturalitza i es fa invisible.

A més, el desenvolupament i el desplegament de la IA actualment estan dominats per uns quants poderosos actors corporatius i organismes estatals, els quals sovint actuen a escala transnacional, amb una supervisió democràtica mínima. En molts contextos, l’ús de la IA en la vigilància, el control de fronteres o la supervisió de protestes ha erosionat activament les llibertats civils, especialment en el cas de grups que ja eren vulnerables. Per exemple, a la regió xinesa de Xinjiang s’han desplegat sistemes avançats de reconeixement facial per vigilar i detenir els musulmans uigurs, una clara violació de la llibertat de moviment i de culte. A Grècia, els drons, les càmeres i els sistemes basats en intel·ligència artificial finançats per la UE vigilen els moviments dels migrants a les fronteres terrestres amb Turquia, sovint de manera poc transparent, la qual cosa planteja greus problemes de drets humans al voltant del desplaçament forçós i la criminalització de la migració. Als territoris palestins ocupats, les autoritats israelianes han implementat sistemes de reconeixement facial basats en la IA, com ara els programes «Llop blau» i «Llop vermell», per identificar i rastrejar els palestins a través dels punts de control i als espais públics. En altres llocs, en protestes a Rússia, Índia o l’Iran, s’han utilitzat eines de vigilància basades en la IA (inclosos sistemes automatitzats d’identificació com ara el reconeixement facial i de la manera de caminar, que analitza els patrons de marxa d’un individu) per identificar i perseguir els manifestants, vulnerant greument els drets a la llibertat d’expressió i de reunió.

L’ús de sistemes algorítmics per vigilar, perfilar o seleccionar grups sense el context o els recursos adequats debilita tant els drets humans com la resiliència social. A mesura que l’entorn flaqueja sota aquestes pressions, les xarxes que abans sostenien la interacció pacífica es van fent més i més propenses a la ruptura. La confiança en les institucions democràtiques disminueix. El recurs a la reparació es fa més difícil. Les persones deixen de confiar que el sistema les pugui protegir i, en absència de vies pacífiques per al canvi, poden recórrer a la resistència, la retirada o la violència.

Conclusió: restablir la pau a l’era de la IA

Tot i que no són intrínsecament violents, els sistemes d’IA poden erosionar les condicions (recursos, capital social, capacitat d’adaptació i entorns propicis) que fan que les societats siguin resilients als conflictes i les crisis. En interrompre l’accés als recursos, fragmentar les xarxes de connexió, limitar la capacitat de resolució de problemes i afeblir les institucions democràtiques, la IA corre el risc de deteriorar el teixit relacional que manté unides les comunitats. Aquests riscos poques vegades es donen a conèixer amb sotragades sobtades: sorgeixen silenciosament mitjançant la desconnexió, el desempoderament i la deshumanització. Però no són inevitables.

La IA no és una força única i determinista. Les seves repercussions depenen de les finalitats a què es destina, dels valors integrats en el seu disseny i dels contextos en què s’implementa. Com demostren els exemples positius següents, la IA també es pot utilitzar juntament amb els pilars de la resiliència per promoure la pau en lloc de minar-la:

Accés equitatiu als recursos: en contextos en què les tensions entre comunitats són més grans com, per exemple, entre pastors i agricultors que competeixen per unes terres escasses, les eines de previsió del clima i la planificació de l’ús de la terra impulsades per la IA poden ajudar a preveure les sequeres, optimitzar les rotacions de pasturatge i reduir les disputes pels recursos. A Kenya, per exemple, plataformes com Virtual Agronomist i PlantVillage ofereixen assessorament agrícola local en diversos idiomes, cosa que permet que els petits agricultors millorin els seus rendiments.

Creació de capital social a totes les comunitats: les plataformes de diàleg assistides per IA, com Pol.is, que s’ha utilitzat a Taiwan, Canadà, Singapur, Filipines, Finlàndia, l’Estat espanyol i altres països, han demostrat que la tecnologia pot superar les divisions traçant àrees d’acord entre grups grans i diversos. En contextos molt polaritzats, aquestes eines poden crear connexions entre persones que, d’altra manera, mai no es trobarien, ja sigui per motius ètnics, religiosos o socioeconòmics.

Millorar la capacitat d’adaptació mitjançant una planificació inclusiva: en ciutats brasileres com Porto Alegre i Belo Horizonte, l’elaboració de pressupostos participatius millorada amb IA permet que els residents (inclosos els de zones marginades) proposin, debatin i votin les prioritats d’inversió pública. Això no només reforça la capacitat local per resoldre problemes, sinó que també genera la confiança i les aptituds necessàries perquè les comunitats s’adaptin als reptes futurs.

Reforçar els entorns propicis mitjançant la democràcia digital: Plataformes cíviques com «Decidim», a Barcelona, ofereixen sistemes transparents i de codi obert perquè els ciutadans puguin crear conjuntament polítiques, elaborar propostes i demanar comptes a les institucions. Aquestes eines, si es gestionen correctament i de manera inclusiva, poden revitalitzar la confiança en la governança i permetre formes de democràcia més directes i participatives.

No es tracta només de fer que els sistemes d’IA siguin més segurs i eficients, sinó de consolidar-los amb una visió de pau que doni prioritat a la dignitat humana i a la llibertat, especialment dels més vulnerables

Si alineem l’ús de la IA amb els principis que protegeixen la dignitat humana i la llibertat, podem ajudar a transformar les xarxes per acostar-les a la confiança en lloc de la desconfiança, i a la cooperació en lloc de la polarització. D’aquesta manera, la IA podria convertir-se no en una amenaça per a la pau sostenible, sinó en alguna cosa que hi contribueixi activament. Per tant, no es tracta simplement de fer que els sistemes d’IA siguin més segurs o més robustos i eficients. Es tracta de tornar a consolidar-los amb una visió de pau: una visió que doni prioritat a la dignitat humana i a la llibertat, especialment dels més vulnerables. Això pot incloure enfocaments de disseny ètic i cocreació, però també pot definir espais lliures d’IA reservats només per als humans. En qualsevol cas, és indispensable comptar amb dos marcs ètics:

En primer lloc, l’ètica de la cura ens recorda que la pau no es manté mitjançant el control, sinó mitjançant l’atenció a la necessitat, la vulnerabilitat i el context. Els enfocaments orientats a la cura fomenten el disseny de sistemes inclusius, receptius i basats en les relacions humanes. Ens conviden a valorar no només els resultats, sinó també la qualitat de les interaccions que ens porten fins a ells.

En segon lloc, un enfocament basat en els drets humans garanteix que la pau no es deixi únicament en les mans d’una intenció benèvola. Els marcs de drets integren la dignitat i la llibertat en les normes jurídiques i les pràctiques institucionals, protegeixen les persones dels abusos sistèmics i permeten una participació significativa en la configuració del futur tecnològic. Proporcionen barreres de protecció estructurals, com ara la transparència, la responsabilitat i la no-discriminació, que són essencials per preservar la pau en condicions de canvis ràpids i crisi.

En aquest sentit, la pau a l’era de la IA no és només un problema tècnic o normatiu. És un projecte moral i polític. Cal replantejar-se no només les eines que construïm, sinó els valors que codifiquem i els futurs que fem possibles. Si volem preservar la pau en una era de màquines intel·ligents, hem de començar per defensar el que ens fa humans, i dissenyar tenint-ho en compte.


[1] Galtung, J. 1969. “Violence, Peace and Peace Research.” Journal of Peace Research 6 (3): 167–91.

[2] Arendt, H. 2006 [1963]. Eichmann in Jerusalem: A Report on the Banality of Evil. Penguin Publishing Group.

[3] Sen, A. 2014 [1999]. “Development as Freedom.” A The Globalization and Development Reader: Perspectives on Development and Global Change, 525.

[4] Couldry, N., i U. A. Mejias. 2019. “The Costs of Connection: How Data Is Colonizing Human Life and Appropriating It for Capitalism.” A The Costs of Connection. Stanford University Press.

Aquesta és una versió traduïda de l’article originalment publicat en anglès.

Fotografia

Representació visual del concepte d’intel·ligència artificial i connexió digital. Autoria: Pixel-Shot (Shutterstock).