A menudo se malinterpreta la paz como la mera ausencia de guerra o violencia manifiesta: un estado de orden y estabilidad. Pero esta concepción limitada de lo que Galtung ha denominado «paz negativa»[1] pasa por alto los fundamentos relacionales, sistémicos y éticos más profundos que hacen que la paz sea sostenible en el tiempo. Por el contrario, la paz sostenible no es un logro estático o un estado final institucional, sino una condición dinámica que surge de la calidad de las relaciones, la resiliencia de las redes sociales y la presencia de la dignidad y la libertad humanas.
Por lo tanto, para comprender mejor la paz es necesario ir más allá de los ideales abstractos o los marcos de los tratados y prestar atención a cómo se relacionan entre sí las personas, los grupos y las instituciones. La paz no es una sustancia o una estructura, sino un patrón positivo de interacción, algo que está estrechamente ligado al comportamiento humano. Es un fenómeno que ocurre «entre los nodos»: en las conexiones, los intercambios y los reconocimientos mutuos que unen a las personas a través de experiencias e intercambios humanos positivos. Estos vínculos pueden trazarse como redes, en las que cada nodo ―ya sea una persona, un grupo o una institución― es portador de capacidades y vulnerabilidades, y cada eslabón que conecta los diferentes nodos refleja una cualidad particular de la relación, una combinación única de características como la confianza y el cuidado, pero también el conflicto o el abandono. Esta visión de una paz interconectadadesplaza el foco de atención desde los indicadores estáticos hacia la dinámica de la conexión: cómo se construyen, tensan o rompen las relaciones, cómo se distribuye el poder y cómo coexisten la paz y la violencia en una línea continua. Las redes pueden ser robustas, salvando divisiones y apoyando la cooperación; o pueden ser frágiles, marcadas por el miedo, la exclusión y la fragmentación. Así pues, la paz no es algo dado, sino, al igual que la violencia, una propiedad emergente de las condiciones que definen las características del sistema, siempre en riesgo de venirse abajo, especialmente cuando se ve perturbado por crisis, injusticias o también transformaciones tecnológicas (incluida la Inteligencia Artificial, IA).
La dignidad y la libertad son los fundamentos éticos de la paz, y la resiliencia es su columna vertebral: saber gestionar las crisis y transformar los conflictos de manera sostenible depende del nivel de resiliencia de las comunidades
En el centro de las redes pacíficas se encuentran los principios éticos de la dignidad humana y la libertad. La dignidad no es solo un valor intrínseco, sino una cualidad relacional, que se mantiene cuando las personas son reconocidas en su singularidad, y tratadas como personas con voz y valor. La libertad no es solamente estar libre de coerción, sino la capacidad de participar de forma significativa en la configuración de la propia vida y las relaciones. Como han argumentado Hannah Arendt[2] y Amartya Sen[3], la libertad es la capacidad real de decidir y actuar dentro de un contexto, en estructuras que la pueden impulsar o limitar. Cuando se niegan sistemáticamente la dignidad y la libertad ―mediante la vigilancia, la exclusión o el desinterés― la infraestructura relacional de la paz comienza a deshacerse. La confianza se erosiona, la participación se desvanece y la violencia surge en su mayor parte no del odio, sino del colapso sistémico: la «banalidad del mal», como advertía Arendt, donde los actores ordinarios siguen normas perjudiciales en sistemas disfuncionales. El genocidio en Gaza y el aumento de la violencia por parte de los colonos en Cisjordania tras el ataque de Hamás del 7 de octubre de 2023 constituyen un trágico ejemplo.
Mientras que la dignidad y la libertad son los fundamentos éticos de la paz, la resiliencia es su columna vertebral operativa: el conjunto de capacidades que permiten a los individuos, las comunidades y los sistemas resistir a las perturbaciones y recuperarse o transformarse sin caer en la violencia. Las crisis e incluso los conflictos siempre ocurrirán, pero el hecho de que estalle la violencia o que, por el contrario, los individuos, las comunidades y las instituciones consigan gestionar las crisis de forma sostenible y transformar los conflictos por medios noviolentos en estados de coexistencia pacífica, depende de sus niveles de resiliencia. La resiliencia no consiste únicamente en sobrevivir o recuperarse. Se trata de afrontar las crisis de forma que se preserven los valores y las relaciones fundamentales, adaptarse a las condiciones cambiantes y abrir espacio para el cambio positivo y la renovación.
Se pueden identificar cuatro pilares interdependientes de la resiliencia:
- Recursos: Acceso a alimentos, refugio, atención sanitaria, conocimientos, sentido emocional: todas las herramientas materiales y simbólicas necesarias para hacer frente a las crisis.
- Capital social: Confianza, solidaridad y redes de apoyo mutuo que permitan a las personas compartir responsabilidades, acceder a recursos y coordinar respuestas.
- Capacidad de adaptación: Capacidad de aprender, innovar y ajustar estrategias cuando las antiguas ya no funcionan.
- Entornos propicios: Instituciones y políticas que garanticen la equidad, protejan los derechos humanos y ofrezcan vías para el cambio pacífico.
Juntos, estos factores determinan si la paz puede perdurar bajo presión. Cuando la resiliencia es fuerte, las redes se flexionan pero no se rompen; cuando es débil, las crisis pueden llevar a los sistemas más allá de puntos de inflexión en los que las espirales de violencia se autorrefuerzan (véanse, por ejemplo, los recientes brotes de violencia tribal en Siria, en 2025). Estos puntos de inflexión se producen cuando las normas sociales cambian hacia el miedo o la agresión, los recursos escasean, la confianza se erosiona o los actores oportunistas se aprovechan de los conflictos. Como en la teoría de redes, una pequeña ruptura en una parte del sistema puede producir una reacción en cascada, especialmente si los lazos relacionales ya están tensos. En la siguiente sección se examina la fuerza disruptiva de la IA y su impacto potencial en la resiliencia que configura la capacidad de las redes para salvaguardar la paz.
La IA como riesgo para la resiliencia de las redes y su capacidad para salvaguardar la paz
La inteligencia artificial está reconfigurando la forma de trabajar, comunicarse y gobernarse de las personas, a menudo enmarcada en términos de innovación, eficiencia u optimización. Pero cuando se mira a través de la lente de la paz relacional, la IA revela un riesgo más profundo: reduce la resiliencia de los individuos y las sociedades a la hora de gestionar las crisis y los conflictos de forma pacífica.
Comprender el impacto de la IA en la paz requiere, por tanto, ir más allá de amenazas manifiestas como los sistemas de armas autónomas o las nuevas amenazas cibernéticas. En lo que respecta a la resiliencia, deben examinarse los efectos de la IA sobre los recursos, el capital social, la capacidad de adaptación y los entornos propicios, elementos que forman la infraestructura relacional de la paz sostenible.
La IA y la interrupción de los recursos: dignidad a través del trabajo y la integridad emocional
Los recursos son la base de la resiliencia en cualquier red, no solo los bienes materiales como la comida o el refugio, sino también las capacidades simbólicas, emocionales y de información. Las tecnologías de la IA controlan cada vez más el flujo y la distribución de estos recursos y, al hacerlo, remodelan las condiciones en las que se afirma o se niega una vida en dignidad.
Desde la lente de paz relacional, la IA revela un riesgo profundo: reduce la resiliencia de los individuos y las sociedades para gestionar las crisis y los conflictos de manera pacífica
Desde un punto de vista estructural, las herramientas potenciadas por la IA se están ocupando cada vez más de tareas administrativas repetitivas que tradicionalmente realizaban los empleados de oficina: por ejemplo, procesar facturas, actualizar registros de nóminas o verificar formularios electrónicos. Aunque es posible que estos sistemas no sustituyan funciones enteras de la noche a la mañana, reducen significativamente la demanda de mano de obra, lo que se traduce en menos oportunidades laborales. En otros sectores se observan tendencias similares: Los chatbots de IA gestionan ahora una gran parte de las consultas de atención al cliente; los sistemas de visión por ordenador en los almacenes guían a los robots autónomos en la recogida, clasificación y embalaje de mercancías; en las finanzas, los sistemas de trading algorítmico ejecutan operaciones y optimizan carteras que antes eran gestionadas por equipos de analistas junior.
Aunque surgen algunos puestos de trabajo nuevos ―por ejemplo, en la formación de modelos de IA, el etiquetado de datos o el mantenimiento y la supervisión de sistemas automatizados― la naturaleza de estas oportunidades suele definirse de forma limitada. Muchos están vinculados a funciones específicas dentro del proceso de desarrollo de la IA, como la anotación de conjuntos de datos para el aprendizaje automático, el ajuste fino de modelos lingüísticos, la supervisión de resultados algorítmicos en busca de errores o el mantenimiento de maquinaria autónoma. Otros conllevan funciones de supervisión en las que las personas examinan los procesos automatizados, interviniendo solamente cuando el sistema encuentra excepciones o fallos. Además, muchas de estas nuevas oportunidades de empleo suelen ser temporales, estar concentradas geográficamente o requerir conocimientos avanzados que muchos trabajadores desplazados no pueden adquirir fácilmente.
Por lo tanto, es probable que el efecto neto de la IA sobre el empleo sea desigual y perturbador por tres razones. En primer lugar, la automatización tiende a beneficiar a los actores altamente cualificados o con gran poder adquisitivo, mientras que los trabajadores del Sur Global, los mercados laborales precarios y los trabajos rutinarios se enfrentan al mayor riesgo de desposesión. En segundo lugar, los periodos de transición entre la pérdida del trabajo y un nuevo empleo pueden ser largos y desestabilizadores, erosionando así la seguridad económica. En tercer lugar, incluso cuando la IA aumenta la eficiencia y reduce el coste de los bienes, esto no se traduce automáticamente en mejores condiciones de vida.
La IA contribuye al «colonialismo de datos»: Se extraen ingentes cantidades de datos y las personas pasan a ser leíbles y explotables siguiendo patrones históricos de extracción y dominio de los recursos
Las ganancias se distribuyen a menudo de forma desigual: mientras que algunos individuos y regiones se benefician de productos más baratos, mejoras de los servicios y nuevas oportunidades de mercado, otros experimentan la pérdida de empleo, el estancamiento salarial o el debilitamiento de las protecciones laborales. Estas disparidades pueden aumentar las desigualdades existentes, tanto dentro de los países como entre ellos, ya que los trabajadores altamente cualificados y los propietarios de capital se llevan una parte desproporcionada de los beneficios. El resultado para muchos es una pérdida de dignidad económica: la capacidad de mantenerse a sí mismo y a su familia con propósito y seguridad. Estos cambios tecnológicos proporcionan un sólido argumento a favor de una renta básica incondicional: un pago en metálico garantizado y regular a todos los ciudadanos, basado en el derecho a una vida digna en la que se satisfagan las necesidades básicas de todos.
Además, los sistemas algorítmicos de contratación y rendimiento ―como, por ejemplo, las herramientas automatizadas de selección de CV o los programas informáticos de seguimiento de la productividad basados en la IA― reducen a las personas a métricas, lo que da lugar a la discriminación (por ejemplo, rechazando candidatos debido a brechas en el empleo) y la infravaloración de las dimensiones humanas del trabajo como la creatividad, la atención y la colaboración.
A escala mundial, la IA contribuye a lo que los eruditos han denominado «colonialismo de datos».[4] Se extraen ingentes cantidades de datos ―a menudo sin consentimiento― de individuos, comunidades y dispositivos de todo el mundo, solo para ser analizados, monetizados y controlados por un puñado de empresas y estados poderosos. Este proceso refleja los patrones históricos de extracción y dominio de recursos, con el giro inesperado de que el «recurso» en cuestión es la huella relacional y de comportamiento de las vidas humanas. La dignidad se ve comprometida no solo porque se elude el consentimiento, sino porque las personas se vuelven legibles y explotables sin reciprocidad ni recurso.
Incluso los recursos emocionales y psicológicos se ven afectados. Las plataformas mejoradas con IA ―como el feed Para ti de TikTok, la página Explorar de Instagram, el News Feed de Facebook, el algoritmo de línea temporal de X (antes Twitter) o la reproducción automática y los vídeos sugeridos de YouTube― utilizan el aprendizaje automático para predecir y amplificar los contenidos con más probabilidades de captar y mantener la atención del usuario.
La IA puede mejorar el acceso a la información o a determinados servicios, pero también socava la dignidad humana
Especialmente en las redes sociales, estos mecanismos intensifican la comparación, la competición y la performatividad, ya que los usuarios están continuamente expuestos a representaciones seleccionadas de los logros, estilos de vida y opiniones de los demás. Mediante la captación de la atención y las emociones con fines lucrativos, estos sistemas erosionan la estabilidad interior y autoestima, dimensiones esenciales de la resiliencia. Los sistemas de vigilancia degradan aún más estos recursos al producir una ansiedad constante de bajo nivel, especialmente entre las poblaciones marginadas y los actores de la sociedad civil que ya se enfrentan a una vigilancia desproporcionada, ya sea mediante algoritmos policiales predictivos, la supervisión en el lugar de trabajo, el reconocimiento facial automatizado en espacios públicos o la vigilancia del activismo en línea impulsada por la IA.
En conjunto, la IA reconfigura los flujos de recursos de forma que puede mejorar el acceso a la información o a determinados servicios, pero también socava la dignidad que se deriva del hecho de que se valore el propio trabajo, se satisfagan las propias necesidades y se respeten los propios límites.
La IA y la erosión del capital social: fracturar la confianza que sustenta la paz
El capital social ―la red de confianza, normas y relaciones informales que unen a las personas― es un pilar básico de la resiliencia en cualquier comunidad. Permite la coordinación, la ayuda mutua y la acción colectiva. Cuando la confianza y la empatía circulan libremente, las redes tienden a doblarse en lugar de romperse bajo tensión. Cuando son débiles o frágiles, las crisis se inclinan más fácilmente hacia la culpa, el miedo y la fragmentación.
Los sistemas de IA intervienen cada vez más en el entramado relacional que sustenta la paz. De manera más visible, los algoritmos de las redes sociales, optimizados para el compromiso, dan prioridad a los contenidos que provocan indignación, afirmación u otras emociones fuertes. Esto cambia el equilibrio de lo que circula dentro de las redes y entre ellas, dando mayor visibilidad al material divisivo o con carga emocional y desplazando al mismo tiempo el contenido que fomenta la deliberación o el matiz. Con el tiempo, este filtrado algorítmico fomenta la formación de cámaras de eco polarizadas: agrupaciones muy unidas dentro de redes más amplias en las que la información fluye principalmente entre miembros de ideas afines. Estos conglomerados fragmentan la red general, debilitando el capital social que hace de puente ―las conexiones que unen a las personas de distintos orígenes o perspectivas― mientras refuerzan el capital social de unión dentro de grupos homogéneos. A medida que se fortalecen las identidades dentro del grupo, también lo hace la polarización tóxica (afectiva), una forma de división en la que los individuos no solo discrepan, sino que desarrollan un profundo desprecio por quienes tienen opiniones opuestas, junto con una intensa lealtad a su propio grupo. Esta mentalidad de «nosotros contra ellos» reduce el abanico de perspectivas que encuentra la gente y menoscaba la confianza, la reciprocidad y las normas compartidas que sustentan la cooperación. Aunque la polarización no es nueva, la IA la acelera y la amplifica ―a menudo de forma invisible― cambiando la dinámica de la red que favorece el entendimiento y el reconocimiento mutuo.
Los algoritmos de las redes sociales dan prioridad a los contenidos que generan división e indignación. Así, la IA acelera y amplifica afirmación la polarización
Más allá de dar forma a lo que se ve en Internet, la IA moldea cada vez más la forma en que sentimos y nos comportamos. Las tecnologías de IA ―implementadas en las redes sociales, el comercio minorista, la enseñanza, los lugares de trabajo y la administración pública― utilizan a menudo el análisis facial, la detección del tono de voz y los datos biométricos para inferir emociones en tiempo real. Una vez detectados, estos estados emocionales pueden utilizarse para adaptar el contenido o las respuestas: un cliente frustrado podría recibir un tono tranquilizador de un chatbot; un estudiante señalado como desmotivado por una plataforma de aprendizaje de IA podría recibir material más estimulante; se podría solicitar a un empleado cuya voz no se considere lo bastante «positiva» que adoptara un tono más optimista en las llamadas.
Aunque a menudo se presentan como herramientas para mejorar la calidad de los servicios o la eficacia en el lugar de trabajo, las mismas técnicas para leer las emociones e influir en ellas pueden reutilizarse en contextos políticos o sociales. Por ejemplo, las campañas políticas o de activistas podrían usar la IA emocional para identificar y dirigirse a personas ya preparadas para la ira o el miedo, impulsando contenidos que refuercen los agravios y fortalezcan la solidaridad dentro del grupo. Ambos efectos intensifican las divisiones existentes, haciendo más difícil que los individuos interactuen de manera constructiva por encima de las diferencias. Cuando se combinan con la vigilancia impulsada por la IA, los efectos se magnifican. La conciencia permanente de estar siendo vigilados o perfilados fomenta la autocensura y reprime la disidencia. Esto mina la autenticidad, la confianza y la apertura necesarias para una paz resiliente, sustituyéndolas por interacciones cautelosas y calculadas que debilitan las propias redes de las que depende la cohesión social.
En regímenes autoritarios como, por ejemplo, Rusia o China, la vigilancia impulsada por la IA y los sistemas de crédito social formalizan esta ruptura de la confianza. Cuando las personas temen que cualquier vínculo social pueda hacerlas vulnerables al control del Estado o a daños en su reputación, comienzan a retirarse de la vida cívica y comunitaria. El tejido social se deshilacha no por la violencia directa, sino por la corrosión relacional, un lento colapso de las instituciones intermediarias y de las solidaridades cotidianas.
La IA socava la capacidad de adaptación: encerrar a las sociedades en prácticas perjudiciales del pasado
La capacidad de adaptación es quizás la forma más sutil pero esencial de resiliencia. Es lo que permite a los individuos y a las instituciones afrontar las novedades, responder a la retroalimentación y cambiar de rumbo cuando las viejas estrategias ya no funcionan. Sin capacidad de adaptación, los sistemas se vuelven frágiles, incapaces de recuperarse o transformarse bajo presión. En un mundo moldeado por la IA, esta capacidad es cada vez más limitada.
Donde antes las personas confiaban en su propio juicio y sentido común, ahora se espera que cumplan protocolos algorítmicos
Muchos sistemas de IA están diseñados para optimizar resultados específicos basándose en datos históricos. Pero al hacerlo, a menudo se aferran a ciertos supuestos, métricas o patrones que se resisten a la contestación o a la adaptación. Por ejemplo, los sistemas policiales predictivos pueden perpetuar prejuicios históricos basados en el origen étnico o socioeconómico. Además, las personas afectadas por las decisiones de la IA a menudo carecen de la capacidad para comprender, cuestionar o resistirse a esos sistemas. Esto es especialmente cierto en el caso de las poblaciones marginadas que pueden verse sometidas a evaluaciones algorítmicas de bienestar, denegaciones automatizadas de visados o vigilancia digital, todo ello sin acceso a explicaciones, reparación o posibilidades de participación. Esto genera no solo injusticia epistémica, sino también desempoderamiento práctico, frustración y eventual resignación: la negación de la propia capacidad para aprender de los sistemas que conforman la propia vida y responder a ellos.
Quizá lo más importante es que las IA pueden desalentar la agencia moral y la capacidad de hacer excepciones, ambas fundamentales para la capacidad de adaptación. Donde antes las personas confiaban en su propio juicio y sentido común, ahora se espera a menudo que cumplan protocolos algorítmicos, incluso cuando esos protocolos no se ajustan a la realidad de la situación vivida. Por ejemplo, en el sistema de justicia penal, los algoritmos de evaluación de riesgos pueden recomendar sentencias severas para los jóvenes desempleados de barrios marginados sin tener en cuenta las causas profundas de la delincuencia, como el desempleo ―potencialmente vinculado a la automatización― o la ausencia de perspectivas significativas para el futuro. La capacidad de hacer excepciones, de reconocer el potencial de rehabilitación, de ofrecer segundas oportunidades y de sopesar factores no recogidos en los datos es crucial no solo para las perspectivas a largo plazo de la vida de los individuos, sino también para la cohesión social de las comunidades. Del mismo modo, en los sistemas de asistencia social, las comprobaciones automatizadas de elegibilidad pueden denegar la ayuda a las familias con grandes necesidades si sus circunstancias no coinciden con las categorías preestablecidas, dejando a los trabajadores de primera línea con poca discreción para anular la decisión. En ambos casos, la adhesión rígida a los resultados algorítmicos reduce el espacio para el juicio moral sensible al contexto y la resolución pragmática de problemas, las mismas cualidades que permiten a las sociedades adaptarse de forma constructiva a las circunstancias cambiantes a lo largo del tiempo.
La IA y el desmoronamiento de los entornos propicios: el deterioro de las instituciones democráticas
El último pilar de la resiliencia ―el entorno propicio― incluye los sistemas jurídicos, las instituciones políticas y los marcos de gobernanza que gestionan el riesgo, protegen los derechos y garantizan la equidad. Estas instituciones desempeñan un papel fundamental en la estructuración de las relaciones, la mediación en los conflictos y la defensa de la dignidad y la libertad de todos los miembros de una comunidad. Sin embargo, la IA se está desarrollando de formas que cada vez más superan, eluden o socavan estas estructuras.
En muchos contextos, el uso de la IA en la vigilancia, el control de fronteras o la supervisión de protestas erosiona las libertades civiles, especialmente de grupos vulnerables
La opacidad de muchos sistemas de IA ―a menudo protegidos por la ley de propiedad intelectual o el secreto comercial― dificulta que las personas afectadas o incluso los reguladores comprendan cómo se toman las decisiones administrativas y de gobernanza. Esto menoscaba la rendición de cuentas y la justicia procesal. El hecho de que la IA a menudo obtenga conocimientos a partir de datos sesgados o incompletos agrava aún más este reto: cuando las injusticias sistémicas se codifican en lógicas algorítmicas, la injusticia se naturaliza y se hace invisible.
Además, el desarrollo y el despliegue de la IA están actualmente dominados por un puñado de poderosos actores corporativos y organismos estatales que operan a menudo a escala transnacional, con una supervisión democrática mínima. En muchos contextos, el uso de la IA en la vigilancia, el control de fronteras o la supervisión de protestas ha erosionado activamente las libertades civiles, especialmente en el caso de grupos ya de por sí vulnerables. Por ejemplo, en la región china de Xinjiang se han desplegado avanzados sistemas de reconocimiento facial para vigilar y detener a los musulmanes uigures, una clara violación de la libertad de movimiento y de culto. En Grecia, los drones, las cámaras y los sistemas basados en inteligencia artificial financiados por la UE vigilan los movimientos de los migrantes en las fronteras terrestres con Turquía, a menudo de forma poco transparente, lo que plantea graves problemas de derechos humanos en torno al desplazamiento forzoso y la criminalización de la migración. En los territorios palestinos ocupados, las autoridades israelíes han implementado sistemas de reconocimiento facial basados en la IA, como los programas «Lobo azul» y «Lobo rojo», para identificar y rastrear a los palestinos a través de los puestos de control y en los espacios públicos. En otros lugares, durante las protestas en países como Rusia, India e Irán, se han utilizado herramientas de vigilancia basadas en la IA ―incluidos sistemas automatizados de identificación como el reconocimiento facial y de la forma de andar, que analiza los patrones de marcha de un individuo― para identificar y seleccionar a los manifestantes, vulnerando gravemente los derechos a la libertad de expresión y de reunión.
El uso de sistemas algorítmicos para vigilar, perfilar o seleccionar grupos sin contexto o recursos adecuados socava tanto los derechos humanos como la resiliencia social. A medida que el entorno flaquea bajo estas presiones, las redes que antaño sostenían la interacción pacífica se vuelven cada vez más propensas a la ruptura. La confianza en las instituciones democráticas disminuye. El recurso a la reparación se vuelve difícil de alcanzar. Las personas pierden la confianza en que el sistema pueda protegerlas y, en ausencia de vías pacíficas para el cambio, quizás recurran en su lugar a la resistencia, el retraimiento o la violencia.
Conclusión: restablecer la paz en la era de la IA
Aunque no son intrínsecamente violentos, los sistemas de IA pueden erosionar las propias condiciones ―recursos, capital social, capacidad de adaptación y entornos propicios― que hacen que las sociedades sean resilientes a los conflictos y las crisis. Al interrumpir el acceso a los recursos, fragmentar las redes, limitar la capacidad de resolución de problemas y debilitar las instituciones democráticas, la IA corre el riesgo de deteriorar el tejido relacional que mantiene unidas a las comunidades. Estos riesgos rara vez se dan a conocer por medio de sacudidas repentinas; surgen silenciosamente mediante la desconexión, el desempoderamiento y la deshumanización. Pero no son inevitables.
La IA no es una fuerza única y determinista. Sus repercusiones dependen de los fines a los que sirve, de los valores integrados en su diseño y de los contextos en los que se implementa. Como demuestran los siguientes ejemplos positivos, la IA también puede utilizarse a lo largo de los diferentes pilares de la resiliencia para promover la paz en lugar de minarla:
Acceso equitativo a los recursos: En contextos en los que las tensiones entre comunidades son mayores ―como, por ejemplo, entre pastores y agricultores que compiten por unas tierras escasas― las herramientas de previsión climática y planificación del uso de la tierra impulsadas por la IA pueden ayudar a anticipar las sequías, optimizar las rotaciones de pastoreo y reducir las disputas por los recursos. En Kenia, por ejemplo, plataformas como Virtual Agronomist y PlantVillage ofrecen asesoramiento agrícola localizado en varios idiomas, lo que permite a los pequeños agricultores mejorar sus rendimientos.
Creación de capital social en todas las comunidades: Las plataformas de diálogo asistidas por IA, como Pol.is, que se ha utilizado en Taiwán, Canadá, Singapur, Filipinas, Finlandia, España y otros países, han demostrado cómo la tecnología puede superar las divisiones trazando áreas de acuerdo entre grupos grandes y diversos. En contextos profundamente polarizados, estas herramientas pueden reforzar el capital social puente fomentando las conexiones entre personas que, de otro modo, nunca llegarían a conocerse mediante líneas étnicas, religiosas o socioeconómicas.
Mejorar la capacidad de adaptación mediante una planificación inclusiva: En ciudades brasileñas como Porto Alegre y Belo Horizonte, una elaboración de presupuestos participativa mejorada con IA permite a los residentes ―incluidos los de zonas marginadas― proponer, debatir y votar las prioridades de inversión pública. Esto no solo refuerza la capacidad local de resolución de problemas, sino que además genera la confianza y las aptitudes necesarias para que las comunidades se adapten a los retos futuros.
Reforzar los entornos propicios mediante la democracia digital: Plataformas cívicas como Decidim en Barcelona ofrecen sistemas transparentes y de código abierto para que los ciudadanos puedan crear conjuntamente políticas, elaborar propuestas y pedir cuentas a las instituciones. Estas herramientas, cuando se gestionan correctamente y de forma inclusiva, pueden revitalizar la confianza en la gobernanza y permitir formas de democracia más directas y participativas.
La tarea no es simplemente hacer que los sistemas de IA sean más seguros y eficientes, sino de afianzarlos en una visión de paz que dé prioridad a la dignidad humana y a la libertad, especialmente de los más vulnerables
Alineando el uso de la IA con los principios que salvaguardan la dignidad humana y la libertad, podemos ayudar a transformar las redes hacia la confianza en lugar de la desconfianza, y hacia la cooperación en lugar de la polarización. De este modo, la IA podría convertirse no en una amenaza para la paz sostenible, sino en algo que contribuya activamente a la misma. Por lo tanto, la tarea no es simplemente hacer que los sistemas de IA sean más seguros, robustos y eficientes. Se trata de volver a afianzarlos en una visión de paz: una visión que dé prioridad a la dignidad humana y a la libertad, especialmente de los más vulnerables. Esto puede incluir enfoques de diseño ético y cocreación, pero también definir espacios libres de IA que estén reservados sólo a los humanos. En cualquier caso, dos marcos éticos resultan indispensables:
En primer lugar, la ética del cuidado nos recuerda que la paz no se mantiene mediante el control, sino mediante la atención a la necesidad, la vulnerabilidad y el contexto. Los enfoques orientados a los cuidados fomentan el diseño de sistemas inclusivos, receptivos y basados en las relaciones humanas. Nos invitan a valorar no solamente los resultados, sino la calidad de las interacciones que nos llevan hasta ellos.
En segundo lugar, un enfoque basado en los derechos humanos garantiza que la paz no se deje únicamente en manos de una intención benévola. Los marcos de derechos integran la dignidad y la libertad en las normas jurídicas y las prácticas institucionales, protegiendo a las personas de los abusos sistémicos y permitiendo una participación significativa en la configuración del futuro tecnológico. Proporcionan barreras de protección estructurales, tales como la transparencia, la responsabilidad y la no discriminación, que son esenciales para preservar la paz en condiciones de cambios rápidos y crisis.
En este sentido, la paz en la era de la IA no es solo un problema técnico o normativo. Es un proyecto moral y político. Requiere replantearse no solo las herramientas que construimos, sino los valores que codificamos y los futuros que hacemos posibles. Si queremos preservar la paz en una era de máquinas inteligentes, debemos empezar por defender ―y diseñar para― lo que nos hace humanos.
[1] Galtung, J. 1969. “Violence, Peace and Peace Research.” Journal of Peace Research 6 (3): 167–91.
[2] Arendt, H. 2006 [1963]. Eichmann in Jerusalem: A Report on the Banality of Evil. Penguin Publishing Group.
[3] Sen, A. 2014 [1999]. “Development as Freedom.” A The Globalization and Development Reader: Perspectives on Development and Global Change, 525.
[4] Couldry, N., y U. A. Mejias. 2019. “The Costs of Connection: How Data Is Colonizing Human Life and Appropriating It for Capitalism.” A The Costs of Connection. Stanford University Press.
Esta es una versión traducida del artículo publicado originalmente en inglés.
Fotografía
Representación visual del concepto de inteligencia artificial y conexión digital. Autor: Pixel-Shot (Shutterstock).