En 2022, #BookTok en TikTok impulsó las ventas literarias en Estados Unidos, el comercio local a través de WhatsApp expandió la presencia de pequeñas empresas por toda América Latina, y el uso de Facebook para llegar a los votantes hizo que aumentara la participación de las personas jóvenes y las que votaban por primera vez en las elecciones regionales de la India. Ese mismo año, las redes sociales amplificaron las tensiones étnicas durante las elecciones de Kenia, difundieron desinformación sobre la guerra en Ucrania e incitaron a la violencia durante las protestas en Irán. Al igual que en años anteriores y posteriores, las redes sociales moldearon la cultura, la política y los conflictos de múltiples formas, a menudo contradictorias. Pero 2022 también marcó un punto de inflexión a nivel global, el tiempo dedicado a las plataformas sociales comenzó a disminuir, especialmente entre los jóvenes. ¿Puede esto indicar que su influencia en la sociedad está empezando a menguar?
Para responder a esa pregunta es necesario comprender los mecanismos mediante los que las redes sociales influyen en las sociedades y, de mayor importancia para este monográfico, cómo repercuten en los conflictos. Las tendencias en las redes sociales son una manifestación del consenso alcanzado por un grupo concreto. En el ámbito de la construcción de paz, nos preocupa la manera en que la desinformación erosiona la verdad, daña las instituciones y conduce a la violencia. Sin embargo, resulta esencial profundizar un poco más en las causas de esta erosión de la verdad.
La verdad, en un sentido posmoderno, no es estática, sino dialógica o, en otras palabras, el reflejo de un consenso social que proporciona la estabilidad y la base común necesarias para el desacuerdo, hasta el momento en que este consenso se ve cuestionado de forma constructiva. Las redes sociales han influido en la verdad y la estabilidad al minar el consenso social, y la característica clave de este consenso minado no es tanto la desinformación — ésta es una señal o, como mucho, una táctica — como la polarización afectiva. La polarización afectiva (o polarización tóxica) se distingue de la polarización basada en cuestiones o ideas y tiene que ver con situaciones en las que se cree en ciertas personas por lo que son, no por lo que dicen. Cuanto más poderosas son las tendencias de las redes sociales y los subgrupos digitales, mayor es la polarización afectiva y más se fragmenta el amplio consenso social sobre la verdad en múltiples consensos de subgrupos. No es tanto que la verdad se haya erosionado, sino que se ha fragmentado.
No es tanto que la verdad se haya erosionado, sino que se ha fragmentado
En este monográfico, Ahmad Qadi analiza en profundidad cómo esta fragmentación está afectando el conflicto, y examina cómo la «tríada de desinformación, discurso de odio y polarización» en las redes sociales refleja y alimenta activamente las tensiones, agudiza las divisiones y puede prolongar el conflicto. Él lo denomina — y yo estoy de acuerdo — «un componente esencial de la guerra de la información moderna». Describe cómo Israel ha librado esta guerra psicológica contra la población palestina, utilizando contenidos generados por inteligencia artificial y granjas de bots para amplificar el sentimiento antipalestino y promover las acciones militares israelíes en los espacios digitales occidentales. Asimismo, el artículo de Sanjana Hattotuwa estudia más a fondo el impacto de estas opiniones en línea manipuladas, en un contexto específico de importancia para la construcción de paz: las mesas de negociación a puerta cerrada y los procesos de mediación. Y la entrevista con Stephanie Williams nos habla de un caso parecido, al analizar cómo el discurso de odio en línea y la injerencia extranjera durante los esfuerzos de paz de la ONU en Libia entre 2019 y 2020 no solo hicieron que las divisiones sobre el terreno se hicieran más profundas, sino que también pusieron en peligro a las mujeres que trabajaban y negociaban por la paz (incluida la propia Williams).
Me encantaría pensar que el descenso en el uso de las redes sociales que comenzó en 2022 también puede significar un lento retorno a un mundo menos fragmentado y menos polarizado, en el que los conflictos sean menos propensos a escalar y descontrolarse; un mundo en el que tengamos que preocuparnos menos por los riesgos que Qadi y Hattotuwa exploran en sus artículos. Sin embargo, el auge de la inteligencia artificial (IA) en los últimos años no solo mantiene la tendencia iniciada por el uso de las redes sociales, sino que también la complica de formas que intensifican aún más los conflictos.
En su artículo sobre los riesgos de la IA para la paz sostenible, Evelyne Tauchnitz analiza esta cuestión desde la perspectiva de la paz relacional, es decir, cómo la IA disminuye la capacidad de las personas y sus redes (sociedades) para convertir los desacuerdos en discusiones constructivas en lugar de conflictos destructivos o violentos. Tauchnitz pone de relieve cómo la IA afecta a la dignidad —a través de la extracción y el colonialismo de datos, al explotar y responder a nuestros estados emocionales, mediante la vigilancia digital y al desgastar nuestra capacidad de acción práctica y moral— y cómo socava la confianza en las instituciones. En su opinión, los sistemas de IA erosionan las condiciones que permiten a las sociedades ser resilientes ante los conflictos.
Me encantaría pensar que el descenso en el uso de las redes sociales puede significar un lento retorno a un mundo menos fragmentado y menos polarizado, en el que los conflictos sean menos propensos a escalar y descontrolarse
Más allá de lo que explica Tauchnitz, hay dos riesgos concretos de la IA para la paz a los que vale la pena prestar especial atención. En primer lugar, la IA puede menoscabar la verdad entendida como consenso al empobrecer el periodismo y la investigación. Las máquinas no pueden proporcionar los matices y el instinto profundamente contextual y humano que ofrecen los periodistas y los investigadores, por ejemplo, en entrevistas a testigos de los hechos.
En relación con esta cuestión, Wahbi Abdelrahman teje una hermosa y triste historia sobre cómo un archivo digital está evitando el genocidio cultural en la guerra de Sudán, y cómo la incorporación de habilidades de digitalización en las instituciones locales es una forma de resistencia a ser borrados del mapa. Su artículo destaca que el archivo digital es un proceso sociotécnico, una colaboración entre humanos y máquinas que la IA no puede sustituir. Irónicamente, esta disminución de la información humana amenaza el futuro desarrollo de la propia IA. Los grandes modelos de lenguaje actuales (LLM) se basan en enormes cantidades de datos, y existe cierta preocupación (en debate) de que si la IA agota el contenido de calidad generado por humanos que necesita para su entrenamiento —como el periodismo de calidad, el archivo y la investigación— puede llegar a un callejón sin salida en materia de datos.
En segundo lugar, la IA puede debilitar los procesos de diálogo, aunque también existen algunos casos excelentes de uso de la IA en favor de la deliberación. El artículo de Luke Thorburn explora cómo podemos diseñar algoritmos de clasificación —es decir, los programas informáticos que deciden qué contenido vemos primero o qué contenido vemos más, en cualquier medio digital —para fomentar la conexión. Por ejemplo, Thorburn explica que se pueden usar algoritmos para encontrar declaraciones en las que quienes de otro modo estarían en desacuerdo pueden ponerse de acuerdo, y relata la manera en que la Alianza para la Paz en Oriente Medio ha utilizado esta herramienta. Stephanie Williams describe cómo el uso de la IA para resumir las opiniones en los diálogos digitales sobre Libia organizados por la ONU ayudó a presionar a la clase política para que ésta reconociera la opinión popular sobre cuestiones difíciles. Al igual que en el caso de la investigación, estos casos de uso están integrados en procesos sociotécnicos que mantienen la conexión humana. Cuando la IA se utiliza para representar a grupos sin participantes humanos, erosiona los procesos humanos esenciales de escucha y diálogo, fundamentales para la democracia y la paz. La deliberación es primordial para el debate público y los procesos legislativos, ya que permite a los grupos cuestionar los prejuicios, exigir información y forjar compromisos que conduzcan a decisiones más defendibles y duraderas. La dependencia excesiva de los resúmenes o modelos basados en la IA no permite captar esta experiencia vital, compleja y viva.
Existe cierta preocupación (en debate) de que si la IA agota el contenido de calidad generado por humanos que necesita para su entrenamiento —como el periodismo de calidad, el archivo y la investigación— puede llegar a un callejón sin salida en materia de datos
Ni las redes sociales ni la IA son fuerzas inevitables. Son iniciativas empresariales. Lo que hace que las redes sociales sean peores para la sociedad es que su modelo de negocio se basa en captar la atención. Durante un tiempo, pareció que el modelo de negocio de la IA podría centrarse más en la infraestructura de la nube que en la publicidad o en captar la atención, pero a principios de 2025 quedó claro que esto está cambiando: OpenAI, uno de los actores más destacados en el ámbito de la IA, ha elegido la publicidad como su modelo principal de negocio, y otros les seguirán. Volvemos a lo de siempre. Mientras el diseño de Internet, las tecnologías digitales y la IA se centren firmemente en maximizar la atención, tendrán un impacto negativo en los conflictos, por medio de la fragmentación, la polarización y la erosión de las oportunidades para que nuestra sociedad llegue mediante la deliberación a un consenso que defina una paz sostenible y pluriversal.
Es más, si en el diseño y la gobernanza de la tecnología no aplicamos principios que tengan en cuenta el contexto de los conflictos (conflict sensitive principles), la tecnología puede ser —y será— utilizada como arma de control por parte de actores poderosos. Nerima Wako explica vivamente este riesgo en su apasionado artículo sobre el ciberactivismo en África Oriental —donde, según ella, Internet no es solo el medio, sino el movimiento— y la reacción digital represiva contra esta nueva actividad democrática (principalmente juvenil). Su artículo es una advertencia sobre cómo la regulación puede significar represión, pero también un llamamiento esperanzador y potente a defender un Internet libre y fiable que ofrezca espacios para el diálogo cuando los espacios offline están siendo atacados. Según Wako, «una sociedad pacífica digitalmente es aquella en la que los activistas no necesitan teléfonos de prepago, en la que las leyes protegen la libertad de expresión y en la que podemos discrepar de forma fuerte y apasionada y con seguridad».
Es posible que la gente esté harta de los espacios digitales que son a la vez represivos y polarizantes; tal vez el descenso en el uso de las redes sociales en 2022 sea un presagio de lo que está por venir. Ninguna de estas tecnologías es una fuerza imparable de la naturaleza. Podemos dejar de usarlas. Podemos usarlas de manera diferente. Podemos regularlas. Podemos rediseñarlas. Los seis artículos de este monográfico también apuntan a la esperanza.
Tras pintar un panorama sombrío sobre cómo se ha librado la guerra digital contra la población palestina y cómo esto es un ejemplo de tendencias más extendidas en la guerra de la información moderna, el artículo de Ahmed Qadi enumera una gran cantidad de vías para pasar de la división al diálogo. Del mismo modo, el artículo de Evelyne Tauchnitz termina con un mensaje de esperanza, argumentando que la IA puede contribuir a la paz si alineamos sus principios de diseño no solo con la mejora de la eficiencia y la solidez, sino también con la salvaguarda de la dignidad y la libertad humanas. Añadiendo a estos enfoques más amplios de esperanza, los artículos de Wahbi Abdelrahman y Luke Thorburn aportan ejemplos concretos y prácticos de cómo las tecnologías digitales pueden contribuir a la paz. Stephanie Williams describe cómo el impacto negativo de las redes sociales en el proceso de paz libio provocó un debate en las Naciones Unidas sobre cómo se podrían utilizar los diálogos digitales para aumentar la transparencia en los procesos de mediación.
Internet, la tecnología digital y la inteligencia artificial plantean tantos retos para la paz como oportunidades. Abordarlos es una cuestión moral y política que concierne a cualquiera que trabaje por la paz en la era digital
¿Cómo podemos lograr que el diseño de tecnología prosocial y de fomento de la paz, tal y como lo describe Thorburn, se convierta en la norma? He aquí una posible respuesta: el artículo de Sanjana Hattotuwa termina con una llamada a los mediadores y constructores de paz para que no solo se vuelvan más hábiles a la hora de navegar por «los comunes digitales adversarios de hoy en día», sino que también influyan en cómo se diseñan.
La conclusión de Hattotuwa es también la dirección que creo que debemos seguir. Internet, la tecnología digital y la inteligencia artificial plantean tantos retos para la paz como oportunidades: los artículos que siguen ofrecen una visión general de lo que nos debe preocupar en un mundo mediado digitalmente y de cómo podemos cambiar el rumbo hacia la paz. Pero lo más importante es que este monográfico defiende que abordar estos retos no es solo una cuestión técnica reservada a quienes sabemos cómo llevar a cabo campañas en las redes sociales para contrarrestar el odio en línea o aplicar la IA en un proceso consultivo. Abordarlos es sobre todo una cuestión moral y política que concierne a cualquiera que trabaje por la paz en la era digital.
Este monográfico de la revista “Por la Paz” (número 43) es una coedición del ICIP y Build Up. La colaboración parte de la coorganización de Build Peace 2025 en Cataluña, la conferencia anual de Build Up sobre tecnología, innovación y construcción de paz. El evento se ha celebrado del 21 al 23 de noviembre en Santa Coloma de Gramenet (Barcelona).
Esta es una versión traducida del artículo publicado originalmente en inglés.
Fotografía
Representación simbólica de la colaboración entre humanos y tecnologías digitales. Autor: Rawpixel.com (Shutterstock).