{"id":5952,"date":"2022-04-07T10:58:01","date_gmt":"2022-04-07T10:58:01","guid":{"rendered":"https:\/\/www.icip.cat\/perlapau\/issue\/%issue_post%\/article\/cuando-perdemos-el-control-de-nuestra-humanidad\/"},"modified":"2022-04-07T10:58:01","modified_gmt":"2022-04-07T10:58:01","slug":"cuando-perdemos-el-control-de-nuestra-humanidad","status":"publish","type":"article","link":"https:\/\/www.icip.cat\/perlapau\/es\/articulo\/cuando-perdemos-el-control-de-nuestra-humanidad\/","title":{"rendered":"Cuando perdemos el control de nuestra humanidad"},"content":{"rendered":"\n<p>                <span id=\"square\"><\/span>                <span id=\"first-word\"> En pleno <\/span> siglo XXI, una de las principales amenazas emergentes contra la seguridad mundial es el desarrollo de los \u00absistemas aut\u00f3nomos de armamento letal\u00bb, tambi\u00e9n denominados \u00abrobots asesinos\u00bb, \u00abrobots aut\u00f3nomos letales\u00bb o \u00abarmas totalmente aut\u00f3nomas\u00bb. Son sistemas de armamento que, una vez activados, seleccionar\u00edan objetivos y los atacar\u00edan sin m\u00e1s intervenci\u00f3n humana.<\/p>\n<p> Cada vez es m\u00e1s dif\u00edcil encontrar un nuevo artefacto tecnol\u00f3gico que no est\u00e9 controlado por circuitos inform\u00e1ticos. Las tecnolog\u00edas de la violencia no son una excepci\u00f3n: los aparatos inform\u00e1ticos se convierten en ubicuos en la mayor\u00eda de sistemas actuales de armamento y sistemas de control. Hoy en d\u00eda, casi todas estas armas est\u00e1n bajo \u00abcontrol de supervisi\u00f3n\u00bb, en el que el control humano sencillamente est\u00e1 mediado por un programa de ordenador. <\/p>\n<p> Algunos estados ya utilizan diversos sistemas automatizados de armamento que interceptan por s\u00ed solos objetos inanimados a alta velocidad, como misiles, proyectiles de artiller\u00eda o granadas de mortero; por ejemplo, los sistemas C-RAM, Phalanx, NBS Mantis o IronDome. Estos sistemas completan su proceso de detecci\u00f3n, evaluaci\u00f3n y respuesta en cuesti\u00f3n de segundos y, por lo tanto, hacen dif\u00edcil a los operadores humanos ejercer un control de supervisi\u00f3n significativo, m\u00e1s all\u00e1 de activarlos y desactivarlos. Hasta ahora, muchos sistemas se han desplegado en entornos relativamente libres de obst\u00e1culos, despoblados de civiles. <\/p>\n<p> Sin embargo, hay algunos estados que impulsan cada vez con m\u00e1s intensidad el desarrollo de armamento a distancia que podr\u00eda sobrepasar el control de supervisi\u00f3n humano: los Estados Unidos han hecho pruebas avanzadas de diversas plataformas de armamento aut\u00f3nomo, como el X-47b -un reactor subs\u00f3nico de alta velocidad que ya puede elevarse y aterrizar en portaaviones-, el Crusher -un robot aut\u00f3nomo terrestre de 7 toneladas- y un submarino de ataque aut\u00f3nomo; los chinos trabajan en el Anjain, un veh\u00edculo de combate aut\u00f3nomo de combate aire-aire; los rusos desarrollan el reactor de caza aut\u00f3nomo Skat; Israel dispone del robot terrestre aut\u00f3nomo Guardium; y el Reino Unido Mantis, una aeronave intercontinental de combate totalmente aut\u00f3noma, tambi\u00e9n en fase avanzada de pruebas. <\/p>\n<p> <b> Falta de precisi\u00f3n en el reconocimiento de objetivos <\/b> <\/p>\n<p> Uno de los grandes problemas de los sistemas aut\u00f3nomos de armamento letal es que identificar y seleccionar objetivos necesita un software muy preciso. Sin embargo, los actuales m\u00e9todos de reconocimiento de objetivos utilizados por los militares no se adecuan a su prop\u00f3sito, excepto en entornos muy libres de obst\u00e1culos. Actualmente, hay tres m\u00e9todos principales: <\/p>\n<p> 1 &#8211; La detecci\u00f3n de siluetas permite reconocer un tanque en un entorno sin obst\u00e1culos, como un desierto de arena de orograf\u00eda plana. A pesar de d\u00e9cadas de investigaci\u00f3n, se ha demostrado que es dif\u00edcil distinguir entre un tanque y un cami\u00f3n, o cualquier otro veh\u00edculo, si se encuentran entre otras figuras, como por ejemplo \u00e1rboles. <\/p>\n<p> 2 &#8211; La formaci\u00f3n de im\u00e1genes t\u00e9rmicas detecta el calor irradiado por un objeto y muestra el movimiento, pero con este m\u00e9todo ser\u00eda dif\u00edcil distinguir un tanque de un autob\u00fas escolar. <\/p>\n<p> 3 &#8211; Para la detecci\u00f3n por radar se utiliza munici\u00f3n pasiva (o a la espera) para detectar la se\u00f1al de los radares enemigos y bombardearlos. Hay que dar por hecho que el objetivo es una instalaci\u00f3n antia\u00e9rea, porque en caso contrario la detecci\u00f3n de un radar no establece la legitimidad como objetivo. <\/p>\n<p> En buena parte a causa de las graves limitaciones de estos m\u00e9todos, la idea misma de desarrollar robots asesinos para utilizarlos sin unas limitaciones muy estrictas pero respetando los requisitos de la utilizaci\u00f3n de la fuerza letal establecidos por el derecho internacional de los derechos humanos y el derecho internacional humanitario es, en el mejor de los casos, pura especulaci\u00f3n y, en lo peor, pura fantas\u00eda. Puede ser que futuros descubrimientos resuelven los problemas t\u00e9cnicos. Sin embargo, es importante tener en cuenta que, incluso si se mejora la capacidad de reconocer objetivos, eso no permite a las m\u00e1quinas valorar si atacar un determinado objetivo es leg\u00edtimo o si el ataque es, en conjunto, permisible. <\/p>\n<p> La adecuaci\u00f3n y la legalidad de un ataque dependen del contexto y tienden a evaluarse caso por caso. Si se deja que los estados sigan desarrollando robots asesinos con la esperanza de que podr\u00e1n funcionar, se nos plantea el grave riesgo que estos sistemas sean desplegados con independencia de que cumplan la ley o no. La \u00fanica soluci\u00f3n es una prohibici\u00f3n integral y preventiva del desarrollo, la producci\u00f3n y el uso de estos sistemas. <\/p>\n<p>\t\t\t \t            <cite class=\"cita-left\">            \t                No hay ninguna garant\u00eda que nos permita prever una utilizaci\u00f3n de los sistemas aut\u00f3nomos de armamento letal que cumpla con el derecho internacional             <\/cite>             \t\t\t \t<\/p>\n<p> <b> Actuar contra los robots asesinos <\/b> <\/p>\n<p> En abril de 2013 se puso en marcha la Campa\u00f1a para Detener los Robots Asesinos, una campa\u00f1a internacional de la sociedad civil que exig\u00eda la prohibici\u00f3n preventiva del desarrollo, la producci\u00f3n y el uso de los sistemas de armamento completamente aut\u00f3nomos. La campa\u00f1a no intenta prohibir los veh\u00edculos o robots aut\u00f3nomos de todo tipo, sino que su enfoque se centra claramente en evitar la automatizaci\u00f3n de la decisi\u00f3n de matar. <\/p>\n<p> Un mes m\u00e1s tarde, Christof Heyns, relator especial de las Naciones Unidas sobre las ejecuciones extrajudiciales, sumarias o arbitrarias, pidi\u00f3 una moratoria mundial sobre la utilizaci\u00f3n y el desarrollo de los robots aut\u00f3nomos letales, lo cual representaba una pausa para permitir a los pa\u00edses reflexionar sobre las implicaciones del desarrollo de estas armas. Heyns conclu\u00eda que: <em>\u00ab[Adoptarlas] podr\u00eda tener efectos importantes y duraderos sobre los valores sociales, especialmente la protecci\u00f3n y el valor de la vida y de la estabilidad y la seguridad internacionales.\u00bb<\/em> Como muchos otros, Heyns considera que delegar a las m\u00e1quinas la decisi\u00f3n de matar puede vulnerar un criterio moral fundamental. <\/p>\n<p> Gracias a la presi\u00f3n creciente de la sociedad civil para abordar los retos planteados por los sistemas aut\u00f3nomos de armamento, en noviembre de 2013 Francia present\u00f3 a los 117 estados partes de la Convenci\u00f3n sobre Ciertas Armas Convencionales (CCAC) la propuesta de una reuni\u00f3n informal de expertos para debatir sobre los sistemas aut\u00f3nomos de armamento letal. El mandato se aprob\u00f3 y la cuesti\u00f3n se debatir\u00e1 en mayo de 2014. <\/p>\n<p> Estos debates de expertos impelan a los estados a expresar el posicionamiento propio sobre la cuesti\u00f3n, un asunto urgentemente necesario. Hasta ahora, s\u00f3lo los Estados Unidos han publicado una declaraci\u00f3n pol\u00edtica oficial. La Directiva 3000.09 del Departamento de Defensa establece unas directrices sobre los robots aut\u00f3nomos letales. A la vez que impulsa un mayor desarrollo, la Directiva exige que, de momento, un humano participe en el proceso de decisi\u00f3n relativo al uso de una fuerza letal. Asimismo, el gobierno del Reino Unido ha afirmado que de acuerdo con su normativa actual todas las armas permanecen <em>\u00abbajo control humano\u00bb<\/em>. <\/p>\n<p> A pesar de estas afirmaciones, todav\u00eda no est\u00e1 claro qu\u00e9 quiere decir \u00abcontrol humano\u00bb o \u00abparticipaci\u00f3n en el proceso de toma de decisiones\u00bb. Estos t\u00e9rminos podr\u00edan significar algo tan sencillo como pulsar un bot\u00f3n para iniciar un ataque o programar un arma para una misi\u00f3n. Claramente, eso ser\u00eda muy diferente del tipo de control humano que se considera apropiado en relaci\u00f3n con los sistemas de armamento existentes. <\/p>\n<p>                        <cite>                                Aunque mejore la precisi\u00f3n, las m\u00e1quinas no pueden valorar si atacar un determinado objetivo es leg\u00edtimo o si el ataque es, en conjunto, permisible.            <\/cite>            \t            \t            \t<\/p>\n<p> <b> Control humano efectivo <\/b> <\/p>\n<p> Un an\u00e1lisis de la investigaci\u00f3n cient\u00edfica sobre el control de supervisi\u00f3n humano nos permite desarrollar una clasificaci\u00f3n consistente en cinco tipos de control: <\/p>\n<p> 1. El operador humano entra en contacto con un objetivo, lo selecciona como tal y es quien inicia cualquier ataque. <\/p>\n<p> 2. Un programa sugiere objetivos alternativos y el operador humano decide cu\u00e1l atacar. <\/p>\n<p> 3. Un programa selecciona un objetivo y el operador humano tiene que aprobar la elecci\u00f3n antes del ataque. <\/p>\n<p> 4. Un programa selecciona un objetivo y el operador humano dispone de un tiempo limitado para vetarlo. <\/p>\n<p> 5. El programa selecciona el objetivo e inicia el ataque sin ninguna participaci\u00f3n humana. <\/p>\n<p> Para un nivel de control 1, es crucial entender que el <em>control humano efectivo<\/em> est\u00e1 sometido a requisitos muy estrictos: un comandante u operador humano tiene un conocimiento completo del contexto y la situaci\u00f3n del \u00e1rea objetivo en el momento de un ataque espec\u00edfico y puede percibir cualquier cambio o situaci\u00f3n imprevista que haya podido surgir desde la planificaci\u00f3n del ataque y responder. Hace falta que haya una participaci\u00f3n cognitiva en el ataque y el tiempo suficiente para reflexionar sobre la naturaleza del objetivo, su relevancia en t\u00e9rminos de necesidad y adecuaci\u00f3n del ataque, y los efectos indirectos probables y posibles del ataque. Tambi\u00e9n hace falta que se disponga de los medios para suspender o abortar el ataque con rapidez. <\/p>\n<p> El nivel de control 2 podr\u00eda ser aceptable si se demuestra que cumple los requisitos de un control humano efectivo. Un ser humano que controlara el ataque tendr\u00eda que poder evaluar si un ataque es necesario y apropiado, si todas las alternativas sugeridas (o, incluso, alguna de las alternativas) constituyen un objeto de ataque permisible, y seleccionar el objetivo para causar el m\u00ednimo da\u00f1o a personas y bienes civiles. <\/p>\n<p> El nivel 3 es inaceptable. La investigaci\u00f3n experimental ha demostrado que este tipo de control causa el denominado \u00absesgo de la automatizaci\u00f3n\u00bb, de acuerdo con el cual los operadores humanos acaban aceptando como correctas las decisiones generadas por ordenador y desprecian la informaci\u00f3n que las contradice (o bien no las buscan). <\/p>\n<p> El nivel 4 tambi\u00e9n es inaceptable. No promueve la identificaci\u00f3n de objetivos, mientras que el poco tiempo disponible para ejercer el veto refuerza el sesgo de la automatizaci\u00f3n y no dejar\u00eda ninguna posibilidad para dudar o reflexionar. El hecho de que se ejecutar\u00eda el ataque a no ser que un humano lo interrumpiera har\u00eda que se vulneraran supuestos consolidados del derecho internacional humanitario que protegen la condici\u00f3n y la posici\u00f3n de los civiles. <\/p>\n<p> En el caso del nivel de control 5, no hay participaci\u00f3n humana en la selecci\u00f3n del objetivo ni en el ataque, de manera que, como ya hemos explicado anteriormente, estos sistemas de armamento no podr\u00edan cumplir con el derecho internacional. <\/p>\n<p> <b> Conclusi\u00f3n <\/b> <\/p>\n<p> No hay ninguna garant\u00eda que nos permita prever una utilizaci\u00f3n de los sistemas aut\u00f3nomos de armamento letal que cumpla con el derecho internacional. Es imposible predecir c\u00f3mo un complejo software reaccionar\u00eda en todas las circunstancias. Es bien sabido que en las regiones en conflicto abundan los acontecimientos imprevistos y cambiantes y que la tecnolog\u00eda puede ser manipulada, bloqueada, pirateada o eludida por un enemigo adaptativo. En consecuencia, est\u00e1 claro que hay razones s\u00f3lidas de cariz moral, legal y de seguridad para la prohibici\u00f3n preventiva, de acuerdo con el derecho internacional, del desarrollo, la producci\u00f3n y la utilizaci\u00f3n de los robots asesinos. <\/p>\n<p> Cuando los estados declaran que siempre habr\u00e1 \u00abcontrol humano\u00bb o que \u00abun humano participar\u00e1 en la toma de decisiones\u00bb de un sistema de armamento automatizado, hace falta que nos planteemos si este tipo de control cumple los requisitos de un control humano <em>efectivo<\/em>. Tambi\u00e9n hay que esperar que los estados expliquen c\u00f3mo se asegurar\u00e1n de que se cumplen estos requisitos en sus procesos de revisi\u00f3n del armamento. <\/p>\n<p class=\"referencia first-reference\"> Fotograf\u00eda: Official U.S. Navy flickr Page. Modificada. \t\t<a href=\"http:\/\/creativecommons.org\/licenses\/by\/2.0\/deed.en\" target=\"_blank\" rel=\"noopener\"> \tLink a la licencia. \t<\/a> <\/p>\n<p class=\"gencat\">\u00a9 Generalitat de Catalunya<\/p>\n","protected":false},"featured_media":5985,"menu_order":5,"template":"","categories":[6],"class_list":["post-5952","article","type-article","status-publish","has-post-thumbnail","hentry","category-articles-centrals"],"acf":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v25.6 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Cuando perdemos el control de nuestra humanidad - Revista Por la Paz<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.icip.cat\/perlapau\/es\/articulo\/cuando-perdemos-el-control-de-nuestra-humanidad\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Cuando perdemos el control de nuestra humanidad - Revista Por la Paz\" \/>\n<meta property=\"og:description\" content=\"En pleno siglo XXI, una de las principales amenazas emergentes contra la seguridad mundial es el desarrollo de los \u00absistemas aut\u00f3nomos de armamento letal\u00bb, tambi\u00e9n denominados \u00abrobots asesinos\u00bb, \u00abrobots aut\u00f3nomos letales\u00bb o \u00abarmas totalmente aut\u00f3nomas\u00bb. Son sistemas de armamento que, una vez activados, seleccionar\u00edan objetivos y los atacar\u00edan sin m\u00e1s intervenci\u00f3n humana. Cada vez es [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.icip.cat\/perlapau\/es\/articulo\/cuando-perdemos-el-control-de-nuestra-humanidad\/\" \/>\n<meta property=\"og:site_name\" content=\"Revista Por la Paz\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.icip.cat\/perlapau\/wp-content\/uploads\/2022\/04\/article_central_4_2560-518x720.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"518\" \/>\n\t<meta property=\"og:image:height\" content=\"720\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data1\" content=\"10 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.icip.cat\/perlapau\/es\/articulo\/cuando-perdemos-el-control-de-nuestra-humanidad\/\",\"url\":\"https:\/\/www.icip.cat\/perlapau\/es\/articulo\/cuando-perdemos-el-control-de-nuestra-humanidad\/\",\"name\":\"Cuando perdemos el control de nuestra humanidad - Revista Por la Paz\",\"isPartOf\":{\"@id\":\"https:\/\/www.icip.cat\/perlapau\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/www.icip.cat\/perlapau\/es\/articulo\/cuando-perdemos-el-control-de-nuestra-humanidad\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/www.icip.cat\/perlapau\/es\/articulo\/cuando-perdemos-el-control-de-nuestra-humanidad\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.icip.cat\/perlapau\/wp-content\/uploads\/2022\/04\/article_central_4_2560.jpg\",\"datePublished\":\"2022-04-07T10:58:01+00:00\",\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/www.icip.cat\/perlapau\/es\/articulo\/cuando-perdemos-el-control-de-nuestra-humanidad\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/www.icip.cat\/perlapau\/es\/articulo\/cuando-perdemos-el-control-de-nuestra-humanidad\/#primaryimage\",\"url\":\"https:\/\/www.icip.cat\/perlapau\/wp-content\/uploads\/2022\/04\/article_central_4_2560.jpg\",\"contentUrl\":\"https:\/\/www.icip.cat\/perlapau\/wp-content\/uploads\/2022\/04\/article_central_4_2560.jpg\",\"width\":1152,\"height\":1600},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/www.icip.cat\/perlapau\/#website\",\"url\":\"https:\/\/www.icip.cat\/perlapau\/\",\"name\":\"Revista Por la Paz\",\"description\":\"La revista del Instituto Catal\u00e1n Internacional para la Paz\",\"publisher\":{\"@id\":\"https:\/\/www.icip.cat\/perlapau\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/www.icip.cat\/perlapau\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/www.icip.cat\/perlapau\/#organization\",\"name\":\"Revista Por la Paz\",\"url\":\"https:\/\/www.icip.cat\/perlapau\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/www.icip.cat\/perlapau\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/www.icip.cat\/perlapau\/wp-content\/uploads\/2023\/04\/ICIP_logo.jpg\",\"contentUrl\":\"https:\/\/www.icip.cat\/perlapau\/wp-content\/uploads\/2023\/04\/ICIP_logo.jpg\",\"width\":1025,\"height\":1024,\"caption\":\"Revista Por la Paz\"},\"image\":{\"@id\":\"https:\/\/www.icip.cat\/perlapau\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Cuando perdemos el control de nuestra humanidad - Revista Por la Paz","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.icip.cat\/perlapau\/es\/articulo\/cuando-perdemos-el-control-de-nuestra-humanidad\/","og_locale":"es_ES","og_type":"article","og_title":"Cuando perdemos el control de nuestra humanidad - Revista Por la Paz","og_description":"En pleno siglo XXI, una de las principales amenazas emergentes contra la seguridad mundial es el desarrollo de los \u00absistemas aut\u00f3nomos de armamento letal\u00bb, tambi\u00e9n denominados \u00abrobots asesinos\u00bb, \u00abrobots aut\u00f3nomos letales\u00bb o \u00abarmas totalmente aut\u00f3nomas\u00bb. Son sistemas de armamento que, una vez activados, seleccionar\u00edan objetivos y los atacar\u00edan sin m\u00e1s intervenci\u00f3n humana. Cada vez es [&hellip;]","og_url":"https:\/\/www.icip.cat\/perlapau\/es\/articulo\/cuando-perdemos-el-control-de-nuestra-humanidad\/","og_site_name":"Revista Por la Paz","og_image":[{"width":518,"height":720,"url":"https:\/\/www.icip.cat\/perlapau\/wp-content\/uploads\/2022\/04\/article_central_4_2560-518x720.jpg","type":"image\/jpeg"}],"twitter_card":"summary_large_image","twitter_misc":{"Tiempo de lectura":"10 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/www.icip.cat\/perlapau\/es\/articulo\/cuando-perdemos-el-control-de-nuestra-humanidad\/","url":"https:\/\/www.icip.cat\/perlapau\/es\/articulo\/cuando-perdemos-el-control-de-nuestra-humanidad\/","name":"Cuando perdemos el control de nuestra humanidad - Revista Por la Paz","isPartOf":{"@id":"https:\/\/www.icip.cat\/perlapau\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.icip.cat\/perlapau\/es\/articulo\/cuando-perdemos-el-control-de-nuestra-humanidad\/#primaryimage"},"image":{"@id":"https:\/\/www.icip.cat\/perlapau\/es\/articulo\/cuando-perdemos-el-control-de-nuestra-humanidad\/#primaryimage"},"thumbnailUrl":"https:\/\/www.icip.cat\/perlapau\/wp-content\/uploads\/2022\/04\/article_central_4_2560.jpg","datePublished":"2022-04-07T10:58:01+00:00","inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.icip.cat\/perlapau\/es\/articulo\/cuando-perdemos-el-control-de-nuestra-humanidad\/"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/www.icip.cat\/perlapau\/es\/articulo\/cuando-perdemos-el-control-de-nuestra-humanidad\/#primaryimage","url":"https:\/\/www.icip.cat\/perlapau\/wp-content\/uploads\/2022\/04\/article_central_4_2560.jpg","contentUrl":"https:\/\/www.icip.cat\/perlapau\/wp-content\/uploads\/2022\/04\/article_central_4_2560.jpg","width":1152,"height":1600},{"@type":"WebSite","@id":"https:\/\/www.icip.cat\/perlapau\/#website","url":"https:\/\/www.icip.cat\/perlapau\/","name":"Revista Por la Paz","description":"La revista del Instituto Catal\u00e1n Internacional para la Paz","publisher":{"@id":"https:\/\/www.icip.cat\/perlapau\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.icip.cat\/perlapau\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es"},{"@type":"Organization","@id":"https:\/\/www.icip.cat\/perlapau\/#organization","name":"Revista Por la Paz","url":"https:\/\/www.icip.cat\/perlapau\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/www.icip.cat\/perlapau\/#\/schema\/logo\/image\/","url":"https:\/\/www.icip.cat\/perlapau\/wp-content\/uploads\/2023\/04\/ICIP_logo.jpg","contentUrl":"https:\/\/www.icip.cat\/perlapau\/wp-content\/uploads\/2023\/04\/ICIP_logo.jpg","width":1025,"height":1024,"caption":"Revista Por la Paz"},"image":{"@id":"https:\/\/www.icip.cat\/perlapau\/#\/schema\/logo\/image\/"}}]}},"_links":{"self":[{"href":"https:\/\/www.icip.cat\/perlapau\/es\/wp-json\/wp\/v2\/article\/5952","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.icip.cat\/perlapau\/es\/wp-json\/wp\/v2\/article"}],"about":[{"href":"https:\/\/www.icip.cat\/perlapau\/es\/wp-json\/wp\/v2\/types\/article"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.icip.cat\/perlapau\/es\/wp-json\/wp\/v2\/media\/5985"}],"wp:attachment":[{"href":"https:\/\/www.icip.cat\/perlapau\/es\/wp-json\/wp\/v2\/media?parent=5952"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.icip.cat\/perlapau\/es\/wp-json\/wp\/v2\/categories?post=5952"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}