Detengamos a los robots asesinos antes de que existan




 


   

     


        

        Pavel Chagochkin/Shutterstock

     



Aníbal Monasterio Astobiza, Universidad del País Vasco / Euskal Herriko Unibertsitatea y Daniel López Castro, Centro de Ciencias Humanas y Sociales (CCHS - CSIC)


Muchas tecnologías emergentes presentan desafíos éticos, legales, sociales y políticos. Nos referimos a los recientes avances en inteligencia artificial (IA), investigación genómica, nanotecnología, robótica, ciencias de la computación y neurociencia aplicada.


Juntas, estas tecnologías pueden manipular los átomos de la materia física, la información digital y biológica (ADN) y las células nerviosas. Esta convergencia “nano-info-bio” y su aplicación en un contexto militar puede transformar la forma en la que los seres humanos entran en guerra.


Una de las mayores preocupaciones éticas es el uso dual de la investigación científica con propósitos militares. Muchos científicos se sienten culpables por haber recibido financiación del ejército para llevar a cabo sus experimentos. Muchos otros rehusaron colaborar:



  • John Napier (1550-1617), matemático escocés y fundador de la teoría de los logaritmos, bosquejó el diseño de una nueva forma de artillería que luego ocultó.

  • Norbert Wiener (1894-1964), padre de la cibernética que trabajó durante la Segunda Guerra Mundial en el control y guía de misiles, renegó de su participación. Prometió no volver a publicar nada más sobre el tema.

  • En la actualidad, Google se retiró de una puja por un contrato multimillonario con el Departamento de Defensa de los EE UU para crear computación en la nube.


Sin embargo, el potencial beneficio de desarrollar tecnologías con usos civiles y comerciales, pero también militares, no escapa a la atención de científicos y empresas. Principalmente porque en un entorno de escasos recursos financieros no se puede cerrar la puerta a los fondos militares. La alternativa es dejar la carrera investigadora.




Máquinas que ayuden a jueces y médicos


La IA tiene como objetivo crear máquinas inteligentes, pero también entender mejor la inteligencia biológica. Los investigadores no tardaron mucho en darse cuenta de que, en lugar de crear computadoras a las que entrenar con grandes cantidades de información, era mejor darles la capacidad de aprender sin un programa explícito.


Así nacieron el “aprendizaje automático” (machine learning) y una técnica dentro de este subcampo llamada “aprendizaje profundo” (deep learning), en la que se desarrollan “redes neuronales”. En otras palabras, nodos computacionales interconectados entre sí que imitan la capacidad del cerebro humano de percibir, procesar y trasmitir información.


El aprendizaje automático ha mejorado gracias a la gran cantidad de información (big data) de la que disponemos en la actualidad, gracias sobre todo a internet.


La IA puede ofrecer diagnósticos fiables en medicina sobre la base de los síntomas de los pacientes y tomar decisiones en consecuencia, detectar anomalías en imágenes con mayor fiabilidad que radiólogos o promover una medicina de precisión.


En el derecho, la IA puede procesar miles de sentencias en cuestión de milisegundos y encontrar patrones específicos gracias a sofisticados algoritmos de procesamiento del lenguaje natural (escrito) mucho mejor que abogados o jueces humanos.


La IA aplicada al transporte y la movilidad nos ofrece los vehículos autónomos o coches sin conductor que mejoran la seguridad y el confort de los usuarios reduciendo la siniestralidad.




Un futuro distópico


El progreso reciente en IA, aprendizaje automático y visión computacional también tiene, si no somos precavidos, consecuencias negativas.




  • Robots kamikazes.

  • Flotas de vehículos autónomos con el objetivo intencional de colisionar.

  • Drones comerciales convertidos en misiles.

  • Vídeos e imágenes fabricados para apoyar bulos.


Estos y otros muchos escenarios distópicos son ya posibles: ciudadanos, organizaciones y estados deben hacer frente a los peligros del mal uso de la IA.



Regulación de las armas autónomas letales


Cada uno de estos campos de aplicación tiene sus preocupaciones éticas, legales y sociales, pero ninguna tan trascendental como su implementación en el campo de batalla, donde se puede arrebatar la vida de un ser humano.


¿Qué implica dar a las máquinas la autoridad para decidir sobre la vida y la muerte? La implementación de la IA para el desarrollo de armas autónomas letales promete reducir daños colaterales y bajas civiles. Al mismo tiempo, se envía al campo de batalla a computadoras en vez de soldados.


Pero, como decíamos más arriba, esto es un arma de doble filo.

A principios del 2018 el Secretario General de Naciones Unidas, Antonio Guterres, llamó la atención sobre los peligros del uso de la IA en contextos militares:






“La militarización de la inteligencia artificial es una preocupación creciente. La perspectiva de armas que puedan seleccionar y atacar a un objetivo por sí solas aumenta las alarmas… La perspectiva de máquinas con la discreción y el poder de quitar vidas humanas es moralmente repugnante”.





Antes de hablar de la regulación de las armas autónomas letales es preciso describir la militarización de la IA. Para valorar esta tecnología debemos saber qué es lo que puede hacer.


En 2013 los académicos Altmann, Asaro, Sharkey y Sparrow fundaron el Comité Internacional para el Control de Armas Robóticas (ICRAC, por sus siglas en inglés). Su misión se resume así:






“Dado el rápido avance en el desarrollo de robots militares y los peligros que entrañan para la paz y seguridad internacional y los civiles en la guerra, hacemos un llamamiento a la comunidad internacional para comenzar un debate sobre un régimen de control de armas para reducir la amenaza de estos sistemas”.




Propusieron una serie de temas para definir el debate. Por ejemplo, la prohibición y uso de estos sistemas, porque las máquinas no deben tomar la decisión de matar a la gente, incluso en el espacio exterior.


También en 2013 se lanzó una campaña para “detener a los robots asesinos” y se debatió en el Consejo de Derechos Humanos la prohibición de robots militares.





           

           


              Dron militar.

              sibsky2016/Shutterstock

           


        

Aclarando términos


Un robot militar no es lo mismo que un drone, ni un drone es lo mismo que un sistema de armas autónomas letales.


Un robot militar es un robot que puede ser usado como arma en un contexto militar. Un robot es un “mecanismo actuable y programable que se mueve por el entorno para realizar tareas intencionales” (ISO-8373, 2012). Por tanto, un robot militar es un arma semiautónoma que puede seleccionar y atacar objetivos sin supervisión, pero está bajo el control último de un operador humano. En otras palabras, es una máquina de guerra artificialmente inteligente.


Un drone es un “vehículo remotamente pilotado no-tripulado”. Son usados de manera frecuente para no poner en riesgo la vida de los pilotos. Portan cámaras de visión muy sofisticadas que permiten ver la mayor parte del espacio aéreo y terrestre por donde pasan. Dos modelos populares usados por las fuerzas armadas de los EE UU son el Predator y el Reaper. En dicho país una de cada tres aeronaves es un drone.

Israel, China, Corea del Sur, Rusia y Reino Unido también cuentan con drones en su fuerza aérea.


A diferencia de un drone o un robot militar, un sistema de armas autónomas letales está compuesto por máquinas de guerra artificialmente inteligentes que pueden tomar decisiones tácticas militares sin intervención humana. Estos todavía no existen.





           

           


              Robot militar.

              Goga Shutter/Shutterstock

           


       


Prohibición preventiva


Los sistemas de armas autónomas letales son la continuación lógica de los robots y los drones: máquinas autónomas por completo. La mera posibilidad de desarrollar algo así transformaría las guerras.


Por eso, mucho antes de que existan, la campaña “para detener a los robots asesinos” insta a su prohibición preventiva.


La iniciativa cuenta con el apoyo del Secretario General de Naciones Unidas, 21 premios Nobel, 86 ONG, 26 países, 25.000 expertos en IA y el Parlamento Europeo.


España no apoya abiertamente un tratado que regule el armamento autónomo. Eso, a pesar de que la profesora de Derecho de Roser Martínez y el investigador Joaquín Rodríguez, ambos de la Universidad Autónoma de Barcelona, participaron en un congreso sobre el Convenio sobre Ciertas Armas Convencionales (CCAC) celebrado en Ginebra en agosto del año pasado. En él, dejaron claro que una máquina no tiene en consideración el respeto por la dignidad humana.


La buena noticia es que, tras cinco años de reuniones del CCAC, se obtuvo un consenso general: es necesario mantener un control humano sobre los sistemas de armas autónomas letales, en particular en la selección de los objetivos.


En nuestra opinión, los responsables políticos deben trabajar con los expertos para regular el armamento autónomo. El uso de estos sistemas de armas autónomas letales debe ser prohibido.


Que máquinas artificiales puedan tener la última decisión sobre la vida y muerte de personas supone una grave amenaza para nuestro futuro. Los asuntos humanos no se limitan a los cómos, sino a los porqués. Tenemos la capacidad de resolver problemas diversos con la aplicación del conocimiento, pero seguiremos reflexionando con las herramientas conceptuales de la filosofía si debemos.The Conversation




Aníbal Monasterio Astobiza, Investigador Posdoctoral del Gobierno Vasco, Universidad del País Vasco / Euskal Herriko Unibertsitatea y Daniel López Castro, Investigador predoctoral, Instituto de Filosofía, Grupo de Ética Aplicada, Centro de Ciencias Humanas y Sociales (CCHS - CSIC)


Este artículo fue publicado originalmente en  The Conversation. Lea el original.





ESTE SITIO FUE CONSTRUIDO USANDO