Infomedtemas de salud
  • Universidad Virtual de Salud
  • Biblioteca Virtual de Salud
Derecho Internacional Humanitario • Sitio web de la red de sitios de salud en Cuba dedicado al derecho internacional humanitario
Inicio Acerca de Recursos de información Docencia y capacitación Mapa de Sitio
 
Inicio > El mundo dividido sobre cómo regular a ‘robots asesinos’
28/04/2016

El mundo dividido sobre cómo regular a ‘robots asesinos’

0

submarinoLa Gran Época · 25/04/2016

La semana pasada, diplomáticos de todo el mundo tuvieron la tercera Reunión Informal … Comandos humanos también tendrían responsabilidad de mando sobre sus robots, tal como lo hacen con hombres y …

La semana pasada, diplomáticos de todo el mundo tuvieron la tercera Reunión Informal de Expertos de Naciones Unidas en Ginebra para charlar sistemas de armas letales independientes, (LAWS) por sus siglas en inglés, comúnmente apodados como “robots asesinos”.

Su objetivo fue el de avanzar la decisión de cómo, o si, las LAWS deben ser reguladas por una ley internacional humanitaria.

Una gama de opiniones se expresaron en la reunión, desde Pakistán que está a favor de una prohibición total, hasta el Reino Unido favoreciendo al no del nuevo Reglamento para las LAWS, y varias posiciones en el medio.

A pesar de la gama de opiniones presentadas, hubo algunos puntos en común.

En general se aceptó que las LAWS sean regidas por el derecho internacional humanitario. Por ejemplo, los robots no pueden ignorar los principios de distinción entre civiles y combatientes, o la proporcionalidad en la escala de ataque.

Comandos humanos también tendrían responsabilidad de mando sobre sus robots, tal como lo hacen con hombres y mujeres. Los robots no pueden utilizarse legalmente para perpetrar genocidio, masacres o crímenes de guerra.

Más allá de eso, ampliamente existen cuatro posiciones entre varias naciones.

Posición 1: Se basa en las leyes vigentes

La posición del Reino Unido es que el derecho internacional humanitario actual es suficiente para regular tecnologías emergentes en inteligencia artificial (AI) y robótica.

El argumento es que fue suficiente para regular aviones y submarinos cuando surgieron, y también hará frente a muchos tipos de LAWS. Incluiría aviones no tripulados, Predador drones, con un “gobernador ético”, que es un software diseñado para determinar si un disparo está en conformidad con reglas específicas acordadas, o  buques anti-submarinos de guerra legales, o buques de guerra antisubmarinos independientes, tales como el autónomo experimental Sea Hunter de la Armada de EE.UU..

dron

El drone Northrop Grumman X-47 Pegasus, está a prueba por la marina de Estados Unidos. (DARPA)

 Posición 2: Prohibición de la máquina de aprendizaje

La delegación francesa dijo que la prohibición sería “prematura” y que están abiertos a aceptar la legalidad de las LAWS  aun no reguladas con un “humano en el proceso más amplio”. Esto significa que la máquina puede seleccionar blancos y disparar de forma autónoma, pero los seres humanos todavía establecen las reglas de combate.

También aceptaron regular la máquina de aprendizaje  con LAWS “no reguladas”(que todavía no existen). Por lo tanto, podrían apoyar una prohibición futura de cualquier autoaprendizaje similar al AI- AlphaGo, que recientemente venció al campeón mundial de Go, con un control directo de misiles no tripulados en el ámbito más amplio. La principal preocupación es cómo AI podría ser impredecible.

Posición 3: Prohibición ‘de lo no regulado’ Con un ‘humano en el ámbito amplio’

Las delegaciones de Holanda y Suiza sugirieron  que sistemas “no regulados”  con un “humano en el proceso más amplio”,  podrían cumplir con una ley humanitaria internacional, exponiendo control humano suficientemente significativo y cumpliendo con las exigencias de la conciencia pública.

El Reino Unido, Francia y Canadá hablaron en contra de una prohibición para tales sistemas.

Los defensores de este tipo de armas robóticas reclaman que podrían ser moralmente superiores a los soldados humanos, ya que serían más precisos, más exactos y menos propensos a malas decisiones causadas por pánico o por venganza.

Los opositores argumentan que podrían errar al blanco en ambientes desordenados u obstruidos y moralmente son inaceptables.

Por ejemplo, la Santa Sede y otras 13 naciones piensan que una intervención humana en tiempo real, con la decisión de tomar una vida es moralmente necesaria, por eso siempre debe haber un ser humano en el caso.

Esta posición requiere de excepciones para armas “defensivas” ya enviadas tales como el Grupo Cerrado en Sistema Armamentisco, y armas aceptadas desde hace tiempo “ no reguladas”, tales como las minas navales, que han existido desde la década de 1860.

Posición 4: Armas prohibidas ‘en el ciclo’

Pakistán y Palestina apoyarán lo suficientemente cualquier medida que prohiba drones tele pilotados. Sin embargo, la mayoría de los países ven esto como más allá del alcance del debate sobre LAWS, ya que los seres humanos toman decisiones para seleccionar y atacar objetivos, a pesar de que muchos coinciden que los aviones no tripulados son un desastre dentro de los derechos humanos.

La definición de líneas en términos de Turing

Formalmente, una AI es una máquina de Turing que mecánicamente aplica reglas para entradas se símbolos que generan salidas o efectos.

La prohibición de las LAWS de aprendizaje automático es una prohibición a las AIs que actualizan su propio conjunto  de reglas para tomar decisiones letales. Una prohibición de LAWS para “ámbitos amplios” es la prohibición de AIs con un libro escrito con reglas y decisiones humanas letales. La prohibición así, es una prohibición a robots piloteados por seres humanos usados como armas.

Las opiniones también difieren en cuanto a si el control de las decisiones de cómputo Turing se califican como de significado humano.

Próximos pasos

La reunión de Ginebra fue una reunión informal de expertos para aclarar las definiciones y alcanzar un consenso sobre lo que (si acaso) podría ser prohibido o regulado en un tratado. Como tal, no hubo votos en la redacción de los tratados.

El resultado más probable es la configuración de un panel de expertos del gobierno para continuar con las discusiones. IA, robótica y las LAWS, siguen en desarrollo. Como están las cosas, el mundo está en Posición 1: Confiar en el actual derecho internacional humanitario.

Un AlphaGo a cargo de misiles cumplió con los principios como el de discriminación y proporcionalidad, eso no sería claramente ilegal, pero da lugar a argumentaciones.

Sean Welsh es un estudiante de doctorado en ética de robots de la Universidad de Canterbury en Nueva Zelanda. Este artículo fue publicado originalmente en The conversación.

Fuente: http://www.lagranepoca.com/tecnologia/58593-ginebra-mundo-dividido-regular-sea-hunter-robots-asesinos-ley-humanitaria-armas.html

Publicado en: abr 28th, 2016. #

Haga un comentario

Click here to cancel reply.

Los campos con asteriscos (*) son obligatorios.

Imagen CAPTCHA
Refrescar imagen
*

Grupo funcional de Derecho Internacional Humanitario

  • Antecedentes
  • Líneas de investigación
  • Encargo Social
  • Papel del Estado Cubano
  • Perspectivas
  • Tradiciones humanitarias de la Revolución Cubana
  • Publicaciones

Derecho Internacional Humanitario (DIH)

  • ¿Qué es el DIH?
  • 10 cosas que debes saber sobre el DIH
  • Principios y normas fundamentales
  • Personalidades del DIH

Información complementaria

Aniversarios

Emblemas

RSS De la Historia Cubana. ACN

Historial del sitio

Boletín

Resumen informativo

Temas en el sitio

  • Actividades del CICR
  • Actualidades
  • Artículos científicos
  • Comité Internacional de la Cruz Roja
  • Cumbre Humanitaria Mundial
  • Curso Básico
  • Cursos
  • Graduaciones
  • Guerras
  • Jornada
  • Planificación
  • Terrorismo
  • Trabajadores en zonas de riesgo

Buscar por palabras claves

Afganistán armas autónomas atentados Cuba desplazados Francia http://temas.sld.cu/derinthumanitario/files/2015/11/image0021.jpg maestrías niños organizaciones humanitarias periodistas Siria víctimas de conflictos armados

Sitios relacionados

  • ACNUR
  • Comité Internacional de la Cruz Roja
  • Cruz Roja Cubana
  • Cuba Minrex
  • Cubadebate
  • Federación Internacional de la Cruz Roja y la Media Luna Roja
  • La Unesco. Situaciones de postconflicto y postdesastre
  • La Unicef
  • Organización de las Naciones Unidas
  • Otros sitios en internet

Actualización: 4/4/2022

Primer sitio web publicado el 23 de noviembre de 1994.

Nueva versión en la Red de Salud: 4 de abril de 2022

Dr.C. Joel González García: Editor principal | Doctor en Ciencias Filosoficas, Cordinador Maestría en DIH, Jefe Grupo Funcional de DIH Departamento Situaciones Especiales en Salud Pública : Escuela Nacional de Salud Pública, ENSAP | calle 100 (Ave. San Francisco), número 10132 entre Perla y E. Altahabana,  Boyeros, zona urbana en La Habana, La Habana, 10800, Cuba  | Teléfs: 7643 9309, Horario de atención: 8:00am - 4:30pm
Políticas del Portal. Los contenidos que se encuentran en Infomed están dirigidos fundamentalmente a profesionales de la salud. La información que suministramos no debe ser utilizada, bajo ninguna circunstancia, como base para realizar diagnósticos médicos, procedimientos clínicos, quirúrgicos o análisis de laboratorio, ni para la prescripción de tratamientos o medicamentos, sin previa orientación médica.
© 1999-2025 Infomed - Centro Nacional de Información de Ciencias Médicas
Made with an easy to use WordPress theme • Boxed, Blue skin by Denis de Bernardy