lunes, 20 de noviembre de 2017

El debate de las armas inteligentes

El debate de las armas inteligentes

El riesgo es que terminen en manos de terroristas o de los señores de la guerra

Esta semana se realizó en las Naciones Unidas la primera conferencia mundial sobre los llamados “robots asesinos”, armas con inteligencia artificial que van desde drones hasta humanoides, donde se debatió sobre la falta de regulación sobre estas tecnologías, así como sus implicaciones militares y éticas para la guerra y la humanidad en general.
Durante esta primera conferencia se sentaron las bases para mantener el próximo año un debate a profundidad entre los gobiernos, con la participación de empresas, académicos y grupos no gubernamentales.
Se creó el Grupo de Expertos Gubernamentales de las Naciones Unidas (GGE) sobre Sistemas Autónomos para Armas Letales (a menudo llamados robots asesinos), donde se reunieron 450 participantes, incluidos 86 gobiernos.
Tal como lo comentó hace unas semanas Stephen
Hawking, las “armas inteligentes” representan un riesgo, pues, además de salir del control de los humanos ante una mala programación o hackeo, sería sólo cuestión de tiempo para que esos desarrollos terminen en el mercado negro y en manos de terroristas y “señores de la guerra”, ya que, a diferencia de las armas nucleares, no requieren costosos materiales difíciles de obtener y se volverían baratas de obtener y de producir masivamente.
Durante esta primera reunión mundial en la ONU se debatieron si los llamados “robots asesinos” son una amenaza a corto plazo para la humanidad y merecen una prohibición total, menores limitaciones o ninguna acción. Alrededor de 22 gobiernos apoyaron una prohibición total al desarrollo de estos equipos bélicos.
Más allá del debate sobre si las máquinas suplantarán al hombre en cientos de ocupaciones, originando grandes pérdidas de empleo, se busca evitar que se pierdan vidas por los avances gigantescos en inteligencia artificial y los grandes conjuntos de datos que están forjando nuevas vías de “ataque” a distancia. De hecho, en un video propagandístico contra estos desarrollos muestra los peligros de los robots asesinos: un “panal de minidrones” sale con la misión de matar a un militar enemigo en otro país, el cual es encontrado gracias al reconocimiento facial y a la automatización de los vuelos remotos.
Aún nadie tiene una idea clara sobre qué son los Sistemas Autónomos de Armas Letales y cómo pueden ser regulados y definidos. Incluso, aún se desconoce a ciencia cierta si ya hay algunos desarrollos secretos, aunque en la reunión se dijo que la DARPA, la agencia de desarrollo de tecnología bélica de EU, ya cuenta con varias opciones, al igual que los gobiernos chinos y rusos.
Un tema central es si se puede confiar en cualquier arma inteligente para distinguir entre amigo y enemigo sin intervención humana, simplemente porque está guiada por el autoaprendizaje o las capacidades de IA programada.
Hay que señalar que en agosto pasado fueron alrededor de 120 empresas de inteligencia artificial las que hicieron sonar las alarmas sobre el desarrollo de armas inteligentes y escribieron una carta, firmada, entre otros, por Elon Musk, fundador de Tesla, SpaceX, OpenAI (EU),
Mustafa Suleyman, fundador de Google’s DeepMind (RU), y
Jürgen Schmidhuber, experto líder en aprendizaje profundo y fundador de Nnaisense (Suiza).
La carta señalaba que las armas autónomas letales amenazan con convertirse en lo que iniciaría una tercera guerra mundial, pues una vez desarrolladas, permitirán que el conflicto armado se dispute a una escala mayor que nunca, y en escalas de tiempo más rápidas de lo que los humanos pueden comprender.
Musk inclusive asegura que, una vez que se abra esta caja de Pandora, será difícil cerrarla. El mismo presidente de Rusia, Vladimir Putin, enturbió aún más las aguas un mes después, en septiembre, cuando aseguró que quien se convierta en el líder de los avances, refiriéndose a las inteligencias artificiales, será el gobernante del mundo.
Sobre las peticiones de una prohibición total, el presidente del GGE, Amandeep Singh Gill, de India, señaló que sería muy fácil legislarla y se pronunció a favor de ello. Sin embargo, no será hasta 2018 cuando inicien las discusiones internacionales y sería hasta 2019 cuando se establezca un protocolo sobre si se prohibe el desarrollo, la producción y el uso de armas totalmente autónomas.
No es un secreto que varios países, entre ellos EU, Rusia y China, están desarrollando secretamente este tipo de armamento, y poner atención en este tema es importante, antes de que sea demasiado tarde.
paul.lara@gimm.com.mx

Síguenos en Twitter @DineroEnImagen y Facebook, o visita nuestro canal de YouTube
Paul Lara

No hay comentarios.:

Publicar un comentario