lunes, 26 de diciembre de 2016

El gran botón rojo que puede parar la inteligencia artificial


tecnologia.elpais.com

El gran botón rojo que puede parar la inteligencia artificial

 

 

Beatriz Guillén
Llegará un momento en el que las máquinas superarán la inteligencia de los humanos y estos deberán contar con un sistema de prevención para poder interrumpirlas. No es otro guión de película de ciencia ficción, sino la hipótesis de la que parte un estudio realizado por Deep Mind, la empresa de Google especializada en inteligencia artificial, y el Instituto para el Futuro de la Humanidad (FHI, por sus siglas en inglés) de la Universidad de Oxford. Ambas empresas han desarrollado de forma conjunta un “gran botón rojo” de emergencia para evitar que las máquinas realicen una “secuencia de acciones dañinas” para el entorno, el operador humano o para ellas mismas y poder “guiarlas a una situación segura”.
Los desarrolladores se han asegurado de que las máquinas no puedan aprender a prevenir, impedir o provocar estas interrupciones
“Es improbable que los agentes de aprendizaje que interaccionan con un ambiente tan complejo como el mundo real se comporten de manera óptima todo el tiempo”, reconocen los autores del estudio Agentes que se pueden interrumpir de manera segura. Los investigadores sostienen que han creado un “marco de trabajo que permite al operador humano interrumpir de forma segura (e incluso de forma repetida)” determinados tipos de inteligencia artificial. Además, se han asegurado de que las máquinas no puedan aprender a prevenir, impedir o provocar estas interrupciones. 
“Esta forma de interrupción segura puede ser muy útil para tomar el control de un robot que se está comportando mal y que puede llevar a consecuencias irreversibles; también para que supere una situación delicada o realice una tarea para la que no había aprendido a comportarse”, reflexionan los autores del estudio. "Pero no está claro si todos los algoritmos pueden ser fácilmente interrumpibles", admiten.
"Este tipo de medidas sirven para ayudar a que la gente acepte a la inteligencia artificial porque tenga claro que siempre va a estar controlada
La investigación hace referencia a un tipo muy específico de inteligencia artificial conocida como de aprendizaje reforzado, que combina variables para determinar de forma automática —sin necesidad de un ajuste específico— su comportamiento "ideal". "Es un tipo de inteligencia artificial que ha despegado muy fuerte, porque es más sencillo desarrollarla. Lo que hace el robot es maximizar una especie de función matemática, pero no entiende los conceptos sobre los que trabaja. Como solo entiende fórmulas puede ser posible que exista el problema potencial de que decida ignorar o dañar a los humanos que la han programado, pero es algo improbable", explica Juan Antonio Reciodirector del departamento de Ingeniería de Software e Inteligencia Artificial de la Universidad Complutense de Madrid. 
Sin embargo, Recio sostiene que este problema no ocurriría con otro tipo de inteligencias que en vez de entender formulas, comprendieran conceptos como humano, como es la inteligencia simbólica. "De cualquier forma, este tipo de medidas sirven para tranquilizar a la sociedad, para ayudar a que la gente acepte a esa inteligencia artificial porque tenga claro que siempre va a estar controlada, que nunca se va a ir de las manos", considera este experto. 
Desarrollo de una 'superinteligencia'
Este tipo de reflexiones no son nuevas en el sector de inteligencia artificial. El director del Instituto para el Futuro de la Humanidad, Nick Bostrom, ya describía como escenario posible en su libro Superinteligencia: caminos, peligros, estrategias cómo las máquinas iban a superar a sus programadores, iban a ser tan inteligentes y capaces de mejorarse a sí mismas e iban a tomar el planeta. "Debemos saber cómo controlarlas. Si tienes un agente artificial con objetivos distintos de los tuyos, cuando se vuelve lo suficientemente inteligente, es capaz de anticipar tus acciones y de hacer planes teniendo en cuenta los tuyos, lo cual podría incluir esconder sus propias capacidades de modo estratégico", sostenía en una entrevista con este diario.
“Algunas personas han expresado sus preocupaciones sobre un agente superinteligente que se resista a ser apagado”, decían los autores en su estudio, aunque sin atreverse a especificar cuando podría ocurrir algo así. Otros expertos en inteligencia artificial que Bostrom cita en su libro afirman que hay un 90% de posibilidades de que entre 2075 y 2090 haya máquinas tan inteligentes como los humanos.

No hay comentarios.:

Publicar un comentario