Llegará
un momento en el que las máquinas superarán la inteligencia de los
humanos y estos deberán contar con un sistema de prevención para poder
interrumpirlas. No es otro guión de película de ciencia ficción, sino la
hipótesis de la que parte un estudio realizado por Deep Mind, la empresa de Google especializada en inteligencia artificial,
y el Instituto para el Futuro de la Humanidad (FHI, por sus siglas en
inglés) de la Universidad de Oxford. Ambas empresas han desarrollado de
forma conjunta un “gran botón rojo” de emergencia para evitar que las
máquinas realicen una “secuencia de acciones dañinas” para el entorno,
el operador humano o para ellas mismas y poder “guiarlas a una situación
segura”.
Los desarrolladores se han asegurado de que las máquinas no puedan aprender a prevenir, impedir o provocar estas interrupciones
“Es improbable que los agentes de aprendizaje que
interaccionan con un ambiente tan complejo como el mundo real se
comporten de manera óptima todo el tiempo”, reconocen los autores del
estudio Agentes que se pueden interrumpir de manera segura.
Los investigadores sostienen que han creado un “marco de trabajo que
permite al operador humano interrumpir de forma segura (e incluso de
forma repetida)” determinados tipos de inteligencia artificial. Además,
se han asegurado de que las máquinas no puedan aprender a prevenir,
impedir o provocar estas interrupciones.
“Esta forma de
interrupción segura puede ser muy útil para tomar el control de un
robot que se está comportando mal y que puede llevar a consecuencias
irreversibles; también para que supere una situación delicada o realice
una tarea para la que no había aprendido a comportarse”, reflexionan los
autores del estudio. "Pero no está claro si todos los algoritmos pueden
ser fácilmente interrumpibles", admiten.
"Este tipo de medidas sirven para ayudar a que la gente acepte a la inteligencia artificial porque tenga claro que siempre va a estar controlada
La investigación hace referencia a un tipo muy
específico de inteligencia artificial conocida como de aprendizaje
reforzado, que combina variables para determinar de forma automática
—sin necesidad de un ajuste específico— su comportamiento "ideal". "Es
un tipo de inteligencia artificial que ha despegado muy fuerte, porque
es más sencillo desarrollarla. Lo que hace el robot es maximizar una
especie de función matemática, pero no entiende los conceptos sobre los
que trabaja. Como solo entiende fórmulas puede ser posible que exista el
problema potencial de que decida ignorar o dañar a los humanos que la
han programado, pero es algo improbable", explica Juan Antonio Recio, director del departamento de Ingeniería de Software e Inteligencia Artificial de la Universidad Complutense de Madrid.
Sin
embargo, Recio sostiene que este problema no ocurriría con otro tipo de
inteligencias que en vez de entender formulas, comprendieran conceptos
como humano, como es la inteligencia simbólica. "De cualquier forma,
este tipo de medidas sirven para tranquilizar a la sociedad, para ayudar
a que la gente acepte a esa inteligencia artificial porque tenga claro
que siempre va a estar controlada, que nunca se va a ir de las manos",
considera este experto.
Desarrollo de una 'superinteligencia'
Este tipo de reflexiones no son nuevas en el sector de inteligencia artificial. El director del Instituto para el Futuro de la Humanidad, Nick Bostrom, ya describía como escenario posible en su libro Superinteligencia: caminos, peligros, estrategias
cómo las máquinas iban a superar a sus programadores, iban a ser tan
inteligentes y capaces de mejorarse a sí mismas e iban a tomar el
planeta. "Debemos saber cómo controlarlas. Si tienes un agente
artificial con objetivos distintos de los tuyos, cuando se vuelve lo
suficientemente inteligente, es capaz de anticipar tus acciones y de
hacer planes teniendo en cuenta los tuyos, lo cual podría incluir
esconder sus propias capacidades de modo estratégico", sostenía en una entrevista con este diario.
“Algunas
personas han expresado sus preocupaciones sobre un agente
superinteligente que se resista a ser apagado”, decían los autores en su
estudio, aunque sin atreverse a especificar cuando podría
ocurrir algo así. Otros expertos en inteligencia artificial que Bostrom
cita en su libro afirman que hay un 90% de posibilidades de que entre
2075 y 2090 haya máquinas tan inteligentes como los humanos.
No hay comentarios.:
Publicar un comentario