martes, 3 de febrero de 2015

Divide a científicos la Inteligencia Artificial

Divide a científicos la Inteligencia Artificial

Impulsan investigaciones que prevengan cualquier riesgo con esta tecnología

POR:  Aura Hernández Última actualización 03 / Febrero / 2015




CIUDAD DE MÉXICO.- La Inteligencia Artificial es una tecnología con la que se busca emular el funcionamiento del cerebro humano en las máquinas. Pese a que todavía se encuentra en fase de experimentación y desarrollo, varios científicos alrededor del mundo están tratando de evitar los peligros que puede provocar.
Future of Life Institute es una de las organizaciones más preocupadas por el rumbo de las investigaciones en Inteligencia Artificial, por lo que a inicios de este año publicó una carta abierta en la que indica que esta tecnología está progresando de manera constante y tendrá un impacto positivo en la vida de las personas.
La misiva fue firmada por más de 100 científicos, entre los que destaca el nombre del cosmólogo Stephen Hawking. Los firmantes consideran que la inteligencia humana mezclada con la artificial generará enormes beneficios para erradicar las enfermedades y la pobreza.
“Debido al gran potencial de la Inteligencia Artificial, es importante investigar cómo aprovechar sus beneficios y evitar peligros potenciales”, coincidieron los expertos.
Aunque su firma no se observa en dicha carta, el fundador de Microsoft, Bill Gates, aceptó en una sesión de preguntas a través de Reddit que la Inteligencia Artificial lo “asusta” porque primero se verán máquinas no tan avanzadas que harán  el trabajo de los humanos, algo positivo si se sabe manejar.
“Unas décadas después de eso, sin embargo, la inteligencia será lo suficientemente fuerte como para ser una preocupación”, advirtió.
Pese a esto, Gates no se niega a trabajar con este tipo de tecnología y muestra de ello es que actualmente se encuentra desarrollando para Microsoft un “agente personal” similar a lo que puede ser Cortana o Siri.
Los problemas
Lidia Franzoni, directora del programa de Ingeniería en Computación del Instituto Tecnológico Autónomo de México, consideró que estas preocupaciones pueden adelantarse un poco porque la también conocida sólo como IA aún no ha alcanzado un desarrollo como el visto en las películas.
Visión que es compartida por el analista de seguridad de Kaspersky Lab América Latina, Roberto Martínez, quien aseguró que todavía no se crean sistemas que puedan emular al cerebro humano, es decir, se podrán ver robots en la calle y en la vida de las personas en las próximas tres décadas, pero éstos todavía tendrán un razonamiento limitado.
Pese a esto, ambos expertos consultados por Excélsior indicaron que es posible comenzar a prever los riesgos como plantea el Future of Life Institute, que recomienda crear sistemas neutrales y bajo la estricta vigilancia de los humanos.
Esto porque el gran temor de la humanidad, lo que ha sido plasmado en películas como Matrix, Blade Runner, Yo Robot y en próximos estrenos como Autómata y Chappie, es que la creación salga de su control.
Incluso Elon Musk, el presidente y director ejecutivo de la firma Tesla, decidió donar diez millones de dólares al instituto que realizó la carta abierta, para que se investiguen las maneras de mantener la Inteligencia Artificial del lado de los humanos.
Como en la ciencia ficción
Una forma para conservar en control a esta inteligencia se encuentra al momento de la programación, comentó Franzoni quien ve posible establecer una serie de reglas como las que estableció en sus novelas Isaac Asimov.
Las conocidas como las tres  Leyes de la Robótica creadas por el famoso escritor evitan que los robots dañen a un ser humano y los condiciona a obedecer las órdenes recibidas, dejando al último el preservar su propia existencia.
“Sería posible tener en la robótica una serie de reglas para que esta tecnología no nos sobrepase, no creo que se trate de algo de ficción y la ética es la que deberá indicarnos que reglas poner”, añadió la catedrática.

Las tres leyes de la robótica
1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si éstas entras en en conflicto con la 1a Ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1a y 2a Ley.

No hay comentarios.:

Publicar un comentario