¿Las máquinas acabarán destruyendo al ser humano?
La preocupación es que las reglas bajo las que la inteligencia artificial trabaja no sean capaces de tomar en cuenta consideraciones basadas en la intuición, el instinto y la experiencia, y que terminen viendo a los seres humanos --sus creadores-- como un problema
Por: pijamasurf - 29/08/2014 a las 09:08:01
Because if a machine, a Terminator, can learn the value of human life, maybe we can too.
Sarah Connor, Terminator 2
Los futurólogos de hace 150 años,
durante la Revolución Industrial, seguramente se iban a dormir cada
noche sabiendo que sus máquinas de vapor y sus bombillas experimentales
no iban a matarlos a ellos y a toda la raza humana, al menos no conscientemente;
porque las máquinas, hasta hoy, han sido herramientas sofisticadas para
resolver algunos problemas con los que nos encontramos. Nuestro
problema como especie, sin embargo, podría plantearse como aquello que
nos distingue –más que el lenguaje– de otros seres vivos: la excesiva
facilidad con la que encontramos problemas donde no los hay, por el mero
gusto de plantearlos –pero para las máquinas, el mayor problema
podríamos ser nosotros.
Un escenario distópico del futuro (no tan) lejano como este fue planteado por Nell Watson en una conferencia de futurólogos (o futuristas)
en Suecia. Watson es ingeniera y directora general de la compañía de
escaneado de cuerpo Poikos, y se plantea en estos términos el papel de
la actual generación: “La obra más importante de nuestras vidas es
asegurarnos de que las máquinas sean capaces de comprender el valor
humano. Son esos valores los que asegurarán que las máquinas no terminen
matándonos como un acto de amabilidad”.
Y es que, si lo pensamos un momento, los humanos podrían llegar a ser vistos como un problema para la sobrevivencia de las máquinas. Ese breve cuento de Juan José Arreola donde describe cyborgs feminoides creadas a la medida será una realidad en 2025.
En rigor, la inteligencia artificial no es un ser, ¿pero qué pasaría si
pudiera emular un ser y tomar decisiones autónomas que impacten las
posibilidades de sobrevivencia en el planeta para los seres humanos?
En otras palabras, ¿qué tan importante es para la máquina el usuario?
Puede parecer paranoia o teoría de
conspiración, pero en realidad es pura lógica. Stephen Hawking ha
advertido sobre los enormes peligros de crear “super-seres”; la inteligencia humana, como ha advertido Noam Chomsky, no es tan simple como podría parecerle a una máquina.
La cuestión se encuentra en el aire en nuestros días (o en la wi-fi), lo que es evidente a partir de películas como Her y su versión para Linux, Trascendence. Los programadores son los nuevos antihéroes.
La preocupación de Watson es que las reglas bajo las que la
inteligencia artificial trabaja no sean capaces de abarcar implicaciones
éticas que sólo la intuición, el instinto y la experiencia humana
pueden tomar en consideración. La máquina tal vez compactaría
“intuición-instinto-experiencia-etc.” en una metadecisión aleatoria
cualquiera, en un comando random.
No podemos explicarle a una máquina por
qué nos sentimos atraídos a ciertas personas o lugares en vez de a
otros. Tal vez, en unos años, nuestros gadgets documentarán todos y cada
uno de los aspectos de nuestra vida (por ejemplo, tomándonos selfies
automáticamente a lo largo del día y la noche o haciendo análisis
discursivos en nuestros e-mails), no sólo para ayudarnos a funcionar en
el entorno profesional o social sino, también, para conocernos mejor.
¿Qué pasaría si las máquinas quisieran hacernos un favor y simplemente
nos borraran del mapa, por nuestro propio bien, para terminar de raíz
con el sufrimiento humano al remover la fuente de todos sus problemas:
el humano mismo?
El peligro de hacerlas demasiado
parecidas a nosotros –a imagen y semejanza, podríamos decir– es que el
destino de cualquier creador es ser devorado por sus criaturas.
No hay comentarios.:
Publicar un comentario