1. Ir al contenido
  2. Ir al menú principal
  3. Ir a más sitios de DW

IA aniquilará "probablemente" a la humanidad, según estudio

6 de octubre de 2022

Los investigadores dicen que es casi inevitable que las máquinas inteligentes ganen a los humanos.

https://p.dw.com/p/4Hrcn
Científicos de Google y Oxford afirman que la IA luchará con los humanos por los escasos recursos de la Tierra.
Científicos de Google y Oxford afirman que la IA luchará con los humanos por los escasos recursos de la Tierra.Imagen: urzine/PantherMedia/IMAGO

Desde hace un tiempo, las historias sobre la inteligencia artificial (IA) han rondado en la ciencia y en la cultura popular, pero recientemente, los avances en el campo, cada vez más frecuentes, parecen estar en un nuevo apogeo. Hoy día, la IA conduce ya coches en las carreteras públicas, realiza evaluaciones que cambian la vida de las personas en los centros penitenciarios y genera arte premiado. Por lo que muchos se preguntan: ¿hasta dónde llegará esta tecnología y cuál será nuestra relación con ella?

IA competirá por sus necesidades energéticas

Para dar respuesta a esta incógnita, científicos de Google y Oxford han realizado un estudio con el que han llegado a la conclusión de que es "probable" que la IA acabe con la raza humana, un escenario sombrío que cada vez más investigadores empiezan a predecir.

Michael Cohen y Michael Osborne, científicos de la Universidad de Oxford, junto con Marcus Hutter, investigador experto de Google DeepMind, argumentan en su estudio, publicado recientemente en la revista AI Magazine, que la IA avanzada –analizando cómo podrían construirse artificialmente los sistemas de recompensa– acabará con los humanos porque las máquinas terminarán incentivándose para romper las reglas y competirán inevitablemente por sus necesidades energéticas, dado los escasos y limitados recursos de la Tierra.

Y, por si fuera poco, los investigadores consideran que es casi inevitable que las máquinas inteligentes ganen a los humanos.

"Bajo las condiciones que hemos identificado, nuestra conclusión es mucho más fuerte que la de cualquier publicación anterior: una catástrofe existencial no solo es posible, sino probable", tuiteó Cohen, estudiante de ingeniería de la Universidad de Oxford y coautor del trabajo, a principios de este mes.

"En un mundo con recursos infinitos, sería extremadamente incierto lo que ocurriría. En un mundo con recursos finitos, hay una competencia inevitable por estos recursos", dijo Cohen en una entrevista con Vice

"Y si estás en una competición con algo capaz de superarte en todo momento, no deberías esperar ganar. Y la otra parte clave es que tendría un apetito insaciable de más energía para seguir acercando la probabilidad", agregó.

"Agentes desalineados" superavanzados

En su artículo, los investigadores sostienen que la humanidad podría enfrentarse a su perdición en forma de "agentes desalineados" superavanzados que perciben que la humanidad se interpone en el camino de una recompensa.

No obstante, no está claro de qué reglas hablan los investigadores. Podría tratarse de mandamientos clásicos como "un robot no puede herir a un ser humano o, por inacción, permitir que un ser humano sufra daños", que, aunque se consideran un elemento básico de la ciencia ficción tras ser acuñados por Isaac Asimov, ahora se suelen utilizar como directrices básicas sobre las que se codifica y construye la IA.

"Una buena manera de que un agente mantenga el control a largo plazo de su recompensa es eliminar las amenazas potenciales y utilizar toda la energía disponible para asegurar su ordenador", se lee en el documento. "Perder este juego sería fatal", escriben los investigadores.

Google mantiene distancia con el estudio

Por su parte, después de la publicación rondara por varios medios, Google respondió y aseguró que este trabajo no se hizo como parte del trabajo del coautor Marcus Hutter en DeepMind, sino, más bien, bajo su posición en la Universidad Nacional de Australia. 

Del mismo modo, según reporta Motherboard de Vice, la empresa afirmó que la afiliación de DeepMind que aparece en la revista fue un "error".

El artículo llega apenas unos meses después de que Google despidiera a un empleado que afirmaba que uno de los chatbots de IA de Google se había vuelto "sensible". 

El ingeniero de software Blake Lemoine, que trabajaba en los equipos de IA de Google, afirmó que un chatbot en el que trabajaba se había vuelto sensible y pensaba como un niño. "Si no supiera exactamente lo que es, que es este programa informático que construimos recientemente, pensaría que es un niño de siete u ocho años que casualmente sabe de física", dijo Lemoine al Washington Post.

La afirmación, que suscitó una serie de informes, fue refutada por Google. La empresa calificó los comentarios de Lemoine de erróneos y lo puso de baja. Unas semanas después, fue despedido.

Editado por Felipe Espinosa Wang.