1. Ir al contenido
  2. Ir al menú principal
  3. Ir a más sitios de DW

“Los robots autónomos armados ya son posibles”

Fabian Schmidt (JAG/JOV)1 de agosto de 2015

Desarrolladores de robots publicaron una carta abierta en oposición a la inteligencia artificial para el armamento. El profesor Bernhard Schölkopf cuenta a DW por qué también la apoyó.

https://p.dw.com/p/1G8Da
Symbolbild - Kampfroboter Talon Sword
Imagen: picture-alliance/dpa/D. Herrick

DW: Prof. Schölkopf, usted firmó una carta abierta del “Future of Life Institute” presentada en Buenos Aires. ¿Por qué la firmó?

Bernhard Schölkopf: Estudio la lectura de las máquinas. Es un componente de lo que llamamos inteligencia artificial. Se trata de entrenar sistemas para solucionar determinadas tareas. En principio, se podría dedicar a uso militar, pero como se decía en la carta, esconde peligros reales. Cuando la leí, quise apoyar la petición porque es necesario dar a conocer qué se puede hacer y someterlo a discusión para que no sea solo materia de científicos e ingenieros.

¿Cuán cerca estamos de un robot que pueda decidir matar a un hombre?

Hay discusiones de que estamos muy cerca de conseguir una inteligencia artificial similar al hombre. Pero creo que aún estamos lejos. Pero actualmente, los robots pueden cumplir tareas tan bien como los hombres. Por ejemplo, el reconocimiento de caras. Algunos sistemas como Facebook lo hacen muy bien y estos sistemas podrían satisfacer determinadas exigencias militares.

¿Sería posible enseñar a un robot a distinguir el uniforme del enemigo y luchar contra él?

Por el momento, es más fácil enseñar a un robot a reconocer caras que enseñarle a subir una escalera sin tropezarse. Aún falta para que ver robots como Terminator. Pero los pequeños helicópteros y drones son fáciles de manejar y se pueden equipar con cámaras de reconocimiento y algún tipo de arma. Eso será posible en los próximos diez años y probablemente ya se esté investigando.

Bernhard Schölkopf, profesor del Instituto Max-Planck.
Bernhard Schölkopf, profesor del Instituto Max-Planck.Imagen: Max-Planck-Institut für biologische Kybernetik

Hay algo así como una inteligencia artificial rudimentaria en los sistemas de armamento. La más básica serían las minas o los sistemas de auto detonación. ¿Dónde empieza la inteligencia artificial?

La mayoría diría que para hablar de inteligencia artificial se necesita la percepción, la reacción y algún tipo de cálculo complejo entre ambas cosas. En el caso de un termostato que regula la temperatura de la habitación, no se hablaría inteligencia artificial. Y se podría decir que un mecanismo de auto detonación es un robot básico, pero todavía no sería inteligencia artificial. El límite es bastante difuso. Lo interesante sería la pregunta de dónde se toma la decisión de matar. En una mina, la decisión la toma el que la fabrica o el que la pone. Y ellos serían los responsables morales de lo que suceda.

Hoy hay sistemas de armas inteligentes como las defensas anti misiles, que reaccionan más rápido que las personas pero también pueden provocar a accidentes. ¿Se podría decir que la inteligencia artificial está en nuestras vidas?

Se podría decir. Es un ejemplo y seguramente veamos otros. No solo en la guerra, sino también en referencia a temas como la conducción autónoma. Cuantos más sistemas de asistencia se implanten en la carretera, en más accidentes participarán estos sistemas. Por ejemplo, cuando el computador de un coche reconoce a un niño y colisiona con un coche de frente por esquivarlo. Es una situación difícil. Si nos pasa a nosotros, estamos acostumbrados a que nuestra decisión y reacción puedan no ser correctas. Pero si lo hace un sistema automático, tendremos que acostumbrarnos a que tomen decisiones falsas.

Los partidarios de la inteligencia artificial dirían que las personas provocan más accidentes y toman decisiones militares erróneas. Y los sistemas de defensa aérea salvan muchas vidas…

En el caso de los coches es solo cuestión de tiempo para que consideremos los sistemas automáticos más seguros que los humanos En el caso de las armas, puede que sean más precisas y distingan mejor entre soldados y civiles. Pero hay otras cosas a tener en cuenta: en el sector militar, una parte intenta provocar daños a la otra. Por ejemplo, matando a otras personas. A mí me provoca dolor de cabeza dejar esa decisión moral, que normalmente compete al soldado, en manos de un sistema automático. Quizá sea por costumbre, pero me cuesta imaginarme ese momento. También es difícil prever cómo será una guerra si algunos países tienen esos sistemas y otros no. ¿Lucharían robots contra humanos? ¿Nos daría menos reparo iniciar guerras? Creo que es jugar con fuego. No es que sepa lo que va a pasar, pero sí quise apoyar una discusión sobre lo que está por venir.

Bernhard Schölkopf es director del departamento de interferencia empíricas en el Instituto Max-Planck de sistemas inteligentes en Tubinga.