Reclutan chicos genios para desarrollar “robots asesinos” – 08/11/2018



[ad_1]

El Instituto de Tecnología de Beijing tiene entre sus paredes a 31 chicos “patriotas” para un nuevo proyecto que parece de “ciencia ficción” pero no lo es: la creación de armas con inteligencia artificial (AI, según las siglas en inglés). Para muchos, que entienden sobre la ciencia de la política internacional, esto es al menos “perturbador” y una (muy) mala idea.

Según informa este jueves, el South China Morning Post, se trata de 27 chicos y 4 chicas, todos de 18 años o menores, seleccionados para un “programa experimental para sistemas de armas inteligentes” de cuatro años de duración, en el Instituto de Tecnología de Beijing, a partir de ahora BIT.

No fue fácil elegirlos. Para dar con las mentes jóvenes más brillantes del país hubo que buscar entre 5.000 candidatos.

¿Qué es el BIT? Es uno de los institutos de investigación de armas más importantes de China, y el lanzamiento de este nuevo programa pone en evidencia el peso que tiene en el desarrollo de la tecnología AI para uso militar.

Se sabe que China compite contra Estados Unidos y otras naciones en una carrera por desarrollar aplicaciones letales con inteligencia artificial, que van desde submarinos nucleares hasta chips que aprenden de manera autónoma o robots microscópicos que pueden meterse en los vasos sanguíneos.

“La perspectiva de máquinas con el criterio y el poder para acabar con vidas humanas es moralmente repugnante.”

António Guterres

Secretario general de la ONU

“Estos chicos son todos excepcionalmente brillantes, pero ser inteligente no es suficiente”, dice un profesor del BIT involucrado en el proceso de selección, que habló en condición de anonimato con el South China Morning Post.

También buscamos otras cualidades, dice. Como pensamiento creativo, voluntad de luchar, persistencia para enfrentar desafíos, enumera. Y deja para el final la más importante de todas: “pasión para desarrollar nuevas armas“. Eso es un “must”, aclara y subraya que “también tienen que ser patriotas”.

Cada estudiante tiene dos mentores, es decir dos altos científicos en armas: uno con formación académica y el otro provenientes de la industria de Defensa, según reza el prospecto del programa.

Después de un curso breve de seis meses, los chicos deben elegir que especialidad quieren. Puede ser ingeniera mecánica, electrónica o diseño de armas. Luego serán asignados a un laboratorio de defensa donde podrán desarrollar sus cualidades.

Según cuenta el diario de Hong Kong, uno de los estudiantes es Qi Yishen, de la provincia de Shandong, al este de China, quien dijo que había tenido un gran interés en armas de mano y armamento desde que era un niño y que disfrutaba leyendo libros y revistas sobre el tema.

Después de completar el curso de cuatro años, se espera que los estudiantes continúen con un programa de doctorado y se conviertan en los próximos líderes del programa de armas de inteligencia artificial de China, dijo el instituto.

Perturbador

El Morning Post cita a Eleonore Pauwels, becaria en cibertecnologías emergentes del Centro de Investigación de Políticas de la Universidad de las Naciones Unidas en Nueva York, quien se mostró preocupada por el lanzamiento del curso del BIT.

“Este es el primer programa universitario en el mundo diseñado para alentar agresiva y estratégicamente a la próxima generación a pensar, diseñar y desplegar AI para investigación y uso militar“.

Si bien los EE.UU. tenían programas similares, como los dirigidos por la Agencia de Proyectos de Investigación Avanzada de la Defensa, estos operaban bajo un secreto relativo y empleaban solo a la crema de científicos establecidos, dijo Pauwels.

En cambio, el programa chino apunta a entrenar a las nuevas generaciones en el desarrollo de armas inteligentes. “Este concepto es tanto extremadamente poderoso como perturbador”, señaló.

Los peligros

Con este programa en China, uno puede ya pensar a futuro en la unión de la inteligencia artificial con la genética, una combinación poderosa convertida en un arma de guerra, que puede actuar con precisión quirúrgica sobre poblaciones específicas, opinó Pauwels.

Los caminos que se abrirían podrían llevar a nuevas formas de guerras, como sofisticados ciberataques autónomos, en los que robots y sensores de defensa y ofensiva atacan, defienden y toman inteligencia, en una gigantesca batalla en Internet.

Una mala idea

Stuart Russell, director del Centro de Sistemas Inteligentes de la Universidad de California en Berkeley, describió el programa BIT como “una muy mala idea”.

“Nunca se debe permitir que las máquinas decidan matar seres humanos. Tales armas se convierten rápidamente en armas de destrucción masiva. Además, aumentan la probabilidad de guerra “, dijo.

“Espero que todos estos estudiantes comiencen su curso viendo la película Slaughterbots”, en alusión al film de 2017 que describe un futuro cercano en el que enjambres de microdrones de bajo costo utilizan inteligencia artificial y reconocimiento facial para asesinar a los opositores políticos.

Realidad o ciencia ficción

Roser Martínez Quirante, coautora con su colega Joaquín Rodríguez Álvarez del reciente libro Inteligencia artificial y armas autónomas letales, opinan que “podría llegar un momento en que los sistemas de armas autónomas letales se autodeterminarán”.

“Como ocurre con Frankenstein, la criatura acaba rebelándose contra su creador y contra la comunidad.”

Pero esto no es la trama de un libro o el guión de una película, sino una política de Estado de la segunda potencia del mundo.

El tema es debate en todo el mundo.

Ante la creciente discusión internacional, el 25 de septiembre último el secretario general de las Naciones Unidas António Guterres declaró ante la Asamblea General: “Digámoslo como es. La perspectiva de máquinas con el criterio y el poder para acabar con vidas humanas es moralmente repugnante”.

Lanzó la voz de alarma sobre avances tecnológicos que especialistas consideran potencialmente más peligrosos que la tecnología nuclear: podrían destruir la raza humana si los sistemas armados se salieran de control o cayeran en malas manos.

“Los robots asesinos son un gran peligro”, dijo.

Fuente: South China Morning Post y Clarín

[ad_2]
Source link