Para ver el contenido hay que estar registrado.
Registrar o
Entrar27 de diciembre de 2020, 11:25 am
Texto: Alexander Timokhin
En general, se acepta que la inteligencia artificial, como arma militar, es una cuestión de un futuro lejano. Después de todo, las máquinas pensantes son claramente fantásticas, se muestran en películas como Terminator, pero en el mundo real todo es completamente diferente. Sin embargo, una serie de desarrollos recientes en el desarrollo de tecnología militar han demostrado que los robots militares ya están cerca de nosotros. Incluso en Rusia.
Lo más intrigante en las últimas semanas sobre el tema de la inteligencia artificial (IA) fue el anuncio del Subsecretario (Secretario) de Adquisiciones de la Fuerza Aérea de EE. UU. Will Roper. A principios de diciembre, insinuaba constantemente que en unos días estaba a punto de suceder un evento que marcaría una época. Publicó en su Twitter indicios de una sensación futura, que iba a ocurrir el jueves 17 de diciembre. Preguntas intrigantes circularon en las redes sociales estadounidenses. ¿Qué quiere mostrar la BBC? ¿Quizás un prototipo de algún avión nuevo?
En el momento prometido, la Fuerza Aérea de EE. UU. Mostró un viejo avión de reconocimiento de gran altitud U-2, cuyo radar y varios instrumentos estaban controlados por inteligencia artificial, y no por un piloto vivo. La decepción se deslizó entre los entusiastas. Todo el mundo estaba esperando al menos un luchador de nueva generación, y aquí el radar está controlado por un algoritmo que está escrito sobre la base del juego uno ... Mientras tanto, no hay nada divertido o decepcionante en esto. De hecho, nos enfrentamos a un gran avance. Algoritmos como los que usaron los estadounidenses en sus aviones permitirán en el futuro hacer cosas que hoy son inaccesibles para los militares.
Por ejemplo, un helicóptero o un tanque con una tripulación completamente viva llevará a las personas a direcciones peligrosas o posibles objetivos disfrazados. En ausencia de comandos, apunte las armas de forma independiente a objetos sospechosos y solicite permiso para abrir fuego. Controlar los vehículos de combate se convertirá en algo parecido a un juego de computadora, cuando el programa le indica al jugador muchas cosas que simplemente no habría tenido tiempo de entender. Marca objetivos con marcadores, en algunos casos guía armas, programa municiones teniendo en cuenta la situación cambiante.
Dichas tecnologías transforman un vehículo de combate en un sistema hombre-máquina, en el que las cualidades de un operador vivo inherentes a los humanos (iniciativa, coraje, la capacidad de hacer soluciones no estándar, habilidad táctica) se multiplicarán por las cualidades de las máquinas: una elección inconfundible de objetivos, la capacidad de clasificar los objetivos detectados según el grado de peligro. en modo automático, guía avanzada de armas, control de munición corregida. Y todo ello con la velocidad característica de los ordenadores y la ausencia de errores "humanos".
Enjambres de drones y operaciones especialesLos estadounidenses han estado trabajando en tecnologías de inteligencia artificial para aplicaciones militares durante mucho tiempo. Pero hasta ahora se trataba de tecnologías de "inteligencia" muy simple, prácticamente al nivel de un insecto, tal vez un poco más complicadas.
En abril de 2015, la Marina de los EE. UU. Anunció el programa LOCUST - Tecnología de enjambre de UAV de bajo costo, en traducción - tecnología de UAV "enjambre" de bajo costo. El término "enjambre" significa depurar la interacción entre vehículos de combate de la misma manera que ocurre en un enjambre de insectos o, alternativamente, en un banco de peces. Es decir, las máquinas interactúan entre sí, basándose no en los comandos del operador (que no están allí), sino en su propia "conciencia". El número máximo de aviones que podían realizar un vuelo conjunto, ajustándose entre sí, era de 31 aviones.
En 2016, la Fuerza Aérea de EE. UU. Mostró la liberación de un enjambre de pequeños destructores de drones desde un contenedor especial de un avión de combate, con maniobras independientes de un grupo de varias docenas de robots y un ataque de un enjambre de objetivos asignados. Además, de la animación se deduce que el enjambre es capaz de comprender que este mismo objetivo ya ha sido destruido y lo abandona, habiendo huido al siguiente.
En 2017, se supo que la Agencia de Investigación Avanzada del Pentágono DARPA, junto con los equipos de la Armada, la Fuerza Aérea, el Ejército y varias otras estructuras, está llevando a cabo el programa Academies Swarm Challenge . . El objetivo del programa es crear tecnologías que permitan a un enjambre de pequeños drones de combate realizar una tarea sin recibir ningún comando a través de comunicaciones por radio, que son vulnerables a la guerra electrónica. Se suponía que los drones recibirían solo algunos comandos básicos (por ejemplo, la ubicación del objetivo) y luego luchar contra los drones de los competidores. En las batallas de entrenamiento (sin llegar a alcanzar objetivos), decenas de vehículos aéreos no tripulados se juntaron, pero solo unas pocas personas los controlaron y en cuestión de minutos, los vehículos “lucharon” solos, sin operadores.
Además, los estadounidenses están trabajando en los robots Gremlin , pequeños drones capaces no solo de atacar objetivos de forma independiente, sino también de regresar al punto de recogida si es necesario. Donde, con la ayuda de un agarre especial, se suben a bordo de un avión de transporte militar sobre la marcha. Esto es muy impresionante, Hollywood se ve en el video, ajustado al hecho de que los técnicos estadounidenses en realidad, y no en las películas, toman un pequeño avión robot y lo arrastran a otro, grande y tripulado.
Los estadounidenses utilizan algoritmos similares en el misil antibuque LRASM ya en serie . Este misil de crucero ingresa de forma independiente al área de ubicación objetivo, lo busca e identifica todos los barcos detectados en el grupo. Selecciona de ellos exactamente el que necesita para atacar, elige el momento del ataque y el curso desde el que irá al objetivo, y luego, a una altitud ultrabaja, va al objetivo, sin revelarse al encender los medios emisores de retorno hasta el último momento. La "inteligencia" de este cohete es incluso más primitiva que la de los drones asesinos "enjambres", pero sigue siendo impresionante. Y lo más importante, a diferencia del UAV, este misil ya está en servicio con la Marina de los EE. UU. Y en cantidades considerables.
Pero eso no es todoEl 9 de diciembre, otro evento importante pasó desapercibido en los Estados Unidos: la conferencia sobre la carrera global para crear IA. Fue realizado por el Instituto Hudson.
Entre los expertos del instituto estaban los militares. Por ejemplo, el comandante del Comando de Operaciones Especiales de EE. UU., El general Richard Clarke, dijo que las fuerzas especiales de EE. UU. Están utilizando IA para trabajar con conjuntos de inteligencia y calcular objetivos para ataques aéreos. Y que los algoritmos de IA han llevado a un aumento explosivo en la eficiencia de encontrar objetivos para destruir. Este sistema, llamado por los estadounidenses "Project Maven" ("Project Connoisseur"), se basa en algoritmos de autoaprendizaje y permite que los sistemas informáticos se vuelvan "más inteligentes" con cada tarea realizada.
Nuestro país también lo consiguió en la conferencia. El portavoz de la Universidad de Taft, Richard Schultz, al comentar sobre el hecho de que la competencia en inteligencia artificial es una especie de carrera armamentista, dijo literalmente: “Así es como lo ve Putin. No creo que tengamos otra opción ". Algunas cosas, por ejemplo, la actitud de los estadounidenses hacia Rusia, incluso la inteligencia artificial no cambia. Sin embargo, la respuesta a la pregunta es interesante: ¿qué tenemos?
El día después de que la mente de la máquina estadounidense partiera en su vuelo en avión espía, Rusia organizó una reunión del Consejo de Seguridad en la que el presidente Putin discutió los peligros que representa el desarrollo de sistemas de inteligencia artificial en fuerzas militares extranjeras. El orador fue el jefe del Estado Mayor de las Fuerzas Armadas de RF, Valery Gerasimov. Los detalles de la reunión no se hicieron públicos, solo se sabe que el presidente ha abordado en repetidas ocasiones el tema de la inteligencia artificial y, en general, el liderazgo ruso tiene un consenso sobre la importancia de esta área.
Problema de comunicación y problema de éticaLa información de que se está trabajando en inteligencia artificial con fines militares en Rusia no ha sido un secreto durante mucho tiempo. Al mismo tiempo, sin embargo, solo se conoce acerca de las direcciones fallidas, pero las exitosas continúan siendo muy privadas. Y hay por qué.
Tras el uso del complejo robótico Uran-9 en Siria, se supo que el vehículo de combate autónomo, debido a la pérdida de comunicación, en ocasiones permanecía sin control durante mucho tiempo. Los militares no señalaron la forma de resolver el problema "de frente", pero entre líneas se entendió que tal vehículo de combate en condiciones de pérdida de comunicación con el operador debería poder actuar por sí solo. Al menos cesar el fuego y retroceder por su propia ruta, hacia la zona de comunicación estable.Es decir, los sistemas robóticos que operan al menos en combate terrestre ya no pueden depender del control remoto.
¿Y si el enemigo usa la guerra electrónica? ¿Si no hay ninguna conexión? Luego, debe dar el siguiente paso lógico: admitir que tales complejos deberían convertirse en solo robots, que el operador solo controla cuando puede. El problema de la comunicación, por tanto, requiere autonomía, de lo contrario el vehículo de combate no podrá pelear.
En esta etapa surge un problema ético. Al crear un complejo de este tipo, le damos a la máquina el derecho a decidir de forma independiente sobre el asesinato de una persona viva y la capacidad de cometer este asesinato. Sin petición al operador y en ocasiones sin control por su parte. Muchos pensadores consideran que la idea misma de un robot, decidiendo independientemente a cuál de las personas matar y cuál no, es inaceptable. Este es un precedente: crear una entidad artificial que decida por una persona la vida y la muerte de esta persona.
Y aquí nos encontramos con un sistema de combate, que se crea inmediatamente, desde el principio, como un robot asesino de personas que son sus oponentes militares. Que no se puede utilizar para el propósito previsto, en principio, si no tiene la capacidad de destruir al enemigo de forma independiente, sin preguntarle a nadie. Y este sistema es nuestro. Creado en Rusia.
*
*
*