24 Octubre 2021, 18:04:53 *
Bienvenido(a), Visitante. Por favor, ingresa o regístrate.

Ingresar con nombre de usuario, contraseña y duración de la sesión
Noticias: Foro RKKA
 
   Inicio   Ayuda Ingresar Registrarse  
Páginas: [1]   Ir Abajo
  Imprimir  
Autor Tema: IA  (Leído 408 veces)
torrestucar
Colaborador portal RKKA
Mariscal
*

Karma: 2646
Mensajes: 10175


IA
« : 27 Diciembre 2020, 17:37:02 »


Para ver el contenido hay que estar registrado. Registrar o Entrar
27 de diciembre de 2020, 11:25 am
Texto: Alexander Timokhin

En general, se acepta que la inteligencia artificial, como arma militar, es una cuestión de un futuro lejano. Después de todo, las máquinas pensantes son claramente fantásticas, se muestran en películas como Terminator, pero en el mundo real todo es completamente diferente. Sin embargo, una serie de desarrollos recientes en el desarrollo de tecnología militar han demostrado que los robots militares ya están cerca de nosotros. Incluso en Rusia.

Lo más intrigante en las últimas semanas sobre el tema de la inteligencia artificial (IA) fue el anuncio del Subsecretario (Secretario) de Adquisiciones de la Fuerza Aérea de EE. UU. Will Roper. A principios de diciembre, insinuaba constantemente que en unos días estaba a punto de suceder un evento que marcaría una época. Publicó en su Twitter indicios de una sensación futura, que iba a ocurrir el jueves 17 de diciembre. Preguntas intrigantes circularon en las redes sociales estadounidenses. ¿Qué quiere mostrar la BBC? ¿Quizás un prototipo de algún avión nuevo?

En el momento prometido, la Fuerza Aérea de EE. UU.  Mostró un  viejo avión de reconocimiento de gran altitud U-2, cuyo radar y varios instrumentos estaban controlados por inteligencia artificial, y no por un piloto vivo. La decepción se deslizó entre los entusiastas. Todo el mundo estaba esperando al menos un luchador de nueva generación, y aquí el radar está controlado por un algoritmo que está escrito sobre la base del juego uno ... Mientras tanto, no hay nada divertido o decepcionante en esto. De hecho, nos enfrentamos a un gran avance. Algoritmos como los que usaron los estadounidenses en sus aviones permitirán en el futuro hacer cosas que hoy son inaccesibles para los militares.

Por ejemplo, un helicóptero o un tanque con una tripulación completamente viva llevará a las personas a direcciones peligrosas o posibles objetivos disfrazados. En ausencia de comandos, apunte las armas de forma independiente a objetos sospechosos y solicite permiso para abrir fuego. Controlar los vehículos de combate se convertirá en algo parecido a un juego de computadora, cuando el programa le indica al jugador muchas cosas que simplemente no habría tenido tiempo de entender. Marca objetivos con marcadores, en algunos casos guía armas, programa municiones teniendo en cuenta la situación cambiante.

Dichas tecnologías transforman un vehículo de combate en un sistema hombre-máquina, en el que las cualidades de un operador vivo inherentes a los humanos (iniciativa, coraje, la capacidad de hacer soluciones no estándar, habilidad táctica) se multiplicarán por las cualidades de las máquinas: una elección inconfundible de objetivos, la capacidad de clasificar los objetivos detectados según el grado de peligro. en modo automático, guía avanzada de armas, control de munición corregida. Y todo ello con la velocidad característica de los ordenadores y la ausencia de errores "humanos".

Enjambres de drones y operaciones especiales

Los estadounidenses han estado trabajando en tecnologías de inteligencia artificial para aplicaciones militares durante mucho tiempo. Pero hasta ahora se trataba de tecnologías de "inteligencia" muy simple, prácticamente al nivel de un insecto, tal vez un poco más complicadas.

En abril de 2015, la Marina de los EE. UU. Anunció  el programa LOCUST - Tecnología de enjambre de UAV de bajo costo, en traducción - tecnología de UAV "enjambre" de bajo costo. El término "enjambre" significa depurar la interacción entre vehículos de combate de la misma manera que ocurre en un enjambre de insectos o, alternativamente, en un banco de peces. Es decir, las máquinas interactúan entre sí, basándose no en los comandos del operador (que no están allí), sino en su propia "conciencia". El número máximo de aviones que podían realizar un vuelo conjunto, ajustándose entre sí, era de 31 aviones.

En 2016, la Fuerza Aérea de EE. UU. Mostró la liberación de un enjambre de pequeños destructores de drones desde un contenedor especial de un avión de combate, con maniobras independientes de un grupo de varias docenas de robots y un ataque de un enjambre de objetivos asignados. Además, de la animación se deduce que el enjambre es capaz de comprender que este mismo objetivo ya ha sido destruido y lo abandona, habiendo huido al siguiente.

En 2017, se supo que la Agencia de Investigación Avanzada del Pentágono DARPA, junto con los equipos de la Armada, la Fuerza Aérea, el Ejército y varias otras estructuras, está llevando a cabo el programa Academies Swarm Challenge . . El objetivo del programa es crear tecnologías que permitan a un enjambre de pequeños drones de combate realizar una tarea sin recibir ningún comando a través de comunicaciones por radio, que son vulnerables a la guerra electrónica. Se suponía que los drones recibirían solo algunos comandos básicos (por ejemplo, la ubicación del objetivo) y luego luchar contra los drones de los competidores. En las batallas de entrenamiento (sin llegar a alcanzar objetivos), decenas de vehículos aéreos no tripulados se juntaron, pero solo unas pocas personas los controlaron y en cuestión de minutos, los vehículos “lucharon” solos, sin operadores.

Además, los estadounidenses están trabajando en los robots Gremlin , pequeños drones capaces no solo de atacar objetivos de forma independiente, sino también de regresar al punto de recogida si es necesario. Donde, con la ayuda de un agarre especial, se suben a bordo de un avión de transporte militar sobre la marcha. Esto es muy impresionante, Hollywood se ve en el video, ajustado al hecho de que los técnicos estadounidenses en realidad, y no en las películas, toman un pequeño avión robot y lo arrastran a otro, grande y tripulado.

Los estadounidenses utilizan algoritmos similares en el misil antibuque LRASM ya en serie . Este misil de crucero ingresa de forma independiente al área de ubicación objetivo, lo busca e identifica todos los barcos detectados en el grupo. Selecciona de ellos exactamente el que necesita para atacar, elige el momento del ataque y el curso desde el que irá al objetivo, y luego, a una altitud ultrabaja, va al objetivo, sin revelarse al encender los medios emisores de retorno hasta el último momento. La "inteligencia" de este cohete es incluso más primitiva que la de los drones asesinos "enjambres", pero sigue siendo impresionante. Y lo más importante, a diferencia del UAV, este misil ya está en servicio con la Marina de los EE. UU. Y en cantidades considerables.

Pero eso no es todo

El 9 de diciembre, otro evento importante pasó desapercibido en los Estados Unidos: la conferencia sobre la carrera global para crear IA. Fue realizado por el Instituto Hudson.

Entre los expertos del instituto estaban los militares. Por ejemplo, el comandante del Comando de Operaciones Especiales de EE. UU., El general Richard Clarke, dijo que las fuerzas especiales de EE. UU. Están utilizando IA para trabajar con conjuntos de inteligencia y calcular objetivos para ataques aéreos. Y que los algoritmos de IA han llevado a un aumento explosivo en la eficiencia de encontrar objetivos para destruir. Este sistema, llamado por los estadounidenses "Project Maven" ("Project Connoisseur"), se basa en algoritmos de autoaprendizaje y permite que los sistemas informáticos se vuelvan "más inteligentes" con cada tarea realizada.

Nuestro país también lo consiguió en la conferencia. El portavoz de la Universidad de Taft, Richard Schultz, al comentar sobre el hecho de que la competencia en inteligencia artificial es una especie de carrera armamentista, dijo literalmente: “Así es como lo ve Putin. No creo que tengamos otra opción ". Algunas cosas, por ejemplo, la actitud de los estadounidenses hacia Rusia, incluso la inteligencia artificial no cambia. Sin embargo, la respuesta a la pregunta es interesante: ¿qué tenemos?

El día después de que la mente de la máquina estadounidense partiera en su vuelo en avión espía, Rusia organizó una reunión del Consejo de Seguridad en la que el presidente Putin discutió los peligros que representa el desarrollo de sistemas de inteligencia artificial en fuerzas militares extranjeras. El orador fue el jefe del Estado Mayor de las Fuerzas Armadas de RF, Valery Gerasimov. Los detalles de la reunión no se hicieron públicos, solo se sabe que el presidente ha abordado en repetidas ocasiones el tema de la inteligencia artificial y, en general, el liderazgo ruso tiene un consenso sobre la importancia de esta área.

Problema de comunicación y problema de ética

La información de que se está trabajando en inteligencia artificial con fines militares en Rusia no ha sido un secreto durante mucho tiempo. Al mismo tiempo, sin embargo, solo se conoce acerca de las direcciones fallidas, pero las exitosas continúan siendo muy privadas. Y hay por qué.

Tras el uso del complejo robótico Uran-9 en Siria, se supo que el vehículo de combate autónomo, debido a la pérdida de comunicación, en ocasiones permanecía sin control durante mucho tiempo. Los militares no señalaron la forma de resolver el problema "de frente", pero entre líneas se entendió que tal vehículo de combate en condiciones de pérdida de comunicación con el operador debería poder actuar por sí solo. Al menos cesar el fuego y retroceder por su propia ruta, hacia la zona de comunicación estable.

Es decir, los sistemas robóticos que operan al menos en combate terrestre ya no pueden depender del control remoto.

¿Y si el enemigo usa la guerra electrónica? ¿Si no hay ninguna conexión? Luego, debe dar el siguiente paso lógico: admitir que tales complejos deberían convertirse en solo robots, que el operador solo controla cuando puede. El problema de la comunicación, por tanto, requiere autonomía, de lo contrario el vehículo de combate no podrá pelear.

En esta etapa surge un problema ético. Al crear un complejo de este tipo, le damos a la máquina el derecho a decidir de forma independiente sobre el asesinato de una persona viva y la capacidad de cometer este asesinato. Sin petición al operador y en ocasiones sin control por su parte. Muchos pensadores consideran que la idea misma de un robot, decidiendo independientemente a cuál de las personas matar y cuál no, es inaceptable. Este es un precedente: crear una entidad artificial que decida por una persona la vida y la muerte de esta persona.

Y aquí nos encontramos con un sistema de combate, que se crea inmediatamente, desde el principio, como un robot asesino de personas que son sus oponentes militares. Que no se puede utilizar para el propósito previsto, en principio, si no tiene la capacidad de destruir al enemigo de forma independiente, sin preguntarle a nadie. Y este sistema es nuestro. Creado en Rusia.
*
*
*
En línea
torrestucar
Colaborador portal RKKA
Mariscal
*

Karma: 2646
Mensajes: 10175


« Respuesta #1 : 21 Enero 2021, 21:30:10 »

Algoritmo IA usado en simulador de combate, "abate" 5 veces a piloto experto.
Usa lógica difusa, de tipo "genético", es decir que se van usando en las generaciones posteriores, aquellas partes del algoritmo que mejor resultado dieron.
Este tipo de lógica difusa, ya estaba siendo usada desde hace más de 20 años en controladores industriales pequeños japoneses


Para ver el contenido hay que estar registrado. Registrar o Entrar

Para ver el contenido hay que estar registrado. Registrar o Entrar
15:17 GMT 22.08.2020 (actualizada a las 16:14 GMT 22.08.2020)

Una serie de pruebas realizadas por la Agencia de Proyectos de Investigación Avanzados de Defensa de EEUU (DARPA) finalizó con la derrota del piloto de un F-16 ante la inteligencia artificial en cinco simulacros. Un militar explicó qué implican los resultados de estas maniobras.
*
*
*
-----------------------------------------------------------------------------------------------------------

Para ver el contenido hay que estar registrado. Registrar o Entrar

Más allá de los videojuegos: nueva inteligencia artificial
supera a los expertos tácticos en simulación de combate

La inteligencia artificial ganó recientemente durante un combate aéreo simulado contra los tácticos expertos de EE. UU. Es importante destacar que lo hizo utilizando solo la potencia de procesamiento disponible en una computadora pequeña y asequible (Raspberry Pi) que se vende por tan solo $ 35.
 
por MB Reilly
513-556-1824

UC Creative Services

27 de junio de 2016

La inteligencia artificial (IA) desarrollada por un doctorado de la Universidad de Cincinnati fue evaluada recientemente por un experto en la materia y coronel retirado de la Fuerza Aérea de los Estados Unidos Gene Lee, quien tiene una amplia experiencia en combate aéreo como un instructor y Air Battle Manager con considerable experiencia en aviones de combate, en un simulador de combate aéreo de alta fidelidad.

La inteligencia artificial, denominada ALPHA, fue la vencedora en ese escenario simulado y, según Lee, es "la IA más agresiva, receptiva, dinámica y creíble que he visto hasta la fecha".

Los detalles sobre ALPHA: un avance significativo en la aplicación de los llamados sistemas genéticos difusos se publican en el número más reciente del Journal of Defense Management , ya que esta aplicación está diseñada específicamente para su uso con vehículos aéreos de combate no tripulados (UCAV) en simulaciones. misiones de combate aéreo con fines de investigación.

Las herramientas utilizadas para crear ALPHA, así como el proyecto ALPHA, han sido desarrolladas por Psibernetix, Inc., recientemente fundada por el graduado de doctorado de UC College of Engineering and Applied Science 2015 Nick Ernest, ahora presidente y CEO de la firma; así como David Carroll, líder de programación, Psibernetix, Inc .; con tecnologías de apoyo e investigación de Gene Lee; Kelly Cohen, UC aeroespacialprofesor; Tim Arnett, estudiante de doctorado aeroespacial de la UC; y patrocinadores del Laboratorio de Investigación de la Fuerza Aérea.

ALPHA se considera actualmente una herramienta de investigación para la formación de equipos tripulados y no tripulados en un entorno de simulación. En sus primeras iteraciones, ALPHA superó consistentemente un programa informático de referencia previamente utilizado por el Laboratorio de Investigación de la Fuerza Aérea para la investigación. En otras palabras, derrotó a otros oponentes de la IA.

De hecho, fue solo después de que las primeras iteraciones de ALPHA superaron a otros oponentes de programas de computadora que Lee tomó los controles manuales contra una versión más madura de ALPHA en octubre pasado. Lee no solo no pudo anotar una muerte contra ALPHA después de repetidos intentos, sino que fue disparado en el aire cada vez durante los enfrentamientos prolongados en el simulador.

Desde ese primer encuentro humano contra ALPHA en el simulador, esta IA ha superado repetidamente a otros expertos también, e incluso es capaz de vencer a estos expertos humanos cuando sus aviones (controlados por ALPHA) están deliberadamente discapacitados en términos de velocidad. giro, capacidad de misiles y sensores.

Lee, que ha estado volando en simuladores contra oponentes de IA desde principios de la década de 1980, dijo sobre ese primer encuentro contra ALPHA: “Me sorprendió lo consciente y reactivo que fue. Parecía estar consciente de mis intenciones y reaccionar instantáneamente a mis cambios de vuelo y al despliegue de mis misiles. Sabía cómo derrotar el tiro que estaba haciendo. Se movió instantáneamente entre acciones defensivas y ofensivas según fuera necesario ".

Añadió que con la mayoría de las IA, “un piloto experimentado puede vencerla (la IA) si sabes lo que estás haciendo. Claro, es posible que un programa de IA te haya derribado de vez en cuando cuando, como piloto, estabas intentando algo nuevo, pero, hasta ahora, un oponente de IA simplemente no podía seguir el ritmo de la presión y el ritmo reales de escenarios de combate ".

Pero, ahora, ha sido Lee, quien se ha entrenado con miles de pilotos de la Fuerza Aérea de EE. UU., Volado en varios aviones de combate y se graduó de la Escuela de Armas de Combate de EE. UU. (El equivalente a obtener un título avanzado en tácticas y estrategia de combate aéreo), también. como otros pilotos que se han sentido presionados por ALPHA.

Y, además, cuando Lee vuela contra ALPHA en sesiones de horas que imitan misiones reales, “me voy a casa sintiéndome agotado. Estoy cansado, agotado y mentalmente agotado. Esto puede ser inteligencia artificial, pero representa un verdadero desafío ".
*
*
*
Para ver el contenido hay que estar registrado. Registrar o Entrar
 
« Última modificación: 21 Enero 2021, 21:33:06 por torrestucar » En línea
torrestucar
Colaborador portal RKKA
Mariscal
*

Karma: 2646
Mensajes: 10175


« Respuesta #2 : 21 Enero 2021, 21:34:09 »


Para ver el contenido hay que estar registrado. Registrar o Entrar
08:19 GMT 22.07.2020(actualizada a las 11:31 GMT 22.07.2020)

MOSCÚ (Sputnik) — Rusia necesita impulsar de manera drástica el desarrollo de las tecnologías, incluida la inteligencia artificial, declaró el primer ministro ruso, Mijaíl Mishustin.

"Necesitamos una disrupción tecnológica. Hay que desarrollar nuevos sectores, incluido el de la inteligencia artificial", dijo el primer ministro ruso presentando ante la Duma de Estado (Cámara Baja) el nuevo informe sobre el trabajo del Gobierno.

Mishustin señaló que el Gobierno preparó un paquete de medidas para impulsar el desarrollo del sector de tecnologías informáticas.

En línea
torrestucar
Colaborador portal RKKA
Mariscal
*

Karma: 2646
Mensajes: 10175


« Respuesta #3 : 21 Enero 2021, 21:40:31 »

Esto es del 2016, pero da una muestra de cómo ya estaba usando la NSA el análisis automático de las comunicaciones privadas.
Comunicaciones: palabras, sms, mails, whatsapp, visitas a sitios webs, posteos, twitts, etc


Para ver el contenido hay que estar registrado. Registrar o Entrar
13:11 GMT 21.02.2016(actualizada a las 13:16 GMT 21.02.2016)

El algoritmo autodidacta SKYNET usado para identificar a “probables terroristas” en Pakistán tiene una lógica errada y podría causar muerte de personas inocentes, afirma Patrick Ball, analista de datos y fundador del Grupo del Análisis de Datos para los Derechos Humanos (HRDAG, por sus siglas en inglés) entrevistado por el portal Ars Technica.

Los datos sobre SKYNET surgieron en 2015 en los documentos filtrados por Edward Snowden. El algoritmo vigila la red de teléfonos móviles, recolectando unos 80 parámetros de cerca de 55 millones de pakistaníes. El sistema analiza posteriormente estos datos y los compara con los ejemplos confirmados de comportamiento de terroristas para medir si una persona posee los mismos hábitos y costumbres "sospechosas".
*
*
*
En línea
torrestucar
Colaborador portal RKKA
Mariscal
*

Karma: 2646
Mensajes: 10175


« Respuesta #4 : 21 Enero 2021, 21:49:01 »


Para ver el contenido hay que estar registrado. Registrar o Entrar

Lógica difusa

La lógica difusa (también llamada lógica borrosa) toma dos valores aleatorios, pero contextualizados y referidos entre sí. Por ejemplo, una persona que mida dos metros es claramente una persona alta, si previamente se ha tomado el valor de persona baja y se ha establecido en un metro. Ambos valores están contextualizados a personas y referidos a una medida métrica lineal.

Fue formulada por el matemático e ingeniero Lotfi A. Zadeh
*
*
*
------------------------------------------------

Para ver el contenido hay que estar registrado. Registrar o Entrar
Lotfi A. Zadeh

Lotfi Asker Zadeh (en azerí Lütfi Zadə), Bakú, 4 de febrero de 1921 - Berkeley (California), 6 de septiembre de 20171​) fue un matemático, ingeniero eléctrico, informático y profesor Iraní- estadounidense de la Universidad de Berkeley. Es famoso por introducir en 1965 la teoría de conjuntos difusos o lógica difusa. Se le considera asimismo el padre de la teoría de la posibilidad.
*
*
*
En línea
torrestucar
Colaborador portal RKKA
Mariscal
*

Karma: 2646
Mensajes: 10175


« Respuesta #5 : 21 Enero 2021, 22:08:02 »


Forbes sugirió que el UAV "Okhotnik" recibirá inteligencia artificial

14.01.2021 20:15830

Los expertos militares extranjeros prestaron especial atención a las pruebas del avión no tripulado de ataque pesado ruso Okhotnik. Según los observadores de EE. UU., El UAV se volverá aún más autónomo cuando esté equipado con inteligencia artificial.

Anteriormente, como parte de las pruebas de vuelo en el rango de Ashuluk, el nuevo vehículo aéreo no tripulado ruso "Okhotnik" alcanzó un objetivo terrestre con bombas no guiadas que pesaban 500 kilogramos.

Las pruebas exitosas de Okhotnik muestran la rapidez con la que Rusia está desarrollando proyectos en el campo de los UAV, informa PolitRussia con referencia a la revista estadounidense Forbes.

Los observadores estadounidenses examinaron los datos obtenidos durante la prueba y sugirieron que el dron de ataque ruso estaba equipado con un sistema de control remoto.

El experto estadounidense Samuel Bendett señala que el "Hunter" estará equipado con inteligencia artificial para hacerlo lo más autónomo posible. En este caso, el UAV ruso podrá alcanzar de forma autónoma objetivos terrestres estacionarios y móviles con coordenadas ya conocidas. A pesar de que durante la prueba la bomba no fue guiada, al final el vehículo no tripulado debe estar equipado con equipos que sean compatibles con misiles guiados.

"El Kremlin planea utilizar al Hunter como un" compañero fiel "para los cazas furtivos tripulados Su-57. La Fuerza Aérea de Estados Unidos está desarrollando un vehículo aéreo no tripulado similar bajo el programa Skyborg", dijeron analistas de Estados Unidos.

En agosto de 2019 tuvo lugar el primer vuelo del Hunter. Y desde entonces, el proyecto de drones rusos se ha desarrollado a un ritmo rápido...
Источник: Para ver el contenido hay que estar registrado. Registrar o Entrar
En línea
torrestucar
Colaborador portal RKKA
Mariscal
*

Karma: 2646
Mensajes: 10175


« Respuesta #6 : 23 Enero 2021, 21:27:39 »

Para ver el contenido hay que estar registrado. Registrar o Entrar

El holding Ruselectronics de Rostec State Corporation ha desarrollado un sistema de monitoreo inteligente con sensores ópticos multiespectrales para la protección de instalaciones industriales y de otro tipo.
Un complejo de 20 sensores de este tipo puede reemplazar eficazmente 300 cámaras CCTV.
El desarrollo se presenta en una exposición especializada para servicios federales y empresas comerciales, que se realiza en la "Casa de la Óptica" del holding "Shvabe".

El sistema con tecnologías de inteligencia artificial es capaz de detectar, reconocer y rastrear automáticamente al menos 30 objetos simultáneamente. Proporciona análisis y pronóstico de video en tiempo real, y brinda apoyo a la toma de decisiones para los operadores y otros funcionarios.

El sistema consiste en un radar activo que detecta objetos en movimiento y transmite comandos a sensores ópticos que rastrean el movimiento del objetivo en los rangos visible e infrarrojo. El sistema también puede incluir cámaras termográficas con una sensibilidad a la temperatura inferior a 50 mK, por lo que la monitorización se puede realizar en condiciones de oscuridad total.
*
*
*
En línea
Páginas: [1]   Ir Arriba
  Imprimir  
 
Ir a:  

VVS RKKA Topsites List
Powered by MySQL Powered by PHP Powered by SMF 1.1.21 | SMF © 2006-2009, Simple Machines XHTML 1.0 válido! CSS válido!