
Claves de entrenamiento para sistemas simulados para generar confianza militar en AV
- Robotica
- abril 14, 2022
- No Comment
- 47
- 11 minutes read
Continúa la investigación sobre el uso de vehículos autónomos para operaciones militares. Los beneficios son claros, pero para que los sistemas alcancen su máximo potencial, el personal militar debe confiar en los sistemas bajo su control. El entrenamiento del sistema simulado puede ayudar con esto.
Escucha este artículo ![]() |
A medida que avanza la tecnología, los vehículos robóticos y los drones desempeñarán un papel aún más importante en el campo de batalla moderno, desde la exploración de paisajes antes de un ataque hasta la evacuación de soldados heridos. Este equipo puede reducir la exposición de una unidad de primera línea, mejorar el reconocimiento del campo de batalla y enfrentarse a tropas o vehículos enemigos.
Los vehículos autónomos (AV) ofrecen muchas ventajas militares, en particular la capacidad de aumentar las capacidades sin aumentar el riesgo físico. Sin embargo, los vehículos autónomos para uso en escenarios militares, en particular los que contienen armas, deben someterse a pruebas rigurosas antes de usarse en escenarios militares.
Incluso las tecnologías más avanzadas tienen poco que ofrecer en el campo de batalla si los operadores no saben cómo usarlas o no confían en ellas. Investigaciones recientes encontradas sobre las inversiones en inteligencia artificial de los militares una falta crítica de verificación de confianza hombre-máquina.
A medida que el Departamento de Defensa de EE. UU. (DOD) y otras fuerzas armadas de todo el mundo amplían el uso de vehículos autónomos, también necesitan obtener información sobre cómo funciona la interfaz humana-tecnología robótica. Aumentar la confianza de los soldados, mejorar sus competencias básicas y aumentar sus niveles de comodidad con los sistemas habilitados para IA es fundamental para el éxito de la misión. simulaciones
Así es como los militares pueden continuar experimentando y desarrollando vehículos robóticos y cómo esta simulación podría evolucionar durante la próxima década:
I+D para vehículos militares autónomos
El Programa de Investigación Esencial de Inteligencia Artificial para Maniobras y Movilidad (AIMM) del Ejército de EE. UU. continúa desarrollando vehículos de combate robóticos destinados a proporcionar nuevas capacidades de combate. Vehículos totalmente autónomos en acción. Operaciones multidominio y el terreno variado, por ejemplo, eliminará la necesidad de que los soldados dividan su atención entre operar vehículos a control remoto y otras tareas de misión crítica.
Desafíos en curso
El Ejército planea desplegar estos robots armados durante la próxima década, pero aún quedan muchos desafíos, incluida la evaluación de cómo estos vehículos autónomos pueden apoyar mejor a una fuerza militar. Prevenir ciberataques, desarrollar planes de mantenimiento adecuados e identificar la cadena de mando para su control también sigue siendo una prioridad. A medida que los vehículos automatizados se vuelven más comunes en las fuerzas armadas, se convierten en un objetivo, especialmente dada la proliferación de tecnologías y tecnologías estándar actualmente disponibles para el enemigo para tomar represalias.
Problemas adicionales
¿Otro problema? estructura de mando del vehículo. ¿Cómo toma el control cuando, por ejemplo, un oficial encargado de pilotar un vehículo autónomo resulta herido o muere durante el combate? ¿Quién se hace cargo de estas órdenes? Actualmente, las fuerzas armadas están implementando salvaguardias específicas para generar confianza en los soldados en caso de que la persona a cargo original ya no esté disponible. Idealmente, el vehículo continúa tomando las mismas decisiones que un humano en estos escenarios.
El enfoque para monitorear múltiples vehículos automatizados también está evolucionando. A diferencia de los soldados, estos robots y vehículos no pueden explicar dónde están ni proporcionar información sobre la situación. Si están bajo fuego, o no bajo fuego, ¿cómo puede obtener esa actualización de estado sin monitorear sus cámaras las 24 horas del día, los 7 días de la semana? Los vehículos autónomos no están entrenados para informar de la misma manera que las tropas humanas. Entonces, si 20, 30 o 40 de estos vehículos están desplegados activamente en un campo de batalla, ¿cómo identifica un vehículo específico con problemas o enruta adecuadamente esa información para que un soldado pueda solucionar el problema?
Los vehículos autónomos expuestos al caos de la guerra y equipados solo con datos civiles no pueden cumplir con las expectativas.
Entrenamiento para sistemas simulados
La IA autónoma, similar a los soldados reales, requiere entrenamiento. En el mercado civil, los grandes avances en la capacidad de IA han llevado a mejoras en el hardware y la tecnología de IA. Los sistemas de IA también pueden consumir una gran cantidad de datos de entrenamiento verificados. Por ejemplo, la mayoría de los usuarios de Internet se han encontrado con preguntas de seguridad estilo CAPTCHA como «haga clic en todos los autos en la imagen». La seguridad CAPTCHA permite que los sitios web distingan a los humanos de los bots, un tipo de datos de entrenamiento verificados que los sistemas de IA pueden usar para predecir y responder mejor al comportamiento.
Si bien este tipo de recopilación puede generar grandes cantidades de datos de entrenamiento útiles en el mercado civil, el ámbito militar es diferente. Algunos datos recopilados de civiles pueden enseñar a los ingenieros militares cómo comportarse de manera efectiva. Sin embargo, los vehículos autónomos equipados solo con datos civiles y que se enfrentan al caos de la guerra no pueden estar a la altura de las expectativas. No han sido entrenados adecuadamente en este tipo de escenario intensificado.
Un entorno o situación simulada que imita el mundo real puede presentar escenarios como incendios reales, bajas, diferentes reglas de enfrentamiento o comportamiento hostil para enseñar a la IA cómo responder adecuadamente. Lo mejor de todo es que no hay límites para estas variaciones, ya que el sistema puede ejecutar pruebas repetidas sin limitaciones de tiempo o espacio.
La importancia de la confianza
La próxima generación de vehículos terrestres y el desarrollo futuro de vehículos robóticos incluirán equipos diseñados específicamente para escenarios considerados demasiado peligrosos para las tropas humanas. Ejemplos incluyen:
- Misiones de reconocimiento donde el descubrimiento podría resultar mortal.
- Misiones de reconocimiento en áreas como áreas densamente boscosas donde volar drones no es práctico.
- Convoyes en territorio controlado por el enemigo.
Pero los soldados deben confiar en que estos vehículos impulsados por IA funcionen según lo previsto. Entrenar agentes de IA en un entorno simulado muestra el potencial para desarrollar esta confianza en un equipo humano-máquina.
No importa cuánto confíe el ejército en la IA y los vehículos autónomos, incluso los procesos totalmente automatizados siempre necesitarán un ser humano al mando. Ahora más que nunca, el personal militar requiere capacitación en entornos simulados para que los vehículos autónomos/de IA alcancen el estado operativo.
Sobre el Autor
