Sistemas ISTAR - Análisis de sensores ópticos embarcados - Estado del Arte de las Tecnologías - Horizonte Defensa y ...
←
→
Transcripción del contenido de la página
Si su navegador no muestra la página correctamente, lea el contenido de la página a continuación
Sistemas ISTAR – Análisis de sensores ópticos embarcados Estado del Arte de las Tecnologías Cátedra Isdefe-UPM Marzo 2018 – Julio 2018 Madrid, julio de 2018 Marzo 2018 – Julio 2018
Estado del arte de las Tecnologías ÍNDICE 1. INTRODUCCIÓN .................................................................................................................... 2 2. OBJETIVOS ............................................................................................................................. 3 3. TECNOLOGÍAS APLICABLES EN SISTEMAS ISTAR ...................................................... 4 3.1. SENSORES ÓPTICOS ......................................................................................................... 6 3.1.1. TIPOS DE SENSORES ÓPTICOS ........................................................................... 6 3.2. PLATAFORMAS ................................................................................................................. 9 3.2.1. PLATAFORMAS TERRESTRES ............................................................................ 9 3.2.2. PLATAFORMAS NAVALES ................................................................................ 10 3.2.3. PLATAFORMAS AÉREAS ................................................................................... 11 3.2.4. PLATAFORMAS SATELITALES ........................................................................ 12 4. DISEÑO DE LA HERRAMIENTA DE ANÁLISIS .............................................................. 14 4.1. PARÁMETROS TÉCNICOS DE ENTRADA ................................................................... 14 4.1.1. PARÁMETROS DE SENSORES ÓPTICOS ......................................................... 14 4.1.2. PARÁMETROS DE LAS PLATAFORMAS ......................................................... 16 4.2. PARÁMETROS OPERATIVOS DE SALIDA .................................................................. 16 4.3. MODELOS ANALÍTICOS ................................................................................................ 18 4.4. IMPLEMENTACIÓN DE LA HERRAMIENTA .............................................................. 23 5. ANÁLISIS DE ESCENARIOS CON LA HERRAMIENTA ................................................. 26 5.1. ESCENARIO FRONTERIZO ............................................................................................ 27 5.2. ESCENARIO DE INTELIGENCIA SOBRE CONSTRUCCIÓN DE INFRAESTRUCTURAS.. 33 Marzo 2018 – Julio 2018 1
Estado del arte de las Tecnologías 1. INTRODUCCIÓN La innovación y la investigación tecnológica siempre han desempeñado un papel esencial en las estrategias de defensa, buscando nuevos sistemas que permitan cumplir el principal objetivo de proteger a la población y de hacer frente a las amenazas, de una manera más eficiente. La gran cantidad de fuentes y volumen de información junto con este crecimiento de nuevas tecnologías hace que se desarrollen los sistemas ISTAR (Intelligence, Surveillance, Target Acquisition and Reconnaissance). Estos sistemas integran aquellas tecnologías que apoyan misiones militares mediante la vigilancia, adquisición y reconocimiento de objetivos. Su función es obtener información añadida sobre los escenarios de acción de las misiones, complementando el trabajo que realizan otros sistemas de vigilancia. Los sistemas ISTAR están formados por conjuntos de sensores, tanto ópticos como de radiofrecuencia (sensores radar y de guerra electrónica), y por las plataformas en las que se sitúan dichos sensores, como vehículos terrestres, aeronaves o satélites. Debido al continuo avance tecnológico y a la mayor complejidad de los sensores, es importante desarrollar herramientas de análisis que permitan tomar decisiones sobre el diseño de sistemas ISTAR de una forma más sencilla, relacionando los parámetros y características técnicas de los sensores con aquellos parámetros operativos que son requeridos en las misiones ISTAR. En nuestro caso nos centraremos en el análisis de sensores ópticos embarcados en algunas plataformas concretas como son las aeronaves y los satélites. Por todo ello, el propósito principal es diseñar y desarrollar una herramienta para el estudio de distintos sensores ópticos embarcados en plataformas aéreas y satélites, y el análisis del posible uso de estos sistemas en misiones ISTAR. El desarrollo de esta herramienta permitirá seguir el flujo de trabajo que se muestra en la Figura 1. En primer lugar, a partir de las hojas de especificaciones de los distintos sensores y plataformas se eligen aquellos parámetros técnicos que son útiles para estimar las capacidades operativas de las combinaciones entre sensores y plataformas (sistema ISTAR). Estos parámetros se introducen en la herramienta y, a través del análisis de los mismos y del uso de modelos y ecuaciones analíticas, se estiman para dichas combinaciones los parámetros operativos de interés para misiones ISTAR. Una vez conseguido esto, se puede realizar una comparación entre los requisitos operativos necesarios en la misión ISTAR estudiada y los parámetros obtenidos con la herramienta, para poder seleccionar como resultado el sistema ISTAR más adecuado. De esta forma se consigue simplificar la toma de decisión en el diseño de sistemas y planificaciones de misiones ISTAR. Marzo 2018 – Julio 2018 2
Estado del arte de las Tecnologías Figura 1. Flujo de trabajo para el análisis de sistemas ISTAR (sensor + plataforma) utilizando la herramienta desarrollada. 2. OBJETIVOS El objetivo principal de este trabajo es el diseño y desarrollo de herramientas que permitan analizar y evaluar, a partir de sus características técnicas, las capacidades operativas de distintos tipos de sensores ópticos (cámaras de espectro visible, cámaras infrarrojas y cámaras hiperespectrales) embarcadas en diferentes plataformas. Para ello se han planteado los siguientes objetivos: - Desarrollo de un estado del arte de la tecnología mediante la recopilación de información sobre los sistemas ISTAR, sus características, sus funciones y sus tecnologías, más concretamente sobre sensores optrónicos (infrarrojos, de rango visible e hiperespectrales) embarcados en plataformas como aeronaves o satélites. - Diseño e implementación de una herramienta de análisis a partir de los parámetros de distintos sensores optrónicos (field of view, número de pixels, instantaneous field of view, frames per second, ...) y de las plataformas (velocidad de vuelo, altura de vuelo, etc.) para obtener como resultado aquellos conjuntos más compatibles para desarrollar un sistema ISTAR con las especificaciones operativas deseadas (probabilidad de detección, probabilidad de falsa alarma, probabilidad de identificación, alcance de detección, resolución espacial, velocidad de refresco de la información, área cubierta, etc.). - Proponer y analizar escenarios operativos ISTAR con el objetivo de obtener resultados acerca de qué sensor y plataforma son los que mejor se adaptan a cada uno de los escenarios o cuáles cumplen algún requisito determinado. - Analizar los resultados obtenidos e identificar las limitaciones que puedan tener y las necesidades que no estén cubiertas, proponiendo posibles mejoras para el futuro, para elaborar las conclusiones del trabajo. Marzo 2018 – Julio 2018 3
Estado del arte de las Tecnologías 3. TECNOLOGÍAS APLICABLES EN SISTEMAS ISTAR En un contexto en el que los avances tecnológicos en el ámbito civil se solapan cada vez más con los militares y debido al gran avance tecnológico del mundo actual, la tecnología utilizada para defensa y seguridad se ve obligada a actualizarse de forma rápida y desarrollar nuevos mecanismos y soluciones, como nuevos sistemas ISTAR, que se adapten a cada situación y escenario con el objetivo de realizar las misiones operativas asociadas de la manera más eficaz [5]. Estos sistemas ISTAR engloban la adquisición de información en misiones militares mediante inteligencia y vigilancia, detección y reconocimiento de objetivos. Su función principal es obtener información útil a partir de este reconocimiento y vigilancia para tomar las mejores decisiones en cada situación. Están estructurados en áreas que realizan las diferentes funciones para obtener esta información en relación al escenario en el que se encuentren [8]: a) La adquisición de los datos mediante un sensor incluye todas las fuentes que permiten captar la información y el procesamiento de estos datos dentro del sensor. b) El procesamiento y la explotación de los datos incluye las actividades necesarias para analizar la situación y la información, y, a partir de esta, evaluar el desarrollo de mejoras sobre el sistema. c) La distribución de la información es esencial para el buen funcionamiento de los sistemas en cada momento. Aquí se incluyen los aspectos más relevantes de la implementación de todo el sistema de transmisión. Los sistemas ISTAR están formados por la combinación de sensores con las plataformas donde estos están embarcados. Un sensor es un dispositivo utilizado para medir algún parámetro físico y, a partir del procesamiento de esta información, proporcionar datos a un sistema superior. En el ámbito de la seguridad y la defensa se emplean por su gran capacidad de localizar y detectar ciertas señales u objetos. Existen dos tipos principales de sensores: a) Sensores activos: son aquellos que generan su propia radiación y reciben los ecos que se producen al reflejarse dichas señales en los blancos. Por ejemplo: el radar o el lidar (tecnología láser). b) Sensores pasivos: son aquellos que reciben radiación emitida por otras fuentes, como la de Sol que se refleja en los objetos o en la superficie terrestre, o la radiación emitida por los propios cuerpos, como por ejemplo las cámaras de espectro visible o de infrarrojos. Dentro de los sensores pasivos se encuentran los sensores fotográficos, que son el medio más utilizado en teledetección, escáneres de barrido y escáneres de empuje (más utilizados en satélites), y también destacan las cámaras de vídeo y los sensores radiómetros de microondas [3]. Marzo 2018 – Julio 2018 4
Estado del arte de las Tecnologías El uso de sensores pasivos ha aumentado en equipos de defensa y guerra electrónica debido a que presentan la ventaja de ser menos detectables que los sensores activos, ya que no son fuentes de radiación. Por este motivo, al no conocer su posición, es más difícil que sean interferidos por equipos de guerra electrónica. Como desventaja, estos sensores deben ser sensibles a las bandas de frecuencia determinadas por los objetivos deseados. Es habitual que en los sistemas existan sensores de ambos tipos para obtener las mejores prestaciones [1]. En los sistemas ISTAR suelen integrarse distintos tipos de sensores con diferentes principios de medida y funcionalidades, que se resumen en la Tabla 1: a) Ópticos: en cuyo análisis se centra este trabajo y cuyas características y tipos se detallan a continuación. b) Radar: sensor de tipo activo muy utilizado en misiones ISTAR que se basa en la emisión de señales de radiofrecuencia y en la recepción de las reflexiones que se producen en los objetos del escenario. Se distinguen los radares GMTI (Ground Moving Target Indicator), que se centran en la detección de blancos móviles ocultos en clutter, y los radares SAR (Synthetic Aperture Radar) embarcados generalmente en plataformas aéreas para obtener imágenes de la superficie terrestre o marítima. Utilizan, por tanto, ondas electromagnéticas para medir distancias, altitudes, velocidades de objetos móviles, reflectividad, etc. Estos sensores, aunque generalmente presentan una menor resolución que los sensores ópticos, se ven menos afectados por las condiciones meteorológicas y por la situación de luminosidad (día o noche). c) Acústicos: utilizados para detectar y clasificar blancos o prevenir amenazas mediante ondas sonoras, como ruidos de vehículos o de explosiones. d) Sensores de guerra electrónica: estos son utilizados para la intercepción de señales de RF en comunicaciones o transmisiones. Por ejemplo, se emplean para la localización de fuentes de emisiones radar y para la estimación de los parámetros de la forma de onda utilizada. TIPO DE SENSOR PRINCIPIO DE MEDIDA FUNCIONALIDAD Medida de la radiación en las Localización, identificación y Ópticos bandas ópticas seguimiento de blancos Medida de las reflexiones Localización, clasificación y Radar producidas en los blancos de la seguimiento de blancos señal de radiofrecuencia emitida Medida de sonidos y señales Detección y clasificación de blancos, Acústicos acústicas (ondas de presión) explosiones o disparos. Marzo 2018 – Julio 2018 5
Estado del arte de las Tecnologías Detección y clasificación de Medida de emisiones de Guerra electrónica emisiones de radiofrecuencia. radiofrecuencia Interceptación de comunicaciones Tabla 1. Tipos de sensores que se integran en los sistemas ISTAR Para mejorar la capacidad del sistema completo y obtener mejores resultados, a la hora de procesar los datos se utiliza a menudo la fusión de datos obtenidos de distintos tipos de sensores complementarios (por ejemplo, radar-ópticos-acústicos). 3.1. SENSORES ÓPTICOS Un sensor óptico es aquella tecnología utilizada para captar imágenes a distancia de diferentes objetos mediante la emisión de un haz de luz que es reflejado en el objeto que se quiere detectar. Estos sensores se están utilizando cada vez más en sistemas para defensa y seguridad debido a su precisión a la hora de localizar objetivos y escenarios. Además, los sensores optoelectrónicos destacan por su capacidad de trabajar de forma pasiva o activa, permitir formación de imágenes en tiempo real con técnicas convencionales y su peso y tamaño pequeño, lo que facilita su integración en equipos. También presentan algunos inconvenientes. El más significativo es la influencia de las condiciones ambientales, donde la presencia de lluvia, niebla o humo limita su alcance o los inutiliza. A veces, este hecho hace necesario el uso de otro tipo de sensores de apoyo como radares, cuyas señales de menor frecuencia sufren una menor atenuación en dichas situaciones. Además de esto, su fragilidad, su elevado coste de desarrollo, su pequeña capacidad de penetración en escenarios con vegetación densa o su limitado tiempo de vida también suponen limitaciones en estos dispositivos. A pesar de todo esto, su utilización aumenta de forma continua y son numerosas sus aplicaciones en localización e identificación de objetivos, navegación, teledetección, etc. Destacan equipos como visores diurnos y nocturnos, cámaras térmicas, seguidores de infrarrojos o radares láser [1]. 3.1.1. TIPOS DE SENSORES ÓPTICOS Los sensores ópticos pueden obtener información de distintas regiones del espectro, en función del rango espectral existen: a) Sensores de espectro visible: Presentan respuestas a la parte del espectro que es visible para el ojo humano, es decir, toman imágenes de radiación (luz) visible. El espectro de luz visible se encuentra entre la luz violeta de longitud de onda de 400nm y la luz roja de 700nm [2]. Los sensores de espectro visible se encuentran en una gran variedad de ámbitos, tanto civiles como militares, y embarcados en distintos tipos de plataformas. Un ejemplo de este tipo de sensores es el OLCI (Ocean and Land Colour Instrument) que se encuentra embarcado en el satélite de observación terrestre Sentinel-3, el cual forma parte del Programa Copernicus desarrollado por la Agencia Espacial Europea (ESA). Este sensor está basado en el diseño del MERIS (Medium Resolution Imaging Spectrometer) Marzo 2018 – Julio 2018 6
Estado del arte de las Tecnologías embarcado en la plataforma Envisat, cuya misión finalizó en el año 2012, y el cual recogía información de la superficie terrestre en el rango visible mediante cinco cámaras repartidas por la plataforma [15]. El sensor OLCI, mostrado en la Figura 2, se encarga de recoger imágenes de la Tierra también a través de cinco cámaras, ofreciendo un campo de visión amplio, y trabaja en 21 bandas del espectro tanto de rango visible como de infrarrojo cercano (0.4-1.02 µm) [14]. Por esto se podría decir que es un sensor hiperespectral, pero este contiene menos bandas que otros sensores hiperespectrales, incluyendo su mayor parte en el rango visible. Además de este sensor, el satélite Sentinel-3 incluye también otros tipos de sensores para obtener la información de la superficie terrestre y oceánica. Figura 1. Ejemplo de sensor óptico de espectro visible: (izq.) Sentinel-3 OLCI Instrument [24] y (dcha.) satélite Sentinel-3 [25]. b) Sensores de infrarrojos: Estos sensores ofrecen respuesta a aquella parte del espectro que no es visible para el ojo humano y, además, cuya frecuencia es inferior a la zona visible del espectro. Estos sensores abarcan longitudes de onda entre 750nm y 1mm [2]. Son capaces de localizar objetivos a través de la temperatura de los mismos debido a la emisión de los cuerpos en la banda del infrarrojo. Como en el caso anterior, también existen multitud de sensores infrarrojos destinados a diferentes funciones. En el ámbito militar su uso está muy extendido, por ejemplo, el sistema SeaFLIR 280-HD, que se muestra en la Figura 3, ofrece grandes prestaciones en vigilancia marítima. Este sensor obtiene toda la información necesaria en misiones ISTAR en alta definición incluso en situaciones donde haya niebla, bruma o humo, al contrario que otros sensores. Trabaja con cuatro cámaras simultáneamente junto con tres láseres y una unidad de medida muy precisa. Además de esto, tiene un buen sistema de estabilidad por lo que ofrece imágenes con detalles claros, aunque las condiciones del mar sean extremas [16]. Marzo 2018 – Julio 2018 7
Estado del arte de las Tecnologías Figura 2. Ejemplo de sensor de infrarrojos: (izq.) Sensor SeaFLIR 280-HD y (dcha.) Ejemplo de imágenes obtenidas con el sensor [23]. c) Sensores hiperespectrales: Se trata de una tecnología emergente de reciente desarrollo y continuo crecimiento. Ofrecen la ventaja de operar en distintas bandas de frecuencia a la vez, por lo que solventan algunas limitaciones de otros tipos de sensores, facilitando, por ejemplo, las tareas de clasificación de los blancos detectados al disponer de una mayor información espectral. Normalmente, las plataformas donde van embarcados este tipo de sensores son plataformas aéreas o plataformas espaciales, ya que de esta forma se puede escanear una zona (en general toman la información fila a fila de la imagen utilizando un array de sensores). Aunque, en un principio, la resolución de los sensores en plataformas aéreas era más alta, cada vez se está equiparando más con la resolución de los sensores embarcados en satélites [10]. Cada pixel de la imagen obtenida contiene todas las longitudes de onda del rango del sensor utilizado [10]. Con respecto al procesado de la imagen, este es más complejo que en otros tipos de sensores ya que al recoger información de varias bandas del espectro para cada píxel, se requiere una elevada carga computacional y apenas existen sistemas que trabajen en tiempo real. Como alternativa se podría realizar una observación de la zona, tomar la información y más adelante procesarla. Como ejemplo, encontramos el sensor hiperespectral “HyMap”, representado en la Figura 4. Es un sistema formado por cuatro espectrómetros que abarcan bandas del espectro entre los 450 nm y los 2450 nm, cubriendo casi 130 bandas con una anchura de entre 15 y 18 nm. Además, el sensor incluye un sistema de calibración utilizado para controlar la estabilidad de la señal [11]. Este sensor fue utilizado por el ejército de Estados Unidos embarcado en un avión WB-57 de la NASA para la detección de explosivos en una zona de Afganistán, aunque también se ha utilizado para localizar recursos minerales. Marzo 2018 – Julio 2018 8
Estado del arte de las Tecnologías Figura 3. Ejemplo de sensor hiperespectral: (izq.) Sensor HyMap [11] y (dcha.) avión WB-57 de la NASA en el que se embarca [31]. Para el uso de los sensores pasivos de espectro visible e hiperespectrales hay que tener en cuenta tanto las horas de luz de cada zona de la Tierra como el ángulo de incidencia y las condiciones de la atmósfera, ya que la información a obtener de ellos depende de la luz solar reflejada en la superficie terrestre [10]. Para los sensores infrarrojos no hay que tener en cuenta la luz solar ya que con ellos se mide la radiación que emiten los propios objetos por su temperatura. 3.2. PLATAFORMAS Las plataformas de los sistemas ISTAR son el soporte de los sensores para la detección de objetivos. Según la zona en la que se sitúan estas plataformas para su función, hay distintos tipos con características específicas en cada caso: plataformas terrestres, plataformas navales, plataformas aéreas y plataformas espaciales. Aunque cada tipo de plataforma se suele utilizar en ámbitos diferentes, se está aumentando el uso de sistemas que incluyen distintos tipos de plataformas con el objetivo de obtener mejores resultados y para compensar las posibles desventajas de cada uno [9]. Además de estas plataformas, todas ellas tripuladas, actualmente se están desarrollando sistemas que permiten integrar plataformas con posibilidad de realizar sus funciones sin necesidad de llevar un piloto a bordo. Esto supone un avance en aquellas misiones que pueden poner en riesgo al ser humano como el acceso y reconocimiento del terreno en zonas de guerra. En este trabajo se ofrece información sobre todos los tipos de plataformas pero centraremos el estudio en las plataformas aéreas y satelitales. 3.2.1. PLATAFORMAS TERRESTRES Las plataformas terrestres son aquellas plataformas que operan en contacto con el suelo. Son las plataformas más sencillas de desplegar y ofrecen información del terreno desde una distancia más corta. Esto provoca que el campo de visión sea más reducido, por lo que en ocasiones estas plataformas se apoyan en otras como las plataformas aéreas para salvar este inconveniente. Marzo 2018 – Julio 2018 9
Estado del arte de las Tecnologías Estos vehículos, como se muestra en la Figura 5, utilizan tecnología que permite tanto reconocer la zona (cámaras infrarrojas, cámaras de visión nocturna, etc.) como gestionar la navegación del propio vehículo (sistemas GPS de gran precisión y sistemas de medida inerciales). También en este caso se desarrollan plataformas no tripuladas, denominadas UGV (Unmanned Ground Vehicle), donde los sensores embarcados permitirán que tome decisiones de forma autónoma o controlarlo a distancia a través de un operador humano [9]. Figura 4. Ejemplo de una plataforma terrestre y del sistema ISTAR embarcado compuesto por un sistema radar y múltiples sensores ópticos desarrollado por INDRA [19]. 3.2.2. PLATAFORMAS NAVALES Estas plataformas tienen el objetivo de reconocer y monitorizar zonas acuáticas, y en ocasiones sirven de apoyo para equipos de salvamento. Además, se desarrollan sistemas de plataformas navales como apoyo a plataformas aéreas y viceversa, como el Buque de Proyección Estratégica Juan Carlos I, mostrado en la Figura 6. Las plataformas navales se dividen en dos grupos: de superficie (embarcaciones) y submarinas. Al igual que con otras plataformas, se desarrollan aquellas no tripuladas, también divididas en dos grupos: USV (Unmanned Surface Vehicle) y UUV (Unmanned Underwater Vehicle) [9]. Marzo 2018 – Julio 2018 10
Estado del arte de las Tecnologías Figura 5. Buque de Proyección Estratégica Juan Carlos I como ejemplo de una plataforma naval que permite embarcar sistemas ISTAR [29]. 3.2.3. PLATAFORMAS AÉREAS Estas incluyen las plataformas aéreas convencionales como aviones o helicópteros cuya función en misiones ISTAR es la de reconocer el terreno y localizar objetivos. Estas plataformas tienen la ventaja de realizar su función de una manera más rápida que el resto de plataformas y, además, obteniendo un campo de visión mucho más amplio para la obtención de información sobre una zona más extensa y con mayor resolución que otras plataformas como los satélites. Esto permite que también actúen como plataformas de apoyo a otros tipos como las terrestres o las navales en sistemas cooperativos. En este apartado se incluyen también aquellas plataformas aéreas no tripuladas, cuyo desarrollo se encuentra más avanzado que en otras áreas. Los UAVs (Unmanned Aerial Vehicle) son aeronaves no tripuladas, cuyo primer desarrollo fueron los RPAS (Remotely Piloted Aircraft System) los cuales son tripulados a distancia por un operador humano e incluyen tecnologías de detección y de gestión de posibles problemas [4]. Actualmente existen también UAVs no controlados de forma remota, si no que sus movimientos y navegación se realizan de manera autónoma a partir de sus sensores embarcados. El uso de los UAVs es frecuente y seguirá aumentando tanto en el ámbito civil como en el ámbito militar. En este último caso se suelen denominar UCAV (Unmanned Combat Aerial Vehicle), su principal objetivo es realizar vigilancia del terreno de una manera eficaz evitando el riesgo para las personas que pueden tener las zonas de conflictos, se limitan a cumplir su misión sin que exista la necesidad de recuperar la plataforma de forma íntegra [9]. Un ejemplo de plataforma aérea es el UAV Predator, mostrado en la Figura 7. Este vehículo no tripulado ha sido utilizado por operadores de distintos países, pero sobre todo por la Fuerza Aérea de los Estados Unidos y existen diferentes versiones del mismo. En nuestro caso estudiamos el MQ-1, el cual es un sistema que, volando a media altura, es utilizado para vigilancia y reconocimiento del terreno en algunas misiones [13]. Para realizar esta vigilancia, lleva embarcado el sistema multiespectral AN/AAS-52 MTS (Multi-Spectral Targeting System) en el cual hay Marzo 2018 – Julio 2018 11
Estado del arte de las Tecnologías integrados sensores electro-ópticos, infrarrojos y láser, además de iluminadores o cámaras de color, lo cual permite obtener imágenes en tiempo real como apoyo a las misiones [12]. Este sistema también se encuentra integrado en otras plataformas como en los helicópteros MH-60R, también utilizados por la armada estadounidense. Figura 6. UAV predator (sup.) [20], sistema multiespectral AN/AAS-52 MTS (inf. Izq.) [21] y helicópteros MH-60R (inf. dcha.) [22]. 3.2.4. PLATAFORMAS SATELITALES Las plataformas satelitales se utilizan para la vigilancia y la observación de determinadas zonas de la Tierra además del despliegue de comunicaciones y de sistemas de navegación [7]. La gran ventaja de estas ante el resto de plataformas es la cobertura global de la Tierra que se puede obtener en las imágenes y la observación de la misma en diferentes escalas, además de una comunicación y transmisión de información más segura. En el ámbito de defensa se busca también el desarrollo de pequeños satélites con el objetivo de que su desarrollo sea rápido y el coste más bajo, además con esto se quiere conseguir una disponibilidad y un despliegue de una manera más rápida [4]. En este tipo de plataformas hay que tener en cuenta que los satélites siguen un movimiento continuo siguiendo su órbita, por lo que captan imágenes de la misma zona de la Tierra cada cierto tiempo. Esto junto con el movimiento de rotación de la Tierra hace que se pueda cubrir toda la superficie terrestre dependiendo de la altura y del campo de visión del sensor [3]. Como en otras plataformas, desde los inicios estas tenían embarcados sensores de tipo pasivo, como cámaras fotográficas, escáneres y cámaras de vídeo multiespectrales; y sensores de tipo Marzo 2018 – Julio 2018 12
Estado del arte de las Tecnologías activo, como radar o lidar [3]. Actualmente estos sensores se han ido desarrollando con tecnologías nuevas como, por ejemplo, cámaras hiperespectrales que pueden captar imágenes en distintas bandas de frecuencia simultáneamente. Como ejemplo de este tipo de plataformas introducimos el satélite Ingenio, mostrado en la Figura 8. Este satélite, aunque principalmente está orientado a ámbitos civiles, servirá de apoyo al satélite Paz, lanzado recientemente y destinado a seguridad y defensa. Al contrario que el satélite Paz, dotado con tecnología radar, el satélite Ingenio llevará embarcados sensores ópticos. Su función consistirá en la captura de imágenes multiespectrales y de alta resolución del territorio español con un tiempo mínimo de revisita. Se espera que esté operativo en 2020 con un tiempo de vida de siete años. Como carga útil tendrá embarcado un sistema óptico que tomará las imágenes terrestres en dos canales, uno pancromático (blanco y negro) y uno multiespectral de cuatro bandas (azul, verde, rojo y NIR) [17]. Figura 7. Sistema de sensores ópticos del satélite INGENIO (izq.) [27] y representación 3D del futuro satélite INGENIO (dcha.) [28]. Otro ejemplo es el satélite Tac-Sat-3, representado en la Figura 9. Esta plataforma es la tercera de una serie de satélites de reconocimiento utilizados por el ejército de Estados Unidos para misiones ISTAR. Entre otros avances respecto a satélites anteriores de esta serie, el Tac-Sat-3 incluye el sensor hiperespectral ARTEMIS (Advanced Rasponsive Tactically Effective Military Imaging Spectrometer). El sensor captura información desde el rango visible hasta parte del rango de infrarrojos, y puede comparar esta información con el espectro de ciertos objetos conocidos para identificar zonas de interés de forma muy rápida [18]. Figura 9. Satélite Tac-Sat-3 (izq.) y sensor hiperespectral ARTEMIS (dcha.) [26]. Marzo 2018 – Julio 2018 13
Estado del arte de las Tecnologías 4. DISEÑO DE LA HERRAMIENTA DE ANÁLISIS Para el análisis de estos sensores y plataformas descrito en el capítulo anterior, se ha desarrollado una herramienta en la que, introduciendo parámetros técnicos de entrada, tanto de sensores como de plataformas, se obtiene de salida determinados parámetros operativos. Estos parámetros operativos se comparan con aquellos parámetros útiles para los operadores de los sistemas ISTAR y con los requisitos operativos propios de las misiones ISTAR. El objetivo de esta herramienta es, a partir de este desarrollo, seleccionar el sistema ISTAR (combinación de sensor y plataforma) más adecuado para cada misión y escenario. En las misiones ISTAR se tienen en cuenta algunos parámetros propios de los sistemas de vigilancia y defensa, necesarios para el desarrollo de las mismas. Algunos de estos son alcance, probabilidad de detección o velocidad máxima alcanzable. 4.1. PARÁMETROS TÉCNICOS DE ENTRADA Son los parámetros obtenidos de las hojas de especificaciones de los diferentes sensores y plataformas utilizados en los sistemas ISTAR. A partir de estos parámetros y mediante modelos y ecuaciones analíticas se pueden obtener los parámetros operativos adecuados para la selección de sistemas para misiones ISTAR. 4.1.1. PARÁMETROS DE SENSORES ÓPTICOS • FOV (Field of view) El campo de visión mide la amplitud angular del área que un sensor es capaz de visualizar. En los sensores ópticos la distancia focal del objetivo influye en el campo de visión, ya que un objetivo con distancia focal pequeña puede captar más escena y por lo tanto muestra un campo de visión más amplio, mientras que un objetivo con distancia focal más larga amplía más la escena y, por lo tanto, reduce el campo de visión [31]. En función del FOV, se suelen distinguir dos tipos de sensores ópticos o dos modos de operación: (1) de FOV ancho, cuando la imagen cubre un sector angular grande pero generalmente con menor resolución y, por tanto, menor alcance de detección de objetos, y (2) de FOV estrecho, cuando se aplica un elevado zoom y la imagen cubre un sector angular reducido pero con mayor resolución, aumentando el alacance de detección del sensor. • IFOV (Instantaneous field of view) Es el llamado campo de visión instantáneo del sensor. Corresponde al campo de visión de un píxel de la imagen y se mide habitualmente en miliradianes (mrad) [35]. El IFOV es una medida de la resolución angular de la cámara utilizada y se calcula mediante la siguiente expresión, según se muestra en la Figura 10. Marzo 2018 – Julio 2018 14
Estado del arte de las Tecnologías [ ] [ ] = ⁄ Figura 10.Relación entre el FOV, el IFOV y el número de píxeles. Al utilizar plataformas satelitales, debido a que la altura del sensor es constante (altura orbital) y muy elevada, en algunos casos pueden dar como parámetro la resolución espacial en lugar del campo de visión instantáneo (IFOV). En estos casos, ambos parámetros se encuentran relacionados aproximadamente por la siguiente expresión: ∆ = [ ] · ℎ • Número de pixeles Indica la cantidad de pixeles que contiene la imagen captada por el sensor. Las cámaras de espectro visible o las cámaras infrarrojas capturan típicamente imágenes en 2D mediante una matriz de detectores fotosensibles, por lo que las cámaras suelen presentar un número de píxeles para el ancho y para el largo de las imágenes. Sin embargo, las cámaras hiperespectrales actuales suelen capturar línea a línea mediante un array de detectores, y la imagen en dos dimensiones se conforma mediante el movimiento de la plataforma y la captura sucesiva de líneas (modo de operación pushbroom) [36]. Además, se asumen que los píxeles son cuadrados. • fps (Frames per second) También llamado “cuadros por segundo”, indica la velocidad a la que el sensor puede recoger información del objetivo en forma de imágenes. • Resolución espectral Indica el número y el ancho de las bandas del espectro electromagnético en las que trabaja el sensor. Este parámetro es importante en los sensores hiperespectrales, ya que la información que ofrecen depende de las bandas que utilizan. Una mayor resolución espectral implica una mayor información sobre la imagen pero a su vez implica un mayor volumen de datos y más tiempo de procesamiento [32]. Marzo 2018 – Julio 2018 15
Estado del arte de las Tecnologías • Longitud de onda (λ) Rango de longitudes de onda en las que trabajan los sensores. A partir de este parámetro se hace la clasificación de los diferentes sensores (visibles, IR e hiperespectrales). 4.1.2. PARÁMETROS DE LAS PLATAFORMAS • Velocidad Velocidad del movimiento de la plataforma. Toda plataforma tiene un máximo de velocidad a la que puede desplazarse. En el caso de los satélites, su velocidad orbital es constante y depende de la altura a la que se encuentre dicho satélite. • Altura Altura con respecto al nivel del mar a la que una plataforma puede ser desplegada, en el caso de plataformas aéreas, o altura de la órbita, en el caso de los satélites. La posición elevada de las plataformas aéreas o satelitales permite disminuir drásticamente los problemas de bloqueo de la línea de visión que se producen en los sensores situados sobre la superficie terrestre o marítima, además de disponer de un mayor horizonte visual. • Duración o tiempo de servicio Tiempo durante el que una plataforma puede estar operando de forma continuada. En el caso de los satélites indica el tiempo de vida del satélite o el tiempo previsto de la misión espacial. Para las plataformas aéreas, el tiempo de servicio suele venir limitado por la capacidad de las baterías o los depósitos de combustible. • Estabilidad de la plataforma Además de estos parámetros, se tiene en cuenta que toda plataforma utilizada para misiones ISTAR tiene una estabilidad adecuada para que el funcionamiento de los sensores embarcados sea óptimo. 4.2. PARÁMETROS OPERATIVOS DE SALIDA Estos parámetros son los que nos permiten analizar las capacidades de los posibles sistemas ISTAR y comprobar si son adecuados para cada misión. Esto se realiza mediante la comparación de estos parámetros operativos con los parámetros que requiere la propia misión para realizarse con éxito. • Probabilidad de detección, clasificación o identificación La probabilidad de detección mide la capacidad del sensor determinar la presencia de un objeto a partir de las imágenes capturadas. A su vez, las probabilidades de clasificación e identificación se Marzo 2018 – Julio 2018 16
Estado del arte de las Tecnologías refieren, respectivamente a la capacidad del sensor de determinar adecuadamente el tipo de blanco detectado y su identidad. En general, dependen del número de pares de línea que ocupa el objeto en la imagen. Se consigue una mayor probabilidad de detección, clasificación o identificación cuando el objeto ocupa un mayor número de pares de líneas. • Alcances de detección, clasificación o identificación Mide las distancias máximas a la que se pueden detectar, clasificar o identificar un objetivo de interés determinado. Depende del tamaño de dicho objetivo y del campo de visión instantáneo (IFOV). • Altura máxima Mide la altura máxima a la que se puede encontrar una plataforma para poder detectar un objetivo con una resolución deseada. • Velocidad máxima de vuelo limitada por la velocidad de captura de imágenes Mide la velocidad máxima que puede alcanzar una plataforma para que el sensor embarcado en ella pueda obtener suficientes imágenes de un objetivo para que este sea detectado, clasificado e identificado si las imágenes presentan suficiente resolución para ello. En general, se asume que para que un operador detecte un objeto en una secuencia de imágenes, se requieren al menos 5 imágenes sucesivas en las que aparezca el objeto. Los algoritmos de detección y clasificación autónomos permiten trabajar con un menor número de imágenes del objetivo, incluso sólo con una o dos imágenes. Por tanto, este parámetro depende de los fps que toma el sensor, del FOV y del número de imágenes sucesivas del objeto que se requieren para su detección, identificación y clasificación. • Tamaño mínimo detectable Este parámetro mide la longitud mínima de un objeto que puede ser detectado por un sensor óptico embarcado en una plataforma satelital. Este depende de la altura a la que se encuentra dicho sensor, en este caso la altura orbital, y del campo de visión instantáneo (IFOV). • Área de cobertura Mide la parte del terreno que abarca el sensor en cada imagen y depende de la altura a la que se encuentre dicho sensor. También podemos obtener el ancho del área por unidad de tiempo para el modo de operación pushbroom de las cámaras hiperespectrales. • Resolución espacial Mide la distancia de la superficie terrestre más pequeña que puede ser captada por el sensor. Está representada por un píxel y normalmente se expresa en metros. Además, depende de la distancia entre el sensor y la superficie de la Tierra, del ángulo de visión o del campo de visión instantáneo Marzo 2018 – Julio 2018 17
Estado del arte de las Tecnologías (IFOV). En el caso de las plataformas satelitales, los parámetros de los que depende la resolución espacial son prácticamente fijos, por lo que esta se puede considerar constante [32]. • Tiempo de revisita Tiempo que tarda la plataforma en pasar por la misma zona del terreno para obtener información similar de esta. También indica el tiempo que puede tardar una plataforma aérea en recorrer una cierta área de terreno [32]. 4.3. MODELOS ANALÍTICOS Los modelos definen las ecuaciones analíticas y los cálculos necesarios para obtener los parámetros operativos de salida a partir de los parámetros técnicos de sensores y plataformas. • Criterio de Johnson El Criterio de Johnson se utiliza para estimar los alcances de detección, clasificación e identificación de un cierto sensor óptico. Como criterio principal se utiliza el número de pares de líneas (una línea blanca y una negra) necesarias para discriminar un objetivo [33]. Existen diferentes grados de discriminación (DRI) y el Criterio de Johnson fija el número medio de pares de líneas necesario para conseguir una probabilidad de acierto del 50% en cada uno de los grados: - Detección: capacidad de distinguir si hay o no un objeto presente en la zona. Se necesitan una media de 1 ± 0,25 pares de líneas. - Reconocimiento: capacidad para clasificar el objetivo entre personas, animales o vehículos, por ejemplo. En este caso, son necesarias una media de 4 ± 0,8 pares de líneas. - Identificación: capacidad de diferenciar diferentes detalles en el objeto. De esta manera se pueden diferenciar distintos objetos de la misma clase. Se necesitan una media de 6,4 ± 1,5 pares de líneas. Por tanto, a partir del Criterio de Johnson se conoce el mínimo número de pares de líneas necesarias para discriminar un objeto con una probabilidad del 50%. Sin embargo, para obtener la probabilidad de discriminación con otros porcentajes se utiliza la siguiente expresión [34]: ( ) 50 = (1) 1+( ) 50 Siendo la probabilidad de discriminación obtenida cuando el objeto ocupa pares de líneas y 50 el número de pares de líneas del criterio de Johnson para conseguir una probabilidad del 50%. A su vez, es un factor de escala y viene dado por la ecuación: Marzo 2018 – Julio 2018 18
Estado del arte de las Tecnologías = 2,7 + 0,7 · (2) 50 El número de pares de líneas depende del grado de discriminación del blanco, siendo mayor el número necesario de líneas conforme aumenta la información visual que se requiere del blanco, como se observa en la Figura 11. 1 0,9 Probabilidad de discriminación 0,8 Probabilidad de 0,7 detección 0,6 0,5 Probabilidad de reconocimiento 0,4 0,3 Probabilidad de 0,2 identificación 0,1 0 0 2 4 6 8 10 12 14 16 18 20 Número de pares de líneas Figura 11. Probabilidad de discriminación de un objeto en función del número de pares de líneas. Por ejemplo, cuando se requiere una probabilidad de discriminación del 90%, se necesitan aproximadamente 2 pares de líneas para detección, 7 pares de líneas para reconocimiento y 14 pares de líneas para identificación. • Determinación del alcance máximo A partir de los cálculos anteriores con el Criterio de Johnson, se puede calcular el alcance máximo al que se puede discriminar un objetivo. Esto depende de la longitud más pequeña del objetivo ( ) en las coordenadas de la imagen, además del número de pares de líneas necesario y las características del sensor utilizado. Se obtiene mediante la siguiente expresión [35]: = [ ] (3) 2· [ ] · 0,7 Siendo el número de pares de línea necesarias para conseguir una probabilidad de discriminación específica, obtenido a partir de las curvas de la Figura 11. El factor de 0,7 es un valor empírico para transformar el valor de número de líneas necesario a número de píxeles. El número aproximado de píxeles asociado a un requisito específico de pares de líneas es, en general, el doble, en condiciones de perfecto alineamiento entre el sensor y el objetivo. Sin embargo, en condiciones de operación se supone que cada píxel equivale a 0,7 líneas [35]. Marzo 2018 – Julio 2018 19
Estado del arte de las Tecnologías • Determinación de la altura máxima Para plataformas aéreas, dada la resolución deseada para discriminar (detectar, reconocer o identificar) un objetivo ( ℎ ), es posible calcular la altura máxima a la que el sensor es capaz de ofrecer una imagen de dicho objetivo con esa resolución. La máxima altitud a la que el sensor se puede utilizar en esa situación viene daba por la expresión [34]: ℎ ℎ = [ ] (4) [ ] 2 · ( ) 2 La resolución deseada para discriminar al objetivo viene dada por la longitud mínima del objeto, relacionada con su tamaño, y el número de píxeles necesarios, dados por el criterio de Johnson: ℎ = [ ] (5) í • Determinación de la velocidad máxima La velocidad máxima que puede alcanzar una plataforma para obtener imágenes de un objetivo con una resolución deseada ( ℎ ) puede estar limitada por la velocidad de la propia plataforma o por el tipo de sensor que lleve embarcados. En el caso de los satélites su velocidad viene fijada por la velocidad orbital, ya que su velocidad es constante a la altura a la que se encuentra la órbita. Sin embargo, en las plataformas aéreas la velocidad es variable, teniendo siempre una velocidad máxima límite. Según el tipo de sensor embarcado en la plataforma, la velocidad de esta puede estar limitada de una manera u otra. En el caso de los sensores hiperespectrales en los que la imagen se obtiene escaneando línea a línea el terreno (modo de operación pushbroom), la velocidad máxima depende de la resolución requerida (tamaño de los píxeles) y de la frecuencia de toma de líneas por parte del sensor, que en este caso corresponde con el parámetro fps de las cámaras hiperespectrales. Si la velocidad es muy alta pueden quedar zonas del terreno sin visualizar. La velocidad máxima se calcula mediante la expresión [34]: = · ℎ [ / ] (6) Sin embargo, para cámaras de espectro visible e infrarrojo, si la detección de los objetos no se realiza de forma automática, el operador requiere habitualmente un número determinado de imágenes consecutivas para detectar el objeto. La velocidad máxima debe ser tal que el objeto a detectar aparezca en al menos nimágenes imágenes consecutivas, de tal forma que se debe producir un solapamiento entre ellas (si nimágenes ≥ 2). En este caso, la velocidad se puede obtener mediante la siguiente expresión, similar a la anterior pero dependiente del número de imágenes y del número de píxeles de la imagen en la dimensión de desplazamiento de la plataforma (along-track): Marzo 2018 – Julio 2018 20
Estado del arte de las Tecnologías · · ℎ = [ / ] (7) Generalmente, puede asumirse que un operador necesita al menos 5 imágenes consecutivas en las que se encuentre el objeto, mientras que en el caso de algoritmos de detección automática, es posible detectar el objeto con una sola imagen. En cualquier caso, la herramienta está implementada de tal forma que el usuario pueda definir el número de imágenes consecutivas requeridas para detectar un objeto. Normalmente, la velocidad máxima de la plataforma se expresa en Km/h, por lo que a los resultados de las expresiones anteriores hay que multiplicarlos por el factor 3,6. • Mínimo tamaño detectable Considerando una cierta altura de vuelo y partiendo de la ecuación (4), se puede obtener la longitud mínima de un objeto que puede ser detectado en función de la altura a la que se encuentra el sensor. Este parámetro es útil en el caso de las plataformas satelitales, donde la altura del sensor está fijada por la altura orbital del satélite y es constante. De esta manera, se obtiene el tamaño mínimo a través de la expresión: [ ] ℎ = ℎ · 2 · ( ) [ ] (8) 2 = ℎ · í [ ] (9) Siendo ℎ la altura orbital del satélite. • Ancho de área cubierta y área cubierta por unidad de tiempo Indica la anchura de la porción del terreno que es cubierta por el sensor en cada imagen. Esto depende de la altura a la que el sensor está operando y del campo de visión (FOV) del mismo [34] en la dirección perpendicular al movimiento de la plataforma, como se observa en la Figura 12. FOV [rad]⁄ [Km] = 2 · · tan ( 2) (10) Además, relacionando este cálculo con la velocidad de la plataforma, podemos obtener el área cubierta por unidad de tiempo [34]: 2 2 ′ = · [ ⁄ ó ⁄ℎ] (11) Siendo el ancho cubierto (cálculo anterior) y la velocidad de la plataforma, normalmente expresada en ⁄ o en ⁄ℎ. Marzo 2018 – Julio 2018 21
Estado del arte de las Tecnologías Figura 12. Ancho del área cubierta en función de la altura y el FOV [34]. • Resolución espacial Indica la mínima longitud terrestre que puede ser detectada por el sensor. Esta depende de la distancia entre el sensor y la superficie, representada por la altura a la que se encuentra la plataforma con el sensor, y del campo de visión instantáneo (IFOV). Por lo tanto, se puede calcular a partir de la expresión 4, siendo ℎ la altura de la plataforma: [ ] = 2 · ℎ · ( ) [ ] (12) 2 • Tiempo de revisita El cálculo del tiempo de revisita se realiza a partir de la velocidad de la plataforma y de la distancia que recorre o área que debe cubrir. En el caso de las plataformas satelitales, el tiempo de revisita viene indicado como parámetro de entrada debido a que depende de la órbita del satélite. Por ejemplo, los satélites de observación de la tierra suelen tener orbitas polares heliosíncronas con un tiempo de revisita de 11 días en los que recorre la órbita 167 veces en total. En cambio, para las plataformas aéreas, el tiempo de revisita también se puede calcular como el tiempo que tarda la plataforma en recorrer una cierta distancia para vigilar todo el escenario o cubre una cierta área especificada en el escenario que se debe llevar a cabo la misión ISTAR. Esto se obtiene mediante la siguiente expresión: = ⁄ [ ] (13) De la misma manera, podemos obtener el tiempo de revisita medio a partir del cociente entre el área que debe cubrirse y el área cubierta por unidad de tiempo s’: = á ⁄ [ ] (14) ′ Generalmente, si se desea cubrir una franja de terreno que presenta una mayor anchura que el ancho de las imágenes tomadas por el sensor óptico, se definirá una cierta trayectoria de vuelo de la plataforma aérea de tal forma que se consiga cubrir todo el escenario, tal y como se muestra en la Figura 13. En este ejemplo, teniendo en cuenta el ancho de la imagen tomada (relacionada con el FOV y la altura de vuelo dada por la ecuación (10), la plataforma deber realizar cuatro pases, para Marzo 2018 – Julio 2018 22
Estado del arte de las Tecnologías cubrir completamente el área a vigilar, y un cierto número de maniobras seguras. Por tanto, el valor de trev obtenido mediante la ecuación (14) es un límite inferior que habitualmente se verá incrementado por la necesidad de llevar a cabo trayectorias seguras para las plataformas, de acuerdo a su maniobrabilidad, y por el tiempo dedicado a volver al punto inicial de adquisición del escenario. Además, se debe tener en cuenta que dicho parámetro corresponde a un valor medio y que, en función de la trayectoria que siga la plataforma, puede haber áreas que se cubran con distintos tiempos de refresco, que pueden ser inferiores o superiores al tiempo medio de refresco. Figura 13. Ejemplo de trayectoria de vuelo para cubrir el área a vigilar con un cierto ancho de imagen. Otra opción consiste en tomar las cuatro franjas del ejemplo con un solo pase de la plataforma aérea, de manera que, a medida que se sigue la trayectoria, se apunta secuencialmente el sensor óptico y se modifica su FOV para cubrir las cuatro franjas y mantener la resolución espacial. Esta estrategia supone disminuir la velocidad de la trayectoria en un factor 4, en el caso del ejemplo, debido a que se debe disponer de tiempo suficiente para tomar las imágenes de las cuatro franjas. Por tanto, el tiempo de refresco medio es aproximadamente el mismo que el obtenido con la estrategia anterior. Además, es posible que la plataforma de estabilización y apuntamiento donde va embarcado el sensor óptico no permita un apuntamiento tan rápido como el necesario para aplicar esta estrategia de exploración de la zona de interés. 4.4. IMPLEMENTACIÓN DE LA HERRAMIENTA El desarrollo de la herramienta se ha llevado a cabo en Microsoft Office – Excel, con el objetivo de que sea fácilmente accesible a usuarios con conocimientos básicos de ofimática. Tras programar los modelos analíticos descritos en el apartado anterior, con el objetivo de realizar un ejemplo de uso de la herramienta de análisis, se han introducido los parámetros técnicos dados en las hojas de especificaciones de distintos sensores y plataformas. En este trabajo se ha seleccionado un total de ocho sensores y nueve plataformas de diferentes tipos. Los sensores se han seleccionado entre los distintos tipos descritos en el segundo capítulo (hiperespectrales, infrarrojos y de rango visible), con el objetivo de poder realizar un análisis de Marzo 2018 – Julio 2018 23
También puede leer