Sistemas ISTAR - Análisis de sensores ópticos embarcados - Estado del Arte de las Tecnologías - Horizonte Defensa y ...

Página creada Urbano Gómez
 
SEGUIR LEYENDO
Sistemas ISTAR - Análisis de sensores ópticos embarcados - Estado del Arte de las Tecnologías - Horizonte Defensa y ...
Sistemas ISTAR –
 Análisis de sensores
 ópticos embarcados

 Estado del Arte de las
 Tecnologías
 Cátedra Isdefe-UPM
 Marzo 2018 – Julio 2018

 Madrid, julio de 2018

Marzo 2018 – Julio 2018
Sistemas ISTAR - Análisis de sensores ópticos embarcados - Estado del Arte de las Tecnologías - Horizonte Defensa y ...
Estado del arte de las Tecnologías

ÍNDICE

1. INTRODUCCIÓN .................................................................................................................... 2

2. OBJETIVOS ............................................................................................................................. 3

3. TECNOLOGÍAS APLICABLES EN SISTEMAS ISTAR ...................................................... 4
 3.1. SENSORES ÓPTICOS ......................................................................................................... 6
 3.1.1. TIPOS DE SENSORES ÓPTICOS ........................................................................... 6
 3.2. PLATAFORMAS ................................................................................................................. 9
 3.2.1. PLATAFORMAS TERRESTRES ............................................................................ 9
 3.2.2. PLATAFORMAS NAVALES ................................................................................ 10
 3.2.3. PLATAFORMAS AÉREAS ................................................................................... 11
 3.2.4. PLATAFORMAS SATELITALES ........................................................................ 12

4. DISEÑO DE LA HERRAMIENTA DE ANÁLISIS .............................................................. 14
 4.1. PARÁMETROS TÉCNICOS DE ENTRADA ................................................................... 14
 4.1.1. PARÁMETROS DE SENSORES ÓPTICOS ......................................................... 14
 4.1.2. PARÁMETROS DE LAS PLATAFORMAS ......................................................... 16
 4.2. PARÁMETROS OPERATIVOS DE SALIDA .................................................................. 16
 4.3. MODELOS ANALÍTICOS ................................................................................................ 18
 4.4. IMPLEMENTACIÓN DE LA HERRAMIENTA .............................................................. 23

5. ANÁLISIS DE ESCENARIOS CON LA HERRAMIENTA ................................................. 26
 5.1. ESCENARIO FRONTERIZO ............................................................................................ 27
 5.2. ESCENARIO DE INTELIGENCIA SOBRE CONSTRUCCIÓN DE INFRAESTRUCTURAS.. 33

Marzo 2018 – Julio 2018 1
Sistemas ISTAR - Análisis de sensores ópticos embarcados - Estado del Arte de las Tecnologías - Horizonte Defensa y ...
Estado del arte de las Tecnologías

 1. INTRODUCCIÓN
La innovación y la investigación tecnológica siempre han desempeñado un papel esencial en las
estrategias de defensa, buscando nuevos sistemas que permitan cumplir el principal objetivo de
proteger a la población y de hacer frente a las amenazas, de una manera más eficiente.

La gran cantidad de fuentes y volumen de información junto con este crecimiento de nuevas
tecnologías hace que se desarrollen los sistemas ISTAR (Intelligence, Surveillance, Target
Acquisition and Reconnaissance). Estos sistemas integran aquellas tecnologías que apoyan
misiones militares mediante la vigilancia, adquisición y reconocimiento de objetivos. Su función es
obtener información añadida sobre los escenarios de acción de las misiones, complementando el
trabajo que realizan otros sistemas de vigilancia.

Los sistemas ISTAR están formados por conjuntos de sensores, tanto ópticos como de
radiofrecuencia (sensores radar y de guerra electrónica), y por las plataformas en las que se sitúan
dichos sensores, como vehículos terrestres, aeronaves o satélites.

Debido al continuo avance tecnológico y a la mayor complejidad de los sensores, es importante
desarrollar herramientas de análisis que permitan tomar decisiones sobre el diseño de sistemas
ISTAR de una forma más sencilla, relacionando los parámetros y características técnicas de los
sensores con aquellos parámetros operativos que son requeridos en las misiones ISTAR.
En nuestro caso nos centraremos en el análisis de sensores ópticos embarcados en algunas
plataformas concretas como son las aeronaves y los satélites.

Por todo ello, el propósito principal es diseñar y desarrollar una herramienta para el estudio de
distintos sensores ópticos embarcados en plataformas aéreas y satélites, y el análisis del posible uso
de estos sistemas en misiones ISTAR.

El desarrollo de esta herramienta permitirá seguir el flujo de trabajo que se muestra en la Figura 1.
En primer lugar, a partir de las hojas de especificaciones de los distintos sensores y plataformas se
eligen aquellos parámetros técnicos que son útiles para estimar las capacidades operativas de las
combinaciones entre sensores y plataformas (sistema ISTAR). Estos parámetros se introducen en la
herramienta y, a través del análisis de los mismos y del uso de modelos y ecuaciones analíticas, se
estiman para dichas combinaciones los parámetros operativos de interés para misiones ISTAR. Una
vez conseguido esto, se puede realizar una comparación entre los requisitos operativos necesarios
en la misión ISTAR estudiada y los parámetros obtenidos con la herramienta, para poder
seleccionar como resultado el sistema ISTAR más adecuado. De esta forma se consigue simplificar
la toma de decisión en el diseño de sistemas y planificaciones de misiones ISTAR.

Marzo 2018 – Julio 2018 2
Sistemas ISTAR - Análisis de sensores ópticos embarcados - Estado del Arte de las Tecnologías - Horizonte Defensa y ...
Estado del arte de las Tecnologías

Figura 1. Flujo de trabajo para el análisis de sistemas ISTAR (sensor + plataforma) utilizando la herramienta desarrollada.

 2. OBJETIVOS
El objetivo principal de este trabajo es el diseño y desarrollo de herramientas que permitan analizar
y evaluar, a partir de sus características técnicas, las capacidades operativas de distintos tipos de
sensores ópticos (cámaras de espectro visible, cámaras infrarrojas y cámaras hiperespectrales)
embarcadas en diferentes plataformas.

Para ello se han planteado los siguientes objetivos:

 - Desarrollo de un estado del arte de la tecnología mediante la recopilación de información
 sobre los sistemas ISTAR, sus características, sus funciones y sus tecnologías, más
 concretamente sobre sensores optrónicos (infrarrojos, de rango visible e hiperespectrales)
 embarcados en plataformas como aeronaves o satélites.
 - Diseño e implementación de una herramienta de análisis a partir de los parámetros de
 distintos sensores optrónicos (field of view, número de pixels, instantaneous field of view,
 frames per second, ...) y de las plataformas (velocidad de vuelo, altura de vuelo, etc.) para
 obtener como resultado aquellos conjuntos más compatibles para desarrollar un sistema
 ISTAR con las especificaciones operativas deseadas (probabilidad de detección,
 probabilidad de falsa alarma, probabilidad de identificación, alcance de detección,
 resolución espacial, velocidad de refresco de la información, área cubierta, etc.).
 - Proponer y analizar escenarios operativos ISTAR con el objetivo de obtener resultados
 acerca de qué sensor y plataforma son los que mejor se adaptan a cada uno de los escenarios
 o cuáles cumplen algún requisito determinado.
 - Analizar los resultados obtenidos e identificar las limitaciones que puedan tener y las
 necesidades que no estén cubiertas, proponiendo posibles mejoras para el futuro, para
 elaborar las conclusiones del trabajo.

Marzo 2018 – Julio 2018 3
Sistemas ISTAR - Análisis de sensores ópticos embarcados - Estado del Arte de las Tecnologías - Horizonte Defensa y ...
Estado del arte de las Tecnologías

 3. TECNOLOGÍAS APLICABLES EN SISTEMAS ISTAR
En un contexto en el que los avances tecnológicos en el ámbito civil se solapan cada vez más con
los militares y debido al gran avance tecnológico del mundo actual, la tecnología utilizada para
defensa y seguridad se ve obligada a actualizarse de forma rápida y desarrollar nuevos mecanismos
y soluciones, como nuevos sistemas ISTAR, que se adapten a cada situación y escenario con el
objetivo de realizar las misiones operativas asociadas de la manera más eficaz [5].
Estos sistemas ISTAR engloban la adquisición de información en misiones militares mediante
inteligencia y vigilancia, detección y reconocimiento de objetivos. Su función principal es obtener
información útil a partir de este reconocimiento y vigilancia para tomar las mejores decisiones en
cada situación. Están estructurados en áreas que realizan las diferentes funciones para obtener esta
información en relación al escenario en el que se encuentren [8]:

 a) La adquisición de los datos mediante un sensor incluye todas las fuentes que permiten
 captar la información y el procesamiento de estos datos dentro del sensor.

 b) El procesamiento y la explotación de los datos incluye las actividades necesarias para
 analizar la situación y la información, y, a partir de esta, evaluar el desarrollo de
 mejoras sobre el sistema.

 c) La distribución de la información es esencial para el buen funcionamiento de los
 sistemas en cada momento. Aquí se incluyen los aspectos más relevantes de la
 implementación de todo el sistema de transmisión.

Los sistemas ISTAR están formados por la combinación de sensores con las plataformas donde
estos están embarcados.
Un sensor es un dispositivo utilizado para medir algún parámetro físico y, a partir del
procesamiento de esta información, proporcionar datos a un sistema superior. En el ámbito de la
seguridad y la defensa se emplean por su gran capacidad de localizar y detectar ciertas señales u
objetos.
Existen dos tipos principales de sensores:

 a) Sensores activos: son aquellos que generan su propia radiación y reciben los ecos que se
 producen al reflejarse dichas señales en los blancos. Por ejemplo: el radar o el lidar
 (tecnología láser).

 b) Sensores pasivos: son aquellos que reciben radiación emitida por otras fuentes, como la
 de Sol que se refleja en los objetos o en la superficie terrestre, o la radiación emitida por
 los propios cuerpos, como por ejemplo las cámaras de espectro visible o de infrarrojos.
 Dentro de los sensores pasivos se encuentran los sensores fotográficos, que son el medio
 más utilizado en teledetección, escáneres de barrido y escáneres de empuje (más
 utilizados en satélites), y también destacan las cámaras de vídeo y los sensores
 radiómetros de microondas [3].

Marzo 2018 – Julio 2018 4
Sistemas ISTAR - Análisis de sensores ópticos embarcados - Estado del Arte de las Tecnologías - Horizonte Defensa y ...
Estado del arte de las Tecnologías

El uso de sensores pasivos ha aumentado en equipos de defensa y guerra electrónica debido a que
presentan la ventaja de ser menos detectables que los sensores activos, ya que no son fuentes de
radiación. Por este motivo, al no conocer su posición, es más difícil que sean interferidos por
equipos de guerra electrónica. Como desventaja, estos sensores deben ser sensibles a las bandas de
frecuencia determinadas por los objetivos deseados.
Es habitual que en los sistemas existan sensores de ambos tipos para obtener las mejores
prestaciones [1].
En los sistemas ISTAR suelen integrarse distintos tipos de sensores con diferentes principios de
medida y funcionalidades, que se resumen en la Tabla 1:

 a) Ópticos: en cuyo análisis se centra este trabajo y cuyas características y tipos se detallan a
 continuación.

 b) Radar: sensor de tipo activo muy utilizado en misiones ISTAR que se basa en la emisión de
 señales de radiofrecuencia y en la recepción de las reflexiones que se producen en los
 objetos del escenario. Se distinguen los radares GMTI (Ground Moving Target Indicator),
 que se centran en la detección de blancos móviles ocultos en clutter, y los radares SAR
 (Synthetic Aperture Radar) embarcados generalmente en plataformas aéreas para obtener
 imágenes de la superficie terrestre o marítima. Utilizan, por tanto, ondas electromagnéticas
 para medir distancias, altitudes, velocidades de objetos móviles, reflectividad, etc. Estos
 sensores, aunque generalmente presentan una menor resolución que los sensores ópticos, se
 ven menos afectados por las condiciones meteorológicas y por la situación de luminosidad
 (día o noche).

 c) Acústicos: utilizados para detectar y clasificar blancos o prevenir amenazas mediante ondas
 sonoras, como ruidos de vehículos o de explosiones.

 d) Sensores de guerra electrónica: estos son utilizados para la intercepción de señales de RF en
 comunicaciones o transmisiones. Por ejemplo, se emplean para la localización de fuentes de
 emisiones radar y para la estimación de los parámetros de la forma de onda utilizada.

 TIPO DE SENSOR PRINCIPIO DE MEDIDA FUNCIONALIDAD
 Medida de la radiación en las Localización, identificación y
 Ópticos
 bandas ópticas seguimiento de blancos

 Medida de las reflexiones
 Localización, clasificación y
 Radar producidas en los blancos de la
 seguimiento de blancos
 señal de radiofrecuencia emitida

 Medida de sonidos y señales Detección y clasificación de blancos,
 Acústicos
 acústicas (ondas de presión) explosiones o disparos.

Marzo 2018 – Julio 2018 5
Sistemas ISTAR - Análisis de sensores ópticos embarcados - Estado del Arte de las Tecnologías - Horizonte Defensa y ...
Estado del arte de las Tecnologías

 Detección y clasificación de
 Medida de emisiones de
 Guerra electrónica emisiones de radiofrecuencia.
 radiofrecuencia
 Interceptación de comunicaciones
 Tabla 1. Tipos de sensores que se integran en los sistemas ISTAR

Para mejorar la capacidad del sistema completo y obtener mejores resultados, a la hora de procesar
los datos se utiliza a menudo la fusión de datos obtenidos de distintos tipos de sensores
complementarios (por ejemplo, radar-ópticos-acústicos).

 3.1. SENSORES ÓPTICOS
Un sensor óptico es aquella tecnología utilizada para captar imágenes a distancia de diferentes
objetos mediante la emisión de un haz de luz que es reflejado en el objeto que se quiere detectar.
Estos sensores se están utilizando cada vez más en sistemas para defensa y seguridad debido a su
precisión a la hora de localizar objetivos y escenarios. Además, los sensores optoelectrónicos
destacan por su capacidad de trabajar de forma pasiva o activa, permitir formación de imágenes en
tiempo real con técnicas convencionales y su peso y tamaño pequeño, lo que facilita su integración
en equipos.
También presentan algunos inconvenientes. El más significativo es la influencia de las condiciones
ambientales, donde la presencia de lluvia, niebla o humo limita su alcance o los inutiliza. A veces,
este hecho hace necesario el uso de otro tipo de sensores de apoyo como radares, cuyas señales de
menor frecuencia sufren una menor atenuación en dichas situaciones. Además de esto, su
fragilidad, su elevado coste de desarrollo, su pequeña capacidad de penetración en escenarios con
vegetación densa o su limitado tiempo de vida también suponen limitaciones en estos dispositivos.
A pesar de todo esto, su utilización aumenta de forma continua y son numerosas sus aplicaciones
en localización e identificación de objetivos, navegación, teledetección, etc. Destacan equipos
como visores diurnos y nocturnos, cámaras térmicas, seguidores de infrarrojos o radares láser [1].

 3.1.1. TIPOS DE SENSORES ÓPTICOS
Los sensores ópticos pueden obtener información de distintas regiones del espectro, en función del
rango espectral existen:
 a) Sensores de espectro visible:
 Presentan respuestas a la parte del espectro que es visible para el ojo humano, es decir,
 toman imágenes de radiación (luz) visible. El espectro de luz visible se encuentra entre
 la luz violeta de longitud de onda de 400nm y la luz roja de 700nm [2].

 Los sensores de espectro visible se encuentran en una gran variedad de ámbitos, tanto
 civiles como militares, y embarcados en distintos tipos de plataformas. Un ejemplo de
 este tipo de sensores es el OLCI (Ocean and Land Colour Instrument) que se encuentra
 embarcado en el satélite de observación terrestre Sentinel-3, el cual forma parte del
 Programa Copernicus desarrollado por la Agencia Espacial Europea (ESA). Este sensor
 está basado en el diseño del MERIS (Medium Resolution Imaging Spectrometer)

Marzo 2018 – Julio 2018 6
Sistemas ISTAR - Análisis de sensores ópticos embarcados - Estado del Arte de las Tecnologías - Horizonte Defensa y ...
Estado del arte de las Tecnologías

 embarcado en la plataforma Envisat, cuya misión finalizó en el año 2012, y el cual
 recogía información de la superficie terrestre en el rango visible mediante cinco cámaras
 repartidas por la plataforma [15]. El sensor OLCI, mostrado en la Figura 2, se encarga
 de recoger imágenes de la Tierra también a través de cinco cámaras, ofreciendo un
 campo de visión amplio, y trabaja en 21 bandas del espectro tanto de rango visible como
 de infrarrojo cercano (0.4-1.02 µm) [14]. Por esto se podría decir que es un sensor
 hiperespectral, pero este contiene menos bandas que otros sensores hiperespectrales,
 incluyendo su mayor parte en el rango visible. Además de este sensor, el satélite
 Sentinel-3 incluye también otros tipos de sensores para obtener la información de la
 superficie terrestre y oceánica.

 Figura 1. Ejemplo de sensor óptico de espectro visible: (izq.) Sentinel-3 OLCI Instrument [24] y (dcha.) satélite
 Sentinel-3 [25].

 b) Sensores de infrarrojos:
 Estos sensores ofrecen respuesta a aquella parte del espectro que no es visible para el
 ojo humano y, además, cuya frecuencia es inferior a la zona visible del espectro. Estos
 sensores abarcan longitudes de onda entre 750nm y 1mm [2]. Son capaces de localizar
 objetivos a través de la temperatura de los mismos debido a la emisión de los cuerpos en
 la banda del infrarrojo.

 Como en el caso anterior, también existen multitud de sensores infrarrojos destinados a
 diferentes funciones. En el ámbito militar su uso está muy extendido, por ejemplo, el
 sistema SeaFLIR 280-HD, que se muestra en la Figura 3, ofrece grandes prestaciones en
 vigilancia marítima. Este sensor obtiene toda la información necesaria en misiones
 ISTAR en alta definición incluso en situaciones donde haya niebla, bruma o humo, al
 contrario que otros sensores. Trabaja con cuatro cámaras simultáneamente junto con tres
 láseres y una unidad de medida muy precisa. Además de esto, tiene un buen sistema de
 estabilidad por lo que ofrece imágenes con detalles claros, aunque las condiciones del
 mar sean extremas [16].

Marzo 2018 – Julio 2018 7
Sistemas ISTAR - Análisis de sensores ópticos embarcados - Estado del Arte de las Tecnologías - Horizonte Defensa y ...
Estado del arte de las Tecnologías

 Figura 2. Ejemplo de sensor de infrarrojos: (izq.) Sensor SeaFLIR 280-HD y (dcha.) Ejemplo de imágenes
 obtenidas con el sensor [23].

 c) Sensores hiperespectrales:
 Se trata de una tecnología emergente de reciente desarrollo y continuo crecimiento.
 Ofrecen la ventaja de operar en distintas bandas de frecuencia a la vez, por lo que
 solventan algunas limitaciones de otros tipos de sensores, facilitando, por ejemplo, las
 tareas de clasificación de los blancos detectados al disponer de una mayor información
 espectral.

 Normalmente, las plataformas donde van embarcados este tipo de sensores son
 plataformas aéreas o plataformas espaciales, ya que de esta forma se puede escanear una
 zona (en general toman la información fila a fila de la imagen utilizando un array de
 sensores). Aunque, en un principio, la resolución de los sensores en plataformas aéreas
 era más alta, cada vez se está equiparando más con la resolución de los sensores
 embarcados en satélites [10]. Cada pixel de la imagen obtenida contiene todas las
 longitudes de onda del rango del sensor utilizado [10].

 Con respecto al procesado de la imagen, este es más complejo que en otros tipos de
 sensores ya que al recoger información de varias bandas del espectro para cada píxel, se
 requiere una elevada carga computacional y apenas existen sistemas que trabajen en
 tiempo real. Como alternativa se podría realizar una observación de la zona, tomar la
 información y más adelante procesarla.

 Como ejemplo, encontramos el sensor hiperespectral “HyMap”, representado en la
 Figura 4. Es un sistema formado por cuatro espectrómetros que abarcan bandas del
 espectro entre los 450 nm y los 2450 nm, cubriendo casi 130 bandas con una anchura de
 entre 15 y 18 nm. Además, el sensor incluye un sistema de calibración utilizado para
 controlar la estabilidad de la señal [11]. Este sensor fue utilizado por el ejército de
 Estados Unidos embarcado en un avión WB-57 de la NASA para la detección de
 explosivos en una zona de Afganistán, aunque también se ha utilizado para localizar
 recursos minerales.

Marzo 2018 – Julio 2018 8
Sistemas ISTAR - Análisis de sensores ópticos embarcados - Estado del Arte de las Tecnologías - Horizonte Defensa y ...
Estado del arte de las Tecnologías

 Figura 3. Ejemplo de sensor hiperespectral: (izq.) Sensor HyMap [11] y (dcha.) avión WB-57 de la NASA en el
 que se embarca [31].

Para el uso de los sensores pasivos de espectro visible e hiperespectrales hay que tener en cuenta
tanto las horas de luz de cada zona de la Tierra como el ángulo de incidencia y las condiciones de
la atmósfera, ya que la información a obtener de ellos depende de la luz solar reflejada en la
superficie terrestre [10]. Para los sensores infrarrojos no hay que tener en cuenta la luz solar ya que
con ellos se mide la radiación que emiten los propios objetos por su temperatura.

 3.2. PLATAFORMAS
Las plataformas de los sistemas ISTAR son el soporte de los sensores para la detección de
objetivos. Según la zona en la que se sitúan estas plataformas para su función, hay distintos tipos
con características específicas en cada caso: plataformas terrestres, plataformas navales,
plataformas aéreas y plataformas espaciales.
Aunque cada tipo de plataforma se suele utilizar en ámbitos diferentes, se está aumentando el uso
de sistemas que incluyen distintos tipos de plataformas con el objetivo de obtener mejores
resultados y para compensar las posibles desventajas de cada uno [9].
Además de estas plataformas, todas ellas tripuladas, actualmente se están desarrollando sistemas
que permiten integrar plataformas con posibilidad de realizar sus funciones sin necesidad de llevar
un piloto a bordo. Esto supone un avance en aquellas misiones que pueden poner en riesgo al ser
humano como el acceso y reconocimiento del terreno en zonas de guerra.
En este trabajo se ofrece información sobre todos los tipos de plataformas pero centraremos el
estudio en las plataformas aéreas y satelitales.

 3.2.1. PLATAFORMAS TERRESTRES

Las plataformas terrestres son aquellas plataformas que operan en contacto con el suelo. Son las
plataformas más sencillas de desplegar y ofrecen información del terreno desde una distancia más
corta. Esto provoca que el campo de visión sea más reducido, por lo que en ocasiones estas
plataformas se apoyan en otras como las plataformas aéreas para salvar este inconveniente.

Marzo 2018 – Julio 2018 9
Estado del arte de las Tecnologías

Estos vehículos, como se muestra en la Figura 5, utilizan tecnología que permite tanto reconocer la
zona (cámaras infrarrojas, cámaras de visión nocturna, etc.) como gestionar la navegación del
propio vehículo (sistemas GPS de gran precisión y sistemas de medida inerciales).
También en este caso se desarrollan plataformas no tripuladas, denominadas UGV (Unmanned
Ground Vehicle), donde los sensores embarcados permitirán que tome decisiones de forma
autónoma o controlarlo a distancia a través de un operador humano [9].

 Figura 4. Ejemplo de una plataforma terrestre y del sistema ISTAR embarcado compuesto por un sistema
 radar y múltiples sensores ópticos desarrollado por INDRA [19].

 3.2.2. PLATAFORMAS NAVALES

Estas plataformas tienen el objetivo de reconocer y monitorizar zonas acuáticas, y en ocasiones
sirven de apoyo para equipos de salvamento. Además, se desarrollan sistemas de plataformas
navales como apoyo a plataformas aéreas y viceversa, como el Buque de Proyección Estratégica
Juan Carlos I, mostrado en la Figura 6.
Las plataformas navales se dividen en dos grupos: de superficie (embarcaciones) y submarinas. Al
igual que con otras plataformas, se desarrollan aquellas no tripuladas, también divididas en dos
grupos: USV (Unmanned Surface Vehicle) y UUV (Unmanned Underwater Vehicle) [9].

Marzo 2018 – Julio 2018 10
Estado del arte de las Tecnologías

 Figura 5. Buque de Proyección Estratégica Juan Carlos I como ejemplo de una plataforma naval que permite embarcar
 sistemas ISTAR [29].

 3.2.3. PLATAFORMAS AÉREAS

Estas incluyen las plataformas aéreas convencionales como aviones o helicópteros cuya función en
misiones ISTAR es la de reconocer el terreno y localizar objetivos. Estas plataformas tienen la
ventaja de realizar su función de una manera más rápida que el resto de plataformas y, además,
obteniendo un campo de visión mucho más amplio para la obtención de información sobre una
zona más extensa y con mayor resolución que otras plataformas como los satélites. Esto permite
que también actúen como plataformas de apoyo a otros tipos como las terrestres o las navales en
sistemas cooperativos.
En este apartado se incluyen también aquellas plataformas aéreas no tripuladas, cuyo desarrollo se
encuentra más avanzado que en otras áreas. Los UAVs (Unmanned Aerial Vehicle) son aeronaves
no tripuladas, cuyo primer desarrollo fueron los RPAS (Remotely Piloted Aircraft System) los
cuales son tripulados a distancia por un operador humano e incluyen tecnologías de detección y de
gestión de posibles problemas [4]. Actualmente existen también UAVs no controlados de forma
remota, si no que sus movimientos y navegación se realizan de manera autónoma a partir de sus
sensores embarcados.
El uso de los UAVs es frecuente y seguirá aumentando tanto en el ámbito civil como en el ámbito
militar. En este último caso se suelen denominar UCAV (Unmanned Combat Aerial Vehicle), su
principal objetivo es realizar vigilancia del terreno de una manera eficaz evitando el riesgo para las
personas que pueden tener las zonas de conflictos, se limitan a cumplir su misión sin que exista la
necesidad de recuperar la plataforma de forma íntegra [9].
Un ejemplo de plataforma aérea es el UAV Predator, mostrado en la Figura 7. Este vehículo no
tripulado ha sido utilizado por operadores de distintos países, pero sobre todo por la Fuerza Aérea
de los Estados Unidos y existen diferentes versiones del mismo. En nuestro caso estudiamos el
MQ-1, el cual es un sistema que, volando a media altura, es utilizado para vigilancia y
reconocimiento del terreno en algunas misiones [13]. Para realizar esta vigilancia, lleva embarcado
el sistema multiespectral AN/AAS-52 MTS (Multi-Spectral Targeting System) en el cual hay

Marzo 2018 – Julio 2018 11
Estado del arte de las Tecnologías

integrados sensores electro-ópticos, infrarrojos y láser, además de iluminadores o cámaras de color,
lo cual permite obtener imágenes en tiempo real como apoyo a las misiones [12]. Este sistema
también se encuentra integrado en otras plataformas como en los helicópteros MH-60R, también
utilizados por la armada estadounidense.

 Figura 6. UAV predator (sup.) [20], sistema multiespectral AN/AAS-52 MTS (inf. Izq.) [21] y helicópteros MH-60R (inf.
 dcha.) [22].

 3.2.4. PLATAFORMAS SATELITALES

Las plataformas satelitales se utilizan para la vigilancia y la observación de determinadas zonas de
la Tierra además del despliegue de comunicaciones y de sistemas de navegación [7]. La gran
ventaja de estas ante el resto de plataformas es la cobertura global de la Tierra que se puede obtener
en las imágenes y la observación de la misma en diferentes escalas, además de una comunicación y
transmisión de información más segura.

En el ámbito de defensa se busca también el desarrollo de pequeños satélites con el objetivo de que
su desarrollo sea rápido y el coste más bajo, además con esto se quiere conseguir una
disponibilidad y un despliegue de una manera más rápida [4].
En este tipo de plataformas hay que tener en cuenta que los satélites siguen un movimiento
continuo siguiendo su órbita, por lo que captan imágenes de la misma zona de la Tierra cada cierto
tiempo. Esto junto con el movimiento de rotación de la Tierra hace que se pueda cubrir toda la
superficie terrestre dependiendo de la altura y del campo de visión del sensor [3].
Como en otras plataformas, desde los inicios estas tenían embarcados sensores de tipo pasivo,
como cámaras fotográficas, escáneres y cámaras de vídeo multiespectrales; y sensores de tipo

Marzo 2018 – Julio 2018 12
Estado del arte de las Tecnologías

activo, como radar o lidar [3]. Actualmente estos sensores se han ido desarrollando con tecnologías
nuevas como, por ejemplo, cámaras hiperespectrales que pueden captar imágenes en distintas
bandas de frecuencia simultáneamente.
Como ejemplo de este tipo de plataformas introducimos el satélite Ingenio, mostrado en la Figura
8. Este satélite, aunque principalmente está orientado a ámbitos civiles, servirá de apoyo al satélite
Paz, lanzado recientemente y destinado a seguridad y defensa. Al contrario que el satélite Paz,
dotado con tecnología radar, el satélite Ingenio llevará embarcados sensores ópticos. Su función
consistirá en la captura de imágenes multiespectrales y de alta resolución del territorio español con
un tiempo mínimo de revisita. Se espera que esté operativo en 2020 con un tiempo de vida de siete
años. Como carga útil tendrá embarcado un sistema óptico que tomará las imágenes terrestres en
dos canales, uno pancromático (blanco y negro) y uno multiespectral de cuatro bandas (azul, verde,
rojo y NIR) [17].

 Figura 7. Sistema de sensores ópticos del satélite INGENIO (izq.) [27] y representación 3D del futuro satélite INGENIO
 (dcha.) [28].

Otro ejemplo es el satélite Tac-Sat-3, representado en la Figura 9. Esta plataforma es la tercera de
una serie de satélites de reconocimiento utilizados por el ejército de Estados Unidos para misiones
ISTAR. Entre otros avances respecto a satélites anteriores de esta serie, el Tac-Sat-3 incluye el
sensor hiperespectral ARTEMIS (Advanced Rasponsive Tactically Effective Military Imaging
Spectrometer). El sensor captura información desde el rango visible hasta parte del rango de
infrarrojos, y puede comparar esta información con el espectro de ciertos objetos conocidos para
identificar zonas de interés de forma muy rápida [18].

 Figura 9. Satélite Tac-Sat-3 (izq.) y sensor hiperespectral ARTEMIS (dcha.) [26].

Marzo 2018 – Julio 2018 13
Estado del arte de las Tecnologías

 4. DISEÑO DE LA HERRAMIENTA DE ANÁLISIS
Para el análisis de estos sensores y plataformas descrito en el capítulo anterior, se ha desarrollado
una herramienta en la que, introduciendo parámetros técnicos de entrada, tanto de sensores como
de plataformas, se obtiene de salida determinados parámetros operativos. Estos parámetros
operativos se comparan con aquellos parámetros útiles para los operadores de los sistemas ISTAR
y con los requisitos operativos propios de las misiones ISTAR.

El objetivo de esta herramienta es, a partir de este desarrollo, seleccionar el sistema ISTAR
(combinación de sensor y plataforma) más adecuado para cada misión y escenario.

En las misiones ISTAR se tienen en cuenta algunos parámetros propios de los sistemas de
vigilancia y defensa, necesarios para el desarrollo de las mismas. Algunos de estos son alcance,
probabilidad de detección o velocidad máxima alcanzable.

 4.1. PARÁMETROS TÉCNICOS DE ENTRADA
Son los parámetros obtenidos de las hojas de especificaciones de los diferentes sensores y
plataformas utilizados en los sistemas ISTAR. A partir de estos parámetros y mediante modelos y
ecuaciones analíticas se pueden obtener los parámetros operativos adecuados para la selección de
sistemas para misiones ISTAR.

 4.1.1. PARÁMETROS DE SENSORES ÓPTICOS

 • FOV (Field of view)

El campo de visión mide la amplitud angular del área que un sensor es capaz de visualizar. En los
sensores ópticos la distancia focal del objetivo influye en el campo de visión, ya que un objetivo
con distancia focal pequeña puede captar más escena y por lo tanto muestra un campo de visión
más amplio, mientras que un objetivo con distancia focal más larga amplía más la escena y, por lo
tanto, reduce el campo de visión [31]. En función del FOV, se suelen distinguir dos tipos de
sensores ópticos o dos modos de operación: (1) de FOV ancho, cuando la imagen cubre un sector
angular grande pero generalmente con menor resolución y, por tanto, menor alcance de detección
de objetos, y (2) de FOV estrecho, cuando se aplica un elevado zoom y la imagen cubre un sector
angular reducido pero con mayor resolución, aumentando el alacance de detección del sensor.

 • IFOV (Instantaneous field of view)

Es el llamado campo de visión instantáneo del sensor. Corresponde al campo de visión de un píxel
de la imagen y se mide habitualmente en miliradianes (mrad) [35]. El IFOV es una medida de la
resolución angular de la cámara utilizada y se calcula mediante la siguiente expresión, según se
muestra en la Figura 10.

Marzo 2018 – Julio 2018 14
Estado del arte de las Tecnologías

 [ ]
 [ ] = ⁄ 

 Figura 10.Relación entre el FOV, el IFOV y el número de píxeles.

Al utilizar plataformas satelitales, debido a que la altura del sensor es constante (altura orbital) y
muy elevada, en algunos casos pueden dar como parámetro la resolución espacial en lugar del
campo de visión instantáneo (IFOV). En estos casos, ambos parámetros se encuentran relacionados
aproximadamente por la siguiente expresión:

 ∆ = [ ] · ℎ 

 • Número de pixeles

Indica la cantidad de pixeles que contiene la imagen captada por el sensor. Las cámaras de espectro
visible o las cámaras infrarrojas capturan típicamente imágenes en 2D mediante una matriz de
detectores fotosensibles, por lo que las cámaras suelen presentar un número de píxeles para el
ancho y para el largo de las imágenes. Sin embargo, las cámaras hiperespectrales actuales suelen
capturar línea a línea mediante un array de detectores, y la imagen en dos dimensiones se conforma
mediante el movimiento de la plataforma y la captura sucesiva de líneas (modo de operación
pushbroom) [36]. Además, se asumen que los píxeles son cuadrados.

 • fps (Frames per second)

También llamado “cuadros por segundo”, indica la velocidad a la que el sensor puede recoger
información del objetivo en forma de imágenes.

 • Resolución espectral

Indica el número y el ancho de las bandas del espectro electromagnético en las que trabaja el
sensor. Este parámetro es importante en los sensores hiperespectrales, ya que la información que
ofrecen depende de las bandas que utilizan. Una mayor resolución espectral implica una mayor
información sobre la imagen pero a su vez implica un mayor volumen de datos y más tiempo de
procesamiento [32].

Marzo 2018 – Julio 2018 15
Estado del arte de las Tecnologías

 • Longitud de onda (λ)

Rango de longitudes de onda en las que trabajan los sensores. A partir de este parámetro se hace la
clasificación de los diferentes sensores (visibles, IR e hiperespectrales).

 4.1.2. PARÁMETROS DE LAS PLATAFORMAS

 • Velocidad

Velocidad del movimiento de la plataforma. Toda plataforma tiene un máximo de velocidad a la
que puede desplazarse. En el caso de los satélites, su velocidad orbital es constante y depende de la
altura a la que se encuentre dicho satélite.

 • Altura

Altura con respecto al nivel del mar a la que una plataforma puede ser desplegada, en el caso de
plataformas aéreas, o altura de la órbita, en el caso de los satélites. La posición elevada de las
plataformas aéreas o satelitales permite disminuir drásticamente los problemas de bloqueo de la
línea de visión que se producen en los sensores situados sobre la superficie terrestre o marítima,
además de disponer de un mayor horizonte visual.

 • Duración o tiempo de servicio

Tiempo durante el que una plataforma puede estar operando de forma continuada. En el caso de los
satélites indica el tiempo de vida del satélite o el tiempo previsto de la misión espacial. Para las
plataformas aéreas, el tiempo de servicio suele venir limitado por la capacidad de las baterías o los
depósitos de combustible.

 • Estabilidad de la plataforma

Además de estos parámetros, se tiene en cuenta que toda plataforma utilizada para misiones ISTAR
tiene una estabilidad adecuada para que el funcionamiento de los sensores embarcados sea óptimo.

 4.2. PARÁMETROS OPERATIVOS DE SALIDA

Estos parámetros son los que nos permiten analizar las capacidades de los posibles sistemas ISTAR
y comprobar si son adecuados para cada misión. Esto se realiza mediante la comparación de estos
parámetros operativos con los parámetros que requiere la propia misión para realizarse con éxito.

 • Probabilidad de detección, clasificación o identificación

La probabilidad de detección mide la capacidad del sensor determinar la presencia de un objeto a
partir de las imágenes capturadas. A su vez, las probabilidades de clasificación e identificación se

Marzo 2018 – Julio 2018 16
Estado del arte de las Tecnologías

refieren, respectivamente a la capacidad del sensor de determinar adecuadamente el tipo de blanco
detectado y su identidad. En general, dependen del número de pares de línea que ocupa el objeto en
la imagen. Se consigue una mayor probabilidad de detección, clasificación o identificación cuando
el objeto ocupa un mayor número de pares de líneas.

 • Alcances de detección, clasificación o identificación

Mide las distancias máximas a la que se pueden detectar, clasificar o identificar un objetivo de
interés determinado. Depende del tamaño de dicho objetivo y del campo de visión instantáneo
(IFOV).
 • Altura máxima

Mide la altura máxima a la que se puede encontrar una plataforma para poder detectar un objetivo
con una resolución deseada.

 • Velocidad máxima de vuelo limitada por la velocidad de captura de imágenes

Mide la velocidad máxima que puede alcanzar una plataforma para que el sensor embarcado en ella
pueda obtener suficientes imágenes de un objetivo para que este sea detectado, clasificado e
identificado si las imágenes presentan suficiente resolución para ello. En general, se asume que
para que un operador detecte un objeto en una secuencia de imágenes, se requieren al menos 5
imágenes sucesivas en las que aparezca el objeto. Los algoritmos de detección y clasificación
autónomos permiten trabajar con un menor número de imágenes del objetivo, incluso sólo con una
o dos imágenes. Por tanto, este parámetro depende de los fps que toma el sensor, del FOV y del
número de imágenes sucesivas del objeto que se requieren para su detección, identificación y
clasificación.

 • Tamaño mínimo detectable

Este parámetro mide la longitud mínima de un objeto que puede ser detectado por un sensor óptico
embarcado en una plataforma satelital. Este depende de la altura a la que se encuentra dicho sensor,
en este caso la altura orbital, y del campo de visión instantáneo (IFOV).

 • Área de cobertura

Mide la parte del terreno que abarca el sensor en cada imagen y depende de la altura a la que se
encuentre dicho sensor. También podemos obtener el ancho del área por unidad de tiempo para el
modo de operación pushbroom de las cámaras hiperespectrales.

 • Resolución espacial

Mide la distancia de la superficie terrestre más pequeña que puede ser captada por el sensor. Está
representada por un píxel y normalmente se expresa en metros. Además, depende de la distancia
entre el sensor y la superficie de la Tierra, del ángulo de visión o del campo de visión instantáneo

Marzo 2018 – Julio 2018 17
Estado del arte de las Tecnologías

(IFOV). En el caso de las plataformas satelitales, los parámetros de los que depende la resolución
espacial son prácticamente fijos, por lo que esta se puede considerar constante [32].

 • Tiempo de revisita

Tiempo que tarda la plataforma en pasar por la misma zona del terreno para obtener información
similar de esta. También indica el tiempo que puede tardar una plataforma aérea en recorrer una
cierta área de terreno [32].

 4.3. MODELOS ANALÍTICOS

Los modelos definen las ecuaciones analíticas y los cálculos necesarios para obtener los parámetros
operativos de salida a partir de los parámetros técnicos de sensores y plataformas.

 • Criterio de Johnson

El Criterio de Johnson se utiliza para estimar los alcances de detección, clasificación e
identificación de un cierto sensor óptico. Como criterio principal se utiliza el número de pares de
líneas (una línea blanca y una negra) necesarias para discriminar un objetivo [33]. Existen
diferentes grados de discriminación (DRI) y el Criterio de Johnson fija el número medio de pares
de líneas necesario para conseguir una probabilidad de acierto del 50% en cada uno de los grados:

 - Detección: capacidad de distinguir si hay o no un objeto presente en la zona. Se necesitan
 una media de 1 ± 0,25 pares de líneas.
 - Reconocimiento: capacidad para clasificar el objetivo entre personas, animales o vehículos,
 por ejemplo. En este caso, son necesarias una media de 4 ± 0,8 pares de líneas.
 - Identificación: capacidad de diferenciar diferentes detalles en el objeto. De esta manera se
 pueden diferenciar distintos objetos de la misma clase. Se necesitan una media de 6,4 ± 1,5
 pares de líneas.

Por tanto, a partir del Criterio de Johnson se conoce el mínimo número de pares de líneas
necesarias para discriminar un objeto con una probabilidad del 50%. Sin embargo, para obtener la
probabilidad de discriminación con otros porcentajes se utiliza la siguiente expresión [34]:

 ( )
 50
 = (1)
 
 1+( )
 50

Siendo la probabilidad de discriminación obtenida cuando el objeto ocupa pares de líneas y
 50 el número de pares de líneas del criterio de Johnson para conseguir una probabilidad del 50%.
A su vez, es un factor de escala y viene dado por la ecuación:

Marzo 2018 – Julio 2018 18
Estado del arte de las Tecnologías

 = 2,7 + 0,7 · (2)
 50

El número de pares de líneas depende del grado de discriminación del blanco, siendo mayor el
número necesario de líneas conforme aumenta la información visual que se requiere del blanco,
como se observa en la Figura 11.

 1
 0,9
 Probabilidad de discriminación

 0,8
 Probabilidad de
 0,7
 detección
 0,6
 0,5 Probabilidad de
 reconocimiento
 0,4
 0,3 Probabilidad de
 0,2 identificación
 0,1
 0
 0 2 4 6 8 10 12 14 16 18 20
 Número de pares de líneas

 Figura 11. Probabilidad de discriminación de un objeto en función del número de pares de líneas.

Por ejemplo, cuando se requiere una probabilidad de discriminación del 90%, se necesitan
aproximadamente 2 pares de líneas para detección, 7 pares de líneas para reconocimiento y 14
pares de líneas para identificación.

 • Determinación del alcance máximo

A partir de los cálculos anteriores con el Criterio de Johnson, se puede calcular el alcance máximo
al que se puede discriminar un objetivo. Esto depende de la longitud más pequeña del objetivo ( )
en las coordenadas de la imagen, además del número de pares de líneas necesario y las
características del sensor utilizado. Se obtiene mediante la siguiente expresión [35]:

 = [ ] (3)
 2· 
 [ ] · 0,7

Siendo el número de pares de línea necesarias para conseguir una probabilidad de
discriminación específica, obtenido a partir de las curvas de la Figura 11.
El factor de 0,7 es un valor empírico para transformar el valor de número de líneas necesario a
número de píxeles. El número aproximado de píxeles asociado a un requisito específico de pares de
líneas es, en general, el doble, en condiciones de perfecto alineamiento entre el sensor y el objetivo.
Sin embargo, en condiciones de operación se supone que cada píxel equivale a 0,7 líneas [35].

Marzo 2018 – Julio 2018 19
Estado del arte de las Tecnologías

 • Determinación de la altura máxima

Para plataformas aéreas, dada la resolución deseada para discriminar (detectar, reconocer o
identificar) un objetivo ( ℎ ), es posible calcular la altura máxima a la que el sensor es capaz de
ofrecer una imagen de dicho objetivo con esa resolución. La máxima altitud a la que el sensor se
puede utilizar en esa situación viene daba por la expresión [34]:

 ℎ
 ℎ = [ ] (4)
 [ ]
 2 · ( )
 2

La resolución deseada para discriminar al objetivo viene dada por la longitud mínima del objeto,
relacionada con su tamaño, y el número de píxeles necesarios, dados por el criterio de Johnson:

 ℎ = [ ] (5)
 í 

 • Determinación de la velocidad máxima

La velocidad máxima que puede alcanzar una plataforma para obtener imágenes de un objetivo con
una resolución deseada ( ℎ ) puede estar limitada por la velocidad de la propia plataforma o por el
tipo de sensor que lleve embarcados.
En el caso de los satélites su velocidad viene fijada por la velocidad orbital, ya que su velocidad es
constante a la altura a la que se encuentra la órbita. Sin embargo, en las plataformas aéreas la
velocidad es variable, teniendo siempre una velocidad máxima límite.
Según el tipo de sensor embarcado en la plataforma, la velocidad de esta puede estar limitada de
una manera u otra. En el caso de los sensores hiperespectrales en los que la imagen se obtiene
escaneando línea a línea el terreno (modo de operación pushbroom), la velocidad máxima depende
de la resolución requerida (tamaño de los píxeles) y de la frecuencia de toma de líneas por parte del
sensor, que en este caso corresponde con el parámetro fps de las cámaras hiperespectrales. Si la
velocidad es muy alta pueden quedar zonas del terreno sin visualizar. La velocidad máxima se
calcula mediante la expresión [34]:

 = · ℎ [ / ] (6)

Sin embargo, para cámaras de espectro visible e infrarrojo, si la detección de los objetos no se
realiza de forma automática, el operador requiere habitualmente un número determinado de
imágenes consecutivas para detectar el objeto. La velocidad máxima debe ser tal que el objeto a
detectar aparezca en al menos nimágenes imágenes consecutivas, de tal forma que se debe producir un
solapamiento entre ellas (si nimágenes ≥ 2). En este caso, la velocidad se puede obtener mediante la
siguiente expresión, similar a la anterior pero dependiente del número de imágenes y del número de
píxeles de la imagen en la dimensión de desplazamiento de la plataforma (along-track):

Marzo 2018 – Julio 2018 20
Estado del arte de las Tecnologías

 · · ℎ
 = [ / ] (7)
 
Generalmente, puede asumirse que un operador necesita al menos 5 imágenes consecutivas en las
que se encuentre el objeto, mientras que en el caso de algoritmos de detección automática, es
posible detectar el objeto con una sola imagen. En cualquier caso, la herramienta está
implementada de tal forma que el usuario pueda definir el número de imágenes consecutivas
requeridas para detectar un objeto.

Normalmente, la velocidad máxima de la plataforma se expresa en Km/h, por lo que a los
resultados de las expresiones anteriores hay que multiplicarlos por el factor 3,6.

 • Mínimo tamaño detectable

Considerando una cierta altura de vuelo y partiendo de la ecuación (4), se puede obtener la longitud
mínima de un objeto que puede ser detectado en función de la altura a la que se encuentra el sensor.
Este parámetro es útil en el caso de las plataformas satelitales, donde la altura del sensor está fijada
por la altura orbital del satélite y es constante. De esta manera, se obtiene el tamaño mínimo a
través de la expresión:
 [ ]
 ℎ = ℎ · 2 · ( ) [ ] (8)
 2
 = ℎ · í [ ] (9)

Siendo ℎ la altura orbital del satélite.
 • Ancho de área cubierta y área cubierta por unidad de tiempo

Indica la anchura de la porción del terreno que es cubierta por el sensor en cada imagen. Esto
depende de la altura a la que el sensor está operando y del campo de visión (FOV) del mismo [34]
en la dirección perpendicular al movimiento de la plataforma, como se observa en la Figura 12.

 FOV [rad]⁄ [Km]
 = 2 · · tan ( 2) (10)

Además, relacionando este cálculo con la velocidad de la plataforma, podemos obtener el área
cubierta por unidad de tiempo [34]:
 2 2
 ′ = · [ ⁄ ó ⁄ℎ] (11)

Siendo el ancho cubierto (cálculo anterior) y la velocidad de la plataforma, normalmente
expresada en ⁄ o en ⁄ℎ.

Marzo 2018 – Julio 2018 21
Estado del arte de las Tecnologías

 Figura 12. Ancho del área cubierta en función de la altura y el FOV [34].

 • Resolución espacial

Indica la mínima longitud terrestre que puede ser detectada por el sensor. Esta depende de la
distancia entre el sensor y la superficie, representada por la altura a la que se encuentra la
plataforma con el sensor, y del campo de visión instantáneo (IFOV). Por lo tanto, se puede calcular
a partir de la expresión 4, siendo ℎ la altura de la plataforma:

 [ ]
 = 2 · ℎ · ( ) [ ] (12)
 2
 • Tiempo de revisita

El cálculo del tiempo de revisita se realiza a partir de la velocidad de la plataforma y de la distancia
que recorre o área que debe cubrir. En el caso de las plataformas satelitales, el tiempo de revisita
viene indicado como parámetro de entrada debido a que depende de la órbita del satélite. Por
ejemplo, los satélites de observación de la tierra suelen tener orbitas polares heliosíncronas con un
tiempo de revisita de 11 días en los que recorre la órbita 167 veces en total.
En cambio, para las plataformas aéreas, el tiempo de revisita también se puede calcular como el
tiempo que tarda la plataforma en recorrer una cierta distancia para vigilar todo el escenario o cubre
una cierta área especificada en el escenario que se debe llevar a cabo la misión ISTAR. Esto se
obtiene mediante la siguiente expresión:

 = ⁄ [ ] (13)

De la misma manera, podemos obtener el tiempo de revisita medio a partir del cociente entre el
área que debe cubrirse y el área cubierta por unidad de tiempo s’:

 = á ⁄ [ ] (14)
 ′

Generalmente, si se desea cubrir una franja de terreno que presenta una mayor anchura que el
ancho de las imágenes tomadas por el sensor óptico, se definirá una cierta trayectoria de vuelo de la
plataforma aérea de tal forma que se consiga cubrir todo el escenario, tal y como se muestra en la
Figura 13. En este ejemplo, teniendo en cuenta el ancho de la imagen tomada (relacionada con el
FOV y la altura de vuelo dada por la ecuación (10), la plataforma deber realizar cuatro pases, para

Marzo 2018 – Julio 2018 22
Estado del arte de las Tecnologías

cubrir completamente el área a vigilar, y un cierto número de maniobras seguras.
Por tanto, el valor de trev obtenido mediante la ecuación (14) es un límite inferior que habitualmente
se verá incrementado por la necesidad de llevar a cabo trayectorias seguras para las plataformas, de
acuerdo a su maniobrabilidad, y por el tiempo dedicado a volver al punto inicial de adquisición del
escenario. Además, se debe tener en cuenta que dicho parámetro corresponde a un valor medio y
que, en función de la trayectoria que siga la plataforma, puede haber áreas que se cubran con
distintos tiempos de refresco, que pueden ser inferiores o superiores al tiempo medio de refresco.

 Figura 13. Ejemplo de trayectoria de vuelo para cubrir el área a vigilar con un cierto ancho de imagen.

Otra opción consiste en tomar las cuatro franjas del ejemplo con un solo pase de la plataforma
aérea, de manera que, a medida que se sigue la trayectoria, se apunta secuencialmente el sensor
óptico y se modifica su FOV para cubrir las cuatro franjas y mantener la resolución espacial. Esta
estrategia supone disminuir la velocidad de la trayectoria en un factor 4, en el caso del ejemplo,
debido a que se debe disponer de tiempo suficiente para tomar las imágenes de las cuatro franjas.
Por tanto, el tiempo de refresco medio es aproximadamente el mismo que el obtenido con la
estrategia anterior. Además, es posible que la plataforma de estabilización y apuntamiento donde
va embarcado el sensor óptico no permita un apuntamiento tan rápido como el necesario para
aplicar esta estrategia de exploración de la zona de interés.

 4.4. IMPLEMENTACIÓN DE LA HERRAMIENTA

El desarrollo de la herramienta se ha llevado a cabo en Microsoft Office – Excel, con el objetivo de
que sea fácilmente accesible a usuarios con conocimientos básicos de ofimática.

Tras programar los modelos analíticos descritos en el apartado anterior, con el objetivo de realizar
un ejemplo de uso de la herramienta de análisis, se han introducido los parámetros técnicos dados
en las hojas de especificaciones de distintos sensores y plataformas. En este trabajo se ha
seleccionado un total de ocho sensores y nueve plataformas de diferentes tipos.

Los sensores se han seleccionado entre los distintos tipos descritos en el segundo capítulo
(hiperespectrales, infrarrojos y de rango visible), con el objetivo de poder realizar un análisis de

Marzo 2018 – Julio 2018 23
También puede leer