Tema 04

  • November 2019
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Tema 04 as PDF for free.

More details

  • Words: 8,436
  • Pages: 23
Asignatura: Cartografía urbanística y catastral Tema 4: Métodos de toma de datos Ángel Manuel Felicísimo Pérez Área de Ingeniería Cartográfica, Geodesia y Fotogrametría Departamento de Expresión Gráfica Curso 2006-2007

1 Sistemas de localización, GPS GPS es la abreviatura de NAVSTAR GPS. Este es el acrónimo en inglés de NAVigation System with Time And Ranging Global Positioning System, (que puede traducirse por Sistema Global de Localización Global con Sistema de Navegación por Tiempo y Distancia). El sistema tuvo su origen a principios de los años 70, cuando se propuso un proyecto destinado a satisfacer las necesidades militares de los Estados Unidos: poder determinar (en cualquier momento y bajo cualquier condición atmosférica) una posición precisa en cualquier punto de la superficie terrestre. El GPS fue diseñado originalmente para fines militares pero resultó claro que el GPS también podía ser utilizado en aplicaciones civiles y no únicamente para obtener localizaciones a nivel personal (lo previsto para los fines militares). Las dos primeras aplicaciones principales de tipo civil fueron para navegación y para topografía. Hoy en día, el rango de aplicaciones va desde la navegación de automóviles o la administración de una flotilla de camiones, hasta la agricultura de precisión. El GPS se suele descomponer en tres partes o “segmentos”: •

el segmento espacial formado por los satélites que orbitan la Tierra



el segmento de control, formado por estaciones terrestre ubicadas cerca del Ecuador y que se utilizan para el seguimiento y control de los satélites.



el segmento de los usuarios, formado por los usuarios del sistema

1.1

La organización del sistema

El segmento espacial El segmento espacial consiste de 271 satélites que giran en órbitas elípticas, organizadas en 6 planos orbitales a una distancia media de 20 200 km y que dan una vuelta a la Tierra cada 12 horas. En estos momentos existen 26 satélites operativos que giran alrededor de la Tierra.

Figura 1. Satélite de la constelación GPS El segmento espacial está diseñado de tal forma que se pueda contar con un mínimo de 4 satélites visibles por encima del horizonte con un ángulo de elevación de al menos 15º en cualquier punto de la superficie terrestre durante las 24 horas del día. Cada satélite GPS lleva a bordo varios relojes atómicos extremadamente precisos que trabajan a una frecuencia de 10.23 MHz, la cual se emplea para generar las señales transmitidas por el satélite. Los satélites transmiten constantemente en dos ondas portadoras que se derivan de la frecuencia fundamental. •

la portadora L1 se transmite a 1575.42 MHz (10.23 x 154)



la portadora L2 se transmite a 1227.60 MHz (10.23 x 120).

Las portadoras trasmiten dos códigos llamados código C/A (coarse adquisition) y código P (protected) o código de precisión.

1

Dato de http://gge.unb.ca/Resources/HowDoesGPSWork.html (marzo de 2003)

1

Los receptores GPS utilizan estos códigos para distinguir entre sí los satélites y para calcular las distancias a ellos.

El segmento de control El llamado “segmento de control” consiste de una estación de control maestro, 5 estaciones de observación y 4 antenas de tierra distribuidas en 5 puntos cercanos al Ecuador terrestre. El segmento de control rastrea los satélites GPS, actualiza su posición orbital y calibra y sincroniza sus relojes. Asimismo, se mide la órbita de cada satélite y se predice su trayectoria para las siguientes 24 horas. Esta información se envía a cada satélite para que, en su momento, éste la transmita a los receptores GPS para que conozcan su posición. Las señales de los satélites se reciben en las estaciones de Ascensión, Diego García y Kwajalein y se envían a continuación a la Estación de Control Maestro, localizada en Colorado Springs (EE.UU), donde se procesan para detectar posibles errores en cada satélite. La información se envía posteriormente a las cuatro estaciones de observación equipadas con antenas de tierra y desde allí a a los satélites.

Figura 2. Localización de las estaciones del “segmento de control”

El segmento de usuarios El “segmento de usuarios” comprende a cualquiera que reciba las señales GPS con un receptor.

1.2

Fundamentos del funcionamiento del GPS

Existen tres métodos para determinar la posición mediante GPS: •

Localización autónoma, donde se utiliza un único receptor ubicado en el lugar cuya posición se desea saber



Localización con corrección diferencial (DGPS), utilizando dos receptores GPS uno de los cuales está en una posición conocida



Localización diferencial de fase, donde se utiliza la fase de la señal para mejorar la precisión

La exactitud del método suele expresarse como un “círculo de confianza” al nivel del 95%. El radio de este círculo expresa un límite dentro del cual esperaremos encontrar el 95% de las medidas tomadas con el receptor. Por ejemplo, si decimos que el círculo de confianza al 95% tiene un radio de 5.5 m, estamos indicando que, de cada 100 medidas tomadas en lugar de situación conocida, 95 tendrán asociado un vector de error de módulo inferior a 5.5 m.

Localización autónoma Un único receptor puede dar resultados de posición basándose en la técnica conocida como trilateración: medida de distancias a varios satélites simultáneamente.

2

La idea básica es la siguiente: •

conociendo la distancia d1 desde el receptor a un satélite de posición conocida, mi posición sólo puede estar en la superficie de una esfera de radio d1.



si conozco una segunda distancia a otro satélite, d2, mi posición sólo puede estar en algún lugar de la intersección de las dos esferas: una circunferencia.



si, finalmente, determino una tercera distancia, d3, a un nuevo satélite, la intersección de las tres esferas se reducen a dos puntos. Habitualmente, esta localización será suficiente porque una de las posibilidades podrá descartarse por estar lejos de la superficie terrestre.

Figura 4. Intersección de tres esferas en el espacio (dos puntos)

Figura 3. Intersección de dos esferas en el espacio (una circunferencia)

El problema reside, por tanto, en determinar con exactitud y precisión la distancia desde el receptor a cada satélite. Para ello debe determinarse el tiempo que cada señal tarda en llegar al receptor desde cada punto de origen. Una vez conocido este tiempo, t , la distancia es fácil de estimar: d = c · t, donde c es la velocidad de la luz (299 792 458 km/s en el vacío). Para conocer el tiempo del viaje es necesario saber cuándo se emitió la señal en el satélite y cuando llegó a nuestro receptor. Esto se consigue de la forma siguiente (ver Figura 5): •

La señal que se emite está modulada de acuerdo con un patrón pseudo-aleatorio (código C/A) determinado por el reloj del satélite. El código de 1023 bits se emite a una frecuencia 1.023 MHz lo que supone una repetición de 1000 veces por segundo. Se denomina distancia máxima no ambigua a la distancia recorrida por la señal en el tiempo de duración del código (igual a c/1000, unos 300 km).



Este mismo código se genera por el reloj que tiene cada receptor.



El desfase o retraso (“lag”) entre ambas señales, emitidas al mismo tiempo, hace posible estimar el tiempo trascurrido entre la emisión y la recepción.

Figura 5. Cálculo del tiempo por comparación de dos señales con igual modulación. Este principio plantearía un sistema de ecuaciones con tres incógnitas: las coordenadas del receptor (la localización de cada satélite se trasmite en las propias señales que emite). En

3

realidad, el problema es algo más complejo porque los receptores carecen de reloj atómico por lo que al sistema de ecuaciones se le añade una incógnita más, relacionada con la inexactitud del reloj local. Por este motivo es necesario disponer de un satélite más para resolver el problema.

Figura 6. Fragmento de código C/A, formado por una secuencia 1023 bits que se emite a una frecuencia de 1.023 MHz (el código se repite cada 1 ms). La corrección del tiempo basada en este sistema de ecuaciones con 4 incógnitas puede explicarse verbalmente de la forma siguiente: •

la intersección de las tres esferas se producirá en un punto



si el reloj local (del receptor) estuviera perfectamente sincronizado con los relojes remotos, y la introducción de una cuarta medida será coherente con las anteriores y pasará exactamente por el mismo punto



como el reloj local no está sincronizado perfectamente, la cuarta medida no coincidirá; esta discrepancia se debe a un retraso o adelanto de nuestro reloj local



la solución es probar a “mover” nuestro tiempo local hasta que las 4 medidas coincidan en un único punto, que será la solución correcta

Es decir, a partir de cuatro satélites con relojes coordinados y un receptor con un reloj sólo aproximadamente coordinado, es posible detectar y eliminar el error de desfase local y hacer una estimación exacta de la posición (ver figura siguiente). La precisión del método depende de la frecuencia del reloj: a mayor frecuencia, mayor precisión. Por este motivo, el uso militar del GPS consigue mejores precisiones ya que el código que usan (código P) tiene una frecuencia 10 veces mayor que el código C/A.

En la medida, las tres esferas primeras (gris) coinciden en un punto pero la medida de control (negro) no es compatible. Este error es debido a que el reloj local no está perfectamente sincronizado con el de los satélites.

Las posibilidades de falta de sincronización no son infinitas y es posible ensayar entre diferentes desfases para conseguir un ajuste perfecto en la intersección de las 4 esferas.

4

Fuentes de error en las medidas Existen fuentes de error que degradan las medidas del GPS, algunas de las cuales pueden ser corregidas, como veremos posteriormente. Distorsión ionosférica y atmosférica La velocidad de la luz sólo es constante en el vacío y en el viaje de las señales desde los satélites hasta el receptor esta velocidad varía. El retraso no es constante por lo que afecta a la estimación del tiempo de forma imprevisible. Algunos factores que intervienen son la elevación del satélite sobre el horizonte local, la variación en las características de la ionosfera entre el día y la noche (la perturbación nocturna es mínima) y el contenido en vapor de agua de la atmósfera. La solución consiste en duplicar las medidas aprovechando las dos frecuencias, L1 y L2, de las señales GPS. Como la reducción de la velocidad a través de la ionosfera es inversamente proporcional a la frecuencia de la señal, la disponibilidad de medidas en dos frecuencias permite estimar el efecto con precisión. Los receptores GPS que pueden aprovechar esta propiedad física se denominan “de doble frecuencia”. Errores por multitrayectoria Este error se produce cuando el receptor recibe no sólo la señal principal del satélite sino también ecos procedentes de la reflexión de dicha señal en superficies como agua, muros, etc. Las antenas actuales incorporan protecciones para reducir este efecto. Dilución de la precisión (DOP) La posición de los satélites influye en las medidas en función del ángulo con el que se intersecan las esferas de localización. Dos satélites muy próximos entre sí generarán dos esferas de posiciones casi tangenciales con lo que la determinación de la intersección será imprecisa. Para expresar el factor de imprecisión se utiliza un índice llamado GDOP (dilución de la precisión geométrica) cuyo valor aumenta con la imprecisión. El valor de GDOP puede reducirse aumentando el número de satélites o mejorando sus posiciones respecto al receptor: ángulos abiertos y buenas elevaciones sobre el horizonte local (más de 15º).

Figura 7. Dos posiciones con alto GDOP (baja precisión, izquierda) y bajo GDOP (alta precisión, derecha). El GDOP puede considerarse en una aproximación como inversamente proporcional al volumen del tetraedro en la figura.

5

1.3

Localización con corrección diferencial (DGPS)

Se llama GPS diferencial a la toma de datos que se realiza incorporando al receptor autónomo un receptor complementario (receptor base o de referencia) situado en un punto de posición conocida. La idea de funcionamiento es muy simple: dado que el receptor de referencia está en un punto de coordenadas conocidas, puede comparar los resultados de la medida GPS con la posición real. Las diferencias en X, Y y Z son los errores inducidos por el efecto ionosférico, relojes en los satélites, variaciones orbitales, o cualquier otra fuente de error que esté actuando. El receptor de referencia transmite los resultados al receptor autónomo que incorpora las correcciones a sus propias medidas. Este procedimiento incrementa notablemente la exactitud de la medida final. Debido a movimiento de los satélites y a otros factores, los valores de las correcciones cambian rápidamente por lo que la estación base debe calcular y transmitir las correcciones con la misma rapidez al receptor autónomo. La distancia entre los dos receptores se denomina línea base (baseline). Cuando esta distancia es pequeña, las correcciones son exactas; como regla práctica, por cada km de línea base puede estimarse un incremento de imprecisión de 1 mm aproximadamente, equivalente a 1 parte por millón (1 ppm). Para receptores monofrecuencia, la tasa aumenta a 2 ppm. La corrección diferencial elimina todos los errores salvo los derivados de la posible multitrayectoria y de errores internos del receptor autónomo. La corrección diferencial puede aplicarse en tiempo real (lo cual exige la conexión por radio entre los dos receptores) o no. En este último caso, las medidas se almacenan en ambos receptores y se realiza un tratamiento informático a posteriori o en “postproceso”. Con un correcto tratamiento DGPS sin errores por multitrayectoria se consigue una precisión de unos 10 cm. Si se desea una mejora en estos resultados es necesario acudir a las llamadas “medidas de fase”.

1.4

GPS diferencial de fase

Esta técnica es diferencial lo que significa que, como el DGPS, son necesarias dos estaciones tomando medidas de forma simultánea. Sin embargo la técnica de estimación de medidas es diferente que en el caso anterior. La idea es determinar la distancia a los satélites contando el número de ondulaciones de la señal que se han producido desde la emisión hasta la recepción. Las señales emitidas por los satélites son ondas electromagnéticas de una longitud de onda conocida (L1 = 19.4 cm). Supongamos que somos capaces de determinar que entre la emisión y la recepción se han producido exactamente 104 123 824 ciclos. Como cada ciclo representa 0,194 m, la distancia entre el satélite y el receptor es 104 123 824 x 0,194 m = 20 200 021,856 m. El método puede ganar precisión si llegamos a determinar no sólo ciclos completos sino fracciones de ciclo (½, ¼, ⅛...). La idea es exactamente igual a la utilizada en los altímetros láser transportados por satélites ya que la luz láser es de frecuencia constante y coherente. La determinación del número de ciclos es esencialmente un problema estadístico que puede resumirse, muy simplificadamente en las siguientes figuras:

6

Una medida DGPS permite obtener una posición aproximada que, en cualquier caso, estará en algún lugar dentro del círculo.

Una medida de fase con un primer satélite nos da la intersección de las ondas con el círculo, reduciendo las posibilidades de localización: la posición real estará en algún lugar de las líneas dentro del círculo.

Una segunda medida de fase reduce las posibilidades a las intersecciones de los dos frentes de líneas dentro del círculo.

La adición de más satélites permite aproximarse a la solución más probable. Por añadidura, el continuo movimiento de los mismos cambia la configuración del sistema aportando más datos independientes que, al final, permiten aproximar una solución para la única constante del sistema: la posición local. Debemos quedarnos con la idea de que la resolución del número de ciclos es la clave en este método de medida que, en función del tiempo de medida y del resto de factores ya mencionados puede ofrecernos precisiones de orden milimétrico.

7

2 Captura remota de datos de altimetría Los métodos básicos para la conseguir los datos de elevaciones pueden dividirse en dos grupos: directos —primary data— cuando las medidas se realizan directamente sobre el terreno real, e indirectos —secondary data— cuando se utilizan documentos analógicos o digitales elaborados previamente. La tabla siguientes muestra los más importantes: Estos dos grupos incluyen los métodos siguientes: 1. Métodos directos: medida directa de los datos de altitud sobre el terreno (fuentes primarias). a. altimetría: instrumentos (altímetros) transportados por plataformas aéreas. i. altimetría radar. ii. altímetría láser, LIDAR. b. GPS (Global Positioning System): sistemas de localización mediante trilateración a satélites. 2. Métodos indirectos: medida a partir de documentos previamente elaborados (fuentes secundarias). a. Restitución, métodos que utilizan estereoscópicos de imágenes.

el

paralaje

calculado

mediante

pares

i. Imágenes analógicas: cámaras métricas convencionales. ii. Imágenes digitales: cámaras métricas digitales o sensores transportados por satélites con capacidad estereoscópica. b. Digitalización de mapas analógicos de forma manual o mediante escáneres.

2.1

Altimetría radar

El uso del radar (acrónimo de Radio Detection and Ranging) como altímetro se basa en un principio muy simple: una antena emite un pulso de energía electromagnética breve, intenso y altamente concentrado (direccional). Este pulso viaja a la velocidad de la luz hasta que encuentra una superficie reflectante. En ese momento, parte de la señal es reflejada y el eco es recibido por la antena tras realizar el viaje de vuelta. Si es posible determinar el tiempo ∆t transcurrido entre la emisión de la señal y la recepción del eco, la estimación de la distancia es simple: z = ½ c · ∆t donde c es la velocidad de la luz (ver figura siguiente).

Los altímetros radar son aparatos extremadamente precisos: los transportados por los satélites ERS-1 y ERS-22 —European Remote Sensing Satellite— es un radar de 13.8 GHz con un error nominal de apenas unos centímetros. Sin embargo, esta precisión es relativa, es decir, el altímetro es capaz de evaluar de forma muy precisa diferencias entre medidas sucesivas. Sin embargo, hacer encajar esos datos en un sistema de referencia global es un problema más complejo ya que depende de otros factores 2

http://earth.esa.int/ers

8

como la estabilidad orbital y distorsión atmosférica de las señales (mismo caso que en GPS). Estos problemas han sido resueltos poco a poco mediante grandes mejoras en los sistemas de navegación de los satélites y el uso de radares de doble frecuencia, que permiten conocer la magnitud de la distorsión inducida por el paso a través de la atmósfera.

Satélite ERS-1. El altímetro radar es la antena parabólica visible bajo los paneles rectangulares superiores (antena del SAR). Otro problema de más entidad es el derivado de la dispersión de la señal reflejada. Si la superficie terrestre fuera un reflector casi perfecto, el eco recibido por la antena sería intenso y claro. En realidad, la superficie del terreno es fuertemente difusora con lo que el eco es débil y difícilmente puede determinarse el momento exacto de la recepción. Este problema aumenta en zonas rugosas (montañas) hasta hacer el método inútil. Debido a estos problemas, la altimetría radar ha encontrado su mejor aplicación en la medida de la topografía de la superficie marina y en aplicaciones puntuales como el seguimiento de los hielos polares. Una gran ventaja del radar es que, además de una amplia cobertura y de que la toma de los datos no está limitada por la accesibilidad de la zona, sus señales no se ven perturbadas por una posible capa de nubes. Veremos posteriormente que una sofisticación del método original se ha convertido en el método más prometedor de captura de datos global: la interferometría radar. Un buen ejemplo del uso de altímetros láser es el sistema Topex/Poseidon3, un satélite lanzado en 1992 con el objetivo de medir la topografía marina (figura siguiente). Su buen funcionamiento hizo que la misión se prolongara mucho más allá de la fecha prevista de desactivación (1995) y sigue funcionando en la actualidad. Este sistema ha sido utilizado entre otras cuestiones para el seguimiento del fenómeno de El Niño (ENSO: “El Niño and the Southern Oscillation”) que supone variaciones estacionales de la temperatura del mar en el Océano Pacífico. Cabe destacar que los mapas de temperaturas del mar que frecuentemente se presentan para ilustrar el fenómeno de El Niño se generan a partir de la superficie topográfica (desniveles relativos). La sustitución del Topex/Poseidon es el satélite Jason-14, lanzado en septiembre de 2001 y actualmente en funcionamiento conjuntamente con el anterior.

3

http://topex-www.jpl.nasa.gov/

4

http://topex-www.jpl.nasa.gov/mission/jason-1.html

9

Superficie topográfica del mar (http://topex-www.jpl.nasa.gov/gallery/science.html)

2.2

Altimetría láser

Recordemos que láser (Light Amplification by Stimulated Emission of Radiation) es una luz monocromática y coherente: la longitud de onda de la luz es única y, además, las ondas se propagan en fase. El método de medida es esencialmente idéntico al expuesto para el radar con la obvia diferencia del uso de pulsos de luz en vez de microondas. Puede destacarse el temprano uso de esta técnica en misiones espaciales. La misión Magallanes levantó la topografía del Venus en el periodo 1990- 1994 mediante altímetros láser y SAR (radar de apertura sintética). Con estos datos se construyó el MDE del 98% de la superficie de Venus con 100 m de resolución espacial (http://www2.jpl.nasa.gov/magellan/). Actualmente, el instrumento MOLA (Mars Orbiter Laser Altimetry) realiza una misión topográfica sobre Marte que entre marzo de 1999 y febrero de 2000 tomó 266.7 millones de cotas con una precisión de 1 m. En este caso, el sensor levanta perfiles según se sobrevuela el terreno y es la suma de estos perfiles lo que ha permitido construir un MDE de Marte con exactitud superior a la disponible para nuestro propio planeta. El altímetro dejó de funcionar en junio de 2001 tras haber tomado unos 640 millones de cotas en 1696 días de operación (unas 377 000 cotas diarias). Monte Olimpo (Región de Tharsis, Marte), volcán de 764 km de diámetro y 25 km de altura; vista generada a partir de los datos MOLA.

El mayor problema para el uso de altímetros láser transportados por satélites es la enorme sensibilidad a los efectos atmosféricos, que los hace prácticamente inútiles salvo en condiciones de extrema transparencia. Este problema podría solventarse mediante láser aerotransportados,

10

con una altura de vuelo reducida (en todo caso, muy inferior a los centenares de km de las órbitas de los satélites). Aunque los antecedentes son remotos (NASA, años 70) no había sido posible construir un sistema funcional debido básicamente a los problemas de estabilidad de los aviones, sometidos a las turbulencias de la baja atmósfera, y que hacían que las medidas fueran tan imprecisas que resultaban inservibles. La introducción de la tecnología GPS para resolver el problema crítico de la posición de la plataforma permitió en los últimos años la construcción de instrumentos eficaces. El método actual se denomina genéricamente airborne laser scanning, e introduce algunas variantes sobre el método básico, de las cuales la principal es la sustitución de los instrumentos que generan perfiles por los que realizan barridos (scanners). Estos instrumentos utilizan láser que operan en el infrarrojo próximo, lo que proporciona señales reflejadas más claras tras la reflexión y difusión sobre el terreno. La precisión de los métodos de medida del tiempo emisiónrecepción han mejorado sustancialmente y está actualmente en los 10-10 s. La localización del avión y la estabilidad del instrumento se consigue mediante GPS y sistemas inerciales de navegación lo que permite una correcta localización en un sistema de referencia global. Por similitud con el radar, estos sistemas de barrido se han denominado LIDAR (Ligh Detection and Ranging). Los pulsos láser son enviados desde la plataforma aérea hacia el suelo en ángulos variables, barriendo un área bajo la traza del vuelo definida por ángulos de ±20º sobre la trayectoria cenital. Para cada pulso se calcula el vector que conecta el láser emisor con el punto de reflexión y se asignan unas coordenadas polares respecto al origen a cada punto del terreno. Esto debe realizarse con enorme rapidez ya que la baja altura del vuelo y la velocidad del avión imponen elevadas tasas de captura para obtener una densidad razonable de cotas. La frecuencia de pulsos es actualmente muy variable pero es posible trabajar con frecuencias de muestreo entre 2 y 25 kHz aunque algún sistema alcanza los 80 kHz. De acuerdo con estas cifras, en un vuelo a 1000 m la densidad de muestreo puede estar entre 1 punto por cada 20 m2 a 20 puntos por m2 con una precisión cercana a los 15 cm. Esta densidad es función simultánea de la velocidad de vuelo, altura, tasa de muestreo y ángulo de barrido.

LIDAR utilizado para estudios atmosféricos; en este caso los pulsos de luz son visibles mientras que en los LIDAR aerotransportados se utiliza luz infrarroja.

11

Modelo generado mediante LIDAR. La vista en perspectiva representa la superficie que ha reflejado la señal. La tonalidad es función de la intensidad de la señal reflejada. De esta forma, se combina el MDS con información “espectral” sobre la absorción de la señal por los distintos elementos que cubren el terreno. Imagen tomada de http://www.geolas.com/Pages/gallery.html El presente de los LIDAR es real y existen ya varias empresas que los fabrican y otras que los utilizan y ofrecen productos depurados. Una de las posibilidades de futuro está expresada en la figura superior donde se han combinado una imagen con una localización espacial. La revolución consiste en que este sistema es el único que aporta la localización espacial de cada punto de la imagen a la vez que ésta es capturada. Aunque hasta ahora esta imagen es “monocromática” y responde a la intensidad de la señal reflejada, cabe esperar la fusión entre esta tecnología y la captura de imágenes multiespectrales.

2.3

GPS, sistemas de localización Como los fundamentos ya han sido tratados, comentaremos aquí solamente que, aparte de las aplicaciones estrictamente topográficas, los GPS se utilizan para la captura de puntos de apoyo y de control para operaciones fotogramétricas. GPS ha supuesto una revolución en las técnicas topográficas ya que son un sistema que permite capturar datos independientemente de cualquier punto de referencia sobre el terreno. La determinación de la posición espacial no exige la conexión visual con otros puntos (condición característica de los métodos topográficos clásicos basados en nivelación) ni el apoyo en una red de referencia local ya que, por primera vez, se obtienen posiciones relativas a un sistema global de referencia, el WGS84. Disponer de puntos de apoyo es imprescindible para el proceso fotogramétrico mientras que los puntos de control se utilizan para el control del error. Todos ellos pueden obtenerse con rapidez y fiabilidad mediante GPS diferencial. Aparte de lo anterior insistiremos aquí en que las localizaciones proporcionadas por LIDAR aerotransportados también están referidas a WGS84 ya que la localización del avión se realiza con GPS.

2.4

Restitución fotogramétrica

Hasta el presente ha sido bastante más frecuente utilizar métodos indirectos para la captura de datos de elevación y generación de los modelos digitales de elevaciones (MDE). Las causas han sido que los de altimetría no han estado al alcance más que de unos pocos grupos de investigación mientras que la mayoría de los usuarios han visto como estos datos se mantenían inaccesibles bien por su coste bien por lo sofisticado de la tecnología. El método más utilizado en la construcción de MDE ha sido hasta ahora la restitución fotogramétrica. La restitución es un método indirecto que utiliza imágenes de la misma zona tomadas desde puntos diferentes; la diferencia de perspectivas junto con el conocimiento de algunos parámetros geométricos y físicos de la toma permite analizar el paralaje. El paralaje es el desplazamiento aparente de un punto respecto a su entorno en las imágenes cuando se observa desde dos posiciones diferentes. El análisis del paralaje permite construir un modelo 12

tridimensional de la superficie observada ya que, dada un plano de referencia común XY, este desplazamiento depende de la elevación. El reconocimiento exacto de puntos homólogos en las imágenes es un aspecto clave en la calidad del resultado. Esta identificación puede hacerse manualmente o de forma automática en estaciones fotogramétricas. Las estaciones fotogramétricas digitales no son sino ordenadores donde el proceso se realiza a partir de imágenes digitalizadas. Los pares estereoscópicos han sido hasta hace pocos años exclusivamente fotogramas aéreos, tomados por cámaras de gran formato desde aviones en vuelo a diferentes altitudes. Estas cámaras garantizan un control estricto sobre las condiciones de la toma en varios aspectos: planeidad del negativo, localización exacta en el plano focal, conocimiento preciso de las características del objetivo (longitud focal, aberraciones de las lentes), altura del vuelo en el momento de la toma, etc. El conocimiento de estos parámetros permite realizar las orientaciones de las imágenes: la construcción de un modelo geométrico que replica las localizaciones relativas del terreno fotografiado y de los puntos de toma. En estas condiciones ya es posible iniciar el reconocimiento de puntos homólogos (lugar que ocupa el mismo objeto en las diferentes fotografías) y mediante el cálculo del paralaje estimar la localización espacial en tres dimensiones. Se denomina punto de apoyo a un punto reconocible en las imágenes del cual se conoce su posición en un sistema de referencia concreto. La disponibilidad de varios puntos de apoyo permite que las localizaciones resultantes del proceso fotogramétrico sean absolutas, en el sentido de referirse al mismo sistema de referencia. Los puntos de apoyo suelen obtenerse mediante GPS por lo que el sistema de referencia será, en principio, WGS84.

Cámara métrica analógica (6x6 cm) utilizada en fotogrametría terrestre (Rolleiflex 6008)

Cámara métrica analógica utilizada en fotogrametría aérea (Leica RC30)

Actualmente han cambiado algunas cuestiones que hasta ahora se habían mantenido inmutables. Por ejemplo, en la fotogrametría “convencional” las imágenes son cenitales, paralelas y tomadas desde aviones mediante cámaras métricas analógicas sobre película fotográfica de gran formato (23x23 cm). Lógicamente, entre tomas consecutivas existe un solapamiento o recubrimiento que permite la estereoscopía. Este recubrimiento suele ser de 2/3 del negativo. La película de someterse a un proceso de revelado para poder utilizarse en las estaciones analíticas y debe ser digitalizada mediante un escáner para utilizarla en las estaciones digitales. Los cambios más recientes afectan a todo el proceso, tal como se expone a continuación.

Toma normal vs toma oblicua El primer cambio afecta a la concepción de la toma. Se denomina toma normal a la toma de imágenes donde los ejes ópticos son paralelos y aproximadamente perpendiculares a la superficie analizada. En el caso de la fotografía aérea, la cámara estaría orientada según la vertical y las fotografías se toman secuencialmente según avanza el avión cuidando que el recubrimiento sea suficiente.

13

Este procedimiento no es el único posible: se habla de toma oblicua cuando los ejes ópticos de las tomas no son paralelos. En el caso de la fotografía aérea, la cámara tomaría una imagen cenital (vertical) y algo más tarde otra oblicua desde otro punto pero de forma que los ejes ópticos converjan en un punto del terreno (centro de ambas imágenes). Si la toma oblicua es posterior el eje estará orientado hacia atrás del sentido de vuelo pero es posible el caso inverso (ver figura inferior).

Par estereoscópico oblicuo. La foto izquierda es cenital (eje de toma vertical) mientras que la derecha es oblicua y, en este caso, tomada anteriormente como puede deducirse del sentido del vuelo (figura de Mostafa & Schwarz 2001)5 La toma oblicua no está limitada a dos fotografías. En este sentido, en concepto de par estereoscópico es superable y es perfectamente concebible una toma oblicua múltiple centrada en un punto y desde diferentes puntos de vista. Si las estaciones fotogramétricas son capaces de aprovechar este diseño, la redundancia de datos puede sin duda mejorar notablemente la calidad de los resultados. La toma múltiple tiene fuertes implicaciones en el proceso fotogramétrico, especialmente en aplicaciones arquitectónicas y en la restitución de objetos complejos.

Cámaras analógicas vs cámaras digitales Otro cambio importante afecta a los propios instrumentos de la toma. Como ya se ha indicado, las cámaras analógicas obligan a someter a la película a un proceso fotográfico no exento de riesgos. Asimismo, el positivado y la digitalización del original analógico introducen distorsiones geométricas difíciles de controlar. Estos problemas pueden empezar a simplificarse con la aparición de las cámaras métricas digitales. La captura directa de imágenes digitales ha tardado en hacerse posible debido a problemas tecnológicos de diverso tipo: El primero es la baja resolución espacial: los sensores son elementos fotosensibles que pueden estar formando una matriz o una línea. En cualquier caso, la resolución espacial viene dada por el tamaño de los elementos ya que en función de la altura de vuelo y de la distancia focal del objetivo representan la unidad de superficie mínima sobre el terreno. Otro problema relacionado con el anterior viene dado por la propia configuración de los elementos. La disposición en matrices sólo se usan en las cámaras de medio formato para foto terrestre (6×6 cm). Las cámaras aéreas usan la configuración en líneas y realizan un barrido continuo de la superficie terrestre. Una imagen perfecta exige que las líneas sean paralelas pero esto no es posible debido a la inestabilidad del avión (movimientos de cabeceo, guiñada, etc.). Los sistemas inerciales reducen el problema pero no lo eliminan completamente por lo que puede producirse la ausencia de datos en algunas zonas.

5

Mostafa, Mohamed M.R. & Schwarz, Klaus-Peter (2001). Digital imaging georefencing from a multiple camera system by GPS/INS. ISPRS Journal of Photogrammetry and Remote Sensing, 56, 1-12.

14

Poco a poco estos problemas se han ido solucionando reduciendo el tamaño de los elementos y duplicando o triplicando las líneas de sensores para aumentar la redundancia. Esto ha llevado a la comercialización de la primera cámara métrica digital, el modelo ADS40 de Leica Geosystems.

ADS40 Airborne Digital Sensor de Leica Geosystems. Características: •

multiespectral: pancromático, rojo, verde, azul e IR próximo



triple vector de CCD (cenital, anterior y posterior)

Los cambios introducidos son importantes también en otros sentidos; por ejemplo, en el caso de matrices de elementos la imagen es similar a una convencional y la perspectiva es cónica; en el segundo el concepto es diferente ya que se realiza un barrido sobre el terreno capturando datos línea a línea. Aquí no existe perspectiva cónica más que en el sentido perpendicular a la línea de movimiento. Esquema de toma de imágenes fotográficas convencionales. Cada imagen se solapa con la anterior y la siguiente un 60% aproximadamente, lo que da cobertura estereoscópica.

Esquema de la toma estereoscópica mediante barrido. Los tres sensores del ejemplo capturan los datos simultáneamente con ángulos diferentes. En todo punto del terreno existen tres tomas: una vertical y dos oblicuas.

Fotogrametría aérea vs fotogrametría espacial La siguiente revolución ha venido dada por la incorporación de la capacidad estereoscópica a los sensores transportados por satélites. Aunque esto supone lógicamente una pérdida de resolución espacial debido a la altura de vuelo, la cobertura y la periodicidad de las tomas se hacen mucho mayores.

15

El primer satélite con capacidad estereoscópica fue SPOT, lanzado en 1986, que permitió obtener pares estereoscópicos mediante variaciones laterales en el ángulo de vista, programables desde tierra. Los sensores pancromáticos del SPOT permiten una resolución de 10 m, con un rango espectral de visión similar al del ojo humano. Según algunos autores, los MDE resultantes tienen una calidad comparable a los obtenidos mediante los métodos fotogramétricos convencionales. Otros autores, sin embargo, presentan estudios con valores de error más elevados, compatibles solamente con escalas poco detalladas. Actualmente existen varios satélites con capacidad estereoscópica. La tabla siguiente enumera los más conocidos.

Instrumento/Misión

País/Año

Pixel (m)

ECM (Z)

HRV/SPOT

Francia/1986

10

10

10

OPS/JERS

Japón/1992

18x24

~35

~35

Alemania/1993

4.3

IRS P/IRS-1C

India/1994

5.7

~5

~5

Long.: F/B

ASTER/TERRA

USA/1999

15

~40 m

~15

Long.: B

1

5

4

Long.

2.5

¿

¿

F/B

MOMS-02/Spacelab

Ikonos PRISM/ALOS

Japón/2004

ECM (XY)

ESTER. Lateral

Long.: F/B

La estereoscopía en los satélites puede tomarse de dos formas: •

estereoscopía lateral (cross-track): las imágenes se obtienen desde dos órbitas distintas lo que obliga al giro lateral del sensor. HRV-SPOT es un ejemplo de este tipo de toma.



estereoscopía longitudinal (along-track): las imágenes son obtenidas desde distintas posiciones en la misma órbita; los sensores suelen ser dobles o triples y mantener una orientación fija, hacia delante (forward) o hacia atrás (backward). Como ejemplos, ASTER realiza una toma hacia atrás y MOMS posee ambas. Lógicamente siempre existe una toma vertical.

ALOS, Advanced Land Observing Satellite, portador del instrumento PRISM. La figura muestra la forma de toma longitudinal mediante tres sensores simultáneos.

6

PRISM, Panchromatic Remote-Sensing Instrument for Stereo Mapping, radiómetro con 2.5 m de resolución y triple toma con ángulos de ± 24º 6

http://www.eorc.nasda.go.jp/ALOS/about/prism.htm

16

2.5

Interferometría radar

Ya se ha comentado antes que tanto al láser como el radar son sensores activos: emiten una radiación desde una antena emisora y reciben el eco. Si la radiación es coherente el sensor puede distinguir el punto exacto en el que se encuentra la oscilación de la onda reflejada: la fase. La medida de la fase proporciona un método extremadamente preciso de cálculo de distancia debido a la elevada frecuencia de trabajo: si un radar transportado por un satélite funciona a 6 GHz, la señal recorrerá sólo 5 cm en el tiempo de una oscilación completa. Si el suelo está exactamente a 800 km de distancia, los 1600 km de ida y vuelta corresponden a un número entero de ciclos (32 000 000) y la onda recibida llegará en fase con la onda de salida. Si la distancia es de 800 km y 1 cm, la onda llegará con un desfase del 40%: un 20% corresponde al cm del viaje de ida y el otro 20% al del viaje de vuelta. Este desfase se detecta en equipo receptor. La medida de la fase permite, por tanto, estimar las distancias con precisiones centimétricas. El problema con el que se encuentra esta metodología es que la unidad mínima de medida puede ser un área relativamente amplia de suelo; si este área es heterogénea generará reflexiones múltiples que se combinarán de forma que la fase resultante parece aleatoria e inutilizable. Quedémonos con los hechos de que los sensores activos emiten radiación electromagnética en la zona las microondas (1 – 0,001 m de longitud de onda) y que la antena receptora recibe la señal reflejada registrando tanto la amplitud como la fase. Los radares usados en interferometría suelen trabajar con frecuencias de 5 a 10 GHz. 7 El fundamento la interferometría es, en principio, simple: disponemos de dos antenas separadas; una de ellas emite una señal cuyo eco es recibido por las dos simultáneamente; las fases de los ecos recibidos no serán exactamente iguales debido a la diferente localización de las antenas respecto al punto terreno. Mediante los procedimientos matemáticos adecuados es posible deducir la altura del terreno a partir del valor de esta diferencia de fase. Un interferograma es el resultado de combinar las dos imágenes de fase tomadas simultáneamente desde lugares diferentes (una especie de par estereoscópico radar); el nombre proviene de la figura de interferencia que se genera cuando se combinan dos ondas. Obviamente, la realidad es algo más compleja. Cuando se recibe un eco de un píxel donde existe un único reflector, la fase es determinística pero cuando existen múltiples receptores en un píxel, existe un componente aleatorio que hace que una sola imagen de fase sea habitualmente inútil. Si se toman dos imágenes en condiciones adecuadas, los componentes aleatorios son prácticamente iguales y pueden ser eliminados, quedando sólo el componente determinístico. Por tanto, aunque la fase de cada imagen considerada independientemente parece aleatoria, el interferograma muestra que la diferencia de fases exhibe unos patrones de interferencia bastante claros. Estos patrones de interferencia son el resultado de combinar las dos fases de la señal reflejada en cada punto del terreno y son un indicador de las diferencias de distancia al terreno entre las dos tomas. También es posible usar una sola antena y comparar imágenes tomadas en dos órbitas diferentes en cuyo caso la distancia entre tomas deben estar dentro de unos rangos determinados para evitar una total pérdida de coherencia; esta distancia crítica depende de la aplicación y se ha valorado en unos 150-300 m para el ERS-1 para la construcción de modelos digitales de elevaciones.

7

El Shuttle Imaging Radar (SIR-C) desarrollado por la NASA trabaja a 5.6 GHz, el X-SAR (X-Band Synthetic Aperture Radar) italo-alemán a 9.6 GHz

17

Interferograma elaborado con imágenes radar de 24 cm de longitud de onda (banda L).

MDE generado a partir del interferograma anterior. La saturación de color responde a la intensidad de la señal reflejada.

http://www.ersc.wisc.edu/research/Projects/Radar/ifsar/ersc_ifsar2.htm

Otra idea del uso de la interferometría consiste en comparar dos imágenes del mismo lugar tomadas desde la misma posición pero en momentos diferentes. En principio, si las dos imágenes se toman exactamente desde el mismo sitio, no debería haber diferencias de fase los pixeles homólogos de las dos imágenes: si aparecen diferencias sólo pueden deberse a cambios ocurridos entre las dos tomas. Este principio se ha utilizado para el seguimiento de los movimientos debidos a terremotos y volcanes, así como para medir el movimiento de glaciares. Interferograma sobre el Volcán Westdahl (Alaska). La intrusión de magma en la cámara subterránea ha provocado el crecimiento del cono en unos 17 cm. Sobre zona de la cima (gris) no puede construirse el modelo ya que está cubierta de hielo.

Escala de desplazamiento en z

http://volcanoes.usgs.gov/About/What/Monitor/Deformation/Westdahl.html

18

SRTM, Shuttle Radar Topography Mission8 Esta misión, dependiente del JPL, se desarrolló en febrero de 2002, con el objetivo final de construir un MDE de gran parte de la Tierra mediante métodos de interferometría radar. La lanzadera espacial Endeavour portó dos radares de doble frecuencia que tomaron 12 Tb de datos a lo largo de 11 días (222 horas) a 225 km de altura y 7.5 km/s. En total se cubrió el 80% de la superficie terrestre (119.6 millones de km2) entre los paralelos 60N y 56S. La lanzadera llevó una de las antenas en el propio fuselaje mientras que la otra se desplegó en el extremo de un brazo de 60 m de longitud. Los dos radares permiten la captura simultánea de datos evitando los problemas de tener que usar capturas multiorbitales. Esquema de la lanzadera espacial con la segunda antena desplegada. Se prevé que el MDE cumplirá las especificaciones ITDH-2 (Interferometric Terrain Height Data-2) lo que implica un pixel de 30x30 m con una precisión absoluta altitudinal mínima de unos 12 m. La referenciación absoluta de los MDE se lleva a cabo mediante la toma de puntos de apoyo en tierra. Actualmente están disponibles los datos completos de toda la Tierra con una resolución mínima de 90 m y gratuitamente: ftp://edcsgs9.cr.usgs.gov/pub/data/srtm/

Cobertura de la misión SRTM donde se representa el número de veces que fueron tomados datos interferométricos. Señalaremos finalmente que en la actualidad existen Existen 4 satélites con radar operativos actualmente: Radarsat (CCRS, Canadian Center for Remote Sensing), ERS-1 y ERS-2 (Agencia Espacial Europea) y JERS-1 ( National Space Development Agency of Japan); aunque ninguno de ellos fue diseñado especialmente para generar interferometrías todos pueden ser usados para ello con mayor o menor facilidad y prestaciones.

8

http://www.jpl.nasa.gov/srtm/

19

El procesado de los interferogramas es complejo pero se trata de una tecnología ya relativamente madura para la que ya existen aplicaciones comerciales. Por ejemplo: IntelliWave9 de Engineering Synthesis Design, Inc. es una aplicación específica así como 11 EarthView InSAR 10 o GAMMA Interferometric SAR Processor (ISP) Finalizaremos con una curiosidad: como con otros métodos, los primeros pasos de esta técnica se dieron lejos de la Tierra: fue usada inicialmente por Rogers e Ingalls (1969) para la observación de la superficie de Venus y de la Luna.

Imagen del volcán Kiluaea elaborada mediante interferometría radar.

Para saber más: ESA Workshop on Applications of ERS SAR Interferometry, 1996, Remote Sensing Laboratories, University of Zurich, Switzerland. http://www.geo.unizh.ch/rsl/fringe96/

2.6

La digitalización

Hace unos años los métodos fotogramétricos eran utilizados generalmente por organismos de la administración o por empresas especializadas. El muy elevado coste de los restituidores analíticos hacía difícil que pequeños equipos pudieran abordar la construcción de los MDE por esta vía. La opción alternativa era la digitalización de los mapas topográficos preexistentes, lo cual puede realizada de forma manual, mediante un tablero digitalizador o en pantalla, o automáticamente mediante un escáner. Actualmente tal alternativa no tiene cabida, en mi opinión, ya que existen restituidores digitales cuya relación coste/eficacia es tan alta que hace inaceptable el uso de métodos de digitalización de originales cartográficos. Los motivos son diversos y serán expuestos posteriormente. El uso del escáner sí tiene completa vigencia en la digitalización de los fotogramas aéreos, operación necesaria para incorporarlos en las estaciones fotogramétricas digitales. Para esta función se utilizan los llamados escáneres fotogramétricos cuyas principales características diferenciales sobre los escáneres de sobremesa normales son básicamente las siguientes: resolución: las resoluciones normales de escaneo de documentos están entre los 300 y los 600 ppp (píxeles por pulgada, 25.4 mm); esto supone unos tamaños de pixel de 0.085 mm a 0.042 mm. Los escáneres fotogramétricos suelen permitir resoluciones alrededor de los



9

http://www.engsynthesis.com/intelliwaveframe.htm

10 11

http://www.ziimaging.com/productPages/terrain_model.htm#inSar http://www.gamma-rs.ch/isp.php

20

0.005 mm (5 µm, 5080 ppp), aunque el foto aérea se ha hecho habitual utilizar 0.020 mm (20 µm, 1270 ppp). •

exactitud geométrica: los píxeles deben estar “en su sitio”; la precisión en la localización geométrica de los pixeles deben estar alrededor de las 2-3 µm. Este valor se determina escaneando una placa calibrada con señales.

Aparte de las anteriores características, debe cumplirse que la resolución espectral (rango dinámico, capacidad para determinar niveles de gris) debe ser al menos igual que la de la película escaneada para no perder información.

Escáner fotogramétrico UltraScan 5000, de Vexcel http://www.vexcel.com/ o

resolución: 5 µm (5080 ppp)

o

exactitud geométrica: ± 2 µm

Un problema potencial en el uso de estos medios de elevada precisión es que los originales analógicos deben estar a la altura, es decir, es inútil utilizar un escáner fotogramétrico para digitalizar un positivo donde el revelado ha reducido el contraste y donde el soporte (papel) permite distorsiones dimensionales del orden de 0.5 mm o más. Una fotografía aérea positivada y almacenada sin cuidado puede un documento inútil para el proceso fotogramétrico con una probabilidad elevada.

Digitalización de mapas analógicos La digitalización automática de mapas ha sido una línea de investigación pujante hace años debido a dos factores: que los métodos de digitalización manual son lentos y proporcionalmente muy costosos dentro del total del proceso y que no prácticamente no existía información digital. De forma general, la digitalización de las curvas de nivel se realiza a en un proceso formado por varias fases: •

toma de una imagen del mapa mediante un escáner de gran formato (DIN A1 o mayor), con un tamaño de pixel suficiente para recoger claramente las líneas y discriminar la mínima separación entre ellas. En Peled y Fradkin (1994:249) se sugiere una resolución de 1000-1200 puntos por pulgada para la digitalización de originales complejos a escala 1:50.000. La imagen puede ser binaria pero también es posible tomarla en color para poder separar elementos de diferentes colores.



filtrado de la imagen para separar las estructuras de interés y descartar el resto. Por ejemplo, si las curvas de nivel están en color siena, se indicarán unas tolerancias para el mismo y se borrarán todos los pixeles que queden fuera del rango.



vectorización de la imagen contrastada, de forma que los pixeles adyacentes se estructuran en líneas, generándose la imagen vectorial más compacta y utilizable. Su similitud con el mapa original es función de la calidad gráfica y complejidad de éste pero suele ser un producto poco depurado debido a las dificultades de separar las líneas de nivel de cualquier otra entidad del mapa: retículas, toponimia, cotas, carreteras, red hidrográfica, tramas, etc. Esta fase puede realizarse de forma automática o asistida, donde la toma de decisiones ante situaciones conflictivas la realiza un operador ante la pantalla gráfica



edición manual, para la corrección de los errores topológicos y para la asignación de altitudes a las líneas

De este conjunto de procesos resulta la versión digital vectorial del mapa topográfico original cuyo coste y utilidad depende estrechamente de la calidad del mapa original.

21

El principal problema de la digitalización mediante escáner es que los originales suelen ser complejos, con mucha más información que la estrictamente deseable, que sería exclusivamente las curvas de nivel y poco más. Las confusiones con el resto de elementos del mapa hace que la fase de revisión y corrección sea frecuentemente muy costosa, hasta el punto de que puede tener un rendimiento menor que la digitalización manual. Este tipo de errores se propaga al documento digital como errores topológicos, el problema más frecuente de la vectorización automática.

La digitalización manual La digitalización manual se puede realizar sobre un tablero digitalizador o sobre la pantalla de un ordenador. En el primer caso se coloca el mapa original sobre el tablero mientras que en el segundo, el mapa analógico se habrá escaneado y será la imagen la que se presenta en la pantalla. En ambos casos, las curvas de nivel se siguen manualmente con un cursor de forma que el ordenador recibe a ciertos intervalos, normalmente decididos por el operador, las coordenadas que definen la trayectoria de la línea.

Los tableros digitalizadores contienen de una densa rejilla que es capaz de localizar el cursor con una precisión elevada (variable según el modelo pero no inferior a los 0.25 mm (100 líneas por mm). Esta precisión es superior a la que un operador es capaz de mantener durante una sesión de trabajo. Los programas de digitalización actuales ya no tienen problemas de capacidad a la hora de realizar trabajos complejos. Existen, sin embargo, otros factores que influyen en la eficacia global del proceso, como los siguientes: •

la capacidad del ordenador utilizado, que debe estar adaptada a la complejidad real de los mapas. Aunque los SIG suelen incluir utilidades de digitalización, su uso obliga habitualmente a inmovilizar un ordenador de gran capacidad para una tarea que no la necesita, lo que supone un derroche de medios poco justificable.



el uso de programas específicos para la digitalización obliga frecuentemente a usar formatos de almacenamiento que, aunque adaptados al manejo de la información gráfica, no se pueden usar de forma directa por los SIG. Este problema exige prever métodos de conversión de formatos que ocasionen una pérdida mínima de información. Debe resaltarse que los procesos de traducción de formatos, sobre los que se suele hacer poco énfasis, pueden suponer un problema no trivial y que exigen una inversión de tiempo a veces muy elevada.

Los trabajos de digitalización son, en la práctica, de calidad muy irregular aunque la competencia profesional del operador y la calidad del mapa original siguen siendo los dos factores básicos. Son, en cualquier caso, un método desaconsejable que sólo debe adoptarse como último recurso y con la seguridad de que la calidad del producto es suficiente para los objetivos que se persiguen.

22

Related Documents

Tema 04
November 2019 8
Tema 04
November 2019 14
Tema 04
May 2020 10
Presentacion Tema 04
December 2019 15
Inventos Tema 04
November 2019 10
Tema 04. Transistores.pdf
November 2019 12