SlideShare une entreprise Scribd logo
1  sur  52
Télécharger pour lire hors ligne
Capítulo III                                                                                  92

                                 CAPÍTULO III

3.1. Sistemas sensores de imageamento
        Existem diversos tipos de sensores de imageamento utilizados na
Fotogrametria e Sensoriamento Remoto, os mais comuns são: detectores
de arranjo matricial; detectores de arranjo linear; detectores de arranjo
linear multiespectral; detectores de arranjo matricial multiespectral; e
detectores de arranjo linear hiperespectral.
        Usualmente, os sensores são classificados como ativos e passivos, e
neste capítulo, estão organizados de acordo com o tipo de tecnologia de
imageamento utilizada pelo sensor. A Figura 3.1 mostra os sensores que
serão estudados aqui.




Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                                  93
Figura 3.1. Tipos de tecnologia de imageamento. (FONTE: JENSEN, 2009)




3.1.1. Sistemas passivos

        De todos os tipos de sistemas utilizados no processo de gravação de
dados para medidas fotogramétricas, o sistema de câmara ainda é o mais
empregado. O marco inicial da evolução das câmaras aéreas se deve ao
desenvolvimento do processo fotográfico e posteriormente à invenção das
aeronaves.
        A partir deste instante, os tecnólogos iniciaram suas pesquisas em
busca de tecnologia mais avançada, com a finalidade de melhorar os
sensores para a aquisição dos dados, corrigir os efeitos de perspectiva,
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                                  94
borramente provocado pelo arrastamento das imagens, resolução espacial,
espectral, radiométrica, entre outros aspectos. A Figura 3.2 apresenta um
breve      histórico   da    evolução      das    câmaras       aéreas      destinadas        ao
mapeamento.


   Figura 3.2. Evolução das câmaras aéreas destinadas ao mapeamento.




        As câmaras aéreas tiveram sua primeira funcionalidade na I e II
Guerra Mundial, com a finalidade da tomada de fotografias para fins de
estratégia militar. A câmara do tipo handheld era utilizada de forma que um
operador a segurava com as mãos para a tomada das fotografias. Percebe-
se que, o uso desta câmara somente poderia ser útil para finalidades de
reconhecimento,         sendo      totalmente      desconsiderado         seu     uso     para
mapeamento cartográfico de precisão.
        Em 1922 surgiu a primeira câmara RMK C1, com dispositivos
mecânicos mais avançados e um sistema de lentes superior à primeira
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                                  95
câmara aérea desenvolvida. Com isto, o avanço graduado da tecnologia
influenciou cada vez mais a melhoria dos sistemas de lentes e desta forma,
câmaras aéreas com melhor qualidade geométrica e radiométrica estão
sendo          desenvolvidas.      Em       1999,      na      semana        fotogramétrica
(Photogrammetric Week), foi anunciado o desenvolvimento da câmara
digital de arranjo matricial DMC-Z/I e em 2002 ocorreu seu lançamento no
mercado de mapeamento.
        Atualmente, existem três classificações de câmaras utilizadas na
aquisição de imagens para mapeamento, isto é:
                   Câmara métrica convencional;
                   Câmaras digitais convencionais; e
                   Câmaras digitais métricas.



3.1.1.1. Câmara métrica convencional

        Uma câmara métrica convencional é projetada especialmente para
aquisição de fotografias para fins cartográficos, pois fornece precisão
geométrica adequada para mapeamento. Uma câmara aérea com esta
capacidade é denominada de câmara cartográfica. Esta classificação é
empregada na produção de mapas e cartas topográficas. As câmaras
métricas são aquelas que possuem as denominadas marcas fiduciais, cuja
finalidade é materializar o sistema de coordenadas fotográficas garantindo
rigidez geométrica, devido ao plano focal ser estável.
        Este tipo de câmara utiliza rolos de filme para gravação dos objetos
contidos na superfície física, no modo pancromático ou colorido. A Figura
3.3 apresenta algumas câmaras aéreas baseada em filmes.




Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                                  96



                Figura 3.3. Câmaras aéreas baseadas em filmes.




        Fotografias tomadas com câmaras métricas convencionais são
denominadas de fotografias analógicas e o processo de transformação de
uma fotografia analógica para uma imagem digital ocorre por meio de um
processo       denominado        rasterização       ou     digitalização,     via    scanner
fotogramétrico (ver capítulo I).
        As câmaras métricas convencionais são do tipo quadro fotográfico,
ou seja, expõe um quadro de área do terreno em cada tomada de fotografia
em um dado instante. Isto requer que as lentes forneçam uma cobertura
angular adequada para que seja gravada a porção da área de interesse. A
Figura 3.4 apresenta um esquema gráfico de uma câmara de quadro
fotográfico.




Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                                  97

                       Figura 3.4. Quadro de área no terreno.




        Este tipo de câmara fornece fotografias de tamanho 23x23 cm e
permite recobrimento longitudinal de 60% à 90% e lateral de 10% à 30%,
com uma resolução geométrica de 2.5                     m (TOMMASELLI, 2001). As
principais partes de uma câmara aérea métrica convencional de quadro
fotográfico são: Cone; Corpo; e Magazine.
        O cone de uma câmara é utilizado como suporte para o sistema de
lentes fixado em relação à superfície inferior do cone. A superfície superior
do cone de uma câmara contém o plano focal que possui marcas de
referência, denominadas marcas fiduciais, que materializam o sistema de
coordenadas da fotografia resultante, ou sistema fotográfico.
        O corpo da câmara é constituído do cone externo (a função do cone
externo é receber o cone interno e o mecanismo de avanço motorizado do
filme e servir de interface para o magazine) e de outras peças, tais como,
suportes, alavancas de comando e dispositivos de controle automático do ciclo



Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                                  98
de funcionamento da câmara. Existem vários dispositivos para manter o filme
plano, sendo o dispositivo de vácuo-sucção o mais comum.
        O magazine da câmara é utilizado para armazenar, avançar e aplainar
o filme e possue um dispositivo de compensação de arrastamento (consiste
em um borramento na imagem provocado pelo movimento relativo do objeto
enquanto o obturador da câmara permanece aberto durante o tempo de
exposição do filme).
        Para Tommaselli (2001), os dispositivos de compensação de
arrastamento provocam um pequeno movimento sincronizado do negativo, na
direção do vôo, enquanto o obturador está aberto (Figura 3.5a). Este pequeno
movimento elimina o arrastamento e melhora significativamente a qualidade
da imagem (Figura 3.5b). Na Figura 3.5b mostra-se um magazine com um
dispositivo de compensação, também chamado de FMC (Forward Motion
Compensation), da câmara RMK-Top, Zeiss.


   Figura 3.5. Compensação do arrastamento. (a) Borramento na imagem
     causado pelo arrastamento. (b) Imagem sem arrastamento (FONTE:
                                   TOMASELLI, 2001)




                           (a)                             (b)


        A seguir serão apresentadas as características das câmaras digitais
convencionais.
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                                  99
3.1.1.2. Câmaras digitais convencionais

        As câmaras digitais convencionais são classificadas como: de
pequeno e médio formato, com modelos amadores e profissionais. As
câmaras digitais amadoras não possuem rigidez geométrica e radiométrica
da imagem. As            câmaras       digitais    profissionais     possuem        lentes     e
componentes internos de melhor qualidade geométrica, porém ainda não
alcançam a precisão das câmaras métricas convencionais. Estes modelos
têm sido bastante utilizados em projetos de cunho científico e, desde que
devidamente         calibrados,      podem         ser    utilizados      para      trabalhos
fotogramétricos.
        As câmaras de pequeno e médio formato possuem algumas
vantagens em relação às câmaras métricas convencionais, tais como: são
leves e de fácil manejo; custo reduzido; possuem um intervalo de distâncias
focais; flexibilidade de integração com sistemas GPS e INS; podem ser
integrados em diversos tipos de aeronaves; e grande disponibilidade no
mercado.
        A seguir serão apresentadas as características das câmaras digitais
métricas.

3.1.1.3. Câmaras digitais métricas


3.1.1.3.1. Sistema Tri-Linear

        De acordo com Fricker et al (2000), o sistema Tri-Linear possui 3
sensores CCD com configuração de varredura linear, cuja amostragem do
terreno é feita em 3 faixas. O sistema consiste de 3 sensores lineares
posicionados no plano focal, cujas visadas são denominadas de anterior,
nadir e posterior garantindo a geometria e a cobertura estereoscópica da
superfície,     bem     como      sensores        multiespectrais      com     sensibilidade

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              100
controlada por filtros RGB e infravermelho, localizados próximos ao nadir. A
Figura 3.6 mostra as visadas anterior, nadir e posterior do sistema Tri-
Linear.


     Figura 3.6. Visadas de aquisição de imagens do sistema Tri-Linear.




        Com o sistema Tri-Linear todos os objetos aparecem em todas as
três faixas coletadas pelos sensores (Figura 3.7). A Figura 3.7, mostra duas
imagens adquiridas com o sistema supracitado nas visadas anterior e nadir.




Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              101
  Figura 3.7. Imagens originais de visada anterior e nadir, adquiridas pelo
                    sistema Tri-Linear. (FONTE: HAALA, 2001)




        Como pode ser percebida na Figura 3.7, as imagens originais
apresentam-se distorcidas e por isso é necessário um tratamento da
imagem (correção geométrica para ajustar as linhas imageadas) baseada
no emprego dos parâmetros de posição e atitude fornecidos pelo sistema
de integração GPS/INS. A partir destes parâmetros é realizada uma
retificação inicial das imagens, seguida de fototriangulação para o
refinamento da solução (para maiores detalhes ver HAALA, 2001). A Figura
3.8 apresenta as imagens retificadas.


 Figura 3.8. Imagens retificadas de visada anterior e nadir, adquiridas pelo
                    sistema Tri-Linear. (FONTE: HAALA, 2001)




Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              102
        Existem dois modelos de câmaras baseadas na abordagem Tri-
Linear, isto é, as câmaras HRSC-A (desenvolvida pelo Centro Espacial da
Alemanha) e ADS 40/50 (Desenvolvida pelo convênio Leica Geosystems e
Centro Espacial da Alemanha). Aqui serão tratadas as características da
câmara ADS 40.



Câmara ADS 40

        O sensores lineares ADS 40-Leica foram lançados no XIX Congresso
da ISPRS em julho de 2000, desenvolvida pela LH-System em cooperação
com o Centro Aeroespacial Alemão. A Figura 3.9 mostra uma imagem da
câmara instalada em uma aeronave.


Figura 3.9. (a) Câmara ADS40 – LEICA. (b) Câmara instalada na aeronave.
                              (FONTE: FRICKER, 2001).




                        (a)                              (b)


        Este tipo de câmara utiliza três componentes básicos para aquisição
de imagens, tais como: uma câmara digital de arranjo linear, receptor GPS
para determinação da posição e um INS para a determinação da atitude da
aeronave. O sensor digital linear fornece imagens do terreno por meio de
varreduras contínuas com as características do sistema Tri-Linear.


Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              103
        A câmara digital possui um sistema de lente com uma ou mais
distâncias focais, 3 a 5 sensores lineares no modo Pancromático (estéreo)
e de 3 a 7 sensores multiespectrais (RGB e infravermelho). A Figura 3.10
apresenta a varredura contínua e o esquema de varredura para cada tipo
de modo (PAN e Multiespectral).


       Figura 3.10. Varredura contínua e seus modos de imageamento.




                                                                                              0
        O campo de visada (FOV) do modo PAN anterior é de 28.4 ,
                                                        0
enquanto que o PAN posterior é de -14.2 ambos em relação a visada
nadiral. Isto faz com que se tenha uma imagem estereoscópica e possibilita
a visualização tridimensional. Para os sensores multiespectrais a visada do
                                        0                                            0
infravermelho posterior é de -2.0 e a visada RGB anterior é de 16.1 .
        Algumas vantagens deste tipo de sistema em relação às câmaras
convencionais são:
                  A projeção da imagem é perspectiva paralela;
                  Número de imagens para o recobrimento aéreo da região de
                  interesse é menor;

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              104
                  Resolução multiespectral melhor que as imagens de satélite
                  de alta resolução;
                  Produtos ligeiramente mais rápidos;
                  Sem a necessidade de rolos de filme, laboratório fotográfico
                  e scanners; e
                  Resolução de 8 a 12 bits, permitindo a visualização de
                  objetos obstruídos por sombra.


        Além das câmaras digitais de sensor linear também existem as
câmaras digitais de sensor matricial. A Tabela 3.1 apresenta algumas
diferenças entre a câmara digital de sensor linear e de sensor matricial.


    Tabela 3.1. Diferenças básicas entre câmara digital de sensor linear e
                   matricial. (ADAPTADO DE FRICKER, 2001).
ADS – 40 (Airbone Digital Sensor)                  DMC (Digital Mapping Camera)
   Sensor CCD de arranjo linear                    Sensor CCD de arranjo matricial
       PAN (24000 pixels)                             Pan (13826 x 7680 pixels)
                           *
       MS – R,G,B e NIR                                   MS – R,G,B e NIR
  Tamanho do pixel 6,5 x 6,5 m                       Tamanho do pixel 12 x 12 m
       1 lente telocêntrica                       4 lentes da Zeiss (PAN) + 4 lentes
                                                                 (MS)
         Distância focal 62,7 mm                   Distância focal 120 mm (PAN) e
                                                            25,4 mm (MS)
                           0                                        0    0
              FOV 64                                        FOV 74 x 44
            12 bits / 8 bits                                    12 bits
        Sistema inercial/GPS                       Sistema inercial/GPS (opcional)
 Resolução espacial mínima 15 cm                   Resolução espacial mínima 5 cm
           Memória 540 GB                         Memória 840 GB (> 2000 imagens)
*NIR: infravermelho próximo.




Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              105
Sensor Digital Aerotransportado
     O crescente desenvolvimento dos sensores digitais fotogramétricos
aerotransportados, aponta para a uma grande                      mudança na forma de
aquisição, processamento, manuseio e geração de produtos a partir de
imagens aéreas, permitindo a sua aplicação para diferentes áreas do
conhecimento, proporcionando uma redução no tempo                              de produção
(processamento          totalmente      digital),   melhor      resolução       espacial      e
radiométrica,      aquisição       simultânea       de    imagens       pancromáticas         e
multiespectrais, mais flexibilidade e custos mais baixos.
        Com base no tamanho do formato de aquisição da imagem os
sensores podem ser divididos em: a) pequeno formato: geram imagens com
tamanho de até 16 megapixels; b) médio formato: geram imagens entre 16
e 50 megapixel; c) grande formato: geram imagens acima de 50 megapixel
(PETRIE et alii, 2007) .
        Dentre os sensores de grande formato existentes no mercado, citam-
se os modelos que operam com foto e sensores matriciais (ITT: Geospatial
System; DIMAC: Dimac Systems; DMC Z/I: Intergraph; Ultracam-D e
Ultracam-X: Vexcel; STARIMAGER-TLS: Starlabo), sensores com linha
simples        (LINHA   SIMPLES?)         e   varredura      monocrómático          (THALES
OPTONICS 8010 e 8042: Vinten; GLOBAL SCAN: France), sensores com
linha simples e de varredura colorido (VOS 60 e VOS-80: Zeiss;
VERIMARC: Verimarc Plus Inc.), sensores com linha simples e varredura
hiperespectral       (ITRES       RESEARCH:           Canadá;       SPECIM:        Finlândia,
INTEGRATED SPECTRONS: Austrália), sensores com linha simples com
varredura panorâmico (Goodrich Paranoramic Line Scanner), sensor com
três linhas e varredura linear estéreo (HRSC-AX e HRSC-AXW:DLR; JAS
150: Jena Optronik, ADS40 e a 2ª geração ADS80:Leica, 3-DAS-1 e 3-OC:
Wehril Associates-USA e Geosystems-Ukraine), (PETRIE et alli, 2007).

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              106
        Aqui será tratado do sensor digital ADS 40 de varredura linear.


Sensor Digital ADS 40
     Lançado no XIX Congresso ISPRS de Amsterdã realizado em Julho
de 2000, o sensor digital aerotransportado, figura 3.11, da LH Systems
inicia uma nova era da fotogrametria digital, apropriadamente colocado no
início do novo milênio. Desenvolvido em conjunto com o Deutsche Zentrum
für Luft - und Raumfahrt (Centro Aeroespacial Alemão – DLR) em Berlin
(SANDAU et alli, 2000), o ADS40 foi o primeiro dispositivo imageador digital
aerotransportado com capacidade e performance, em termos de resolução
e cobertura, nas medidas similares as estabelecidas pelas câmaras aéreas
analógicas de filmes com formato 23 x 23 cm e resolução maior do que 100
linhas por milímetro (FRICKER et alli, 2001).


      Figura 3.11. Sensor ADS 40. Adaptado de FRICKER et alli, 2005ª.




        O ADS40 é um sensor digital linear aerotransportado com grande
campo de visão, alta resolução, acurácia geométrica e radiométrica que
utiliza o princípio de varredura com três linhas de sensores CCD (em inglês,
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              107
Charged Coupled Device), organizadas perpendicularmente à direção de
vôo (denominado pushbroom), obtendo desta forma, visada anterior,
vertical e posterior, figura 3.12, possibilitando a geração de modelos em três
dimensões.

  Figura 3.12. Princípio dos três escâner linear. Adaptado de FRICKER et
                                  alli, 2005ª.




        Na aquisição de imagens aéreas do terreno com o ADS40, todos os
objetos são gravados três vezes em 100% das cenas ou visadas, enquanto
em uma câmara aérea analógica com filme ou digital por foto, a aquisição
da imagem é obtida com 60 ou 50% de todos os objetos em três fotos
diferentes, figura 3.13.




Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              108
 Figura 3.13. Sobreposição de imagens na ADS40. Adaptado de FRICKER
                               et alli, 2005.




        O ADS40 gera imagens de faixas contínuas sem emendas ao longo
de cada linha de vôo, figura 3.14, e em diferentes perspectivas centrais,
figura 3.15, que permite, por exemplo, com o uso do produto do CCD linear
de visada vertical, uma faixa de imagem chamada quase-ortogonal
(FRICKER, 2005b).


    Figura 3.14. Imagem Pancromática com visada vertical. Adaptado de
                         FRICKER et alli, 2000.




Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              109
  Figura 3.15. Efeito da perspectiva central. Adaptado de FRICKER et alli,
                                   2000.




Composição do Sensor Digital ADS 40

Inertial Navegation System (INS)
       O ADS40 possui uma unidade de medida inercial composta por um
sistema de navegação inercial que utiliza tecnologia de posicionamento por
satélite (GPS) e determinação da atitude por um inercial (INS). O uso de
GPS/INS fornece ao sistema a capacidade de determinar continuamente o
deslocamento espacial do sensor de forma autônoma, apresentando
precisão suficiente para o georreferenciamento direto de imagens digitais
(MCMILLAN et alli, 1994; CRAMER et alli, 2001; CRAMER, 2003) , figura
3.16, possibilitando a realização de mapeamento com maior flexibilidade e
rapidez (RUY, 2004).




Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              110
Figura 3.16. Plano focal com a posição do sensor CCD linear. Adaptado de
                          FRICKER et alli, 2000.




Módulo Plano Focal e Sensor CCD (Charged Coupled Device)
     O plano focal, figura 3.17a, consiste de quatro conjuntos lineares de
CCD: dois deles contendo duas linhas e os outros dois contendo três linhas,
figura 3.17b, cada linha com duas matrizes de 12.000 pixels (SANDAU et
alli, 2000) separadas por uma distância de 3,5 m, sendo, 6,5 x 6,5 m a
dimensão de cada pixel, que permitem medir os valores absolutos dos
fótons que entram no sistema, como uma função de transferência linear.
        Os dois conjuntos de CCD externos, formados com 2x12.000 pixels
operam a banda pancromática, e os dois conjuntos internos, divididos em,
um conjunto contendo 3x12.000 pixels que opera as bandas RGB
(vermelho, verde e azul) e o outro conjunto também com 3x12.000 pixels
que opera, com duas linhas a banda pancromática e uma linha, a banda do
infravermelho próximo (NIR).
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              111
        Com esta disposição o sensor tem capacidade de gerar imagens no
pancromático anterior com o primeiro conjunto linear de CCD, imagens
multiespectrais nas bandas RGB (vermelho, verde e azul) com o segundo
conjunto, imagens no pancromático (visada vertical) com as duas primeiras
linhas e na banda do infravermelho próximo com a terceira linha do terceiro
conjunto de CCD e imagem no pancromático (visada posterior) com o
primeiro quarto conjunto, figura 3.17c.

     Figura 3.17. Plano focal com a posição do sensor CCD linear e a
  composição de bandas da imagem. Adaptado de FRICKER et alli, 2000.




Sistema Ótico Digital e Filtros
      A ótica inovadora da ADS40 é projetada para uso em fotogrametria e
sensoriamento remoto. A lente é semelhante em suas dimensões externas,
peso e resolução as lentes da câmara RC-30 com filme, sendo diferentes
em relação ao modo de gravação, pois, enquanto nas câmaras com filme a
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              112
minimização da distorção é primordial, a maior demanda requerida em
câmaras digitais é o telecentrismo das imagens, em função do trabalho com
bandas multiespectrais, (SANDAU et alli, 2000).
         O sistema ótico digital possuí, uma lente telecêntrica de distância
focal de 62,5 mm, figura 3.18, tamanho de pixel na imagem de 6,5 m, uma
abertura de visualização no solo com campo de visão FOV (em inglês, Field
of View) com ângulo de cobertura de 64°, diafragma com abertura f:4,
ângulos estéreos de 16° (visada vertical para anterior), 26° (visada posterior
para vertical) e 42° (visada anterior para posterior), faixa espectral entre 428
e 887 nanômetro (R:608,662nn; G:533-587nn; B:428-492nn; NIR1:703-
757nn e NIR2:833-887nn), resolução de 150 linhas por mm, precisão
geométrica de 1 m, medida dinâmica de 12-bit, resolução radiométrica de
8-bit;    vermelho     com      freqüência      de    200-800      HZ,     capacidade         de
armazenamento com capacidade de 200-500 GB, estabilização térmica e
barométrica na faixa de alta precisão de +10° até +30°, distorção radial
menor ou igual a 3%, filtros de bandas e de interferência metálica além dos
filtros para bandas RGB mantendo a qualidade campo visual do sensor
(SANDAU et alli, 2000 e FRICKER et alli, 2005a).

  Figura 3.18. Sistema Ótico Digital ADS40. Adaptado de FRICKER et alli,
                                   2000.




Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              113
Sistema de Feixes Trichroid (Tricóide)
      O sistema de divisão de feixes Trichroid desenvolvido pela Leica
especialmente para a ADS40, foi concebido com uma perda mínima de
energia, e garante que a luz, a partir da mesma área do solo, seja
detectada por três arranjos lineares sensíveis ao RGB. Outra matriz linear
sobre o plano focal captura os dados no infravermelho próximo, figura 3.19
(FRICKER et alli, 2001).



   Figura 3.19. Sistema Trichroid desenvolvido pela Leica para a ADS40.
                    Adaptado de FRICKER et alli, 2000.




Processamento e Aerotriangulação dos Dados do ADS40
     Os metadados originais, com as imagens e parâmetros posicionais e
de atitude do sensor no momento da tomada das imagens, permitem, a
obtenção de uma visão estéreo, medidas manuais de pontos de controle e
medidas automáticas de pontos fotogramétricos, e isto, garante o
processamento e o ajustamento do bloco, resultando em uma imagem
retificada com precisão e livre de paralaxe, que pode ser vista
estereoscopicamente, e ser usada, por exemplo, para coleta e edição de
feições cartográficas (FRICKER et alli, 2001).
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              114
        As imagens são classificadas de acordo com os níveis de
processamento em: a) Nível 0 (zero) – Dados Brutos: consistem em
imagem geométricas básicas (formato TIFF e outros formatos) e dados de
orientação processados; b) Nível 1 (um) – Dados Corrigidos: consistem em
imagens multiespectrais e pancromáticas estéreo totalmente retificadas; c)
Nível     2    (dois)   –   Dados       Geoposicionais:       consistem       em     ortofotos
pancromáticas e multiespectrais. Os dados de nível zero utilizam o LH
Systems ADS gerador nível zero e o pós processamento applanix, já os
níveis um e dois utilizam o systems ADS gerador nível um, SOCET SET,
DPW, ORIMA ou três pares fotogramétricos na estação de trabalho com
sensor de modelo ADS (FRICKER et alli, 2001).


Aplicações e contribuições para sistema digital aerotransportado

        Em função do sensor aerotransportado ADS40 possuir uma
resolução espacial variando entre 0,8 m e 0,01m e uma resolução espectral
no pancromático e no multiespectral este sensor é indicado para aplicações
de fotogrametria e sensoriamento remoto.
        O produto gerado pelo sensor pode ser utilizado em áreas clássicas
da cartografia como, defesa, mapeamento topográfico, construção civil,
infra-estrutura, telecomunicações, energia, agricultura, floresta, seguro e
desastres (HEIER, 1999).
        Novos métodos, em comparação com os já existentes para o
processamento de filmes aéreos digitalizados, foram introduzidos ao longo
dos últimos anos e investigações cuidadosas têm demonstrado que o
desempenho, a arquitetura, direção, georreferenciamento, modelagem do
sensor,        processamento       de     pontos,      aerotriangulação         do     sensor
aerotransportado ADS40 (FRICKER, 2001; HINSKEN et alli, 2002;
SANDAU et alli, 2000; TEMPELMANN et alli, 2000) e outros sistemas
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              115
(FRITSCH, 1997; HAALA et alli, 2000; HOFFMANN et alli, 2000; LEBERL et
alli, 2003; TIANEN et alli, 2003; WEWEL et alli, 1998; apud PATERAKI et
alli, 2003a).
        As pesquisas envolvendo o ADS40 demonstram a construção, o
desempenho, geometria e resolução do sensor                      (SANDAU et alli, 2000;
ECKARDT et alli, 2000; ZHU, 2004; CRAMER, 2006), a acurácia e a
precisão no uso da fotogrametria e do sensoriamento remoto (FRICKER et
alli, 2001; GREEN et alli, 2007; WASER et alli, 2007; DAI et alli, 2008;
ADDULLAH, 2009), o processamento, análise da qualidade radiométrica da
imagem, extração de feições por correlação de pixels e a geração de
modelos digitais de superfície (GWINNER et alli, 1999; NEUKUM, 1999;
SCHOLTEN, 2000; PATERAKI et alli, 2002; PATERAKI et alli, 2003a;
PATERAKI et alli, 2003b; HONKAVAARA et alli, 2007),                         a obtenção da
aerotriangulação usando os parâmetros determinados pelo sistema de
navegação inercial GPS/IMU (HINSKEN et alli, 2002), a investigação da
acurácia de mapeamentos topográficos (YOTSUMATA et alli, 2002) e a
comparação radiométrica entre o sensor ADS40 e outros sensores
(HONKAVAARA; 2007).


Resolução espacial do pixel no terreno e a escala do mapa

        Quando tratamos de imagens aéreas da superfície terrestre por meio
de sensores digitais aerotransportado, o detalhe mais importante para a
definição da precisão e acurácia com que necessitamos obter o produto
cartográfico não, é a escala da foto e a altitude de vôo, como no caso de
câmaras aéreas convencionais, e sim o tamanho ou resolução espacial do
pixel no terreno, também conhecido como GSD (em inglês, Ground Sample
Distance).


Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                                116
          A tabela 3.2 apresenta a relação entre o GSD do sensor ADS40 e a
escala do mapa.


                                                                   Comparação com filme
                                    Mapa Padrão
                                                                          fotográfico
                                                                                      Tam
 GSD                                                                                  anho
  com          Escala do                                                                do
 ADS4           Mapa                                                                  pixel
                           Acurácia x,y    Intervalo de
   0                                                            Escala da Foto          do
                             RMSE         Curva de Nível
                                                                                      filme
                                                                                       esca
                                                                                      nead
                                                                                         o
 5 – 10         1:500        0,125 m          0,25 m          1:3.000 até 1:5.500        2,50 –
   cm                                                                                   5,00 cm
  10 –          1:1.000      0,250 m          0,50 m          1:5.000 até 1:8.000        5,00 –
 15 cm                                                                                  7,50 cm
  15 –          1:1.500      0,400 m          0,75 m          1:6.500 até 1:10.000       7,50 –
 20 cm                                                                                  10,0 cm
  20 –          1:2.000      0,500 m          1,00 m          1:8.000 até 1:11.000       10,0 –
 30 cm                                                                                  15,0 cm
  25 –          1:2.500      0,600 m          1,25 m          1:8.500 até 1:13.000       12,5 –
 35 cm                                                                                  17,5 cm
  30 –          1:5.000      1,250 m          2,50 m         1:12.000 até 1:18.000       15,0 –
 50 cm                                                                                  25,0 cm
  40 –         1:10.000      2,500 m          5,00 m         1:17.000 até 1:27.000       20,0 –
 60 cm                                                                                  30,0 cm
  50 –         1:20.000      5,000 m          10,00 m        1:25.000 até 1:35.000       25,0 –
 70 cm                                                                                  35,0 cm
  50 –         1:25.000      6,250 m          12,50 m        1:28.000 até 1:42.000       25,0 –
 80 cm                                                                                  40,0 cm
  50 –         1:50.000      12,50 m          20,00 m        1:40.000 até 1:60.000       25,0 –
  100                                                                                   50,0 cm
   cm
  50 –         1:100.000     25,00 m          50,00 m        1:60.000 até 1:90.000      25,0 –
  100                                                                                  50,0 cm
   cm
Tabela 3.2. Relação GSD e escala do mapa. Adaptado de FRICKER et alli,
                                2000.




Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              117

     Figura 3.20. Exemplo de imagem de saída da ADS40. Adaptado de
                          FRICKER et alli, 2000.




        De forma similar a tabela 3.3 apresenta a relação entre o campo de
visada instantânea (IFOV) de um digitalizador medido em pontos por
polegada (DPI - dots per inch) ou micrômetros ( m), usado na
transformação de uma fotografia aérea convencional em uma imagem
digital, e a resolução espacial do pixel no terreno para fotografias em
diferentes escalas (JENSEN, 2009).




Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                                  118
Tabela 3.3. Relação ―pixel‖ no terreno e a escala da fotografia. Adaptado de
                              JENSEN, 2009.
 IFOV             do
                       Resolução do “pixel” no terreno para diversas escalas das fotografias (m)
 Digitalizador
 DPI       m           1:25.000        1:12.500     1:10.000    1:8.000      1:6.000       1:4.000
 100      254,000      6,350           31,750       2,540       2,032        1,524         1,016
 200      127,000      3,175           15,875       1,270       1,016        0,762         0,508
 300      84,667       2,117           10,583       0,847       0,677        0,508         0,339
 400      63,500       1,588           7,938        0,635       0,508        0,381         0,254
 500      50,800       1,270           6,350        0,508       0,406        0,305         0,203
 600      42,333       1,058           5,292        0,423       0,339        0,254         0,169
 700      36,286       0,907           4,536        0,363       0,290        0,218         0,145
 800      31,750       0,794           3,969        0,318       0,254        0,191         0,127
 900      28,222       0,706           3,528        0,282       0,226        0,169         0,113
 1000 25,400           0,635           3,175        0,254       0,203        0,152         0,102
 1200 21,167           0,529           2,646        0,212       0,169        0,127         0,085
 1500 16,933           0,423           2,117        0,169       0,135        0,102         0,068
 2000 12,700           0,318           1,588        0,127       0,102        0,076         0,051
 3000 8,467            0,212           1,058        0,085       0,068        0,051         0,034
 4000 6,350            0,159           0,794        0,064       0,051        0,038         0,025


Conversões úteis de digitalizadores (Adaptado de JENSEN, 2009)
DPI= pontos por polegada;          m =micrômetro; I = polegada; M=metros
De DPI para micrômetros:           m = (2,54/DPI)×10.000
De micrômetros para DPI:          DPI=(2,54/ m)×10.000
De polegadas para metros:         M=I×0,0254
De metros para polegadas:         I = M×39,37


Cálculo Do GSD (Adaptado de JENSEN, 2009)
PM = tamanho do “pixel” em metros; PF = tamanho do “pixel” em pés; S= escala da foto
Utilizando DPI:                              PM =((S/DPI)/39,37) ×100
                                             PF=(S/DPI)/12
Utilizando micrômetros:                      PM = (S× m)×0,00001 PF=(S× m)×0,00000328



         Por exemplo, se uma fotografia na escala 1:6.000 é digitalizada em
1200 DPI, o tamanho do pixel será (6000/1200)/39,27=0,127 metros por
pixel. Se uma fotografia na escala de 1:8.000 é digitalizada com 21,167 m
o tamanho do pixel será (8000×21,167)×0,000001)=0,169 metros (JENSEN,
2009).


Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              119

        A seguir será apresentada a teoria sobre sistema LiDAR (em inglês,
Light Detection and Ranging).


3.1.2. Sistema Ativos

3.1.2.1 Sistema LiDAR

        Vários algoritmos computacionais têm sido implementados para
tratamento e geração automática de MDS e MDT a partir do uso de
imagens. Neste sentido, ainda não se tem o conhecimento de um algoritmo
ou aplicativo comercial que apresente resultados confiáveis e robustos, pois
fatores como: a própria geometria perspectiva das imagens; sombra
projetada por edifícios e vegetação; escala variante ponto a ponto;
mudança do ponto de vista na tomada das imagens; ruídos; regiões com
alta densidade predial, vegetal e regiões homogêneas, dificultam o
desenvolvimento de aplicativos autônomos para a realização do processo
mencionado anteriormente. Para os aplicativos desenvolvidos e de uso
comercial, a porcentagem de interação homem/máquina é de 60%.
        Para Shan e Toth (2008) o sistema LiDAR foi o maior avanço
tecnológico de sistema de aquisição de dados espaciais introduzido no
mapeamento topográfico, do final do século XX. Sua principal vantagem é a
capacidade de fornecer dados tridimensionais de forma direta, rápida,
segura, autônoma e acurada. A acurácia do sistema se deve à acuracidade
do sensor LASER (em inglês, Light Amplification by Stimulated Emission of
Radiation) e dos sensores de integração GNNS (em inglês, Global Navy-
Star Navegation System) e INS (em inglês, Inertial Navegation System).
        Ao contrário do método tradicional de Fotogrametria, LiDAR pode
adquirir, de forma direta, dados espaciais sobre a superfície física com uma

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              120
superabundância de informações, que podem ser utilizadas em inúmeras
aplicações da engenharia. O desenvolvimento do sistema supracitado
interveio na interdisciplinaridade das técnicas de visão computacional,
computação gráfica e a fotogrametria. A adaptação gradual destas técnicas
está relacionada com a calibração do sistema, processamento e registro
dos dados adquiridos e a extração das informações.
        O sistema tem possibilitado uma leitura ousada no que tange as
perspectivas na automação dos processos fotogramétricos, sobretudo para
geração de ortofotos digitais verdadeiras (true ortophotos), autonomia na
recuperação       dos     parâmetros       de    orientação      exterior     de    imagens,
reconhecimento e reconstrução automática de objetos presentes nas
imagens digitais, abrindo novos caminhos para a fotogrametria em diversos
ramos do mercado nacional.
        A seguir será apresentado o princípio básico de funcionamento do
sistema LiDAR.

Princípio de funcionamento

        LiDAR é um sistema de registro de informação com princípio ativo,
que possibilita a determinação de coordenadas tridimensionais de cada
ponto varrido pelo sistema num curto período de tempo e de forma direta.
Existem dois tipos de sistemas disponíveis no mercado, isto é, o sistema
dinâmico (Figura 3.21a) e o sistema estático (Figura 3.21b).




Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                                121
        Figura 3.21. (a) Sistema aerotransportado. (b) Sistema estático.




                                (a)                           (b)


        Instalados em plataformas aéreas e terrestres, o sistema pode coletar
uma nuvem de pontos tridimensionais perfilados sobre a superfície física,
com grande volume de dados determinados com acurácia, cuja facilidade
no tratamento dos dados implicou na inserção do sistema em diversas
aplicações.
        Ambos os sistemas utilizam um feixe ótico de alta potência e bem
direcionado, coerente no espaço e no tempo que proporciona, em pós-
processamento, a qualidade da medida da distância entre o sistema LASER
e o objeto.

Sistemas dinâmicos ou aerotransportados

        O desenvolvimento do supracitado sistema se deve, principalmente,
ao sucesso no desenvolvimento da tecnologia INS. No entanto, a
introdução      de    sistemas        aerotransportados        se     deu     a    partir     do
desenvolvimento da tecnologia GNSS, o que possibilitou o desenvolvimento
da tecnologia de georeferenciamento direto, isto é, a integração GNSS/INS,
na década de 1990, que foram capazes de fornecer dados de posição e
atitude da plataforma aerotransportada com uma precisão de 4 – 7 cm e
20–60 arco-segundos, respectivamente (Shan e Toth, 2008).
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              122
        Os sistemas aerotransportados podem ser acoplados em aeronaves.
Seu princípio de funcionamento depende basicamente da integração de três
componentes, isto é: o GPS; o INS; e o próprio LASER.
           GPS: registra a posição da aeronave em intervalos de tempo fixos,
           enquanto outro receptor de base (no terreno) possibilita correção
           diferencial do posicionamento do sensor (pós-processamento);

           INS: registra os ângulos de atitude ( , , ) do sensor durante o vôo.
           Posteriormente,       são    utilizados     em     pós-processamento           para
           determinação precisa das coordenadas dos pontos tridimensionais
           no terreno; e

           Laser: armazena o tempo de emissão e recepção de cada pulso,
           bem como a resposta espectral de cada objeto varrido.

        Os pulsos laser são gerados por um componente denominado
―gerador de pulsos‖ e emitidos pelo sistema (na faixa espectral do
infravermelho) com o auxílio de um espelho de varredura que redireciona o
pulso - com uma freqüência de varredura e diâmetro de espessura -, para a
superfície de interesse a ser mapeada ou reconstruída tridimensionalmente.
        A característica mais marcante do sistema de emissão e recepção do
pulso é a sua propriedade em medir distâncias com alto grau de acurácia,
usualmente, baseada em um instrumento preciso para medida de tempo.
Existem dois métodos de medida de tempo que podem ser empregados nos
instrumentos supracitados, isto é, o TOF (em inglês, Time-of-Flight) e o
CBLR (em inglês, Continuous Beam of Laser Radiation). Aqui será tratado
apenas o primeiro método.
O TOF é baseado na emissão de um pulso curto com alta potência de
radiação por LASER. Neste caso, o pulso emitido interage com o objeto
contido na superfície física. Uma porcentagem da energia emitida é
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              123
absorvida, outra porcentagem é transmitida e a energia refletida retorna ao
sistema, cuja mesma é armazenada na ―unidade de controle de
armazenamento‖, juntamente com as informações fornecidas pelo GPS e
INS. O intervalo de tempo (t) entre a emissão e recepção do pulso é
calculado com precisão e a distância entre a plataforma e o objeto perfilado
( R ) é calculada em função da de t e a velocidade da radiação
eletromagnética ( v - valor fixo), a saber:

                                                v t
                                           R                                              (3.1)
                                                 2
        Da relação acima, se pode extrair a seguinte equação, a saber (Shan
e Toth, 2008):


                                               vt     v t
                                       R
                                               2       2
Onde,          R é a precisão da distância,      v é a precisão da velocidade e t é o
valor correspondente da precisão de t. A precisão de                  R é determinada em
função de         t.
        Como descrito anteriormente, o GPS é utilizado em modo cinemático
pós-processado, que requer um receptor de base (Figura 3.11) em um
ponto de coordenadas conhecidas (por exemplo, uma RBMC – Rede
Brasileira de Monitoramento Contínuo – desde que a mesma esteja próxima
à área do levantamento). A Figura 3.22 apresenta um esquema do princípio
de funcionamento do sistema aerotransportado.




Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              124
    Figura 3.22. Princípio de funcionamento do sistema aerotransportado.




        O pulso laser emitido pelo sistema possui um diâmetro que aumenta
na medida em que ocorre sua propagação no meio. De acordo com a
Figura 3.22 verifica-se visualmente que, o diâmetro do pulso no momento
da emissão é consideravelmente inferior quando o mesmo interage com a
superfície. O diâmetro do pulso varia de acordo com a altitude de vôo
estabelecida no levantamento aéreo.

        Apesar do fator descrito, a luz do laser foi escolhida para a
concepção do sistema por apresentar baixa divergência, cuja propagação é
similar à concepção geométrica da linha reta. Por isso, ocorrem múltiplas
reflexões na iteração laser/objetos como, por exemplo, quando um pulso
laser atinge a folha de uma árvore, uma parte do pulso é refletido pelas
folhas e outra parte pelo terreno (este é considerado segundo retorno, pois
sua reflexão atinge o sistema após o primeiro retorno do pulso – reflexões
das folhas).
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              125
         Ainda ao observar a Figura 3.22 é possível verificar que a varredura
do terreno é realizada aleatória e transversalmente à direção do vôo, o que
possibilita o perfilamento tridimensional da área de interesse com uma
freqüência que depende das especificações do projeto. A Figura 3.23 ilustra
esquemas de alta e baixa freqüência de perfilamento.



         Figura 3.23. Freqüência de perfilamento. (a) Alta freqüência de
                perfilamento. (b) Baixa freqüência de perfilamento.




                        (a)                                            (b)

         A reconstrução do pulso laser emitido é dada no sistema de projeção
WGS84, isto é, a distância percorrida pelo pulso entre a plataforma e o
objeto     perfilado    é     calculada     em     pós-processamento          baseada         na
determinação do ângulo que o pulso formou com a aeronave no momento
de sua emissão, juntamente com os dados de posição e atitude da
aeronave, fornecidos pelo sistema de integração GPS/INS, bem como em
função da velocidade da luz (c) e tempo de emissão e recepção do pulso
Laser ( t).
         Em termos gerais, as coordenadas tridimensionais de um ponto
qualquer na superfície física são determinadas em função de uma

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              126
seqüência de rotações e translações aplicadas entre os componentes que
compõem o sistema. A Figura 3.24 mostra a relação entre os sistemas
envolvidos na determinação de coordenadas de um ponto no sistema do
espaço-objeto ou referencial terrestre.


Figura 3.24. Determinação de coordenadas tridimensionais de um ponto na
                                               superfície.




        Os pontos tridimensionais de um ponto são obtidos por meio da
Equação, a saber:


               XP                                   0
                                                                 
               YP         
                    TT , INS   RT , INS R L , INS   0   TL , INS   TG , INS   erros
                                                                                          (3.1)
               ZP       P                           d

Onde,
X PYP Z P : coordenadas tridimensionais de um ponto na superfície física;

TT , INS : translação entre sistema do espaço-objeto e o INS;

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              127

TL , INS : translação entre o LASER e o INS;

TG , INS : translação entre o centro de fase da antena GPS e o INS;

RT , INS : matriz de rotação entre o sistema do espaço-objeto e o INS;

RL, INS : matriz de rotação entre o LASER e o INS;
erros : erros inerentes aos componentes que integram o sistema LiDAR.

        Para garantir a precisão plani-altimétrica de cada ponto perfilado pelo
sistema LiDAR a distância entre os receptores, aerotransportado e de base,
não deve ultrapassar 50 km. Um conjunto de receptores de base deverá ser
estabelecido, caso não seja possível manter a exigência descrita
anteriormente.
        Calculadas as coordenadas tridimensionais de cada ponto ( X PYP Z P )

na superfície física devem ser aplicadas as devidas transformações entre
sistemas de coordenadas, que neste caso, referem-se às conversões das
coordenadas entre os sistemas WGS84 e algum sistema de referência
adotado no trabalho, por exemplo, SAD-69. Assim como, as transformações
das altitudes elipsoidais (fornecidas pelo                   GPS) para as altitudes
ortométricas.
        De acordo com Wher e Lohr (1999), o sistema LiDAR fornece
coordenadas planimétricas em torno de 50 cm e altimétricas em torno de 15
cm. O sistema da Optech ALTM 3100 (sistema canadense) possui precisão
planimétrica igual a 1/2000 da altura utilizada no perfilamento a LASER (1
sigma). No entanto, a precisão do sistema depende das características dos
componentes utilizados, tipo de terreno, qualidade do INS empregado e
altura de vôo.


Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              128
         A qualidade dos dados obtidos pelo sistema de varredura a LASER
depende da qualidade dos dados fornecidos pelos componentes que
compõem o sistema supracitado. Em relação ao GPS os fatores internos,
externos e operacionais, tais como, solução da ambigüidade, perda de sinal
dos satélites, freqüências L1 e L2, geometria e número de satélites
disponíveis,          deslocamentos        orbitais,      modelagem            do      geóide,
multicaminhamento,            erro   de    propagação        do       sinal   na    atmosfera,
interferências eletromagnéticas e parâmetros incorretos, são os fatores
mais importantes a serem cuidadosamente estudados.
         Além de considerar todos os possíveis erros descritos acima, ainda é
necessário tomar algumas precauções para a obtenção da precisão
requerida, tais como, realizar planejamento adequado, operações de vôo
dentro de limites apropriados (para evitar perda de sinal do GPS) e uma
boa distribuição das estações GPS de base em solo.
                                                                  0
         O INS apresenta precisão melhor que 0,02 e os pulsos laser são
afetados pelas diferentes camadas existentes na atmosfera. A altura de vôo
é fator a ser considerado na degradação da precisão das medidas
relacionadas ao sistema LASER. Outra característica a ser evidenciada é o
problema de divergência dos pulsos, que resultam em pequenas diferenças
na interpretação dos resultados que aqui serão chamados de borda de
divergência.
         Os erros de divergência podem ser visualizados através de uma
operação de subtração de imagens do primeiro (Figura 3.25a) e último
retorno do pulso (Figura 3.25b). A Figura 3.25 mostra imagens em níveis de
cinza obtida por meio de um processo de quantização das coordenadas
brutas         altimétricas   fornecidas    pelo     sistema          da   TopoSys     GmbH,
desenvolvido na Alemanha.


Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              129
    Figura 3.25. Imagens em níveis de cinza obtidos por um processo de
  quantização de coordenadas altimétricas. (a) Imagem do primeiro retorno
do pulso. (b) Imagem do último retorno do pulso. (c) Resultado da subtração
                                 entre as imagens a e b.




                         (a)                                     (b)




                                              (c)

        Verifica-se visualmente na Figura 3.25c que o resultado da operação
de subtração entre as imagens não apresentou apenas a informação de
vegetação, mas também as bordas das edificações, dadas pela diferença
entre as dimensões das edificações (bordas de divergência) apresentadas
em ambas às imagens. Esta diferença ocorre porque um pulso laser ao
incidir sobre a borda do telhado de uma edificação, dependendo do
tamanho de seu diâmetro, pode interceptar parcialmente a borda do telhado
e ocorrer resposta de retorno devido às reflexões no solo e na fachada
lateral do edifício (Figura 3.26), ou outras diversas reflexões do pulso,
dependendo do tipo de material perfilado, até seu retorno ao sistema. A
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              130
Figura 3.26 mostra as interceptações parciais do pulso e um exemplo do
processo de reflexão do pulso.


   Figura 3.26. Interceptação parcial do pulso na borda do telhado e duas
                     reflexões do pulso (solo e fachada lateral).




        Verifica-se também que as bordas das edificações contidas na
imagem do último retorno do pulso (Figura 3.25b) são mais estreitas que as
do primeiro retorno do pulso. Fato ocorrido devido ao último retorno incidir
sobre o solo e posteriormente na fachada lateral da edificação (reta
pontilhada na cor preta, Figura 3.26) enquanto o primeiro retorno do pulso
incide diretamente na borda do telhado (retas vermelhas, Figura 3.26).
        Outro fator relacionado ao erro de divergência é a resposta de
retorno do pulso após interagir com o objeto perfilado. Por ser esta uma
função de dispersão de energia eletromagnética dentro da área do diâmetro
do pulso pode-se dizer que, quanto maior a inclinação do pulso em relação
ao objeto perfilado na superfície, maior será o erro de divergência e
conseqüentemente maior a incerteza posicional do alvo. Para que não
ocorram áreas de oclusão, devido ao fator supracitado, é necessário


Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              131
realizar um recobrimento da área de interesse com o mínimo de
sobreposição possível.


Tipos de espelhos de varredura
        Como descrito anteriormente o sistema LiDAR utiliza espelhos de
varredura ótico-mecânica. Existe, basicamente, 3 tipos de espelhos de
varredura. A Figura 3.27 apresenta os espelhos de varredura mais
utilizados nos sistemas desenvolvidos.


Figura 3.27. Mecanismos de varredura. (a) Espelho oscilador. (b) Varredura
                           Palmer. (c) Polígono de rotação.
                           (FONTE: WEHR e LOHR, 1999)




                                    (a)                     (b)




                                                (c)



        Os espelhos osciladores (Figura 3.27a) produzem uma configuração
de perfilamento denominada linha em ―zig-zag‖ (Figura 3.27a). Os espelhos
de polígono de rotação (Figura 3.27b) produzem uma varredura
unidirecional com linhas paralelas (Figura 3.28b). Já os espelhos do tipo

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              132
Palmer (Figura 3.28c) produzem efeitos de modelos elípticos na superfície
(Figura 3.28c).


 Figura 3.28. Configuração da varredura em relação ao tipo de espelho. (a)
         Linhas em ―zig-zag‖. (b) Linhas paralelas. (c) Modelos elípticos.




                       (a)                                          (b)




                                              (c)


        Os pontos ao longo de uma linha são varridos em incrementos de
ângulos iguais. De acordo com Wehr e Loher (1999), devido ao
perfilamento aleatório e à aceleração e desaceleração do espelho de
varredura, os pontos perfilados no extremo da largura da faixa exibem
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              133
características diferentes dos demais pontos e devem ser removidos, em
pós-processamento, do conjunto de dados brutos .
        A Figura 3.29a apresenta uma imagem de intensidade LASER
resultante da varredura de um sistema com tipo de espelho oscilador. Os
pontos na cor preta representam objetos que não foram perfilados pelo
sistema devido à característica da configuração de perfilamento do tipo de
espelho supracitado. Neste caso é necessário realizar uma amostragem
dos dados por meio de técnicas de interpolação (vizinho mais próximo,
bilinear, triangulação de Delanay etc).


   Figura 3.29. Imagem de intensidade LASER. (a) Derivada de espelhos
                osciladores. (b) derivada de espelhos tipo Palmer.




                         (a)                                    (b)


        A Figura 3.29b apresenta uma imagem de intensidade derivada de
espelhos do tipo Palmer. Nota-se a diferença na qualidade geométrica entre
as imagens apresentadas em as ambas figuras. Os sistemas de varredura
LASER com espelhos do tipo Palmer oferecem precisão duas vezes melhor
que os sistemas com espelhos do tipo oscilador.
        Outro tipo de espelho de varredura que possui vantagens em relação
aos demais espelhos descritos anteriormente é o espelho de fibra ótica,
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              134
cujo uso é característico apenas em sistemas da TopoSys GmbH. A Figura
3.30 mostra um espelho de fibra ótica.


  Figura 3.30. Espelho de fibra ótica. Adaptado de WEHR e LOHR (1999).




        Eles se diferenciam por terem um processo ótico de emissão e
recepção do pulso idêntico. Segundo Wehr e Lohr (1999), matrizes lineares
de fibra ótica idênticas são dispostas no plano focal das lentes de emissão
e recepção. Através dos espelhos de rotação, cada fibra ótica no caminho
da emissão e recepção é varrida seqüencialmente e sincronicamente. Estes
espelhos propagam o sinal por meio da fibra central, fibra a fibra. Devido às
pequenas aberturas das fibras, pequenos movimentos mecânicos são
requeridos com alta velocidade de varredura (acima de 630 Hz).
        O sistema LiDAR fornece como produto final uma nuvem de pontos
distribuídos irregularmente armazenados em um arquivo ASCII de linhas
por ponto, composto por um conjunto de coordenadas tridimensionais
referenciadas no sistema de projeção admitido no trabalho, cuja
manipulação pode-se gerar um MDT e um MDS da região perfilada.

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              135
                                                                                              2
               A densidade dos pontos obtidos atinge vários pontos por m ,
dependendo da altura de vôo e a frequência de perfilamento. A frequência
do sistema se situa na faixa de 500 a 1500 nm, com valores de 1040 a 1060
nm, sendo as mesmas refletidas pelos objetos contidos no terreno. Os
pontos coletados podem ser utilizados diretamente ou podem ser filtrados e
interpolados de forma a gerar uma grade regular de pontos.
        Existem alguns tipos de sistemas de varredura LASER, tais como, o
sistema da Toposys GmbH II (desenvolvido na Alemanha) e Optech ALTM
2050 (desenvolvido no Canadá). O Quadro 3.1, apresenta as diferenças
básicas entre os sistemas supracitados.


    QUADRO 3.1. Características de sistemas Toposys GmbH II e Optech
                                        ALTM 2050.

  Características/Sistemas              Toposys GmbH II                   ALTM 2050
    Espelho de varredura                    Fibra ótica                    Oscilador
      Resposta espectral                        não                            sim
  Frequência de varredura                   Até 63 Hz                      Até 35 Hz
                                                      0                              0
     Ângulo de varredura                          7                             20
      Altura de operação                  250 - 1000 m                   250 - 2000 m
          Modo (pulso)                      1º e/ou 2º                     1º e/ou 2º
      Resposta espectral                        não                            sim
         Câmara digital                         não                     4k x 4k pixels


        A partir dos dados da resposta espectral armazenada pelo sistema
da Optech ALTM pode-se gerar, em pós-processamento, uma imagem de
intensidade LASER (Figura 3.31).



Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              136

                   Figura 3.31. Imagem de intensidade LASER.




        Esta imagem é obtida a partir da interpolação dos valores da
resposta espctral de cada ponto varrido pelo sistema, gerando uma imagem
bidimensional de valores de intensidade. Para cada ponto é atribuído um
valor de intensidade, no qual é agregado aos mesmos suas coordenadas
tridimensionais compostas num arquivo de um ponto por linha de texto
(arquivo bruto ASCII). Os dados são interpolados de acordo com a
resolução ao qual foram perfilados os pontos no terreno.
        A seguir será apresentada a teoria sobre sistemas estáticos.

Sistemas estáticos

        Existem      várias     aplicações       que     necessitam       de     modelagem
tridimensional de objetos e superfícies e que podem ser atendidas tanto por
outras técnicas de obtenção de dados dimensionais e posicionais (p. ex.,
técnicas fotogramétricas) quanto pela tecnologia De varredura LASER
terrestre. Algumas delas, entretanto, de acordo com os requisitos de
rapidez e exatidão, podem requerer um grande número de medidas,

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              137
portanto, são melhores atendidas por uma nuvem de pontos proveniente do
sistema de varredura LASER terrestre.

        O      sistema    de    varredura      LASER        terrestre,    basicamente,        é
compreendido por um sensor LASER (em inglês, light amplification by
stimulated emission of radiation) e sistemas de espelho de varredura que
direcionam o pulso para a superfície.

        O sistema é capaz de fornecer uma nuvem de pontos 3D sobre
pontos localizados na superfície física, em um curto período de tempo. A
nuvem de pontos é gerada por meio da medição simultânea de intervalo de
inclinação de um sensor LASER e dois ângulos associados por encoders
angulares correspondentes aos planos horizontais e verticais, passantes
pelo centro do instrumento. Por isso, o sistema fornece uma nuvem de
pontos de igual reamostragem no sistema de coordenadas polares.

        Essas medidas de distância e ângulo simultâneos são realizadas
automaticamente com um ângulo de varredura de 1000 Hz ou mais,
dependendo do sistema utilizado. Basicamente, o sistema emite pulsos de
LASER que interagem com a superfície e são refletidos e recuperados pelo
receptor do sistema. A distância entre o sensor e o alvo é calculada, em
pós-processamento, em função da diferença do tempo entre a emissão e
recepção do pulso. O resultado final do processo de medição e
processamento é uma nuvem de pontos, que poderia ser chamada,
genericamente, de Modelo Digital de Superfície (MDS), ao qual o valor de
intensidade também pode ser associado. A figura 3.32 apresenta a
geometria de funcionamento do referido sistema.




Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              138
Figura 3.32. Geometria de funcionamento do sistema de varredura LASER
                                          terrestre.




        Em princípio, pode-se dizer que o sistema estático funciona como um
medidor de distâncias (distanciômetro), em função do tempo de emissão e
recepção do pulso. Existem basicamente dois princípios geométricos de
cálculos de coordenadas, isto é: triangulação; por intervalo de tempo (time
of flight). No princípio de funcionamento por intervalo de tempo a distância é
estimada por meio do tempo de emissão e recepção do pulso laser, cuja
reflexão do pulso ocorre difusamente dependendo do tipo de material do
objeto perfilado. Este sistema é capaz de estimar distâncias para objetos
mais distantes, porém oferecem precisão de pior qualidade que o sistema
de princípio por triangulação.
        O princípio de triangulação funciona de forma que um pulso laser é
emitido pelo sistema e seu retorno é registrado por uma ou mais câmaras

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              139
de sensores CCD. O ângulo de varredura de cada pulso emitido é
registrado no sistema a cada pulso emitido. Conhecendo-se a base fixa
entre o sensor LASER e a câmara, por meio de um processo de calibração,
determina-se a posição dos pontos refletidos pelo objeto. A distância entre
o sensor LASER e o CCD é conhecida e permite o cálculo das coordenadas
tridimensionais de cada ponto perfilado pelo sistema. A precisão dos pontos
determinados depende da relação base/distância. Com um comprimento de
base fixa, o desvio padrão ( ) da distância medida, aumentará em
proporção ao quadrado da distância.


  Figura 3.33. Mecanismos de varredura do sistema de varredura LASER
                        terrestre (Adaptado de Staiger, 2003).




        Além das técnicas de medidas do sistema se deve considerar o tipo
de mecanismo de varredura do sistema. Staiger (2003) classifica o sistema
de varredura LASER terrestre como: varredura panorâmica; varredura
híbrida; e varredura por quadro. A Figura 3.33 apresenta três tipos de
mecanismos de varredura do sistema.

Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              140
        Dentro da primeira dessas três categorias, varreduras de tipo
panorâmico procedem de forma que a distância e as medições angulares
em um padrão sistemático fornecem uma cobertura angular total de 360° no
plano horizontal, que passa pelo centro do instrumento, e normalmente uma
cobertura mínima de 180° no plano vertical perpendicular ao plano
horizontal, o que possibilita uma cobertura hemisférica. Este padrão de
varredura panorâmico é muito útil no contexto do mapeamento topográfico,
é ainda mais desejável, de fato muitas vezes obrigatória, a medição de
instalações industriais complexas, grandes pedreiras e minas de céu aberto
e as fachadas de edifícios nas áreas urbanas.
        Uma vantagem da maioria dos sistemas de varredura LASER
terrestre é o registro da informação espectral dos alvos perfilados pelo
sistema. Por meio desta informação é possível gerar, em                                   pós-
processamento, imagens de intensidade. Os valores de intensidade são
relativos e não absolutos, e, para os sistemas estáticos, variam de acordo
com as propriedades de reflexão direcional e a reflectividade do alvo.
        Uma das vantagens do sistema de varredura LASER terrestre é que
a nuvem de pontos gerada em campo pode ser confrontada com as
informações        geradas      por     técnicas      fotogramétricas        ou     sensores
imageadores. Atualmente, a integração entre dados derivados de sistemas
de aquisições diferentes tem apontado grande potencial como conteúdo de
informações complementares, ou seja, a integração de dados derivados do
sistema de varredura LASER terrestre e Fotogrametria fornece uma riqueza
abundante de informação, que permite a automação dos processos
fotogramétricos com melhor eficiência, além de autonomia e redução da
necessidade dos métodos de prospecção convencional, tais como, os
levantamentos geodésicos e topográficos. Isto reduz o custo operacional e,
principalmente, o tempo na linha de produção. A integração dos dados tem
Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              141
ganhado tanto prestígio na comunidade que, diversos são os trabalhos
relacionados com o tema, podendo-se citar: Habib e Schenk (1999), Schenk
et al. (2001), Schenk e Csatho (2002), Habib et al. (2004a, 2004b, 2004c),
Furkuo e King (2004), Delara et al. (2004), Chen et al. (2004), Zhang et al.
(2005), Habib et al. (2005), Habib et al. (2006), Habib et al. (2007),
Abdelhafiz et al. (2007), Mitishita et al. (2008), Delara et al. (2008); etc.
        No caso do sistema de varredura LASER terrestre em funcionamento
em um Unidade de Mapeamento Móvel (UMMT), por exemplo, é necessário
integrar os sistemas de posicionamento e medida inercial de forma que a
nuvem de pontos derivadas do perfilamento De varredura LASER terrestre
seja adequadamente georeferenciada e acurada. Isto se deve ao
movimento dinâmico da plataforma em questão (veículo transportado –
UMMT), onde para cada varredura haverá uma posição e atitude diferente
do sistema, ao longo do mapeamento. Sendo assim, é necessário integrar
os referidos sistemas de forma que o sistema funcione com autonomia e
precisão. Aqui, a precisão e acurácia do sistema estarão relacionadas com
a precisão dos sistemas GPS e INS, erros no alinhamento dos dois
subsistemas        supracitados,        modelagem         matemática         envolvida        na
transformação das coordenadas, etc.
        Um dos sistemas de varredura LASER terrestre mais apropriado para
aplicações UMMTs são os sistemas desenvolvidos pelo fabricante Riegl.
Esta empresa desenvolve uma série de sistemas de varredura LASER
terrestre de longa distância baseado em pulsos contínuos, cujos modelos
são: LMS-Z210ii; LMS-Z390i; Z420i; e LMS-Z620 — com alcances máximos
de 650, 400, 1000 e 2000 m, respectivamente, com objetos de 80% de
reflectância. Para objetos com reflectância inferior a 80%, os intervalos de
medida será menor, ou seja, 200, 100, 350 e 650 m, respectivamente.


Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              142
        A precisão nominal do equipamento é da ordem de ±4 a 15 mm para
um intervalo de 50 m. Todos os quatro instrumentos supracitados utilizam o
mesmo tipo de motor de laser com um polígono óptico continuamente
rotativo, que é colocado na frente do sensor LASER para produzir a
digitalização óptica básica. O sensor opera na faixa do comprimento de
onda infravermelho próximo variando de 905 até 1550 nm. O intervalo de
varredura angular do sistema é de 80° — que é normalmente implementado
para fornecer ±40 ° acima e abaixo do plano horizontal apontando
verticalmente para cima na sua posição normal de funcionamento.
        A taxa de medição dos equipamentos supracitados varia entre 8.000
e 12.000 pontos por segundo, embora poderão ser usadas taxas mais
baixas de medição, de acordo com a aplicação requerida. Uma vantagem
deste sistema é a opção de GPS-Sync disponível. Isto permite a integração
com os subsistemas GPS e INS para fornecer dados de posição e
orientação do sistema, como é requerido nos sistemas de operação
aerotransportados.




Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos
Capítulo III                                                                              143

Figura 3.34. (a) Equipamento da Riegl. (b) Elementos de funcionamento do
                          sistema. Adaptado de Riegl 2001.




                                        (a)                                     (b)

        Os sistemas da Riegl podem ser equipados com uma câmara digital
de pequeno, médio ou grande formato. Geralmente, são escolhidos os
modelos de câmara da Nikon e Canon EOS-1Ds II. As imagens coloridas
podem ser fundidas com a nuvem de pontos e permitir melhor eficiência na
análise da massa de dados.


REFERÊNCIAS
SHAN, j., TOTH, C. Topographic Laser Ranging and Scanning:
principles and processing. Taylor and Francis: 593 p. 2008.
STAIGER, R., 2003, Terrestrial laser scanning—Technology, systems
and applications. Second FIG Regional Conference, Marrakech, Morocco,
December 2–5, 2003, 10 pp.


Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR
Prof. Daniel Santos

Contenu connexe

Tendances

1 conceitos e classificacao da fotogrametria
1 conceitos e classificacao da fotogrametria1 conceitos e classificacao da fotogrametria
1 conceitos e classificacao da fotogrametriaDjair Felix
 
Projeções Cartográficas
Projeções CartográficasProjeções Cartográficas
Projeções CartográficasEduardo Mendes
 
Tecnologias modernas aplicadas à cartografia
Tecnologias modernas aplicadas à cartografiaTecnologias modernas aplicadas à cartografia
Tecnologias modernas aplicadas à cartografiaAna Selma Sena Santos
 
Tutorial QGIS sobre Análise Fisiográfica
Tutorial QGIS sobre Análise FisiográficaTutorial QGIS sobre Análise Fisiográfica
Tutorial QGIS sobre Análise Fisiográficanlourei
 
Aula06 geo pg_fotogrametria
Aula06 geo pg_fotogrametriaAula06 geo pg_fotogrametria
Aula06 geo pg_fotogrametriarailano
 
G.P.S
G.P.SG.P.S
G.P.Sunesp
 
A representacao do espaco geográfico
A representacao do espaco geográficoA representacao do espaco geográfico
A representacao do espaco geográficodantasrdl
 
Sensoriamento Remoto - Introdução Teórica
Sensoriamento Remoto - Introdução TeóricaSensoriamento Remoto - Introdução Teórica
Sensoriamento Remoto - Introdução TeóricaVitor Vieira Vasconcelos
 
Tipos De Escalas E Seu Calculo
Tipos De Escalas E Seu CalculoTipos De Escalas E Seu Calculo
Tipos De Escalas E Seu Calculolidia76
 
Planimetria e altimetria: o que são e qual a diferença?
Planimetria e altimetria: o que são e qual a diferença?Planimetria e altimetria: o que são e qual a diferença?
Planimetria e altimetria: o que são e qual a diferença?Adenilson Giovanini
 
Apostila Desenho Técnico,Cartografia e Topografia
Apostila Desenho Técnico,Cartografia e TopografiaApostila Desenho Técnico,Cartografia e Topografia
Apostila Desenho Técnico,Cartografia e TopografiaProfessor Renato Mascarenhas
 
Geoprocessamento Parte1
Geoprocessamento Parte1Geoprocessamento Parte1
Geoprocessamento Parte1INPE
 
Calculo de rumos e azimutes2
Calculo de rumos e azimutes2Calculo de rumos e azimutes2
Calculo de rumos e azimutes2botelho_19
 
Cap. I - Elementos de Fotogrametria e Sensoriamento Remoto
Cap. I - Elementos de Fotogrametria e Sensoriamento RemotoCap. I - Elementos de Fotogrametria e Sensoriamento Remoto
Cap. I - Elementos de Fotogrametria e Sensoriamento RemotoUFPR
 

Tendances (20)

1 conceitos e classificacao da fotogrametria
1 conceitos e classificacao da fotogrametria1 conceitos e classificacao da fotogrametria
1 conceitos e classificacao da fotogrametria
 
Escala cartográfica
Escala cartográficaEscala cartográfica
Escala cartográfica
 
Projeções Cartográficas
Projeções CartográficasProjeções Cartográficas
Projeções Cartográficas
 
Tecnologias modernas aplicadas à cartografia
Tecnologias modernas aplicadas à cartografiaTecnologias modernas aplicadas à cartografia
Tecnologias modernas aplicadas à cartografia
 
Projeçoes cartograficas
Projeçoes cartograficasProjeçoes cartograficas
Projeçoes cartograficas
 
Tutorial QGIS sobre Análise Fisiográfica
Tutorial QGIS sobre Análise FisiográficaTutorial QGIS sobre Análise Fisiográfica
Tutorial QGIS sobre Análise Fisiográfica
 
Aula06 geo pg_fotogrametria
Aula06 geo pg_fotogrametriaAula06 geo pg_fotogrametria
Aula06 geo pg_fotogrametria
 
G.P.S
G.P.SG.P.S
G.P.S
 
A representacao do espaco geográfico
A representacao do espaco geográficoA representacao do espaco geográfico
A representacao do espaco geográfico
 
Sensoriamento Remoto - Introdução Teórica
Sensoriamento Remoto - Introdução TeóricaSensoriamento Remoto - Introdução Teórica
Sensoriamento Remoto - Introdução Teórica
 
Tipos De Escalas E Seu Calculo
Tipos De Escalas E Seu CalculoTipos De Escalas E Seu Calculo
Tipos De Escalas E Seu Calculo
 
Planimetria e altimetria: o que são e qual a diferença?
Planimetria e altimetria: o que são e qual a diferença?Planimetria e altimetria: o que são e qual a diferença?
Planimetria e altimetria: o que são e qual a diferença?
 
Aula 4
Aula 4Aula 4
Aula 4
 
Apostila Desenho Técnico,Cartografia e Topografia
Apostila Desenho Técnico,Cartografia e TopografiaApostila Desenho Técnico,Cartografia e Topografia
Apostila Desenho Técnico,Cartografia e Topografia
 
Escalas
EscalasEscalas
Escalas
 
Exercicios resolvidos
Exercicios resolvidosExercicios resolvidos
Exercicios resolvidos
 
Geoprocessamento Parte1
Geoprocessamento Parte1Geoprocessamento Parte1
Geoprocessamento Parte1
 
Calculo de rumos e azimutes2
Calculo de rumos e azimutes2Calculo de rumos e azimutes2
Calculo de rumos e azimutes2
 
Geoprocessamento
GeoprocessamentoGeoprocessamento
Geoprocessamento
 
Cap. I - Elementos de Fotogrametria e Sensoriamento Remoto
Cap. I - Elementos de Fotogrametria e Sensoriamento RemotoCap. I - Elementos de Fotogrametria e Sensoriamento Remoto
Cap. I - Elementos de Fotogrametria e Sensoriamento Remoto
 

Similaire à Sistemas sensores de imageamento utilizados em Fotogrametria e Sensoriamento Remoto

(Horus) aerofotogrametria com drones
(Horus) aerofotogrametria com drones(Horus) aerofotogrametria com drones
(Horus) aerofotogrametria com dronesMarcos Martins
 
validação metodológica VantS
validação metodológica VantSvalidação metodológica VantS
validação metodológica VantSJunior Kapp
 
Trabalho de sensoriamento remoto 2
Trabalho de sensoriamento remoto 2Trabalho de sensoriamento remoto 2
Trabalho de sensoriamento remoto 2Leandro Camargo
 
Sensoriamento Remoto
Sensoriamento RemotoSensoriamento Remoto
Sensoriamento Remotonaiararohling
 
23.medição tridimensional
23.medição tridimensional23.medição tridimensional
23.medição tridimensionalEdvaldo Viana
 
Fotografia: Escolhendo uma Camera
Fotografia: Escolhendo uma CameraFotografia: Escolhendo uma Camera
Fotografia: Escolhendo uma CameraFernando Alves
 
Modelo 3D de Imagens Radiográficas para Auxilio em Diagnósticos
Modelo 3D de Imagens Radiográficas para Auxilio em DiagnósticosModelo 3D de Imagens Radiográficas para Auxilio em Diagnósticos
Modelo 3D de Imagens Radiográficas para Auxilio em DiagnósticosElen Arantza
 
Tomografia taxa de compressao
Tomografia   taxa de compressaoTomografia   taxa de compressao
Tomografia taxa de compressaoLuanapqt
 
4 tomo-linear
4 tomo-linear4 tomo-linear
4 tomo-linearLuanapqt
 
Desenvolvimento de um Sistema de Navegação Indoor por Imagens para um Veículo...
Desenvolvimento de um Sistema de Navegação Indoor por Imagens para um Veículo...Desenvolvimento de um Sistema de Navegação Indoor por Imagens para um Veículo...
Desenvolvimento de um Sistema de Navegação Indoor por Imagens para um Veículo...Roberto Brusnicki
 
Plano de voo aerofotogramétricos
Plano de voo aerofotogramétricosPlano de voo aerofotogramétricos
Plano de voo aerofotogramétricosGian Vargas
 
Apostila sobre cameras de tv
Apostila sobre cameras de tvApostila sobre cameras de tv
Apostila sobre cameras de tvThiago Aguiar
 
Câmeras: Princípios Básicos
Câmeras: Princípios BásicosCâmeras: Princípios Básicos
Câmeras: Princípios BásicosThiago Aguiar
 

Similaire à Sistemas sensores de imageamento utilizados em Fotogrametria e Sensoriamento Remoto (20)

Apostila 4 topografia
Apostila 4 topografiaApostila 4 topografia
Apostila 4 topografia
 
(Horus) aerofotogrametria com drones
(Horus) aerofotogrametria com drones(Horus) aerofotogrametria com drones
(Horus) aerofotogrametria com drones
 
validação metodológica VantS
validação metodológica VantSvalidação metodológica VantS
validação metodológica VantS
 
Apresentação 8
Apresentação 8Apresentação 8
Apresentação 8
 
Métodos de medição todos
Métodos de medição   todosMétodos de medição   todos
Métodos de medição todos
 
Trabalho de sensoriamento remoto 2
Trabalho de sensoriamento remoto 2Trabalho de sensoriamento remoto 2
Trabalho de sensoriamento remoto 2
 
Cameras Video Digital
Cameras Video DigitalCameras Video Digital
Cameras Video Digital
 
Sensoriamento Remoto
Sensoriamento RemotoSensoriamento Remoto
Sensoriamento Remoto
 
Geotecnologias
GeotecnologiasGeotecnologias
Geotecnologias
 
23.medição tridimensional
23.medição tridimensional23.medição tridimensional
23.medição tridimensional
 
Fotografia: Escolhendo uma Camera
Fotografia: Escolhendo uma CameraFotografia: Escolhendo uma Camera
Fotografia: Escolhendo uma Camera
 
Manual cctv v3.1
Manual cctv v3.1 Manual cctv v3.1
Manual cctv v3.1
 
Modelo 3D de Imagens Radiográficas para Auxilio em Diagnósticos
Modelo 3D de Imagens Radiográficas para Auxilio em DiagnósticosModelo 3D de Imagens Radiográficas para Auxilio em Diagnósticos
Modelo 3D de Imagens Radiográficas para Auxilio em Diagnósticos
 
Tomografia taxa de compressao
Tomografia   taxa de compressaoTomografia   taxa de compressao
Tomografia taxa de compressao
 
4 tomo-linear
4 tomo-linear4 tomo-linear
4 tomo-linear
 
Geotecnologias
GeotecnologiasGeotecnologias
Geotecnologias
 
Desenvolvimento de um Sistema de Navegação Indoor por Imagens para um Veículo...
Desenvolvimento de um Sistema de Navegação Indoor por Imagens para um Veículo...Desenvolvimento de um Sistema de Navegação Indoor por Imagens para um Veículo...
Desenvolvimento de um Sistema de Navegação Indoor por Imagens para um Veículo...
 
Plano de voo aerofotogramétricos
Plano de voo aerofotogramétricosPlano de voo aerofotogramétricos
Plano de voo aerofotogramétricos
 
Apostila sobre cameras de tv
Apostila sobre cameras de tvApostila sobre cameras de tv
Apostila sobre cameras de tv
 
Câmeras: Princípios Básicos
Câmeras: Princípios BásicosCâmeras: Princípios Básicos
Câmeras: Princípios Básicos
 

Sistemas sensores de imageamento utilizados em Fotogrametria e Sensoriamento Remoto

  • 1. Capítulo III 92 CAPÍTULO III 3.1. Sistemas sensores de imageamento Existem diversos tipos de sensores de imageamento utilizados na Fotogrametria e Sensoriamento Remoto, os mais comuns são: detectores de arranjo matricial; detectores de arranjo linear; detectores de arranjo linear multiespectral; detectores de arranjo matricial multiespectral; e detectores de arranjo linear hiperespectral. Usualmente, os sensores são classificados como ativos e passivos, e neste capítulo, estão organizados de acordo com o tipo de tecnologia de imageamento utilizada pelo sensor. A Figura 3.1 mostra os sensores que serão estudados aqui. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 2. Capítulo III 93 Figura 3.1. Tipos de tecnologia de imageamento. (FONTE: JENSEN, 2009) 3.1.1. Sistemas passivos De todos os tipos de sistemas utilizados no processo de gravação de dados para medidas fotogramétricas, o sistema de câmara ainda é o mais empregado. O marco inicial da evolução das câmaras aéreas se deve ao desenvolvimento do processo fotográfico e posteriormente à invenção das aeronaves. A partir deste instante, os tecnólogos iniciaram suas pesquisas em busca de tecnologia mais avançada, com a finalidade de melhorar os sensores para a aquisição dos dados, corrigir os efeitos de perspectiva, Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 3. Capítulo III 94 borramente provocado pelo arrastamento das imagens, resolução espacial, espectral, radiométrica, entre outros aspectos. A Figura 3.2 apresenta um breve histórico da evolução das câmaras aéreas destinadas ao mapeamento. Figura 3.2. Evolução das câmaras aéreas destinadas ao mapeamento. As câmaras aéreas tiveram sua primeira funcionalidade na I e II Guerra Mundial, com a finalidade da tomada de fotografias para fins de estratégia militar. A câmara do tipo handheld era utilizada de forma que um operador a segurava com as mãos para a tomada das fotografias. Percebe- se que, o uso desta câmara somente poderia ser útil para finalidades de reconhecimento, sendo totalmente desconsiderado seu uso para mapeamento cartográfico de precisão. Em 1922 surgiu a primeira câmara RMK C1, com dispositivos mecânicos mais avançados e um sistema de lentes superior à primeira Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 4. Capítulo III 95 câmara aérea desenvolvida. Com isto, o avanço graduado da tecnologia influenciou cada vez mais a melhoria dos sistemas de lentes e desta forma, câmaras aéreas com melhor qualidade geométrica e radiométrica estão sendo desenvolvidas. Em 1999, na semana fotogramétrica (Photogrammetric Week), foi anunciado o desenvolvimento da câmara digital de arranjo matricial DMC-Z/I e em 2002 ocorreu seu lançamento no mercado de mapeamento. Atualmente, existem três classificações de câmaras utilizadas na aquisição de imagens para mapeamento, isto é: Câmara métrica convencional; Câmaras digitais convencionais; e Câmaras digitais métricas. 3.1.1.1. Câmara métrica convencional Uma câmara métrica convencional é projetada especialmente para aquisição de fotografias para fins cartográficos, pois fornece precisão geométrica adequada para mapeamento. Uma câmara aérea com esta capacidade é denominada de câmara cartográfica. Esta classificação é empregada na produção de mapas e cartas topográficas. As câmaras métricas são aquelas que possuem as denominadas marcas fiduciais, cuja finalidade é materializar o sistema de coordenadas fotográficas garantindo rigidez geométrica, devido ao plano focal ser estável. Este tipo de câmara utiliza rolos de filme para gravação dos objetos contidos na superfície física, no modo pancromático ou colorido. A Figura 3.3 apresenta algumas câmaras aéreas baseada em filmes. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 5. Capítulo III 96 Figura 3.3. Câmaras aéreas baseadas em filmes. Fotografias tomadas com câmaras métricas convencionais são denominadas de fotografias analógicas e o processo de transformação de uma fotografia analógica para uma imagem digital ocorre por meio de um processo denominado rasterização ou digitalização, via scanner fotogramétrico (ver capítulo I). As câmaras métricas convencionais são do tipo quadro fotográfico, ou seja, expõe um quadro de área do terreno em cada tomada de fotografia em um dado instante. Isto requer que as lentes forneçam uma cobertura angular adequada para que seja gravada a porção da área de interesse. A Figura 3.4 apresenta um esquema gráfico de uma câmara de quadro fotográfico. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 6. Capítulo III 97 Figura 3.4. Quadro de área no terreno. Este tipo de câmara fornece fotografias de tamanho 23x23 cm e permite recobrimento longitudinal de 60% à 90% e lateral de 10% à 30%, com uma resolução geométrica de 2.5 m (TOMMASELLI, 2001). As principais partes de uma câmara aérea métrica convencional de quadro fotográfico são: Cone; Corpo; e Magazine. O cone de uma câmara é utilizado como suporte para o sistema de lentes fixado em relação à superfície inferior do cone. A superfície superior do cone de uma câmara contém o plano focal que possui marcas de referência, denominadas marcas fiduciais, que materializam o sistema de coordenadas da fotografia resultante, ou sistema fotográfico. O corpo da câmara é constituído do cone externo (a função do cone externo é receber o cone interno e o mecanismo de avanço motorizado do filme e servir de interface para o magazine) e de outras peças, tais como, suportes, alavancas de comando e dispositivos de controle automático do ciclo Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 7. Capítulo III 98 de funcionamento da câmara. Existem vários dispositivos para manter o filme plano, sendo o dispositivo de vácuo-sucção o mais comum. O magazine da câmara é utilizado para armazenar, avançar e aplainar o filme e possue um dispositivo de compensação de arrastamento (consiste em um borramento na imagem provocado pelo movimento relativo do objeto enquanto o obturador da câmara permanece aberto durante o tempo de exposição do filme). Para Tommaselli (2001), os dispositivos de compensação de arrastamento provocam um pequeno movimento sincronizado do negativo, na direção do vôo, enquanto o obturador está aberto (Figura 3.5a). Este pequeno movimento elimina o arrastamento e melhora significativamente a qualidade da imagem (Figura 3.5b). Na Figura 3.5b mostra-se um magazine com um dispositivo de compensação, também chamado de FMC (Forward Motion Compensation), da câmara RMK-Top, Zeiss. Figura 3.5. Compensação do arrastamento. (a) Borramento na imagem causado pelo arrastamento. (b) Imagem sem arrastamento (FONTE: TOMASELLI, 2001) (a) (b) A seguir serão apresentadas as características das câmaras digitais convencionais. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 8. Capítulo III 99 3.1.1.2. Câmaras digitais convencionais As câmaras digitais convencionais são classificadas como: de pequeno e médio formato, com modelos amadores e profissionais. As câmaras digitais amadoras não possuem rigidez geométrica e radiométrica da imagem. As câmaras digitais profissionais possuem lentes e componentes internos de melhor qualidade geométrica, porém ainda não alcançam a precisão das câmaras métricas convencionais. Estes modelos têm sido bastante utilizados em projetos de cunho científico e, desde que devidamente calibrados, podem ser utilizados para trabalhos fotogramétricos. As câmaras de pequeno e médio formato possuem algumas vantagens em relação às câmaras métricas convencionais, tais como: são leves e de fácil manejo; custo reduzido; possuem um intervalo de distâncias focais; flexibilidade de integração com sistemas GPS e INS; podem ser integrados em diversos tipos de aeronaves; e grande disponibilidade no mercado. A seguir serão apresentadas as características das câmaras digitais métricas. 3.1.1.3. Câmaras digitais métricas 3.1.1.3.1. Sistema Tri-Linear De acordo com Fricker et al (2000), o sistema Tri-Linear possui 3 sensores CCD com configuração de varredura linear, cuja amostragem do terreno é feita em 3 faixas. O sistema consiste de 3 sensores lineares posicionados no plano focal, cujas visadas são denominadas de anterior, nadir e posterior garantindo a geometria e a cobertura estereoscópica da superfície, bem como sensores multiespectrais com sensibilidade Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 9. Capítulo III 100 controlada por filtros RGB e infravermelho, localizados próximos ao nadir. A Figura 3.6 mostra as visadas anterior, nadir e posterior do sistema Tri- Linear. Figura 3.6. Visadas de aquisição de imagens do sistema Tri-Linear. Com o sistema Tri-Linear todos os objetos aparecem em todas as três faixas coletadas pelos sensores (Figura 3.7). A Figura 3.7, mostra duas imagens adquiridas com o sistema supracitado nas visadas anterior e nadir. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 10. Capítulo III 101 Figura 3.7. Imagens originais de visada anterior e nadir, adquiridas pelo sistema Tri-Linear. (FONTE: HAALA, 2001) Como pode ser percebida na Figura 3.7, as imagens originais apresentam-se distorcidas e por isso é necessário um tratamento da imagem (correção geométrica para ajustar as linhas imageadas) baseada no emprego dos parâmetros de posição e atitude fornecidos pelo sistema de integração GPS/INS. A partir destes parâmetros é realizada uma retificação inicial das imagens, seguida de fototriangulação para o refinamento da solução (para maiores detalhes ver HAALA, 2001). A Figura 3.8 apresenta as imagens retificadas. Figura 3.8. Imagens retificadas de visada anterior e nadir, adquiridas pelo sistema Tri-Linear. (FONTE: HAALA, 2001) Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 11. Capítulo III 102 Existem dois modelos de câmaras baseadas na abordagem Tri- Linear, isto é, as câmaras HRSC-A (desenvolvida pelo Centro Espacial da Alemanha) e ADS 40/50 (Desenvolvida pelo convênio Leica Geosystems e Centro Espacial da Alemanha). Aqui serão tratadas as características da câmara ADS 40. Câmara ADS 40 O sensores lineares ADS 40-Leica foram lançados no XIX Congresso da ISPRS em julho de 2000, desenvolvida pela LH-System em cooperação com o Centro Aeroespacial Alemão. A Figura 3.9 mostra uma imagem da câmara instalada em uma aeronave. Figura 3.9. (a) Câmara ADS40 – LEICA. (b) Câmara instalada na aeronave. (FONTE: FRICKER, 2001). (a) (b) Este tipo de câmara utiliza três componentes básicos para aquisição de imagens, tais como: uma câmara digital de arranjo linear, receptor GPS para determinação da posição e um INS para a determinação da atitude da aeronave. O sensor digital linear fornece imagens do terreno por meio de varreduras contínuas com as características do sistema Tri-Linear. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 12. Capítulo III 103 A câmara digital possui um sistema de lente com uma ou mais distâncias focais, 3 a 5 sensores lineares no modo Pancromático (estéreo) e de 3 a 7 sensores multiespectrais (RGB e infravermelho). A Figura 3.10 apresenta a varredura contínua e o esquema de varredura para cada tipo de modo (PAN e Multiespectral). Figura 3.10. Varredura contínua e seus modos de imageamento. 0 O campo de visada (FOV) do modo PAN anterior é de 28.4 , 0 enquanto que o PAN posterior é de -14.2 ambos em relação a visada nadiral. Isto faz com que se tenha uma imagem estereoscópica e possibilita a visualização tridimensional. Para os sensores multiespectrais a visada do 0 0 infravermelho posterior é de -2.0 e a visada RGB anterior é de 16.1 . Algumas vantagens deste tipo de sistema em relação às câmaras convencionais são: A projeção da imagem é perspectiva paralela; Número de imagens para o recobrimento aéreo da região de interesse é menor; Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 13. Capítulo III 104 Resolução multiespectral melhor que as imagens de satélite de alta resolução; Produtos ligeiramente mais rápidos; Sem a necessidade de rolos de filme, laboratório fotográfico e scanners; e Resolução de 8 a 12 bits, permitindo a visualização de objetos obstruídos por sombra. Além das câmaras digitais de sensor linear também existem as câmaras digitais de sensor matricial. A Tabela 3.1 apresenta algumas diferenças entre a câmara digital de sensor linear e de sensor matricial. Tabela 3.1. Diferenças básicas entre câmara digital de sensor linear e matricial. (ADAPTADO DE FRICKER, 2001). ADS – 40 (Airbone Digital Sensor) DMC (Digital Mapping Camera) Sensor CCD de arranjo linear Sensor CCD de arranjo matricial PAN (24000 pixels) Pan (13826 x 7680 pixels) * MS – R,G,B e NIR MS – R,G,B e NIR Tamanho do pixel 6,5 x 6,5 m Tamanho do pixel 12 x 12 m 1 lente telocêntrica 4 lentes da Zeiss (PAN) + 4 lentes (MS) Distância focal 62,7 mm Distância focal 120 mm (PAN) e 25,4 mm (MS) 0 0 0 FOV 64 FOV 74 x 44 12 bits / 8 bits 12 bits Sistema inercial/GPS Sistema inercial/GPS (opcional) Resolução espacial mínima 15 cm Resolução espacial mínima 5 cm Memória 540 GB Memória 840 GB (> 2000 imagens) *NIR: infravermelho próximo. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 14. Capítulo III 105 Sensor Digital Aerotransportado O crescente desenvolvimento dos sensores digitais fotogramétricos aerotransportados, aponta para a uma grande mudança na forma de aquisição, processamento, manuseio e geração de produtos a partir de imagens aéreas, permitindo a sua aplicação para diferentes áreas do conhecimento, proporcionando uma redução no tempo de produção (processamento totalmente digital), melhor resolução espacial e radiométrica, aquisição simultânea de imagens pancromáticas e multiespectrais, mais flexibilidade e custos mais baixos. Com base no tamanho do formato de aquisição da imagem os sensores podem ser divididos em: a) pequeno formato: geram imagens com tamanho de até 16 megapixels; b) médio formato: geram imagens entre 16 e 50 megapixel; c) grande formato: geram imagens acima de 50 megapixel (PETRIE et alii, 2007) . Dentre os sensores de grande formato existentes no mercado, citam- se os modelos que operam com foto e sensores matriciais (ITT: Geospatial System; DIMAC: Dimac Systems; DMC Z/I: Intergraph; Ultracam-D e Ultracam-X: Vexcel; STARIMAGER-TLS: Starlabo), sensores com linha simples (LINHA SIMPLES?) e varredura monocrómático (THALES OPTONICS 8010 e 8042: Vinten; GLOBAL SCAN: France), sensores com linha simples e de varredura colorido (VOS 60 e VOS-80: Zeiss; VERIMARC: Verimarc Plus Inc.), sensores com linha simples e varredura hiperespectral (ITRES RESEARCH: Canadá; SPECIM: Finlândia, INTEGRATED SPECTRONS: Austrália), sensores com linha simples com varredura panorâmico (Goodrich Paranoramic Line Scanner), sensor com três linhas e varredura linear estéreo (HRSC-AX e HRSC-AXW:DLR; JAS 150: Jena Optronik, ADS40 e a 2ª geração ADS80:Leica, 3-DAS-1 e 3-OC: Wehril Associates-USA e Geosystems-Ukraine), (PETRIE et alli, 2007). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 15. Capítulo III 106 Aqui será tratado do sensor digital ADS 40 de varredura linear. Sensor Digital ADS 40 Lançado no XIX Congresso ISPRS de Amsterdã realizado em Julho de 2000, o sensor digital aerotransportado, figura 3.11, da LH Systems inicia uma nova era da fotogrametria digital, apropriadamente colocado no início do novo milênio. Desenvolvido em conjunto com o Deutsche Zentrum für Luft - und Raumfahrt (Centro Aeroespacial Alemão – DLR) em Berlin (SANDAU et alli, 2000), o ADS40 foi o primeiro dispositivo imageador digital aerotransportado com capacidade e performance, em termos de resolução e cobertura, nas medidas similares as estabelecidas pelas câmaras aéreas analógicas de filmes com formato 23 x 23 cm e resolução maior do que 100 linhas por milímetro (FRICKER et alli, 2001). Figura 3.11. Sensor ADS 40. Adaptado de FRICKER et alli, 2005ª. O ADS40 é um sensor digital linear aerotransportado com grande campo de visão, alta resolução, acurácia geométrica e radiométrica que utiliza o princípio de varredura com três linhas de sensores CCD (em inglês, Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 16. Capítulo III 107 Charged Coupled Device), organizadas perpendicularmente à direção de vôo (denominado pushbroom), obtendo desta forma, visada anterior, vertical e posterior, figura 3.12, possibilitando a geração de modelos em três dimensões. Figura 3.12. Princípio dos três escâner linear. Adaptado de FRICKER et alli, 2005ª. Na aquisição de imagens aéreas do terreno com o ADS40, todos os objetos são gravados três vezes em 100% das cenas ou visadas, enquanto em uma câmara aérea analógica com filme ou digital por foto, a aquisição da imagem é obtida com 60 ou 50% de todos os objetos em três fotos diferentes, figura 3.13. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 17. Capítulo III 108 Figura 3.13. Sobreposição de imagens na ADS40. Adaptado de FRICKER et alli, 2005. O ADS40 gera imagens de faixas contínuas sem emendas ao longo de cada linha de vôo, figura 3.14, e em diferentes perspectivas centrais, figura 3.15, que permite, por exemplo, com o uso do produto do CCD linear de visada vertical, uma faixa de imagem chamada quase-ortogonal (FRICKER, 2005b). Figura 3.14. Imagem Pancromática com visada vertical. Adaptado de FRICKER et alli, 2000. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 18. Capítulo III 109 Figura 3.15. Efeito da perspectiva central. Adaptado de FRICKER et alli, 2000. Composição do Sensor Digital ADS 40 Inertial Navegation System (INS) O ADS40 possui uma unidade de medida inercial composta por um sistema de navegação inercial que utiliza tecnologia de posicionamento por satélite (GPS) e determinação da atitude por um inercial (INS). O uso de GPS/INS fornece ao sistema a capacidade de determinar continuamente o deslocamento espacial do sensor de forma autônoma, apresentando precisão suficiente para o georreferenciamento direto de imagens digitais (MCMILLAN et alli, 1994; CRAMER et alli, 2001; CRAMER, 2003) , figura 3.16, possibilitando a realização de mapeamento com maior flexibilidade e rapidez (RUY, 2004). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 19. Capítulo III 110 Figura 3.16. Plano focal com a posição do sensor CCD linear. Adaptado de FRICKER et alli, 2000. Módulo Plano Focal e Sensor CCD (Charged Coupled Device) O plano focal, figura 3.17a, consiste de quatro conjuntos lineares de CCD: dois deles contendo duas linhas e os outros dois contendo três linhas, figura 3.17b, cada linha com duas matrizes de 12.000 pixels (SANDAU et alli, 2000) separadas por uma distância de 3,5 m, sendo, 6,5 x 6,5 m a dimensão de cada pixel, que permitem medir os valores absolutos dos fótons que entram no sistema, como uma função de transferência linear. Os dois conjuntos de CCD externos, formados com 2x12.000 pixels operam a banda pancromática, e os dois conjuntos internos, divididos em, um conjunto contendo 3x12.000 pixels que opera as bandas RGB (vermelho, verde e azul) e o outro conjunto também com 3x12.000 pixels que opera, com duas linhas a banda pancromática e uma linha, a banda do infravermelho próximo (NIR). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 20. Capítulo III 111 Com esta disposição o sensor tem capacidade de gerar imagens no pancromático anterior com o primeiro conjunto linear de CCD, imagens multiespectrais nas bandas RGB (vermelho, verde e azul) com o segundo conjunto, imagens no pancromático (visada vertical) com as duas primeiras linhas e na banda do infravermelho próximo com a terceira linha do terceiro conjunto de CCD e imagem no pancromático (visada posterior) com o primeiro quarto conjunto, figura 3.17c. Figura 3.17. Plano focal com a posição do sensor CCD linear e a composição de bandas da imagem. Adaptado de FRICKER et alli, 2000. Sistema Ótico Digital e Filtros A ótica inovadora da ADS40 é projetada para uso em fotogrametria e sensoriamento remoto. A lente é semelhante em suas dimensões externas, peso e resolução as lentes da câmara RC-30 com filme, sendo diferentes em relação ao modo de gravação, pois, enquanto nas câmaras com filme a Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 21. Capítulo III 112 minimização da distorção é primordial, a maior demanda requerida em câmaras digitais é o telecentrismo das imagens, em função do trabalho com bandas multiespectrais, (SANDAU et alli, 2000). O sistema ótico digital possuí, uma lente telecêntrica de distância focal de 62,5 mm, figura 3.18, tamanho de pixel na imagem de 6,5 m, uma abertura de visualização no solo com campo de visão FOV (em inglês, Field of View) com ângulo de cobertura de 64°, diafragma com abertura f:4, ângulos estéreos de 16° (visada vertical para anterior), 26° (visada posterior para vertical) e 42° (visada anterior para posterior), faixa espectral entre 428 e 887 nanômetro (R:608,662nn; G:533-587nn; B:428-492nn; NIR1:703- 757nn e NIR2:833-887nn), resolução de 150 linhas por mm, precisão geométrica de 1 m, medida dinâmica de 12-bit, resolução radiométrica de 8-bit; vermelho com freqüência de 200-800 HZ, capacidade de armazenamento com capacidade de 200-500 GB, estabilização térmica e barométrica na faixa de alta precisão de +10° até +30°, distorção radial menor ou igual a 3%, filtros de bandas e de interferência metálica além dos filtros para bandas RGB mantendo a qualidade campo visual do sensor (SANDAU et alli, 2000 e FRICKER et alli, 2005a). Figura 3.18. Sistema Ótico Digital ADS40. Adaptado de FRICKER et alli, 2000. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 22. Capítulo III 113 Sistema de Feixes Trichroid (Tricóide) O sistema de divisão de feixes Trichroid desenvolvido pela Leica especialmente para a ADS40, foi concebido com uma perda mínima de energia, e garante que a luz, a partir da mesma área do solo, seja detectada por três arranjos lineares sensíveis ao RGB. Outra matriz linear sobre o plano focal captura os dados no infravermelho próximo, figura 3.19 (FRICKER et alli, 2001). Figura 3.19. Sistema Trichroid desenvolvido pela Leica para a ADS40. Adaptado de FRICKER et alli, 2000. Processamento e Aerotriangulação dos Dados do ADS40 Os metadados originais, com as imagens e parâmetros posicionais e de atitude do sensor no momento da tomada das imagens, permitem, a obtenção de uma visão estéreo, medidas manuais de pontos de controle e medidas automáticas de pontos fotogramétricos, e isto, garante o processamento e o ajustamento do bloco, resultando em uma imagem retificada com precisão e livre de paralaxe, que pode ser vista estereoscopicamente, e ser usada, por exemplo, para coleta e edição de feições cartográficas (FRICKER et alli, 2001). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 23. Capítulo III 114 As imagens são classificadas de acordo com os níveis de processamento em: a) Nível 0 (zero) – Dados Brutos: consistem em imagem geométricas básicas (formato TIFF e outros formatos) e dados de orientação processados; b) Nível 1 (um) – Dados Corrigidos: consistem em imagens multiespectrais e pancromáticas estéreo totalmente retificadas; c) Nível 2 (dois) – Dados Geoposicionais: consistem em ortofotos pancromáticas e multiespectrais. Os dados de nível zero utilizam o LH Systems ADS gerador nível zero e o pós processamento applanix, já os níveis um e dois utilizam o systems ADS gerador nível um, SOCET SET, DPW, ORIMA ou três pares fotogramétricos na estação de trabalho com sensor de modelo ADS (FRICKER et alli, 2001). Aplicações e contribuições para sistema digital aerotransportado Em função do sensor aerotransportado ADS40 possuir uma resolução espacial variando entre 0,8 m e 0,01m e uma resolução espectral no pancromático e no multiespectral este sensor é indicado para aplicações de fotogrametria e sensoriamento remoto. O produto gerado pelo sensor pode ser utilizado em áreas clássicas da cartografia como, defesa, mapeamento topográfico, construção civil, infra-estrutura, telecomunicações, energia, agricultura, floresta, seguro e desastres (HEIER, 1999). Novos métodos, em comparação com os já existentes para o processamento de filmes aéreos digitalizados, foram introduzidos ao longo dos últimos anos e investigações cuidadosas têm demonstrado que o desempenho, a arquitetura, direção, georreferenciamento, modelagem do sensor, processamento de pontos, aerotriangulação do sensor aerotransportado ADS40 (FRICKER, 2001; HINSKEN et alli, 2002; SANDAU et alli, 2000; TEMPELMANN et alli, 2000) e outros sistemas Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 24. Capítulo III 115 (FRITSCH, 1997; HAALA et alli, 2000; HOFFMANN et alli, 2000; LEBERL et alli, 2003; TIANEN et alli, 2003; WEWEL et alli, 1998; apud PATERAKI et alli, 2003a). As pesquisas envolvendo o ADS40 demonstram a construção, o desempenho, geometria e resolução do sensor (SANDAU et alli, 2000; ECKARDT et alli, 2000; ZHU, 2004; CRAMER, 2006), a acurácia e a precisão no uso da fotogrametria e do sensoriamento remoto (FRICKER et alli, 2001; GREEN et alli, 2007; WASER et alli, 2007; DAI et alli, 2008; ADDULLAH, 2009), o processamento, análise da qualidade radiométrica da imagem, extração de feições por correlação de pixels e a geração de modelos digitais de superfície (GWINNER et alli, 1999; NEUKUM, 1999; SCHOLTEN, 2000; PATERAKI et alli, 2002; PATERAKI et alli, 2003a; PATERAKI et alli, 2003b; HONKAVAARA et alli, 2007), a obtenção da aerotriangulação usando os parâmetros determinados pelo sistema de navegação inercial GPS/IMU (HINSKEN et alli, 2002), a investigação da acurácia de mapeamentos topográficos (YOTSUMATA et alli, 2002) e a comparação radiométrica entre o sensor ADS40 e outros sensores (HONKAVAARA; 2007). Resolução espacial do pixel no terreno e a escala do mapa Quando tratamos de imagens aéreas da superfície terrestre por meio de sensores digitais aerotransportado, o detalhe mais importante para a definição da precisão e acurácia com que necessitamos obter o produto cartográfico não, é a escala da foto e a altitude de vôo, como no caso de câmaras aéreas convencionais, e sim o tamanho ou resolução espacial do pixel no terreno, também conhecido como GSD (em inglês, Ground Sample Distance). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 25. Capítulo III 116 A tabela 3.2 apresenta a relação entre o GSD do sensor ADS40 e a escala do mapa. Comparação com filme Mapa Padrão fotográfico Tam GSD anho com Escala do do ADS4 Mapa pixel Acurácia x,y Intervalo de 0 Escala da Foto do RMSE Curva de Nível filme esca nead o 5 – 10 1:500 0,125 m 0,25 m 1:3.000 até 1:5.500 2,50 – cm 5,00 cm 10 – 1:1.000 0,250 m 0,50 m 1:5.000 até 1:8.000 5,00 – 15 cm 7,50 cm 15 – 1:1.500 0,400 m 0,75 m 1:6.500 até 1:10.000 7,50 – 20 cm 10,0 cm 20 – 1:2.000 0,500 m 1,00 m 1:8.000 até 1:11.000 10,0 – 30 cm 15,0 cm 25 – 1:2.500 0,600 m 1,25 m 1:8.500 até 1:13.000 12,5 – 35 cm 17,5 cm 30 – 1:5.000 1,250 m 2,50 m 1:12.000 até 1:18.000 15,0 – 50 cm 25,0 cm 40 – 1:10.000 2,500 m 5,00 m 1:17.000 até 1:27.000 20,0 – 60 cm 30,0 cm 50 – 1:20.000 5,000 m 10,00 m 1:25.000 até 1:35.000 25,0 – 70 cm 35,0 cm 50 – 1:25.000 6,250 m 12,50 m 1:28.000 até 1:42.000 25,0 – 80 cm 40,0 cm 50 – 1:50.000 12,50 m 20,00 m 1:40.000 até 1:60.000 25,0 – 100 50,0 cm cm 50 – 1:100.000 25,00 m 50,00 m 1:60.000 até 1:90.000 25,0 – 100 50,0 cm cm Tabela 3.2. Relação GSD e escala do mapa. Adaptado de FRICKER et alli, 2000. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 26. Capítulo III 117 Figura 3.20. Exemplo de imagem de saída da ADS40. Adaptado de FRICKER et alli, 2000. De forma similar a tabela 3.3 apresenta a relação entre o campo de visada instantânea (IFOV) de um digitalizador medido em pontos por polegada (DPI - dots per inch) ou micrômetros ( m), usado na transformação de uma fotografia aérea convencional em uma imagem digital, e a resolução espacial do pixel no terreno para fotografias em diferentes escalas (JENSEN, 2009). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 27. Capítulo III 118 Tabela 3.3. Relação ―pixel‖ no terreno e a escala da fotografia. Adaptado de JENSEN, 2009. IFOV do Resolução do “pixel” no terreno para diversas escalas das fotografias (m) Digitalizador DPI m 1:25.000 1:12.500 1:10.000 1:8.000 1:6.000 1:4.000 100 254,000 6,350 31,750 2,540 2,032 1,524 1,016 200 127,000 3,175 15,875 1,270 1,016 0,762 0,508 300 84,667 2,117 10,583 0,847 0,677 0,508 0,339 400 63,500 1,588 7,938 0,635 0,508 0,381 0,254 500 50,800 1,270 6,350 0,508 0,406 0,305 0,203 600 42,333 1,058 5,292 0,423 0,339 0,254 0,169 700 36,286 0,907 4,536 0,363 0,290 0,218 0,145 800 31,750 0,794 3,969 0,318 0,254 0,191 0,127 900 28,222 0,706 3,528 0,282 0,226 0,169 0,113 1000 25,400 0,635 3,175 0,254 0,203 0,152 0,102 1200 21,167 0,529 2,646 0,212 0,169 0,127 0,085 1500 16,933 0,423 2,117 0,169 0,135 0,102 0,068 2000 12,700 0,318 1,588 0,127 0,102 0,076 0,051 3000 8,467 0,212 1,058 0,085 0,068 0,051 0,034 4000 6,350 0,159 0,794 0,064 0,051 0,038 0,025 Conversões úteis de digitalizadores (Adaptado de JENSEN, 2009) DPI= pontos por polegada; m =micrômetro; I = polegada; M=metros De DPI para micrômetros: m = (2,54/DPI)×10.000 De micrômetros para DPI: DPI=(2,54/ m)×10.000 De polegadas para metros: M=I×0,0254 De metros para polegadas: I = M×39,37 Cálculo Do GSD (Adaptado de JENSEN, 2009) PM = tamanho do “pixel” em metros; PF = tamanho do “pixel” em pés; S= escala da foto Utilizando DPI: PM =((S/DPI)/39,37) ×100 PF=(S/DPI)/12 Utilizando micrômetros: PM = (S× m)×0,00001 PF=(S× m)×0,00000328 Por exemplo, se uma fotografia na escala 1:6.000 é digitalizada em 1200 DPI, o tamanho do pixel será (6000/1200)/39,27=0,127 metros por pixel. Se uma fotografia na escala de 1:8.000 é digitalizada com 21,167 m o tamanho do pixel será (8000×21,167)×0,000001)=0,169 metros (JENSEN, 2009). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 28. Capítulo III 119 A seguir será apresentada a teoria sobre sistema LiDAR (em inglês, Light Detection and Ranging). 3.1.2. Sistema Ativos 3.1.2.1 Sistema LiDAR Vários algoritmos computacionais têm sido implementados para tratamento e geração automática de MDS e MDT a partir do uso de imagens. Neste sentido, ainda não se tem o conhecimento de um algoritmo ou aplicativo comercial que apresente resultados confiáveis e robustos, pois fatores como: a própria geometria perspectiva das imagens; sombra projetada por edifícios e vegetação; escala variante ponto a ponto; mudança do ponto de vista na tomada das imagens; ruídos; regiões com alta densidade predial, vegetal e regiões homogêneas, dificultam o desenvolvimento de aplicativos autônomos para a realização do processo mencionado anteriormente. Para os aplicativos desenvolvidos e de uso comercial, a porcentagem de interação homem/máquina é de 60%. Para Shan e Toth (2008) o sistema LiDAR foi o maior avanço tecnológico de sistema de aquisição de dados espaciais introduzido no mapeamento topográfico, do final do século XX. Sua principal vantagem é a capacidade de fornecer dados tridimensionais de forma direta, rápida, segura, autônoma e acurada. A acurácia do sistema se deve à acuracidade do sensor LASER (em inglês, Light Amplification by Stimulated Emission of Radiation) e dos sensores de integração GNNS (em inglês, Global Navy- Star Navegation System) e INS (em inglês, Inertial Navegation System). Ao contrário do método tradicional de Fotogrametria, LiDAR pode adquirir, de forma direta, dados espaciais sobre a superfície física com uma Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 29. Capítulo III 120 superabundância de informações, que podem ser utilizadas em inúmeras aplicações da engenharia. O desenvolvimento do sistema supracitado interveio na interdisciplinaridade das técnicas de visão computacional, computação gráfica e a fotogrametria. A adaptação gradual destas técnicas está relacionada com a calibração do sistema, processamento e registro dos dados adquiridos e a extração das informações. O sistema tem possibilitado uma leitura ousada no que tange as perspectivas na automação dos processos fotogramétricos, sobretudo para geração de ortofotos digitais verdadeiras (true ortophotos), autonomia na recuperação dos parâmetros de orientação exterior de imagens, reconhecimento e reconstrução automática de objetos presentes nas imagens digitais, abrindo novos caminhos para a fotogrametria em diversos ramos do mercado nacional. A seguir será apresentado o princípio básico de funcionamento do sistema LiDAR. Princípio de funcionamento LiDAR é um sistema de registro de informação com princípio ativo, que possibilita a determinação de coordenadas tridimensionais de cada ponto varrido pelo sistema num curto período de tempo e de forma direta. Existem dois tipos de sistemas disponíveis no mercado, isto é, o sistema dinâmico (Figura 3.21a) e o sistema estático (Figura 3.21b). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 30. Capítulo III 121 Figura 3.21. (a) Sistema aerotransportado. (b) Sistema estático. (a) (b) Instalados em plataformas aéreas e terrestres, o sistema pode coletar uma nuvem de pontos tridimensionais perfilados sobre a superfície física, com grande volume de dados determinados com acurácia, cuja facilidade no tratamento dos dados implicou na inserção do sistema em diversas aplicações. Ambos os sistemas utilizam um feixe ótico de alta potência e bem direcionado, coerente no espaço e no tempo que proporciona, em pós- processamento, a qualidade da medida da distância entre o sistema LASER e o objeto. Sistemas dinâmicos ou aerotransportados O desenvolvimento do supracitado sistema se deve, principalmente, ao sucesso no desenvolvimento da tecnologia INS. No entanto, a introdução de sistemas aerotransportados se deu a partir do desenvolvimento da tecnologia GNSS, o que possibilitou o desenvolvimento da tecnologia de georeferenciamento direto, isto é, a integração GNSS/INS, na década de 1990, que foram capazes de fornecer dados de posição e atitude da plataforma aerotransportada com uma precisão de 4 – 7 cm e 20–60 arco-segundos, respectivamente (Shan e Toth, 2008). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 31. Capítulo III 122 Os sistemas aerotransportados podem ser acoplados em aeronaves. Seu princípio de funcionamento depende basicamente da integração de três componentes, isto é: o GPS; o INS; e o próprio LASER. GPS: registra a posição da aeronave em intervalos de tempo fixos, enquanto outro receptor de base (no terreno) possibilita correção diferencial do posicionamento do sensor (pós-processamento); INS: registra os ângulos de atitude ( , , ) do sensor durante o vôo. Posteriormente, são utilizados em pós-processamento para determinação precisa das coordenadas dos pontos tridimensionais no terreno; e Laser: armazena o tempo de emissão e recepção de cada pulso, bem como a resposta espectral de cada objeto varrido. Os pulsos laser são gerados por um componente denominado ―gerador de pulsos‖ e emitidos pelo sistema (na faixa espectral do infravermelho) com o auxílio de um espelho de varredura que redireciona o pulso - com uma freqüência de varredura e diâmetro de espessura -, para a superfície de interesse a ser mapeada ou reconstruída tridimensionalmente. A característica mais marcante do sistema de emissão e recepção do pulso é a sua propriedade em medir distâncias com alto grau de acurácia, usualmente, baseada em um instrumento preciso para medida de tempo. Existem dois métodos de medida de tempo que podem ser empregados nos instrumentos supracitados, isto é, o TOF (em inglês, Time-of-Flight) e o CBLR (em inglês, Continuous Beam of Laser Radiation). Aqui será tratado apenas o primeiro método. O TOF é baseado na emissão de um pulso curto com alta potência de radiação por LASER. Neste caso, o pulso emitido interage com o objeto contido na superfície física. Uma porcentagem da energia emitida é Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 32. Capítulo III 123 absorvida, outra porcentagem é transmitida e a energia refletida retorna ao sistema, cuja mesma é armazenada na ―unidade de controle de armazenamento‖, juntamente com as informações fornecidas pelo GPS e INS. O intervalo de tempo (t) entre a emissão e recepção do pulso é calculado com precisão e a distância entre a plataforma e o objeto perfilado ( R ) é calculada em função da de t e a velocidade da radiação eletromagnética ( v - valor fixo), a saber: v t R (3.1) 2 Da relação acima, se pode extrair a seguinte equação, a saber (Shan e Toth, 2008): vt v t R 2 2 Onde, R é a precisão da distância, v é a precisão da velocidade e t é o valor correspondente da precisão de t. A precisão de R é determinada em função de t. Como descrito anteriormente, o GPS é utilizado em modo cinemático pós-processado, que requer um receptor de base (Figura 3.11) em um ponto de coordenadas conhecidas (por exemplo, uma RBMC – Rede Brasileira de Monitoramento Contínuo – desde que a mesma esteja próxima à área do levantamento). A Figura 3.22 apresenta um esquema do princípio de funcionamento do sistema aerotransportado. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 33. Capítulo III 124 Figura 3.22. Princípio de funcionamento do sistema aerotransportado. O pulso laser emitido pelo sistema possui um diâmetro que aumenta na medida em que ocorre sua propagação no meio. De acordo com a Figura 3.22 verifica-se visualmente que, o diâmetro do pulso no momento da emissão é consideravelmente inferior quando o mesmo interage com a superfície. O diâmetro do pulso varia de acordo com a altitude de vôo estabelecida no levantamento aéreo. Apesar do fator descrito, a luz do laser foi escolhida para a concepção do sistema por apresentar baixa divergência, cuja propagação é similar à concepção geométrica da linha reta. Por isso, ocorrem múltiplas reflexões na iteração laser/objetos como, por exemplo, quando um pulso laser atinge a folha de uma árvore, uma parte do pulso é refletido pelas folhas e outra parte pelo terreno (este é considerado segundo retorno, pois sua reflexão atinge o sistema após o primeiro retorno do pulso – reflexões das folhas). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 34. Capítulo III 125 Ainda ao observar a Figura 3.22 é possível verificar que a varredura do terreno é realizada aleatória e transversalmente à direção do vôo, o que possibilita o perfilamento tridimensional da área de interesse com uma freqüência que depende das especificações do projeto. A Figura 3.23 ilustra esquemas de alta e baixa freqüência de perfilamento. Figura 3.23. Freqüência de perfilamento. (a) Alta freqüência de perfilamento. (b) Baixa freqüência de perfilamento. (a) (b) A reconstrução do pulso laser emitido é dada no sistema de projeção WGS84, isto é, a distância percorrida pelo pulso entre a plataforma e o objeto perfilado é calculada em pós-processamento baseada na determinação do ângulo que o pulso formou com a aeronave no momento de sua emissão, juntamente com os dados de posição e atitude da aeronave, fornecidos pelo sistema de integração GPS/INS, bem como em função da velocidade da luz (c) e tempo de emissão e recepção do pulso Laser ( t). Em termos gerais, as coordenadas tridimensionais de um ponto qualquer na superfície física são determinadas em função de uma Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 35. Capítulo III 126 seqüência de rotações e translações aplicadas entre os componentes que compõem o sistema. A Figura 3.24 mostra a relação entre os sistemas envolvidos na determinação de coordenadas de um ponto no sistema do espaço-objeto ou referencial terrestre. Figura 3.24. Determinação de coordenadas tridimensionais de um ponto na superfície. Os pontos tridimensionais de um ponto são obtidos por meio da Equação, a saber: XP 0    YP  TT , INS RT , INS R L , INS 0 TL , INS TG , INS erros (3.1) ZP P d Onde, X PYP Z P : coordenadas tridimensionais de um ponto na superfície física;  TT , INS : translação entre sistema do espaço-objeto e o INS; Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 36. Capítulo III 127  TL , INS : translação entre o LASER e o INS;  TG , INS : translação entre o centro de fase da antena GPS e o INS; RT , INS : matriz de rotação entre o sistema do espaço-objeto e o INS; RL, INS : matriz de rotação entre o LASER e o INS; erros : erros inerentes aos componentes que integram o sistema LiDAR. Para garantir a precisão plani-altimétrica de cada ponto perfilado pelo sistema LiDAR a distância entre os receptores, aerotransportado e de base, não deve ultrapassar 50 km. Um conjunto de receptores de base deverá ser estabelecido, caso não seja possível manter a exigência descrita anteriormente. Calculadas as coordenadas tridimensionais de cada ponto ( X PYP Z P ) na superfície física devem ser aplicadas as devidas transformações entre sistemas de coordenadas, que neste caso, referem-se às conversões das coordenadas entre os sistemas WGS84 e algum sistema de referência adotado no trabalho, por exemplo, SAD-69. Assim como, as transformações das altitudes elipsoidais (fornecidas pelo GPS) para as altitudes ortométricas. De acordo com Wher e Lohr (1999), o sistema LiDAR fornece coordenadas planimétricas em torno de 50 cm e altimétricas em torno de 15 cm. O sistema da Optech ALTM 3100 (sistema canadense) possui precisão planimétrica igual a 1/2000 da altura utilizada no perfilamento a LASER (1 sigma). No entanto, a precisão do sistema depende das características dos componentes utilizados, tipo de terreno, qualidade do INS empregado e altura de vôo. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 37. Capítulo III 128 A qualidade dos dados obtidos pelo sistema de varredura a LASER depende da qualidade dos dados fornecidos pelos componentes que compõem o sistema supracitado. Em relação ao GPS os fatores internos, externos e operacionais, tais como, solução da ambigüidade, perda de sinal dos satélites, freqüências L1 e L2, geometria e número de satélites disponíveis, deslocamentos orbitais, modelagem do geóide, multicaminhamento, erro de propagação do sinal na atmosfera, interferências eletromagnéticas e parâmetros incorretos, são os fatores mais importantes a serem cuidadosamente estudados. Além de considerar todos os possíveis erros descritos acima, ainda é necessário tomar algumas precauções para a obtenção da precisão requerida, tais como, realizar planejamento adequado, operações de vôo dentro de limites apropriados (para evitar perda de sinal do GPS) e uma boa distribuição das estações GPS de base em solo. 0 O INS apresenta precisão melhor que 0,02 e os pulsos laser são afetados pelas diferentes camadas existentes na atmosfera. A altura de vôo é fator a ser considerado na degradação da precisão das medidas relacionadas ao sistema LASER. Outra característica a ser evidenciada é o problema de divergência dos pulsos, que resultam em pequenas diferenças na interpretação dos resultados que aqui serão chamados de borda de divergência. Os erros de divergência podem ser visualizados através de uma operação de subtração de imagens do primeiro (Figura 3.25a) e último retorno do pulso (Figura 3.25b). A Figura 3.25 mostra imagens em níveis de cinza obtida por meio de um processo de quantização das coordenadas brutas altimétricas fornecidas pelo sistema da TopoSys GmbH, desenvolvido na Alemanha. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 38. Capítulo III 129 Figura 3.25. Imagens em níveis de cinza obtidos por um processo de quantização de coordenadas altimétricas. (a) Imagem do primeiro retorno do pulso. (b) Imagem do último retorno do pulso. (c) Resultado da subtração entre as imagens a e b. (a) (b) (c) Verifica-se visualmente na Figura 3.25c que o resultado da operação de subtração entre as imagens não apresentou apenas a informação de vegetação, mas também as bordas das edificações, dadas pela diferença entre as dimensões das edificações (bordas de divergência) apresentadas em ambas às imagens. Esta diferença ocorre porque um pulso laser ao incidir sobre a borda do telhado de uma edificação, dependendo do tamanho de seu diâmetro, pode interceptar parcialmente a borda do telhado e ocorrer resposta de retorno devido às reflexões no solo e na fachada lateral do edifício (Figura 3.26), ou outras diversas reflexões do pulso, dependendo do tipo de material perfilado, até seu retorno ao sistema. A Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 39. Capítulo III 130 Figura 3.26 mostra as interceptações parciais do pulso e um exemplo do processo de reflexão do pulso. Figura 3.26. Interceptação parcial do pulso na borda do telhado e duas reflexões do pulso (solo e fachada lateral). Verifica-se também que as bordas das edificações contidas na imagem do último retorno do pulso (Figura 3.25b) são mais estreitas que as do primeiro retorno do pulso. Fato ocorrido devido ao último retorno incidir sobre o solo e posteriormente na fachada lateral da edificação (reta pontilhada na cor preta, Figura 3.26) enquanto o primeiro retorno do pulso incide diretamente na borda do telhado (retas vermelhas, Figura 3.26). Outro fator relacionado ao erro de divergência é a resposta de retorno do pulso após interagir com o objeto perfilado. Por ser esta uma função de dispersão de energia eletromagnética dentro da área do diâmetro do pulso pode-se dizer que, quanto maior a inclinação do pulso em relação ao objeto perfilado na superfície, maior será o erro de divergência e conseqüentemente maior a incerteza posicional do alvo. Para que não ocorram áreas de oclusão, devido ao fator supracitado, é necessário Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 40. Capítulo III 131 realizar um recobrimento da área de interesse com o mínimo de sobreposição possível. Tipos de espelhos de varredura Como descrito anteriormente o sistema LiDAR utiliza espelhos de varredura ótico-mecânica. Existe, basicamente, 3 tipos de espelhos de varredura. A Figura 3.27 apresenta os espelhos de varredura mais utilizados nos sistemas desenvolvidos. Figura 3.27. Mecanismos de varredura. (a) Espelho oscilador. (b) Varredura Palmer. (c) Polígono de rotação. (FONTE: WEHR e LOHR, 1999) (a) (b) (c) Os espelhos osciladores (Figura 3.27a) produzem uma configuração de perfilamento denominada linha em ―zig-zag‖ (Figura 3.27a). Os espelhos de polígono de rotação (Figura 3.27b) produzem uma varredura unidirecional com linhas paralelas (Figura 3.28b). Já os espelhos do tipo Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 41. Capítulo III 132 Palmer (Figura 3.28c) produzem efeitos de modelos elípticos na superfície (Figura 3.28c). Figura 3.28. Configuração da varredura em relação ao tipo de espelho. (a) Linhas em ―zig-zag‖. (b) Linhas paralelas. (c) Modelos elípticos. (a) (b) (c) Os pontos ao longo de uma linha são varridos em incrementos de ângulos iguais. De acordo com Wehr e Loher (1999), devido ao perfilamento aleatório e à aceleração e desaceleração do espelho de varredura, os pontos perfilados no extremo da largura da faixa exibem Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 42. Capítulo III 133 características diferentes dos demais pontos e devem ser removidos, em pós-processamento, do conjunto de dados brutos . A Figura 3.29a apresenta uma imagem de intensidade LASER resultante da varredura de um sistema com tipo de espelho oscilador. Os pontos na cor preta representam objetos que não foram perfilados pelo sistema devido à característica da configuração de perfilamento do tipo de espelho supracitado. Neste caso é necessário realizar uma amostragem dos dados por meio de técnicas de interpolação (vizinho mais próximo, bilinear, triangulação de Delanay etc). Figura 3.29. Imagem de intensidade LASER. (a) Derivada de espelhos osciladores. (b) derivada de espelhos tipo Palmer. (a) (b) A Figura 3.29b apresenta uma imagem de intensidade derivada de espelhos do tipo Palmer. Nota-se a diferença na qualidade geométrica entre as imagens apresentadas em as ambas figuras. Os sistemas de varredura LASER com espelhos do tipo Palmer oferecem precisão duas vezes melhor que os sistemas com espelhos do tipo oscilador. Outro tipo de espelho de varredura que possui vantagens em relação aos demais espelhos descritos anteriormente é o espelho de fibra ótica, Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 43. Capítulo III 134 cujo uso é característico apenas em sistemas da TopoSys GmbH. A Figura 3.30 mostra um espelho de fibra ótica. Figura 3.30. Espelho de fibra ótica. Adaptado de WEHR e LOHR (1999). Eles se diferenciam por terem um processo ótico de emissão e recepção do pulso idêntico. Segundo Wehr e Lohr (1999), matrizes lineares de fibra ótica idênticas são dispostas no plano focal das lentes de emissão e recepção. Através dos espelhos de rotação, cada fibra ótica no caminho da emissão e recepção é varrida seqüencialmente e sincronicamente. Estes espelhos propagam o sinal por meio da fibra central, fibra a fibra. Devido às pequenas aberturas das fibras, pequenos movimentos mecânicos são requeridos com alta velocidade de varredura (acima de 630 Hz). O sistema LiDAR fornece como produto final uma nuvem de pontos distribuídos irregularmente armazenados em um arquivo ASCII de linhas por ponto, composto por um conjunto de coordenadas tridimensionais referenciadas no sistema de projeção admitido no trabalho, cuja manipulação pode-se gerar um MDT e um MDS da região perfilada. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 44. Capítulo III 135 2 A densidade dos pontos obtidos atinge vários pontos por m , dependendo da altura de vôo e a frequência de perfilamento. A frequência do sistema se situa na faixa de 500 a 1500 nm, com valores de 1040 a 1060 nm, sendo as mesmas refletidas pelos objetos contidos no terreno. Os pontos coletados podem ser utilizados diretamente ou podem ser filtrados e interpolados de forma a gerar uma grade regular de pontos. Existem alguns tipos de sistemas de varredura LASER, tais como, o sistema da Toposys GmbH II (desenvolvido na Alemanha) e Optech ALTM 2050 (desenvolvido no Canadá). O Quadro 3.1, apresenta as diferenças básicas entre os sistemas supracitados. QUADRO 3.1. Características de sistemas Toposys GmbH II e Optech ALTM 2050. Características/Sistemas Toposys GmbH II ALTM 2050 Espelho de varredura Fibra ótica Oscilador Resposta espectral não sim Frequência de varredura Até 63 Hz Até 35 Hz 0 0 Ângulo de varredura 7 20 Altura de operação 250 - 1000 m 250 - 2000 m Modo (pulso) 1º e/ou 2º 1º e/ou 2º Resposta espectral não sim Câmara digital não 4k x 4k pixels A partir dos dados da resposta espectral armazenada pelo sistema da Optech ALTM pode-se gerar, em pós-processamento, uma imagem de intensidade LASER (Figura 3.31). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 45. Capítulo III 136 Figura 3.31. Imagem de intensidade LASER. Esta imagem é obtida a partir da interpolação dos valores da resposta espctral de cada ponto varrido pelo sistema, gerando uma imagem bidimensional de valores de intensidade. Para cada ponto é atribuído um valor de intensidade, no qual é agregado aos mesmos suas coordenadas tridimensionais compostas num arquivo de um ponto por linha de texto (arquivo bruto ASCII). Os dados são interpolados de acordo com a resolução ao qual foram perfilados os pontos no terreno. A seguir será apresentada a teoria sobre sistemas estáticos. Sistemas estáticos Existem várias aplicações que necessitam de modelagem tridimensional de objetos e superfícies e que podem ser atendidas tanto por outras técnicas de obtenção de dados dimensionais e posicionais (p. ex., técnicas fotogramétricas) quanto pela tecnologia De varredura LASER terrestre. Algumas delas, entretanto, de acordo com os requisitos de rapidez e exatidão, podem requerer um grande número de medidas, Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 46. Capítulo III 137 portanto, são melhores atendidas por uma nuvem de pontos proveniente do sistema de varredura LASER terrestre. O sistema de varredura LASER terrestre, basicamente, é compreendido por um sensor LASER (em inglês, light amplification by stimulated emission of radiation) e sistemas de espelho de varredura que direcionam o pulso para a superfície. O sistema é capaz de fornecer uma nuvem de pontos 3D sobre pontos localizados na superfície física, em um curto período de tempo. A nuvem de pontos é gerada por meio da medição simultânea de intervalo de inclinação de um sensor LASER e dois ângulos associados por encoders angulares correspondentes aos planos horizontais e verticais, passantes pelo centro do instrumento. Por isso, o sistema fornece uma nuvem de pontos de igual reamostragem no sistema de coordenadas polares. Essas medidas de distância e ângulo simultâneos são realizadas automaticamente com um ângulo de varredura de 1000 Hz ou mais, dependendo do sistema utilizado. Basicamente, o sistema emite pulsos de LASER que interagem com a superfície e são refletidos e recuperados pelo receptor do sistema. A distância entre o sensor e o alvo é calculada, em pós-processamento, em função da diferença do tempo entre a emissão e recepção do pulso. O resultado final do processo de medição e processamento é uma nuvem de pontos, que poderia ser chamada, genericamente, de Modelo Digital de Superfície (MDS), ao qual o valor de intensidade também pode ser associado. A figura 3.32 apresenta a geometria de funcionamento do referido sistema. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 47. Capítulo III 138 Figura 3.32. Geometria de funcionamento do sistema de varredura LASER terrestre. Em princípio, pode-se dizer que o sistema estático funciona como um medidor de distâncias (distanciômetro), em função do tempo de emissão e recepção do pulso. Existem basicamente dois princípios geométricos de cálculos de coordenadas, isto é: triangulação; por intervalo de tempo (time of flight). No princípio de funcionamento por intervalo de tempo a distância é estimada por meio do tempo de emissão e recepção do pulso laser, cuja reflexão do pulso ocorre difusamente dependendo do tipo de material do objeto perfilado. Este sistema é capaz de estimar distâncias para objetos mais distantes, porém oferecem precisão de pior qualidade que o sistema de princípio por triangulação. O princípio de triangulação funciona de forma que um pulso laser é emitido pelo sistema e seu retorno é registrado por uma ou mais câmaras Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 48. Capítulo III 139 de sensores CCD. O ângulo de varredura de cada pulso emitido é registrado no sistema a cada pulso emitido. Conhecendo-se a base fixa entre o sensor LASER e a câmara, por meio de um processo de calibração, determina-se a posição dos pontos refletidos pelo objeto. A distância entre o sensor LASER e o CCD é conhecida e permite o cálculo das coordenadas tridimensionais de cada ponto perfilado pelo sistema. A precisão dos pontos determinados depende da relação base/distância. Com um comprimento de base fixa, o desvio padrão ( ) da distância medida, aumentará em proporção ao quadrado da distância. Figura 3.33. Mecanismos de varredura do sistema de varredura LASER terrestre (Adaptado de Staiger, 2003). Além das técnicas de medidas do sistema se deve considerar o tipo de mecanismo de varredura do sistema. Staiger (2003) classifica o sistema de varredura LASER terrestre como: varredura panorâmica; varredura híbrida; e varredura por quadro. A Figura 3.33 apresenta três tipos de mecanismos de varredura do sistema. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 49. Capítulo III 140 Dentro da primeira dessas três categorias, varreduras de tipo panorâmico procedem de forma que a distância e as medições angulares em um padrão sistemático fornecem uma cobertura angular total de 360° no plano horizontal, que passa pelo centro do instrumento, e normalmente uma cobertura mínima de 180° no plano vertical perpendicular ao plano horizontal, o que possibilita uma cobertura hemisférica. Este padrão de varredura panorâmico é muito útil no contexto do mapeamento topográfico, é ainda mais desejável, de fato muitas vezes obrigatória, a medição de instalações industriais complexas, grandes pedreiras e minas de céu aberto e as fachadas de edifícios nas áreas urbanas. Uma vantagem da maioria dos sistemas de varredura LASER terrestre é o registro da informação espectral dos alvos perfilados pelo sistema. Por meio desta informação é possível gerar, em pós- processamento, imagens de intensidade. Os valores de intensidade são relativos e não absolutos, e, para os sistemas estáticos, variam de acordo com as propriedades de reflexão direcional e a reflectividade do alvo. Uma das vantagens do sistema de varredura LASER terrestre é que a nuvem de pontos gerada em campo pode ser confrontada com as informações geradas por técnicas fotogramétricas ou sensores imageadores. Atualmente, a integração entre dados derivados de sistemas de aquisições diferentes tem apontado grande potencial como conteúdo de informações complementares, ou seja, a integração de dados derivados do sistema de varredura LASER terrestre e Fotogrametria fornece uma riqueza abundante de informação, que permite a automação dos processos fotogramétricos com melhor eficiência, além de autonomia e redução da necessidade dos métodos de prospecção convencional, tais como, os levantamentos geodésicos e topográficos. Isto reduz o custo operacional e, principalmente, o tempo na linha de produção. A integração dos dados tem Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 50. Capítulo III 141 ganhado tanto prestígio na comunidade que, diversos são os trabalhos relacionados com o tema, podendo-se citar: Habib e Schenk (1999), Schenk et al. (2001), Schenk e Csatho (2002), Habib et al. (2004a, 2004b, 2004c), Furkuo e King (2004), Delara et al. (2004), Chen et al. (2004), Zhang et al. (2005), Habib et al. (2005), Habib et al. (2006), Habib et al. (2007), Abdelhafiz et al. (2007), Mitishita et al. (2008), Delara et al. (2008); etc. No caso do sistema de varredura LASER terrestre em funcionamento em um Unidade de Mapeamento Móvel (UMMT), por exemplo, é necessário integrar os sistemas de posicionamento e medida inercial de forma que a nuvem de pontos derivadas do perfilamento De varredura LASER terrestre seja adequadamente georeferenciada e acurada. Isto se deve ao movimento dinâmico da plataforma em questão (veículo transportado – UMMT), onde para cada varredura haverá uma posição e atitude diferente do sistema, ao longo do mapeamento. Sendo assim, é necessário integrar os referidos sistemas de forma que o sistema funcione com autonomia e precisão. Aqui, a precisão e acurácia do sistema estarão relacionadas com a precisão dos sistemas GPS e INS, erros no alinhamento dos dois subsistemas supracitados, modelagem matemática envolvida na transformação das coordenadas, etc. Um dos sistemas de varredura LASER terrestre mais apropriado para aplicações UMMTs são os sistemas desenvolvidos pelo fabricante Riegl. Esta empresa desenvolve uma série de sistemas de varredura LASER terrestre de longa distância baseado em pulsos contínuos, cujos modelos são: LMS-Z210ii; LMS-Z390i; Z420i; e LMS-Z620 — com alcances máximos de 650, 400, 1000 e 2000 m, respectivamente, com objetos de 80% de reflectância. Para objetos com reflectância inferior a 80%, os intervalos de medida será menor, ou seja, 200, 100, 350 e 650 m, respectivamente. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 51. Capítulo III 142 A precisão nominal do equipamento é da ordem de ±4 a 15 mm para um intervalo de 50 m. Todos os quatro instrumentos supracitados utilizam o mesmo tipo de motor de laser com um polígono óptico continuamente rotativo, que é colocado na frente do sensor LASER para produzir a digitalização óptica básica. O sensor opera na faixa do comprimento de onda infravermelho próximo variando de 905 até 1550 nm. O intervalo de varredura angular do sistema é de 80° — que é normalmente implementado para fornecer ±40 ° acima e abaixo do plano horizontal apontando verticalmente para cima na sua posição normal de funcionamento. A taxa de medição dos equipamentos supracitados varia entre 8.000 e 12.000 pontos por segundo, embora poderão ser usadas taxas mais baixas de medição, de acordo com a aplicação requerida. Uma vantagem deste sistema é a opção de GPS-Sync disponível. Isto permite a integração com os subsistemas GPS e INS para fornecer dados de posição e orientação do sistema, como é requerido nos sistemas de operação aerotransportados. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
  • 52. Capítulo III 143 Figura 3.34. (a) Equipamento da Riegl. (b) Elementos de funcionamento do sistema. Adaptado de Riegl 2001. (a) (b) Os sistemas da Riegl podem ser equipados com uma câmara digital de pequeno, médio ou grande formato. Geralmente, são escolhidos os modelos de câmara da Nikon e Canon EOS-1Ds II. As imagens coloridas podem ser fundidas com a nuvem de pontos e permitir melhor eficiência na análise da massa de dados. REFERÊNCIAS SHAN, j., TOTH, C. Topographic Laser Ranging and Scanning: principles and processing. Taylor and Francis: 593 p. 2008. STAIGER, R., 2003, Terrestrial laser scanning—Technology, systems and applications. Second FIG Regional Conference, Marrakech, Morocco, December 2–5, 2003, 10 pp. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos