Suite

Procédure de collecte d'images UAV


Doit-on collecter des points de contrôle au sol avant de faire voler des drones ou les drones collectent-ils des points de contrôle pendant leur vol ?


Si vous voulez un positionnement absolu de vos images, vous aurez besoin de points de contrôle.

Si votre drone est équipé d'un GPS embarqué (ce qui est maintenant la plupart du temps le cas), alors il est possible d'estimer la coordonnée absolue à l'aide d'un grand nombre d'images superposées. Cependant, je vous recommande de collecter au moins quelques points de contrôle au sol pour valider votre modèle.

Si vous n'avez pas de GPS sur votre drone OU si vous n'avez pas beaucoup d'images qui se chevauchent, alors vous avez besoin de points de contrôle au sol. Ceux-ci peuvent être collectés avant ou après le vol de votre drone tant que votre zone d'étude ne change pas.


Si vous voulez une précision quelconque, vous aurez besoin de points soigneusement arpentés sur le terrain.

Même si le drone dispose du meilleur GPS disponible, il est secoué par les courants d'air, les thermiques, etc., ce qui faussera la caméra. Une inclinaison non mesurable dans l'air peut produire une grande erreur de position au sol, augmentant rapidement avec l'altitude.

La ville dans laquelle je vivais dans les années 1990 était une pionnière du SIG et a cartographié toute la ville par voie aérienne. De grands trèfles peints sont apparus sur de nombreux sentiers du parc uniquement à cette fin - ils étaient faciles à numériser dans les images et tout aussi faciles à surveiller.

Aujourd'hui, vous pouvez simplement marcher jusqu'à n'importe quel point évident de la zone et appuyer sur « marquer » sur votre appareil portable (ou faire atterrir un petit drone là-bas), mais cela doit encore être fait.


Les points de contrôle au sol offrent la meilleure précision mais ne sont en aucun cas essentiels.

La plupart des drones ont maintenant un GPS à bord enregistrant l'emplacement dans les données exif avec chaque image. Il est possible avec un vol correctement planifié (qui intègre un chevauchement suffisant entre les images) d'atteindre un bon niveau de précision de positionnement.

Certains logiciels tels que ERDAS Imagine, et son ajout d'UAV, peuvent ensuite améliorer cette précision en la superposant à une couche existante d'images précises.


SIG (Système d'Information Géographique)

Un système d'information géographique (SIG) est un système informatique permettant de capturer, de stocker, de vérifier et d'afficher des données relatives aux positions sur la surface de la Terre.

Géographie, Systèmes d'Information Géographique (SIG), Géographie Physique

Celui-ci répertorie les logos des programmes ou partenaires de NG Education qui ont fourni ou contribué au contenu de cette page. Nivelé par

Un système d'information géographique (SIG) est un système informatique permettant de capturer, de stocker, de vérifier et d'afficher des données relatives aux positions à la surface de la Terre. En mettant en relation des données apparemment sans rapport, le SIG peut aider les individus et les organisations à mieux comprendre les modèles et les relations spatiales.

La technologie SIG est une partie cruciale de l'infrastructure de données spatiales, que la Maison Blanche définit comme "la technologie, les politiques, les normes, les ressources humaines et les activités connexes nécessaires pour acquérir, traiter, distribuer, utiliser, maintenir et préserver les données spatiales".

Le SIG peut utiliser n'importe quelle information qui inclut l'emplacement. L'emplacement peut être exprimé de différentes manières, telles que la latitude et la longitude, l'adresse ou le code postal.

De nombreux types d'informations peuvent être comparés et contrastés à l'aide du SIG. Le système peut inclure des données sur les personnes, telles que la population, le revenu ou le niveau d'éducation. Il peut inclure des informations sur le paysage, telles que l'emplacement des cours d'eau, différents types de végétation et différents types de sol. Il peut inclure des informations sur les sites d'usines, de fermes et d'écoles, ou sur les égouts pluviaux, les routes et les lignes électriques.

Avec la technologie SIG, les gens peuvent comparer les emplacements de différentes choses afin de découvrir comment ils sont liés les uns aux autres. Par exemple, à l'aide d'un SIG, une seule carte pourrait inclure des sites qui produisent de la pollution, tels que des usines, et des sites sensibles à la pollution, tels que des zones humides et des rivières. Une telle carte aiderait les gens à déterminer où les approvisionnements en eau sont les plus menacés.

Les applications SIG comprennent à la fois des systèmes matériels et logiciels. Ces applications peuvent inclure des données cartographiques, des données photographiques, des données numériques ou des données dans des feuilles de calcul.

Les données cartographiques sont déjà sous forme de carte et peuvent inclure des informations telles que l'emplacement des rivières, des routes, des collines et des vallées. Les données cartographiques peuvent également inclure des données d'enquête, des informations cartographiques qui peuvent être directement saisies dans un SIG.

L'interprétation photographique est une partie importante du SIG. L'interprétation des photos consiste à analyser des photographies aériennes et à évaluer les caractéristiques qui apparaissent.

Les données numériques peuvent également être saisies dans le SIG. Un exemple de ce type d'informations est constitué par les données informatiques collectées par les satellites qui montrent l'utilisation des terres et l'emplacement des fermes, des villes et des forêts.

La télédétection fournit un autre outil qui peut être intégré dans un SIG. La télédétection comprend des images et d'autres données collectées à partir de satellites, de ballons et de drones.

Enfin, le SIG peut également inclure des données sous forme de tableau ou de feuille de calcul, telles que la démographie de la population. Les données démographiques peuvent aller de l'âge, du revenu et de l'origine ethnique aux achats récents et aux préférences de navigation sur Internet.

La technologie SIG permet de superposer tous ces différents types d'informations, quelle que soit leur source ou leur format d'origine, les uns sur les autres sur une même carte. Le SIG utilise l'emplacement comme variable d'index clé pour relier ces données apparemment sans rapport.

La saisie d'informations dans le SIG s'appelle la capture de données. Les données qui sont déjà sous forme numérique, telles que la plupart des tableaux et des images prises par satellite, peuvent simplement être téléchargées dans le SIG. Les cartes, cependant, doivent d'abord être numérisées ou converties au format numérique.

Les deux principaux types de formats de fichiers SIG sont raster et vectoriel. Les formats raster sont des grilles de cellules ou de pixels. Les formats raster sont utiles pour stocker des données SIG qui varient, telles que l'altitude ou l'imagerie satellite. Les formats vectoriels sont des polygones qui utilisent des points (appelés nœuds) et des lignes. Les formats vectoriels sont utiles pour stocker des données SIG avec des frontières fermes, telles que des districts scolaires ou des rues.

La technologie SIG peut être utilisée pour afficher les relations spatiales et les réseaux linéaires. Les relations spatiales peuvent afficher la topographie, comme les champs agricoles et les cours d'eau. Ils peuvent également afficher des modèles d'utilisation des terres, tels que l'emplacement des parcs et des complexes d'habitation.

Les réseaux linéaires, parfois appelés réseaux géométriques, sont souvent représentés par des routes, des rivières et des réseaux de services publics dans un SIG. Une ligne sur une carte peut indiquer une route ou une autoroute. Avec les couches SIG, cependant, cette route peut indiquer la limite d'un district scolaire, d'un parc public ou d'une autre zone démographique ou d'utilisation des terres. En utilisant diverses captures de données, le réseau linéaire d'une rivière peut être cartographié sur un SIG pour indiquer le débit des différents affluents.

Le SIG doit aligner les informations de toutes les différentes cartes et sources, afin qu'elles s'emboîtent à la même échelle. Une échelle est la relation entre la distance sur une carte et la distance réelle sur Terre.

Souvent, les SIG doivent manipuler des données car différentes cartes ont des projections différentes. Une projection est la méthode de transfert d'informations de la surface incurvée de la Terre à un morceau de papier plat ou à un écran d'ordinateur. Différents types de projections accomplissent cette tâche de différentes manières, mais toutes entraînent une certaine distorsion. Pour transférer une forme incurvée en trois dimensions sur une surface plane, il faut inévitablement étirer certaines parties et presser d'autres.

Une carte du monde peut montrer les tailles correctes des pays ou leurs formes correctes, mais elle ne peut pas faire les deux. Le SIG prend les données de cartes qui ont été réalisées à l'aide de différentes projections et les combine afin que toutes les informations puissent être affichées à l'aide d'une projection commune.

Une fois que toutes les données souhaitées ont été saisies dans un système SIG, elles peuvent être combinées pour produire une grande variété de cartes individuelles, en fonction des couches de données incluses. L'une des utilisations les plus courantes de la technologie SIG consiste à comparer les caractéristiques naturelles avec l'activité humaine.

Par exemple, les cartes SIG peuvent afficher les caractéristiques artificielles situées à proximité de certaines caractéristiques naturelles, telles que les maisons et les entreprises situées dans des zones sujettes aux inondations.

La technologie SIG permet également aux utilisateurs de « creuser en profondeur » dans une zone spécifique avec de nombreux types d'informations. Les cartes d'une seule ville ou d'un seul quartier peuvent mettre en relation des informations telles que le revenu moyen, les ventes de livres ou les habitudes de vote. N'importe quelle couche de données SIG peut être ajoutée ou soustraite à la même carte.

Les cartes SIG peuvent être utilisées pour montrer des informations sur les nombres et la densité. Par exemple, le SIG peut montrer combien de médecins il y a dans un quartier par rapport à la population de la région.

Avec la technologie SIG, les chercheurs peuvent également examiner les changements au fil du temps. Ils peuvent utiliser les données satellitaires pour étudier des sujets tels que l'avancée et le recul de la couverture de glace dans les régions polaires, et comment cette couverture a changé au fil du temps. Un poste de police pourrait étudier les changements dans les données sur la criminalité pour aider à déterminer où affecter les agents.

Une utilisation importante de la technologie SIG basée sur le temps consiste à créer des photographies en accéléré qui montrent des processus se produisant sur de vastes zones et de longues périodes de temps. Par exemple, les données montrant le mouvement des fluides dans les courants océaniques ou aériens aident les scientifiques à mieux comprendre comment l'humidité et l'énergie thermique se déplacent autour du globe.

La technologie SIG permet parfois aux utilisateurs d'accéder à des informations supplémentaires sur des zones spécifiques sur une carte. Une personne peut pointer vers un endroit sur une carte numérique pour trouver d'autres informations stockées dans le SIG sur cet emplacement. Par exemple, un utilisateur peut cliquer sur une école pour connaître le nombre d'élèves inscrits, le nombre d'élèves par enseignant ou les installations sportives dont dispose l'école.

Les systèmes SIG sont souvent utilisés pour produire des images en trois dimensions. Ceci est utile, par exemple, aux géologues qui étudient les failles sismiques.

La technologie SIG rend la mise à jour des cartes beaucoup plus facile que la mise à jour des cartes créées manuellement. Les données mises à jour peuvent simplement être ajoutées au programme SIG existant. Une nouvelle carte peut alors être imprimée ou affichée à l'écran. Cela évite le processus traditionnel de dessin d'une carte, qui peut être long et coûteux.

Les personnes travaillant dans de nombreux domaines différents utilisent la technologie SIG. La technologie SIG peut être utilisée pour les enquêtes scientifiques, la gestion des ressources et la planification du développement.

De nombreux commerces de détail utilisent le SIG pour les aider à déterminer où localiser un nouveau magasin. Les sociétés de marketing utilisent le SIG pour décider à qui commercialiser ces magasins et restaurants, et où ce marketing devrait être.

Les scientifiques utilisent les SIG pour comparer les statistiques démographiques à des ressources telles que l'eau potable. Les biologistes utilisent le SIG pour suivre les schémas de migration des animaux.

Les autorités municipales, étatiques ou fédérales utilisent le SIG pour planifier leur intervention en cas de catastrophe naturelle telle qu'un tremblement de terre ou un ouragan. Les cartes SIG peuvent montrer à ces responsables quels quartiers sont les plus menacés, où localiser les abris d'urgence et quelles routes les gens doivent emprunter pour se mettre en sécurité.

Les ingénieurs utilisent la technologie SIG pour prendre en charge la conception, la mise en œuvre et la gestion des réseaux de communication pour les téléphones que nous utilisons, ainsi que l'infrastructure nécessaire à la connectivité Internet. D'autres ingénieurs pourraient utiliser le SIG pour développer des réseaux routiers et des infrastructures de transport.

Il n'y a pas de limite au type d'informations pouvant être analysées à l'aide de la technologie SIG.


Systèmes d'Information Géographique (Certificat)

La géographie est traditionnellement divisée en trois domaines, et tous les trois sont proposés dans le programme de géographie SUU. Ceux-ci comprennent (1) la géographie physique, un examen des systèmes physiques de la terre (2) la géographie humaine ou culturelle, qui explore les relations spatiales dans les activités humaines et (3) la géographie technique ou appliquée, y compris les technologies de la recherche géographique, qui englobe la cartographie , SIG, GPS et technologies connexes.

La mission du programme de géographie SUU est:

  1. Poursuivre et élargir les relations interdépartementales entre le programme SIG des départements de sciences physiques et une variété de disciplines sur le campus, et soutenir ces programmes et diplômes offerts par leurs départements.
  2. Découvrir, décrire, expliquer et interpréter le caractère de la Terre en tant que foyer des humains en se concentrant sur les interrelations au sein et entre les sous-systèmes et régions naturels et culturels.
  3. Contribuer à l'enseignement libéral offert par l'Université, offrir l'excellence dans l'enseignement et offrir aux étudiants le meilleur de l'enseignement de la géographie pouvant être obtenu dans n'importe quel établissement d'enseignement supérieur.
  4. Offrir une formation spécialisée en géographie appliquée, y compris les SIG, la cartographie et les technologies géospatiales connexes.

Mineurs de géographie

SUU propose deux mineures en géographie. La mineure universitaire en géographie peut être utilisée soit pour remplir les conditions d'obtention du diplôme, soit pour préparer l'étudiant aux études supérieures. La mineure en éducation en géographie qualifiera l'étudiant pour la certification pour enseigner la géographie dans les écoles secondaires de l'Utah.

Programme SIG

Nos cours SIG et notre laboratoire servent de nombreux départements, diplômes et entités affiliées sur le campus SUU et les communautés environnantes. Les cours et le laboratoire SIG enseignent les technologies spatiales grâce à une expérience pratique. Le programme SIG et le laboratoire utilisent la technologie, le matériel et les logiciels les plus récents disponibles. Le laboratoire SIG offre des opportunités d'apprentissage par le service aux étudiants par le biais de projets et de stages locaux et régionaux.

La mission du programme SIG est de préparer les individus à intégrer les technologies spatiales avec des études dans d'autres disciplines. Nous offrons un environnement d'apprentissage qui favorise la recherche de premier cycle. La force de notre mission repose sur la diversité du programme et la nature interdisciplinaire des technologies spatiales.

Un baccalauréat en études interdisciplinaires (voir  Études interdisciplinaires (B.I.S.)  ) peut être conçu pour accueillir les étudiants intéressés par les SIG. Les exemples de programmes qui utilisent souvent les SIG incluent, sans s'y limiter, la géographie, la biologie, la géologie, l'histoire, la sociologie, les sciences politiques, les affaires, le marketing, l'ingénierie, l'agriculture, les systèmes d'information, l'informatique, la criminologie, les études universitaires, l'éducation , et d'autres. Les cours en SIG complètent souvent d'autres diplômes.

Exigences du certificat de systèmes d'information géographique

Le programme de certificat SIG a été conçu avec une approche interdisciplinaire, ce qui permet l'intégration du SIG dans de nombreux diplômes de quatre ans sur le campus. Le certificat GIS peut être complété en tant que programme individuel, généralement sur une période de deux ans, ainsi qu'intégré dans un programme d'études de quatre ans.


Procédure de collecte d'images UAV - Systèmes d'information géographique

Les systèmes aériens sans pilote (UAS) révolutionnent la façon dont les chercheurs et les praticiens SIG&T modélisent et analysent notre monde. Par rapport aux approches traditionnelles de télédétection, les UAS fournissent une plate-forme largement peu coûteuse, flexible et relativement facile à utiliser pour capturer des données géospatiales à haute résolution spatiale et temporelle. Les développements en vision par ordinateur, en particulier Structure from Motion (SfM), permettent le traitement d'images aériennes capturées par UAS pour produire des nuages ​​de points tridimensionnels et des orthophotos. Cependant, de nombreux défis persistent, notamment des environnements juridiques restrictifs pour les vols UAS, des délais de traitement des données étendus et la nécessité de poursuivre la recherche fondamentale. Malgré son potentiel de transformation, l'adoption des UAS se heurte encore à certaines hésitations de la société en raison de problèmes de confidentialité et de responsabilité.

Mathews, A. J. et Frazier, A. E., (2017). Systèmes aériens sans pilote. Le corpus de connaissances des sciences de l'information géographique et de la technologie (Édition du 2e trimestre 2017), John P. Wilson (éd.), DOI : 10.22224/gistbok/2017.2.4

Cette entrée a été publiée pour la première fois le 9 juin 2017. Aucune édition antérieure n'existe.

Système aérien sans pilote (UAS): un aéronef sans pilote à bord qui est piloté de manière autonome ou manuelle par un opérateur télécommandé. Les termes véhicule aérien sans pilote (UAV), systèmes/véhicules d'aéronefs sans pilote, aéronefs télépilotés (RPA) et drones sont souvent utilisés de manière interchangeable. Les plates-formes UAS généralement adoptées par les chercheurs géospatiaux sont considérées comme de petits UAS (sUAS), pesant entre 0,5 lb (

25 kg) tel que désigné par la Federal Aviation Administration des États-Unis (les limites de poids de la FAA peuvent varier dans d'autres pays)

Rotary-Wing (RW): hélicoptère monorotor ou multirotor avec hélice(s) montée(s) vers le haut qui génèrent une portance permettant à l'avion de décoller et d'atterrir verticalement et de planer pendant le vol. Les plates-formes RW offrent généralement plus de maniabilité que les aéronefs à voilure fixe.

Aile fixe (FW): plate-forme avec une aile fixe et une ou plusieurs hélices montées à l'avant pour générer de la portance et faire avancer l'avion en continu à différents angles de tangage. Les plates-formes FW peuvent voler à des vitesses plus élevées et pendant une durée plus longue (40 minutes à plusieurs heures) augmentant la couverture aérienne par rapport à RW.

Structure à partir du mouvement (SfM): algorithmes de vision par ordinateur pour traiter les photos numériques en nuages ​​de points tridimensionnels et en produits de données géospatiales ultérieurs tels que les modèles numériques de terrain et de surface et les orthophotos. SfM est un terme large qui englobe souvent également les techniques stéréo multi-vues (par exemple, MVS, SfM-MVS).

Les exploitants d'UAS doivent adhérer aux politiques des autorités de l'aviation civile lors de la collecte de données. Aux États-Unis, la FAA régit les opérations d'UAS, exigeant que les aéronefs soient immatriculés et que les exploitants obtiennent une certification de pilote à distance. Les règles d'exploitation comprennent : le vol pendant les heures de clarté, en dessous de 400 pieds (

120 m) en altitude, pas à moins de 5 mi (

8 km) de tout aéroport, ou des zones surpeuplées. De plus, les exploitants doivent maintenir une ligne de visée visuelle et céder le passage aux aéronefs pilotés pendant le vol.

De nombreux UAS sont gênés par des conditions même légèrement venteuses, ce qui nécessite une confirmation fréquente des prévisions météorologiques sur/près du site d'étude. Bien que dépendants de la plate-forme, les avions FW sont souvent pilotés dans et avec le vent pour minimiser les mouvements latéraux, tandis que les avions RW sont moins limités dans la direction du vol. Les plates-formes FW nécessitent une zone de transit plus grande que les plates-formes RW pour le lancement et les atterrissages sur patins. Lors des missions de collecte de données, des lignes de vol doivent être organisées pour assurer une couverture stéréoscopique. La capture d'images basée sur les UAS nécessite un chevauchement considérable (80 à 90 % de chevauchement d'extrémité et 60 % de chevauchement latéral recommandés) pour assurer une correspondance d'image efficace en raison des distorsions plus importantes introduites par des altitudes de vol plus basses et l'instabilité de la plate-forme (Harwin et al. 2015). Les images orientées vers le nadir sont couramment collectées, bien que des vues convergentes soient recommandées (c'est-à-dire l'intégration des obliques James & Robson, 2014).

3.1 Capture d'images

Les UAS sont principalement utilisés pour capturer des images, et les appareils photo numériques prêts à l'emploi sont une option de capteur populaire (voir Toth et al. [2015] pour une comparaison des appareils photo).Les objectifs grand angle (par exemple, GoPro Hero) sont évités en raison de la distorsion élevée de l'image, et l'analyse de la vidéo en images fixes n'est pas recommandée car les cadres peuvent contenir du flou. Les caméras standard ont généralement une résolution spectrale limitée et l'étalonnage de la réflectance peut être difficile, mais le retrait du miroir chaud interne permet la capture des longueurs d'onde du proche infrarouge (Mathews 2015). Cibles spectrales avec des propriétés de réflectance connues placées in situ sont couramment utilisés pour étalonner les mesures des capteurs optiques, ou des capteurs tels que le capteur Tetracam ADC Lite permettent la capture d'images à partir d'UAS avec des bandes spectrales correspondant à certaines bandes Landsat, facilitant ainsi les comparaisons. Les autres capteurs couramment utilisés incluent le Parrot Sequoia et le MicaSense RedEdge.

Les schémas de géoréférencement pour les images acquises par UAS comprennent : (1) direct, qui utilise des emplacements de caméra connus via des caméras GNSS ou des mesures GNSS et IMU embarquées stockées et attachées aux images capturées, (2) indirect, qui utilise des points de contrôle au sol localisés par GNSS (GCP), et (3) une combinaison de directs et d'indirects.

3.2 Capture de date sans image

Les applications non-imagerie des UAS comprennent, par exemple, la collecte de mesures de température, de pression, d'humidité et de vent pour l'échantillonnage atmosphérique et la météorologie ou la surveillance environnementale à l'aide de capteurs capables de détecter le CO2, méthane et autres gaz pour la surveillance des pipelines. Les capteurs lidar ont été utilisés pour la cartographie du terrain et 3D, mais la taille, le poids et le coût des capteurs restent restrictifs pour de nombreuses applications. Cependant, des progrès sont réalisés dans le développement de dispositifs de détection miniaturisés à faible coût.

3.3 Capture de données coordonnée

L'un des avantages du déploiement de capteurs à bord d'UAS est le potentiel de capture de données coordonnée et auto-organisée entre deux véhicules ou plus. Les algorithmes de coordination, de contrôle et de systématisation des réseaux distribués de capteurs aéroportés se développent rapidement, permettant à plusieurs UAS volant dans un réseau de communiquer entre eux et aux stations au sol de coordonner la capture d'ensembles de données spatiales répartis de manière optimale (Namuduri et al., 2013). Ce type de réseau UAS mobile « intelligent » permettra des plans d'échantillonnage adaptatifs impossibles avec les réseaux fixes au sol.

La technique de vision par ordinateur Structure from Motion (SfM) intègre une série d'algorithmes (par exemple, Scale Invariant Feature Transform—SIFT [Lowe, 2004], Bundler [Snavely et al., 2008], patch-based multi-view stereopsis—PMVS [Furukawa & Ponce, 2010]) pour faire correspondre les zones qui se chevauchent sur plusieurs images avec des perspectives différentes (en identifiant les points clés des mêmes caractéristiques, ce qui équivaut à des points de liaison photogrammétriques) afin de générer des reconstructions de nuages ​​de points clairsemés et denses de l'espace 3D. Les nuages ​​de points SfM ne sont pas géoréférencés par nature, et les emplacements connus des caméras ou des GCP doivent être incorporés pour transformer le nuage de points en coordonnées réelles. Les nuages ​​de points SfM sont similaires aux jeux de données lidar avec l'ajout d'informations RVB pour chaque point. Les progiciels de bureau SfM couramment utilisés incluent Agisoft PhotoScan, Pix4D et VisualSfM. Des alternatives basées sur le cloud (par exemple, DroneDeploy) sont également disponibles.

Les images peuvent également être traitées pour produire des orthophotos à très haute résolution spatiale. Une bonne production d'orthophotos nécessite la suppression des effets radiométriques (par exemple, vignettage, variation de luminosité d'une image à l'autre, conversion en valeurs de réflectance voir Mathews, 2015) et des effets géométriques (par exemple, distorsion de l'objectif, déplacement du relief voir Kelcey & Lucieer, 2012). Les corrections géométriques restent particulièrement difficiles lors de l'utilisation de capteurs non étalonnés à basse altitude où les distorsions sont amplifiées (Mathews, 2015).

Les analyses avancées utilisent des techniques de filtrage et de classification des données lidar pour extraire des informations sur la hauteur des nuages ​​de points SfM, soit en générant des modèles numériques de terrain (MNT) et des modèles numériques de surface (DSM) (Fonstad et al., 2013) ou en calculant des métriques de hauteur pour caractériser le couvert végétal. structure et biomasse (voir Dandois & Ellis, 2013 Mathews & Jensen, 2013). La flexibilité temporelle des données collectées par UAS permet des analyses de changement 3D/volumétrique via la différenciation DTM/DSM et/ou la comparaison directe de nuages ​​de points. Les techniques d'analyse d'images basées sur des objets sont couramment appliquées pour analyser et extraire des données vectorielles utiles à partir d'orthophotos 2D (Laliberte et al., 2010).

Les normes de collecte et de traitement des données ainsi que les évaluations complètes de l'exactitude n'en sont qu'à leurs débuts. Certaines solutions ont été proposées pour optimiser l'efficacité du flux de travail et améliorer la précision du modèle (voir Turner et al., 2012 James & Robson, 2014), mais une incertitude considérable demeure.

La plupart des recherches SIG&T utilisant des UAS ont été appliquées. Le tableau 1 décrit plusieurs domaines d'application majeurs avec quelques travaux connexes pour une lecture plus approfondie.

Tableau 1. Applications géospatiales pour les UAS et recherches connexes
Application Travaux connexes
Modélisation de terrain Stefanik et al., 2011 Fonstad et al., 2013
Processus géomorphologiques et fluviaux Flener et al., 2013 Dietrich, 2016
Modélisation de la structure de la végétation, de la foresterie et des écosystèmes Wallace et al., 2012 Dandois & Ellis, 2013
Agriculture de précision Baluja et al., 2012 Mathews & Jensen, 2013
Gestion des terres et des ressources naturelles Rango et al., 2009 Laliberté et al., 2010
Habitat animal et surveillance Chabot et al., 2014
Catastrophes naturelles (incendies de forêt, glissements de terrain) Ambrosia et al., 2003 Niethammer et al., 2012
Météorologie Frew et al., 2012
Caractéristiques culturelles et archéologie Eisenbeiss & Sauerbier, 2011

À mesure que l'utilisation des UAS devient plus courante, le discours continu entourant leur rôle dans la « cartographie des citoyens » tels que la cartographie participative et les projets de science citoyenne ainsi que leur rôle dans la « cartographie des citoyens » est essentiel. En 2016, peu de projets de science citoyenne et de cartographie participative impliquaient des plates-formes aériennes (voir Cummings et al., 2017), mais comme les scientifiques reconnaissent de plus en plus l'utilité de compléter la télédétection traditionnelle avec des capteurs à bord des UAS, l'utilisation des UAS dans la science citoyenne les projets vont augmenter. Des sites Web tels que OpenAerialMap (https://openaerialmap.org/) et Dronestagram (http://www.dronestagr.am/) permettent aux utilisateurs de partager en ligne des images acquises par UAS. L'équipe humanitaire OpenStreetMap a externalisé (c'est-à-dire en micro-tâches) la numérisation des images acquises par UAS pour soutenir la reprise après sinistre, et de nombreux petits projets UAS civils ont été menés à bien dans le monde entier à des fins similaires.

À l'inverse, la « cartographie des citoyens » a des implications pour la confidentialité de l'emplacement, qui concerne la demande des individus de déterminer quand, comment et dans quelle mesure les informations sur eux-mêmes et leur emplacement sont communiquées aux autres (Kerski, 2016). Ces problèmes de confidentialité de la localisation sont confrontés à de nouveaux défis en fonction de la facilité avec laquelle des images à très haute résolution ou d'autres données peuvent être capturées à partir d'UAS. Les préoccupations en matière de confidentialité des citoyens concernant les UAS sont fluides et évoluent, et il sera important pour les chercheurs de SIG&T de rester engagés dans ces questions de société à mesure que l'adoption de la technologie UAS augmente.

Ambrosia, V.G., Wegener, S.S., Sullivan, D.V., Buechel, S.W., Dunagan, S.E., Brass, J.A., . & Schoenung, S.M. (2003). Démonstration des données thermiques en temps réel acquises par UAV sur les incendies. Ingénierie photogrammétrique et télédétection, 69(4), 391-402. DOI : 10.14358/PERS.69.4.391

Baluja, J., Diago, M. P., Balda, P., Zorer, R., Meggio, F., Morales, F., & Tardaguila, J. (2012). Évaluation de la variabilité de l'état hydrique du vignoble par imagerie thermique et multispectrale à l'aide d'un véhicule aérien sans pilote (UAV). Sciences de l'irrigation, 30(6), 511-522. DOI : 10.1007/s00271-012-0382-9

Colomina, I., & Molina, P. (2014). Systèmes aériens sans pilote pour la photogrammétrie et la télédétection : une revue. Revue ISPRS de photogrammétrie et de télédétection, 92, 79-97. DOI : 10.1016/j.isprsjprs.2014.02.013

Cummings, A.R., Cummings, G.R., Harner, E., Moses, P., Norman, Z., Captain, V., . & Butler, K. (2017). Élaboration d'un programme de surveillance par drones avec les peuples autochtones. Journal des systèmes de véhicules sans pilote. DOI : 10.1139/juvs-2016-0022

Dandois, J.P., & Ellis. E.C. (2013). Cartographie tridimensionnelle à haute résolution spatiale de la dynamique spectrale de la végétation à l'aide de la vision par ordinateur. Télédétection de l'environnement, 136, 259-276. DOI : 10.1016/j.rse.2013.04.005

Dietrich, J.T. (2016). Structure bathymétrique à partir du mouvement : extraction de la bathymétrie des cours d'eau peu profonds à partir de la photogrammétrie stéréo à vues multiples. Processus et reliefs à la surface de la Terre, 42(2), 355-364. DOI : 10.1002/esp.4060

Eisenbeiss, H., & Sauerbier, M. (2011). Investigation des systèmes UAV et des modes de vol pour les applications photogrammétriques. L'enregistrement photogrammétrique 26(136), 400-421. DOI : 10.1111/j.1477-9730.2011.00657.x

Flener, C., Vaaja, M., Jaakkola, A., Krooks, A., Kaartinen, H., Kukko, A., . & Alho, P. (2013). Cartographie transparente des canaux fluviaux à haute résolution à l'aide du LiDAR mobile et de la photographie UAV. Télédétection, 5(12), 6382-6407. DOI : 10.3390/rs5126382

Fonstad, M.A., Dietrich, J.T., Courville, B.C., Jensen, J.L. et Carbonneau, P.E. (2013). Structure topographique à partir du mouvement : un nouveau développement dans la mesure photogrammétrique. Processus et reliefs à la surface de la Terre, 38(4), 421-430. DOI : 10.1002/esp.3366

Frew, E., Elston, J., Argrow, B., Houston, A et Rasmussen, E. (2012). Échantillonnage de violentes tempêtes locales et de phénomènes connexes à l'aide de systèmes d'aéronefs sans pilote. IEEE Robotics & Automation Magazine, 19(1), 85-95. DOI : 10.1109/mra.2012.2184193

Furukawa, Y., & Ponce, J. (2010). Stéréopsie multivue précise, dense et robuste. Transactions IEEE sur l'analyse des modèles et l'intelligence machine 32(8), 1362-1376. DOI : 10.1109/tpami.2009.161

Harwin, S., Lucieer, A. et Osborn, J. (2015). L'impact de la méthode d'étalonnage sur la précision des nuages ​​de points dérivés à l'aide de la stéréopsie multi-vues de véhicules aériens sans pilote. Télédétection, 7(9), 11933-11953. DOI : 10.3390/rs70911933

James, M.R., & Robson, S. (2014). Atténuation des erreurs systématiques dans les modèles topographiques dérivés des UAV et des réseaux d'images au sol. Processus et reliefs de la surface de la Terre, 39, 1413-1420. DOI : 10.1002/esp.3609

Kelcey, J., & amp Lucieer, A. (2012). Correction du capteur d'un capteur d'imagerie multispectrale à 6 bandes pour la télédétection UAV. Télédétection, 4(12), 1462-1493. DOI : 10.3390/rs4051462

Kerski, J. (2016). Confidentialité de l'emplacement. Le corpus de connaissances des sciences de l'information géographique et de la technologie (édition du 3e trimestre 2016), John P. Wilson (éd.). DOI : 10.22224/gistbok/206.3.2

Laliberte, A., Herrick, J. E., Rango, A., & amp Winters, C. (2010). Acquisition, orthorectification et classification basée sur des objets d'images de véhicules aériens sans pilote (UAV) pour la surveillance des parcours. Ingénierie photogrammétrique et télédétection, 76(6) : 661-672. DOI : 10.14358/PERS.76.6.661

Lowe, D. (2004). Caractéristiques distinctives de l'image à partir de points clés invariants à l'échelle. Journal international de vision par ordinateur, 60(2), 91-110. DOI : 10.1023/B : VISI.0000029664.99615.94

Mathews, A.J., & Jensen, J.L. (2013). Visualisation et quantification de la canopée du vignoble LAI à l'aide d'un véhicule aérien sans pilote (UAV) a collecté une structure à haute densité à partir d'un nuage de points en mouvement. Télédétection, 5(5), 2164-2183. DOI : 10.3390/rs5052164

Mathews, A. J. (2015). Une méthodologie pratique de télédétection UAV pour générer des orthophotos multispectrales pour les vignobles : Estimation de la réflectance spectrale à l'aide d'appareils photo numériques compacts. Journal international de recherche géospatiale appliquée, 6(4), 65-87. DOI : 10.4018/ijagr.2015100104.

Namuduri, K., Wan, Y., & Gomathisankaran, M. (2013). Réseaux mobiles ad hoc dans le ciel : état de l'art, opportunités et défis. Actes du deuxième atelier ACM MobiHoc sur les réseaux et communications aéroportés - ANC 13. Bangalore, Inde. DOI : 10.1145/2491260.2491265

Niethammer, U., James, M. R., Rothmund, S., Travelletti, J., & Joswig, M. (2012). Télédétection par drone du glissement de terrain de Super-Sauze : évaluation et résultats. Géologie de l'ingénieur, 128, 2-11. DOI : 10.1016/j.enggeo.2011.03.012

Rango, A., Laliberte A., Herrick, J. E., Winters, C., Havstad, K., Steele, C., & Browning, D. (2009). Télédétection par véhicule aérien sans pilote pour l'évaluation, la surveillance et la gestion des parcours. Journal de télédétection appliquée, 3(1), 033542. DOI : 10.1109/IGARSS.2010.5651659

Snavely, N., Seitz, S. M., & Szeliski, R. (2008). Modélisation du monde à partir de collections de photos sur Internet. Journal international de vision par ordinateur, 80(2), 189-210. DOI : 10.1007/s11263-007-0107-3

Stefanik, K.V., Gassaway, J.C., Kochersberger, K., & Abbott, A.L. (2011). Vision stéréo basée sur UAV pour une cartographie rapide du terrain aérien. GIScience & Télédétection, 48(1), 24-49. DOI : 10.2747/1548-1603.48.1.24

Toth, C., Jozkow, G., & Grejner-Brzezinska, D. (2015). Cartographie avec de petits UAS : une évaluation de la précision des nuages ​​de points. Journal de géodésie appliquée, 9(4), 213-226. DOI : 10.1155/jag-2015-0017

Turner, D., Lucieer, A. et Watson, C. (2012). Une technique automatisée pour générer des mosaïques géorectifiées à partir d'images de véhicules aériens sans pilote (UAV) à ultra-haute résolution, basée sur la structure à partir de nuages ​​de points en mouvement (SfM). Télédétection, 4(5), 1392-1410. DOI : 10.3390/rs4051392

Wallace, L., Lucieer, A., Watson, C., & Turner, D. (2012). Développement d'un système UAV-lidar avec application à l'inventaire forestier. Télédétection, 4(6), 1519-1543. DOI : 10.3390/rs4061519


Collection d'images obliques métriques avec drones

Parfois, nous sommes coincés à chercher des solutions dans notre propre arrière-cour, pour découvrir que ceux de l'autre côté de la clôture ont résolu des problèmes similaires dans un effort parallèle. C'était le cas de l'imagerie métrique oblique lorsque j'ai rejoint Pictometry en 2007 et que j'ai appris un peu sur l'histoire des joueurs.

Logiciel d'imagerie oblique Idan ObliMapper.

Il semble qu'un an après que les inventeurs et détenteurs de brevets Pictometry, John Champa et Steve Schultz, aient déposé leur brevet en 2002, une autre société, Idan, située en Israël, a proposé la même solution. Idan a déposé un brevet américain en 2003, seulement pour apprendre qu'il était trop tard.

Ironiquement, j'ai appris de Joseph Freund, PDG et fondateur d'Idan, que le système Idan avait été développé en 1996, mais gardé secret jusqu'à sa déclassification en 2003.

Bien qu'il soit trop tard pour la demande de brevet d'Idan, un respect mutuel s'est développé entre les pionniers obliques. Au fil des ans, Idan et Pictometry ont travaillé ensemble sur un certain nombre d'efforts. Idan a apporté une perspective particulièrement unique à la technologie, car pour eux, c'était une question de vie ou de mort. Lorsque vous êtes un pays de la taille du New Jersey et entouré de pays littéralement dédiés à votre destruction, votre esprit collectif se concentre très fortement. C'était exactement le cas de la firme géospatiale Idan, qui a travaillé en étroite collaboration avec les Forces de défense israéliennes (FDI) pour protéger leur pays.

Au fil des ans, Pictometry est devenu le premier collectionneur d'images obliques métriques et s'est concentré sur l'exploitation de sa vaste bibliothèque d'images pour les utilisateurs publics et privés. Aujourd'hui, après avoir fusionné avec Eagle View, Pictometry se concentre sur les applications commerciales, la mesure de toiture à distance étant son activité dominante. Idan, cependant, n'a jamais perdu de vue sa mission première : la défense. Idan a continué à perfectionner la technologie et a ajouté de nouveaux outils et matériels dans le but de créer le système d'alerte précoce le plus efficace avec de superbes capacités d'analyse.

Une visionneuse robuste

Idan a développé et testé des outils sur le champ de bataille pour exploiter l'imagerie oblique. Sa visionneuse Oblivision est différente des autres systèmes de visualisation d'images obliques en ce sens qu'elle affiche cinq vues synchronisées - une vue ortho et quatre vues obliques - toutes les vues se déplaçant ensemble lorsque l'opérateur change d'emplacement.

Au début, cela peut être un peu écrasant, avec beaucoup de mouvements et de données à assimiler. Mais avec l'utilisation, l'environnement visuel riche devient une seconde nature et offre à l'opérateur un environnement de visualisation efficace.

En plus de plusieurs vues, Oblivision fournit des outils de mesure, à la fois horizontaux et verticaux, une superposition de données vectorielles SIG et des outils d'analyse tels que la visibilité en ligne de mire, l'ombre et la vulnérabilité aux explosions.

Voici un exemple interactif d'un effort conjoint utilisant Oblivision Online pour afficher des images obliques de Sacramento capturées par Pictométrie.

Un exemple interactif d'un effort conjoint utilisant Oblivision Online pour afficher des images obliques de Sacramento capturées par pictométrie.

Qualité d'image améliorée

Freund a expliqué que la qualité d'image d'Idan a connu une amélioration constante grâce à un projet conjoint avec Simplex utilisant le système de caméra oblique d'Idan, basé sur la caméra Phase One iXU de 100 mp. Cela a abouti à des résolutions d'image dépassant 3 centimètres de distance d'échantillonnage au sol (GSD) à partir d'altitudes de vol de 450 mètres.

ObliMapper : Le lien drone

Un inconvénient de la plupart des systèmes de capture oblique est que la capture d'image est un processus complexe et lourd qui ne convient pas à une réponse agile. Les caméras et les avions nécessitent une préparation importante, du temps en station et un post-traitement important. Le besoin d'une capture d'image rapide avec des capacités obliques a incité les ingénieurs d'Idan à tester des options qui tirent parti des petits drones rapidement déployés.

Les ingénieurs d'Idan ont développé un système de capture capable de capturer rapidement une zone d'intérêt focalisée qui répond au besoin : ObliMapper. À l'aide de caméras géoréférencées compactes montées sur des UAV COTS (commerciales sur étagère), le système ObliMapper capture non seulement les images, le même système pré-planifie et dirige le vol de l'UAV pour optimiser l'ensemble du processus de capture.

En termes simples, le processus de travail peut se résumer comme suit :

  • Planification de vol
    • L'utilisateur sélectionne la zone d'intérêt et identifie la caméra utilisée.
    • Le système crée ensuite un fichier de route et le télécharge sur le drone.
    • Le drone vole de manière autonome selon le plan de vol.
    • La caméra capture l'image.
    • Les images sont téléchargées sur l'ordinateur de l'utilisateur.
    • Le système traite automatiquement les images et les métadonnées.
    • L'utilisateur visualise les images obliques mises à jour dans toutes les directions avec des mesures précises sur les images obliques et les données SIG superposées, les courbes de niveau, les pentes, la visibilité, etc.

    Deux vidéos YouTube offrent un excellent aperçu du système et du processus :

    De nombreuses améliorations d'ObliMapper sont en cours de test, notamment la création de modèles 3D à l'aide d'Agisoft ou de Pix4D, la capture d'images de nuit et même l'utilisation d'un essaim de drones pour capturer rapidement une zone d'intérêt en un seul passage dans des zones hostiles.

    Les images capturées par le système ont une précision de position de 5 à 15 mètres, mais le post-traitement peut entraîner des précisions de l'ordre de 30 à 60 centimètres.

    Maintenant que les brevets Pictométrie ont expiré, de nombreuses entreprises se lancent sur le marché de l'image oblique. Je m'attends à ce que des améliorations et de nouvelles fonctionnalités suivront régulièrement, mais de mon point de vue pour le moment, personne ne se rapproche de la vaste bibliothèque d'images obliques construite par Pictometry (maintenant plus de 4 pétaoctets et 150 000 000 d'images) et personne ne semble avoir l'expertise technique qu'Idan a développé pour exploiter l'imagerie oblique.

    Pour plus d'informations, visitez les sites Web suivants :

    À propos de l'auteur : Art Kalinski

    Abonnez-vous à Solutions géospatiales

    Si vous avez apprécié cet article, abonnez-vous à Geospatial Solutions pour recevoir plus d'articles similaires.


    Un algorithme de géoréférencement rapide d'images d'UAV développé pour les interventions d'urgence.

    Le système de collecte d'images haute résolution basé sur le véhicule aérien sans pilote présente les avantages d'être léger, peu coûteux et flexible. Il doit être un outil essentiel pour la collecte et la visualisation rapides des informations sur les catastrophes dans la réponse et la réaction post-séisme et attire plus d'attention [1-6]. À l'heure actuelle, les principales méthodes de traitement des images de drones sont l'assemblage d'images [7-11] et la reconstruction de modèle de nuage de points 3D [12-15] basée sur la théorie de la vision par ordinateur. L'assemblage d'images peut obtenir l'image panoramique des parties d'une zone sinistrée, voire de toute la zone sinistrée. Il nécessite généralement des étapes telles que l'extraction de caractéristiques, la correspondance de caractéristiques, la transformation d'images, l'ajustement de faisceaux et la fusion d'images, ce qui prend généralement une ou plusieurs heures pour réaliser l'assemblage d'images. Le nuage de points 3D reconstruit à partir des images du drone peut acquérir les informations sur la catastrophe de différents côtés des objets concernés. Il nécessite généralement des étapes telles que la correspondance clairsemée, la correspondance dense, l'ajustement et le calcul du nuage de points. Nous avons besoin de beaucoup de temps pour réaliser ces étapes. Toutes les méthodes mentionnées ci-dessus sont implémentées dans le logiciel commercial, tel que PhotoScan (http://www .agisoft.com/), un logiciel d'assemblage d'images, et Smart 3D (http://www.acute3d.com/), un logiciel de reconstruction de modèle en trois dimensions. La carte-image et le modèle tridimensionnel issus du logiciel mentionné pourraient être fournis aux commandants post-séisme en tant que résultats de niveau supérieur. Cependant, dans la période d'intervention après le séisme, une à plusieurs heures est assez longue pour les commandants d'intervention d'urgence, ils veulent connaître les informations sur la catastrophe dès que possible et prendre la bonne décision de rassembler la force de sauvetage et de distribuer les fournitures nécessaires. Pour améliorer la vitesse de traitement des images, [16-19] adopte le cadre SLAM (localisation et cartographie simultanées) pour créer une image panoramique, qui utilise la manière incrémentielle pour mosaïquer les images UAV. Pour les mosaïques d'images à grande échelle qui contiennent des milliers d'images, il devient informatiquement impossible d'utiliser l'approche de filtrage car la taille du vecteur d'état devient très grande. Les solutions commerciales telles que DroneDeploy Live Map produisent des mosaïques instantanément pendant le vol, conçues pour créer et afficher une carte basse résolution sur l'appareil mobile et, si vous souhaitez obtenir la carte haute résolution, vous devez télécharger les images vers le cloud via le réseau et téléchargez le résultat après l'assemblage d'images. Le traitement des données de haute qualité peut prendre jusqu'à quelques heures pour un travail très volumineux avec des images haute résolution (https://support.dronedeploy.com/docs/live-map). Cela dépend de la vitesse du réseau d'images, et il est difficile d'obtenir la géoréférencement en temps réel. Pour satisfaire les exigences de l'application de réponse post-séisme, la méthode de géoréférencement rapide des images d'UAV pour la réponse post-séisme est proposée dans cet article, le flux technique (voir Figure 1). Dans un premier temps, le modèle de géoréférencement rapide est établi en combinaison avec les données de position et d'attitude collectées à partir du système de pilotage automatique. Et puis, nous en déduisons la méthode de transformation de la rotation de l'image, qui convertit la rotation de l'image autour du centre de l'image en rotation de l'image autour du coin supérieur gauche. Compte tenu de la limitation de la précision GPS, qui n'a pas de fonction différentielle, la méthode d'extraction et d'appariement des caractéristiques est utilisée pour réduire l'erreur systématique et améliorer la précision de la géoréférencement. Enfin, nous validons l'algorithme proposé dans cet article grâce aux expériences de géoréférencement rapide, qui ont collecté les images de drones des comtés de Danling et de Beichuan, province du Sichuan, en utilisant différents types de drones. Les résultats indiquent que l'algorithme pourrait réaliser une géoréférencement rapide en trois minutes pour des centaines d'images UAV. Il permet de gagner beaucoup plus de temps et fournit un support technique important au début de la période de réponse après le séisme.

    2. La géoréférence rapide des images de drones

    2.1. Le modèle de géoréférence rapide des images de drones. Le système de collecte d'informations sur les catastrophes basé sur l'UAV est généralement équipé d'une caméra numérique haute résolution et d'un système de pilote automatique, qui pourrait enregistrer l'heure, la position et l'attitude de l'exposition de la caméra. Les images UAV pourraient réaliser le géoréférencement en synchronisant les images et les données POS (système de positionnement et d'orientation). En raison de l'installation serrée de la caméra numérique et du système de pilote automatique installé avec l'axe optique principal de la caméra, le bras de levier et l'angle de visée seront ignorés en cas d'intervention d'urgence. Il satisfait à l'exigence de précision. Nous pouvons acquérir théoriquement les données de position et d'attitude de la caméra, qui sont sorties du système de pilote automatique. Afin d'éviter la distorsion des images géoréférencées dans le processus de transformation spatiale, qui affecte l'interprétation de l'image de catastrophe, nous adoptons la transformation du corps rigide de l'image comprenant l'échelle, la rotation et la translation.

    [expression mathématique non reproductible], (1)

    [expression mathématique non reproductible]. (2)

    Dans les formules (1) et (2) ci-dessus, [[x' y'].sup.T] est la coordonnée du pixel de l'image géoréférencée. [[xy].sup.T] est la coordonnée du pixel de l'image avant le géoréférencement. [lambda] est le facteur d'échelle, qui indique la résolution spatiale de l'image. [theta] est l'angle de rotation de la caméra autour de l'axe optique. T est la matrice de traduction, [T.sub.x] est la quantité de traduction avec l'axe des x, et [T.sub.y] est la quantité de traduction avec l'axe des y.

    2.2. La forme d'organisation des données des images de drones géoréférencées. Compte tenu de l'efficacité de traitement de la géoréférence rapide d'image UAV, nous n'implémentons pas le rééchantillonnage de pixels dans le processus de géoréférencement rapide mais adoptons le fichier mondial pour organiser les paramètres de géoréférencement. Le fichier monde est un format d'organisation de données, conçu et développé par ESRI, société de Système d'Information Géographique. Il comprend six paramètres, qui sont organisés dans un fichier avec le nom de suffixe et l'encodage de texte spécifiés. Par cette manière d'organiser les données, le logiciel du Système d'Information Géographique a pu identifier automatiquement les images géoréférencées. Tous ces paramètres sont constitués de la matrice de transformation affine sous forme de flux.

    [expression mathématique non reproductible] (3)

    Dans la formule (3), [[x' y'].sup.T] est la coordonnée du pixel de l'image géoréférencée. [[xy].sup.T] est la coordonnée du pixel de l'image avant le géoréférencement. A est le facteur d'échelle sur l'axe des x. B et D sont les paramètres de rotation. E est le facteur d'échelle sur l'axe des y, et il est négatif. C et F sont les coordonnées de longitude et de latitude du coin supérieur gauche de l'image géoréférencée. Tous les facteurs de rotation et d'échelle peuvent être déduits de la formule (2).

    Chaque pixel acquiert les coordonnées géographiques, lorsque le logiciel du système d'information géographique charge les données d'image géoréférencées comme la figure 2. Lorsque x est égal à zéro et y est égal à zéro, le pixel géoréférencé x' est égal à C et y' est égal à F. Le problème clé de l'UAV La géoréférence rapide de l'image permet de calculer rapidement les paramètres C et F. Étant donné que le système de pilote automatique collecte les données d'angle, ce qui indique que l'image tourne autour de son centre de symétrie mais que le fichier monde adopte le coin supérieur gauche comme centre de rotation, nous devons changer la rotation centrale à la rotation supérieure gauche et réduire l'erreur causée par la rotation.

    3. Les paramètres de la détermination rapide de géoréférencement

    3.1. Le calcul des paramètres de position. Les coordonnées du coin supérieur gauche de l'image sont des paramètres clés dans la référence géographique rapide de l'image UAV basée sur le fichier mondial. Un moyen direct et simple d'obtenir les paramètres de coordonnées est de calculer le nombre de pixels entre le centre et le coin supérieur gauche, puis de multiplier la résolution de l'image et enfin d'ajouter les coordonnées du centre. Les résultats calculés sont les coordonnées du coin supérieur gauche. Mais il ne prend pas en compte l'erreur apportée par la position et le changement des données d'attitude. Pour résoudre ce problème, la méthode basée sur l'équation colinéaire est utilisée pour calculer les coordonnées du coin supérieur gauche de l'image.

    Le point au sol A est donné et ses coordonnées géographiques sont (X, Y, Z) comme le montre la figure 3, et les coordonnées du pixel de correspondance a dans le cadre de la caméra sont (x, y, -f) la transformation du pixel a en A est représenté dans la formule (4). Ce processus de transformation inclut de tels systèmes de coordonnées.

    [expression mathématique non reproductible]. (4)

    (1) Cadre de la caméra : l'axe z pointe vers le haut (aligné avec la gravité), l'axe y est défini par la façon dont l'utilisateur a monté l'IMU (unité de mesure inertielle) et l'axe x est défini par la façon dont l'utilisateur a monté l'IMU

    (2) Châssis de carrosserie de l'IMU : l'axe z pointe vers le haut à travers le toit du véhicule perpendiculairement au sol, l'axe y pointe vers l'avant du véhicule dans le sens de la marche et l'axe x complète la droite- système manuel (sur le côté droit du véhicule face à l'avant)

    (3) Repère de navigation : c'est un repère local, tangent à l'ellipsoïde de référence. Son origine est au centre de l'ellipsoïde de référence, et l'axe des x pointe vers l'intersection de l'équateur du méridien de Greenwich l'axe des y pointe vers l'équateur avec une intersection du méridien de 90[degrés] et l'axe z à travers le pôle Nord .

    (4) Repère terrestre centré sur la terre : un système de coordonnées (X, Y, Z) est sélectionné qui est centré sur la terre fixe (ECEF) avec le plan XY contenant l'équateur, X se coupe, dans le sens positif, le méridien de Greenwich (d'où la longitude est mesurée, la longitude est égale à 0 degré à Y est égal à zéro) Z est parallèle à l'axe de rotation de la Terre et a une direction positive vers le pôle Nord, et Y est dans le plan équatorial et perpendiculaire à X et complète un système de coordonnées droitier, c'est-à-dire que le produit vectoriel de X et Y est un vecteur dans la direction de Z.

    Dans la formule (4), [R.sup.b.sub.c] est la matrice de transformation du cadre de la caméra au cadre du corps de l'IMU. [R.sup.g.sub.b] est la matrice de transformation du cadre du corps IMU au cadre de navigation. Rg est la matrice de transformation du repère de navigation au repère terrestre centré sur la terre.

    [expression mathématique non reproductible]. (5)

    Dans la formule (5), H, P et R indiquent les angles de tangage et de roulis du cap, obtenus à partir du système de pilote automatique.

    [expression mathématique non reproductible]. (6)

    Dans la formule (6), L et B, respectivement, indiquent la longitude et la latitude, qui sont sorties du système de pilote automatique. La matrice de transformation de rotation pourrait être déduite d'après la transformation d'Euler référencée dans [20-22]. Lorsque [[xy - f].sup.T] est égal à [[-(w/2) h/2 -f].sup.T], les coordonnées du coin supérieur gauche de l'image peuvent être obtenues grâce à la formule (4).

    Lorsque l'UAV collecte les images dans les zones post-séisme, il vole à environ des centaines de mètres au-dessus du sol et aucun signal ne bloque le récepteur GPS vers le satellite. Si le problème de discontinuité du signal se produit, nous pourrions adopter la méthode d'interpolation linéaire pour calculer la position perdue et les informations d'attitude dans un court intervalle de temps. L'UAV collecte l'image 1 au temps [t.sub.1], et le pilote automatique enregistre la position et les informations d'attitude [p.sub.1]([x.sub.1],[y.sub.1], [ z.sub.1], [roll.sub.1], [pitch.sub.1], [yaw.sub.1]). Il collecte l'image 2 au temps [t.sub.2], et le pilote automatique enregistre la position et les informations d'attitude [p.sub.2]([x.sub.2],[y.sub.2],[z .sub.2],[roll.sub.2],[pitch.sub.2],[yaw.sub.2]). Cependant, il collecte l'image i sans enregistrer les informations de position et d'attitude au temps [t.sub.i] entre [t.sub.1] et [t.sub.2] nous pouvons calculer les informations de position et d'attitude [p.sub. .i] de la formule courante :

    [A.sub.i] = [t.sub.i]-[t.sub.1]/[t.sub.2]-[t.sub.1] [DELTA]A = [t.sub.i ]-[t.sub.1]/[t.sub.2]-[t.sub.1]([A.sub.2]- [A.sub.1]). (7)

    Dans la formule (7) ci-dessus, [A.sub.1] indique les paramètres [x.sub.i],[y.sub.i],[z.sub.i],[roll.sub.i], [pitch.sub.i],[yaw.sub.i] et i est le numéro de l'image.

    3.2. La transformation entre différents systèmes de rotation. Les images de télédétection collectées sur la base du véhicule aérien sans pilote tournent théoriquement autour de leur centre de symétrie, mais les images géoréférencées sur la base du fichier mondial tournent autour de leur coin supérieur gauche. Par conséquent, ils ont les différentes positions après la rotation. La figure 4(a) montre que l'image tourne autour du coin supérieur gauche sous différents angles de la position 1 à la position 8, et la figure 4(b) indique que l'image tourne autour du centre de symétrie selon le même angle de la position 1 à poste 8.

    Sur la figure 4, lorsque l'image tourne autour de son coin supérieur gauche et que l'image tourne autour de son centre de symétrie selon le même angle, les bords correspondants des images après rotation sont parallèles les uns aux autres. Il indique que les objets des images ont les mêmes directions après la rotation. Cependant, ils présentent un écart de translation entre les images, dans lequel nous devons corriger et améliorer la précision de la position. Selon la formule (2), après que l'image tourne autour de son centre de symétrie, les coordonnées de l'image sont calculées comme

    [expression mathématique non reproductible]. (8)

    Dans la formule (8), j est la coordonnée de pixel de la direction x et i est la coordonnée de pixel de la direction y. [thêta] est l'angle de rotation de l'image tournant autour du centre de symétrie. w est la largeur de l'image brute et h est la hauteur de l'image. Lorsque l'image tourne autour de son centre de symétrie, (i, j) est calculé à partir de (-(w/2), h/2). Lorsque l'image tourne autour de son coin supérieur gauche, (i, j) est calculé à partir de (0, 0).

    La quantité de translation causée par la rotation de l'image pourrait être déduite de la formule (8) dont la forme détaillée est la suivante :

    [DELTA]x = w/2 x cos[thêta] - h/2 x sin[thêta] + w/2,

    [DELTA]y = w/2 x sin[thêta] -h/2 x cos[thêta] + h/2. (9)

    Dans la formule (9), [DELTA]x et [DELTA]y sont, respectivement, les montants de translation sur les directions x et y qui indiquent l'écart de position que l'image tourne autour de son centre de symétrie par rapport à l'image tournant autour du coin supérieur gauche . [thêta] est l'angle de rotation de l'image autour de son centre de symétrie. w est la largeur de l'image brute et h est la hauteur de l'image brute. La quantité de translation est étroitement liée à l'angle de rotation, à la largeur de l'image et à la hauteur de l'image.

    4. L'amélioration rapide de la précision de la géoréférencement basée sur l'image de référence

    La précision de géoréférencement rapide de l'image UAV dépend de la précision des données de position qui est la sortie du système de pilote automatique. Généralement, différents types de drones ont des modules GPS différents, et les précisions des modules GPS sont différentes, en particulier le module GPS sans fonction de positionnement différentiel. Afin d'améliorer encore la précision de la géoréférencement et l'efficacité du temps, l'ensemble de la méthode d'amélioration de la précision de la géoréférencement basée sur l'extraction et l'appariement SURF (caractéristiques accélérées robustes) est proposé dans cet article. Sélectionnez une image de toute la séquence pour extraire les caractéristiques SURF et faire correspondre avec l'image de référence, puis calculez les coordonnées du coin supérieur gauche de l'image sélectionnée à travers la correspondance des caractéristiques. Il réduit l'erreur de symétrie et améliore la précision de géoréférencement de l'ensemble de l'image. Les fonctionnalités SURF ont la robustesse à la traduction, à la rotation, à l'échelle et au changement lumineux de l'image. L'extraction et la correspondance des caractéristiques peuvent atteindre une précision inférieure au pixel. Nous ne discutons pas plus de détails sur les fonctionnalités de SURF, les détails pourraient être référencés dans [23-26].

    Étant donné que l'image de référence couvre toujours une grande zone, les caractéristiques SURF extraites des images UAV pour correspondre aux caractéristiques extraites des images de référence prendront beaucoup de temps. Pour résoudre ce problème, les caractéristiques sont extraites de l'image de référence dans la zone donnée qui est initialisée en fonction de la zone limite des images UAV géoréférencées et correspondent aux caractéristiques extraites dans l'image UAV. Lorsque x est égal à -(w/2) et y est égal à h/2, nous mettons (x, y) dans la formule (4) les coordonnées du coin supérieur gauche de l'image de drone initialement géoréférencée seront acquises. Lorsque x est égal à w/2 ety est égal à -h/2, nous mettons (x, y) des entrées dans la formule (4), les coordonnées du coin inférieur droit de l'image de drone initialement géoréférencée seront acquises. Simultanément, compte tenu de l'erreur de géoréférencement initiale [delta], la zone d'entité recherchée dans l'image haute résolution de référence est la suivante : [[X.sub.ul]-[delta], [Y.sub.ul]-[delta] ), [X.sub.ul]+[delta]),[Y.sub.ul]+[delta]].

    Compte tenu de l'efficacité du temps, le modèle de probabilité gaussien est utilisé dans cet article pour supprimer les mauvais points appariés. La distance entre l'élément de l'image UAV et l'élément de l'image de référence est [D.sub.i] = 1,2,3. n) toutes les distances [D.sub.i](i=1,2,3. n) entre les entités appariées seront les mêmes dans les conditions idéales. Toutes les distances Di entre les entités appariées satisferont la distribution normale gaussienne, la moyenne des distances est p et la variance est [sigma] les probabilités d'échantillons qui tombent dans les zones [[mu] - [sigma], [mu] + [sigma], [[mu] - 2[sigma], [mu] + 2[sigma]] et [[mu] - 3[sigma], [mu] + 3[sigma]] sont, respectivement, 68,3 % , 95,5% et 99,7%, selon le modèle de distribution normale gaussienne. Si la distance [D.sub.i] sort de l'intervalle de confiance, nous pourrions les reconnaître comme des entités mal appariées et les supprimer de la liste d'entités appariées. Dans la figure 5, nous utilisons l'extraction et la correspondance des caractéristiques SURF pour obtenir la correspondance de l'image UAV avec une image Google. Il remplit l'objectif du calcul d'erreur de position entre l'image géoréférencée initiale et l'image de référence.

    La ième caractéristique de l'image UAV est indiquée et ses coordonnées géographiques sont ([X.sub.i], [Y.sub.i]). Une fois que l'image UAV correspond à l'image de référence, elle obtient les nouvelles coordonnées géographiques ([X'.sub.i], [Y'.sub.i]). L'erreur géoréférencée de l'image UAV a été calculée comme suit :

    [DELTA]X = [n.sommation sur (i=1)]([X'.sub.i]-[X.sub.i]),

    [DELTA]Y = [n.sommation sur (i=1)]([Y'.sub.i]-[Y.sub.i]). (dix)

    5. Expériences et analyses

    Les expériences adoptent le langage C# combiné à la fonction GDAL (Geospatial Data Abstraction Library) pour compiler le logiciel de référence géographique rapide et réaliser la géoréférence rapide de l'image UAV. Le logiciel de géoréférencement rapide est installé sur l'ordinateur IBM T430 en tant que plate-forme expérimentale, avec un processeur Intel Core i5 2,60 GHz et une mémoire de 4 Go.

    5.1. L'expérience de géoréférencement rapide basée sur le drone à voilure fixe. Dans cette expérience, l'UAV à voilure fixe (http://www.feimarobotics.com/) a été utilisé pour collecter les données d'image comme le montre la figure 6. Les spécifications de l'UAV sont présentées dans le tableau 1. L'UAV était équipé d'un Micro-caméra SONY DSC-RX1RII avec une focale de 20 mm, dont la taille du CCD est de 23,5 x 15,6 mm. La résolution de l'image collectée est de 7952 x 5304. Le système de pilote automatique UAV peut afficher la longitude, la latitude, l'élévation, l'angle de tangage, l'angle de roulis et l'angle de cap. Le module GPS du système de pilote automatique est sans fonction différentielle de données.

    En prenant les données d'images de télédétection UAV obtenues du comté de Danling dans la province du Sichuan, à titre d'exemple, la hauteur de vol moyenne est de 250 m. Enfin, 1025 images sont obtenues. La taille de l'image unique est d'environ 18 Mo et la taille totale de l'image est d'environ 18 Go. Les données d'attitude et de position sont présentées sur la figure 7. Toutes les images ont été géoréférencées rapidement en 3 minutes.

    Sur la figure 8, les images UAV ont réalisé le géoréférencement sans tenir compte de la rotation de l'image et de la correction d'erreur. La géoréférencement rapide de l'image UAV répond à l'exigence de temps, mais nous n'avons pas pu obtenir la situation de distribution des objets au sol sur l'ensemble de la zone de vol. Il est difficile de sélectionner rapidement des images appropriées pour la soumission d'informations sur les catastrophes et la surveillance des objets d'intérêt.

    Sur la figure 9, il indique le résultat de la géoréférence rapide d'images UAV sur la base de l'algorithme proposé dans cet article. Toutes les images obtiennent la référence spatiale. S'ils sont chargés dans le même cadre, cela ressemble à une image panoramique grossière. En fait, ce sont des couches séparées. Dans l'image panoramique, nous pouvons clairement connaître la répartition des objets sur la surface du sol dans la zone de vol, telle que la répartition des bâtiments, des routes et du terrain de jeu. Et puis, nous pourrions sélectionner les images appropriées, y compris les informations sur les catastrophes, à soumettre avant l'assemblage de l'image panoramique. Il fournit un support de données pour l'interprétation des catastrophes, les enquêtes sur les catastrophes et les interventions d'urgence en cas de catastrophe au début de la période d'intervention.

    Si on adopte le logiciel tel que PhotoScan qui fera le résultat parfait avec un petit écart d'assemblage pour générer l'image panoramique, il faudra plus de trois heures pour générer l'image panoramique. En période d'intervention d'urgence, le gain de temps est très important. Si les commandants d'intervention d'urgence obtiennent les informations sur la catastrophe soumises via la géoréférence rapide, ils connaîtront l'emplacement de la catastrophe et prendront la bonne décision de sauvetage dès que possible. Dans cette situation, des dizaines de compteurs de précision satisfont totalement aux exigences d'intervention d'urgence. Et l'image panoramique générée à partir de PhotoScan pourrait faire la carte d'images, qui pourrait être la production d'images de niveau supérieur et soumise aux commandants d'intervention d'urgence.

    5.2. L'expérience de géoréférence rapide basée sur le drone quadrirotor. Dans cette expérience, nous utilisons le drone quadrirotor (http://www.flightwin.com/) pour collecter des images comme le montre la figure 10. Les spécifications du drone quadrirotor sont présentées dans le tableau 2. Le drone équipé du Sony ILCE- Caméra 6000, avec une distance focale de 20 mm, dont la taille du CCD est de 23,5 x 15,6 mm. La résolution de l'image collectée est de 6000 x 4000.

    En prenant les données d'images de télédétection d'UAV obtenues sur le site du tremblement de terre dans le comté de Beichuan, dans la province du Sichuan, à titre d'exemple, la hauteur de vol moyenne de l'UAV est de 450 m. Enfin, 226 images sont obtenues. La taille de l'image unique est d'environ 10 Mo et la taille totale de l'image est d'environ 2,2 Go. Les données d'attitude et de position sont illustrées à la figure 11. Obtenez une référence géographique rapide de toutes les données d'image en moins d'une minute.

    A partir de la figure 12, nous avons pu connaître toute la situation de la zone. Toutes les images sont des calques séparés. Par exemple, le bâtiment est endommagé par un tremblement de terre. Nous sélectionnons l'image appropriée et la soumettons aux commandants d'intervention avant l'image panoramique générée à partir du logiciel PhotoScan. Il est très important au début de la période d'intervention d'urgence. Selon le résultat géoréférencé rapide, les commandants organiseront les travailleurs pour enquêter sur les informations sur la catastrophe.

    Dans cet article, la méthode et le modèle de géoréférencement rapide d'images UAV sont discutés en détail et l'algorithme est implémenté via le langage C# combiné avec GDAL. Le logiciel de géoréférencement rapide peut réaliser le référencement d'images d'UAV d'une sortie en vol en peu de temps. Il fournit un support technique important pour saisir les informations globales sur la catastrophe et surveiller les objets clés dans la zone sinistrée. Dans le même temps, il peut générer un contour vectoriel de chaque image géoréférencée, puis le contour vectoriel est superposé sur l'image de référence pour sélectionner rapidement l'image contenant les informations sur la catastrophe à soumettre. Il a une valeur d'application importante dans la période de réponse post-séisme. Dans les futurs travaux, la géoréférence rapide d'images pour le drone avec module GPS différentiel sera étudiée pour améliorer la précision de localisation et réduire l'erreur relative entre les images adjacentes.

    Les données partielles utilisées pour étayer les résultats de cette étude sont disponibles sur demande auprès de l'auteur correspondant.

    Les auteurs déclarent qu'il n'y a pas de conflit d'intérêts concernant la publication de cet article.

    Cette recherche a été financée par les fonds de recherche fondamentale de l'Institute of Earthquake Forecasting, China Earthquake Administration (2018IEF0204) et le National Key Research and Development Program of China (2017YFB0504104).

    [1] A. Nedjati, B. Vizvari et G. Izbirak, « Correction à : réponse post-séisme par de petits hélicoptères drones », Natural Hazards, vol. 90, non. 1, pages 511-511, 2018.

    [2] D. Dominici, M. Alicandro et V. Massimi, « Photogrammétrie par drone dans le scénario post-séisme : études de cas à L'Aquila », Géomatique, risques naturels et risques, vol. 8, non. 1, p. 87-103, 2017.

    [3] I. Aicardi, F. Chiabrando, AM Lingua, F. Noardo et M. Piras, « Unmanned air systems for data acquisitions in catastrophe management applications », dans 2014 Journal des universités et de la coopération internationale au développement, dans le III Congrès du Congrès du Réseau universitaire de coopération au développement (CUCS), pp. 164-171, Turin, Italie, 2013.

    [4] Z. Xu, J. Yang, C. Peng et al., "Développement d'un UAS pour la surveillance des catastrophes post-séisme et son application dans le tremblement de terre de Ms7. 0 Lushan, Sichuan, Chine," Computers & Geosciences, vol. 68, p. 22-30, 2014.

    [5] S. M. Adams, M. L. Levitan et C. J. Friedland, "Collection d'images haute résolution pour les études post-catastrophe utilisant des systèmes d'aéronefs sans pilote (UAS)", Ingénierie photogrammétrique et télédétection, vol. 80, non. 12, pages 1161-1168,2014.

    [6] V. Baiocchi, D. Dominici et M. Mormile, « Application UAV dans un environnement post-sismique », Les Archives internationales de la photogrammétrie, de la télédétection et des sciences de l'information spatiale, vol. 2, p. 21-25, 2013.

    [7] M. Brown et D. G. Lowe, « Assemblage automatique d'images panoramiques à l'aide de caractéristiques invariantes », International Journal of Computer Vision, vol. 74, non. 1, p. 59-73, 2007.

    [8] A. Zomet, A. Levin, S. Peleg et Y. Weiss, "Assemblage d'images sans couture en minimisant les faux bords," IEEE Transactions on Image Processing, vol. 15, non. 4, pages 969-977, 2006.

    [9] D. Turner, A. Lucieer et C. Watson, "Une technique automatisée pour générer des mosaïques géorectifiées à partir d'images de véhicules aériens sans pilote (UAV) ultra-haute résolution, basée sur la structure des nuages ​​de points en mouvement (SfM)", Remote Sensation, vol. 4, non. 5, p. 1392-1410, 2012.

    [10] G. Zhou, "Orthorectification en temps quasi réel et mosaïque de petits flux vidéo UAV pour une réponse à un événement critique dans le temps," Transactions IEEE sur la géoscience et la télédétection, vol. 47, non. 3, pages 739-747, 2009.

    [11] I. Aicardi, F. Nex, M. Gerke et A. Lingua, "Une approche basée sur l'image pour le co-enregistrement d'ensembles de données d'images d'UAV multi-temporelles," Remote Sensing, vol. 8, non. 9, p. 779, 2016.

    [12] T. Rosnell et E. Honkavaara, "Génération de nuages ​​de points à partir de données d'images aériennes acquises par un micro véhicule aérien sans pilote de type quadricoptère et un appareil photo numérique," Sensors, vol. 12, non. 1, p. 453-480, 2012.

    [13] S. Harwin et A. Lucieer, "Évaluer la précision des nuages ​​de points géoréférencés produits via une stéréopsie multi-vues à partir d'images de véhicules aériens sans pilote (UAV)", Télédétection, vol. 4, non. 6, pages 1573-1599, 2012.

    [14] F. Remondino et S. El-Hakim, « La modélisation 3D basée sur l'image : une revue », The Photogrammetric Record, vol. 21, non. 115, pages 269-291, 2006.

    [15] H. Fathi et I. Brilakis, « Génération automatisée de nuages ​​de points 3D clairsemés d'infrastructure utilisant ses caractéristiques visuelles distinctives », Advanced Engineering Informatics, vol. 25, non. 4, p. 760-770, 2011.

    [16] J. Civera, A. J. Davison, J. A. Magallon et J. M. M. Montiel, « Mosaïque séquentiel en temps réel sans dérive », International Journal of Computer Vision, vol. 81, non. 2, p. 128-137, 2009.

    [17] S. Lovegrove et A. J. Davison, "Real-time spherical mosaicing using entire image alignement", dans European Conference on Computer Vision, pp. 73-86, Springer, Berlin, Heidelberg, 2010.

    [18] F. Remondino, L. Barazzetti, F. Nex, M. Scaioni et D. Sarazzi, « Photogrammétrie des drones pour la cartographie et la modélisation 3D-état actuel et perspectives futures », ISPRS--Archives internationales de la photogrammétrie, à distance Sciences de la détection et de l'information spatiale, vol. XXXVIII-1/C22, no. 1, p. 25-31, 2011.

    [19] S. Bu, Y. Zhao, G. Wan et Z. Liu, "Map2DFusion: real-time incremental UAV image mosaicing based on monoocular slam," en 2016 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS ), pp. 4564-4571, Daejeon, Corée du Sud, octobre 2016.

    [20] D. B. Barber, J. D. Redding, T. W. McLain, R. W. Beard et C. N. Taylor, "Vision-based target geo-location using a fixed-wing miniature air vehicle," Journal of Intelligent and Robotic Systems, vol. 47, non. 4, pages 361-382, 2006.

    [21] L. Di, T. Fromm et Y. Chen, "Un système de fusion de données pour l'estimation de l'attitude des drones miniatures à faible coût", Journal of Intelligent & Robotic Systems, vol. 65, non. 1-4, pages 621-635, 2012.

    [22] H. Xiang et L. Tian, ​​"Méthode de géoréférencement automatique d'images de télédétection aérienne (RS) à partir d'une plate-forme de véhicule aérien sans pilote (UAV)", Biosystems Engineering, vol. 108, non. 2, p. 104-113, 2011.

    [23] H. Bay, T. Tuytelaars et L. Van Gool, "Surf: speeded up robust features," in Computer Vision--ECCV 2006, pp. 404-417, Springer, Berlin, Heidelberg.

    [24] H. Bay, A. Ess, T. Tuytelaars et L. Van Gool, "Fonctionnalités robustes accélérées (SURF)", Computer Vision and Image Understanding, vol. 110, non. 3, pages 346-359, 2008.

    [25] E. Rublee, V. Rabaud, K. Konolige, et G. Bradski, "ORB: an efficient alternative to SIFT or SURF," in 2011 International Conference on Computer Vision, pp. 2564-2571, Barcelone, Espagne, novembre 2011.

    [26] B. Sheta, M. Elhabiby et N. El-Sheimy, "Évaluations de différentes résolutions d'algorithmes accélérés de caractéristiques robustes (SURF) pour l'estimation de pose d'UAV", International Journal of Computer Science & amp Engineering Survey, vol. 3, non. 5, p. 15-41, 2012.

    Shumin Wang, Ling Ding, Zihan Chen et Aixia Dou

    Institute of Earthquake Forecasting, China Earthquake Administration, Beijing 100036, Chine

    La correspondance doit être adressée à Shumin Wang [email protected]

    Reçu le 24 avril 2018 Révisé le 13 août 2018 Accepté le 10 septembre 2018 Publié le 23 octobre 2018

    Rédacteur académique : Vincenzo Marletta

    Légende : Figure 1 : La géoréférence rapide de l'image UAV pour la réponse post-séisme.

    Légende : Figure 2 : La géoréférence imagée basée sur le fichier mondial.

    Légende : Figure 3 : Le cadre de géoréférencement rapide de l'image.

    Légende : Figure 4 : (a) L'image tourne autour du coin supérieur gauche, et (b) l'image tourne autour du centre de symétrie.

    Légende : Figure 5 : L'extraction et la correspondance des caractéristiques SURF.

    Légende : Figure 6 : UAV à voilure fixe.

    Légende : Figure 7 : L'attitude et la trajectoire d'un drone à voilure fixe.

    Légende : Figure 8 : Le géoréférencement rapide sans tenir compte des informations d'angle.

    Légende : Figure 9 : L'application de géoréférencement rapide.

    Légende : Figure 10 : UAV quadrirotor.

    Légende : Figure 11 : L'attitude et la trajectoire du drone quadrirotor.

    Légende : Figure 12 : L'image de géoréférencement rapide et l'image sélectionnée endommagée soumise


    Véhicules aériens sans pilote pour la photogrammétrie : analyse d'images orthophotographiques sur le territoire de la Lituanie

    Il a été récemment observé que les aéronefs ont tendance à être remplacés par des véhicules aériens sans pilote (UAV) légers et de structure simple ou des mini véhicules aériens sans pilote (MUAV) dans le but de mettre à jour le domaine de la photogrammétrie aérienne. L'appareil photo numérique intégré prend des images de la surface de la Terre. Pour satisfaire les exigences photogrammétriques des images photographiques, il est nécessaire d'effectuer la planification du projet terrestre de la trajectoire de vol avant le vol, de sélectionner la hauteur de vol appropriée, le temps d'acquisition des images, la vitesse du drone, et d'autres paramètres . L'article présente les résultats des calculs du projet concernant les vols d'UAV et l'analyse des images terrestres acquises lors des vols d'essai sur le terrain. L'expérience menée jusqu'à présent dans le paysage lituanien est montrée. Les images prises ont été traitées par le système photogrammétrique PhotoMod. L'article présente les résultats du calcul des valeurs du projet des vols d'UAV prenant les images par appareil photo numérique Canon S100 et l'analyse des possibilités du mode d'orthophoto images d'UAV.

    1. Introduction

    La cartographie du terrain est un processus de longue durée qui peut durer de six mois à quelques années. Les véhicules sans pilote à basse altitude ont déjà commencé à être utilisés pour obtenir des images aériennes à haute résolution, ce qui est devenu une industrie distincte [1, 2]. Un système à basse altitude vole sous (jusqu'à 150 m) le trafic aérien [3]. UAV peut être utilisé pour un vol. A cet effet, lorsque les conditions météorologiques permettent une visibilité au sol, ce type de système est décrit par le terme de véhicule aérien sans pilote [4, 5]. Une technologie nouvelle et originale qui a été récemment conçue et construite par les scientifiques et les ingénieurs du Space Science and Technology Institute (SSTI) en collaboration avec les étudiants de l'A. Gustaitis Aviation Institute (AGAI) devrait aider à développer ce processus. Les drones sont recommandés pour la cartographie de terrain mineur à des fins de mise à jour des cartes, à des fins militaires, lors de l'exploration de la nature et dans d'autres cas [5, 6].

    Les drones peuvent être de différentes tailles, formes et structures (hélicoptère sans pilote miniature, drone à voilure tournante, quadricoptère, drone, etc.) [7, 8] et ils sont qualifiés par leurs multiples caractéristiques [9]. Auparavant, il s'agissait d'avions ordinaires contrôlés à distance, mais récemment, des UAV autonomes ont commencé à être utilisés. Les drones modernes se déplacent selon la trajectoire de vol préprogrammée ou peuvent être exploités à l'aide d'un système plus compliqué d'automatisation dynamique. Une caméra numérique, calibrée et intégrée est installée dans un drone dont le but est d'acquérir les images photographiques de la surface de la Terre. Les images prises pendant les vols d'UAV peuvent être étudiées et traitées en appliquant les méthodes de photogrammétrie, avec des coûts nettement inférieurs à ceux qu'ils étaient dans les cas où les images étaient prises à partir d'un avion équipé d'un équipement compliqué et plutôt coûteux. , appareils et installations [10–16].

    Les principales étapes du projet de workflow photogrammétrique avec UAV sont énumérées ci-dessous : (i) paramètres du projet photogrammétrique (ii) projet de vol (iii) qualité des images (iv) traitement d'image par photogrammétrie ou autre logiciel spécial (v) généralisation d'images orthophoto et application de les données acquises.

    L'article décrit les étapes du workflow affectant la qualité des résultats des opérations de photogrammétrie.

    2. Paramètres de projet photogrammétriques et planification de vol avec participation d'UAV

    Les paramètres du projet photogrammétrique sont les suivants : (i) limites/bordures de la zone photographiée (ii) modèle de l'appareil photo et ses paramètres (iii) échelle attendue des images photographiques (iv) chevauchement longitudinal et transversal des photographies (v) direction de vol (vi) vitesse de vol (vii) hauteur de vol (viii) système de coordonnées de données.

    Le temps de fonctionnement du drone détermine les dimensions des limites/bordures de la zone photographiée, ces dernières dépendent du type de moteur installé. L'UAV utilisé pour les vols de recherche avait un moteur électrique installé, pesant 3,5 kg (voir la figure 1).

    Ce drone (Figure 1) est capable de parcourir 35 à 52 km au cours d'un vol, la vitesse maximale du vol est de 70 km/h ou 19 m/sec et le temps de vol est de 30 à 45 min (1,14 km/min).

    Le nouveau drone, construit avec l'aide des institutions SSTI et AGAI, était équipé d'un appareil photo numérique CanonS100 destiné aux vols d'essai. L'optique de l'objectif de la caméra a été calibrée à l'aide du programme allemand spécial Tcc selon le support de calibrage, cube [14, 17, 18]. Les paramètres de distorsion suivants de la caméra ont été déterminés :

    : la distance de la distance focale

    : le coefficient de l'échelle de l'image

    : la correction du point principal de l'image

    : la correction du point image principal de la coordonnée

    : une distorsion symétrique radiale d'un objectif de caméra

    : une distorsion asymétrique radiale de l'objectif de la caméra. Les résultats obtenus sont présentés dans le tableau 1. Les distorsions radiales symétriques et radiales asymétriques de l'objectif de la caméra ont des valeurs faibles.

    La précision de l'étalonnage de la caméra est caractérisée par la déviation normalisée (

    ) de l'unité de poids, qui indique la précision de l'identification et de la mesure des points sur le banc d'étalonnage. Théoriquement, cette valeur ne doit pas dépasser 15 μm. Après l'étalonnage de l'appareil photo Canon S100, la déviation standard de l'unité de poids était de 3,16 μm le résultat acquis est très bon et acceptable.

    L'appareil photo Canon S100 produit une image au format 12,1 mégapixels (3000 × 4000 pixels). La taille du capteur de la matrice numérique est de 7,44 × 5,58 mm ainsi, la plus petite taille du point d'image (pas du pixel) est de 1,86 um. La distance calibrée de la distance focale est

    mm (tableau 1).Une petite distance de la distance focale indique que cet appareil photo a un large champ de vision, donc une grande zone de l'emplacement peut être couverte lors de la prise d'images avec cet appareil photo.

    La distance de la distance focale de la caméra et la hauteur de vol du drone déterminent la taille d'échelle de l'image. La formule traditionnelle de calcul de l'échelle de l'image photogrammétrique est la suivante [19] :

    voici un dénominateur d'échelle d'image est la distance de la distance focale est la hauteur de vol de l'UAV.

    Ces valeurs doivent être prises en compte et calculées lors de la planification du vol UAV. Une planification de vol correcte a une influence sur la précision et le volume des informations collectées sur les régions souhaitées [8, 20]. La planification théorique du vol en drone est justifiée par le calcul des dispositions des images le long de la route de vol [8, 21]. Le schéma du projet de vol est donné sur la figure 2.

    est le chevauchement longitudinal des images adjacentes sur la route de vol

    est la base pour prendre des images (la distance entre les centres adjacents des images)

    est un chevauchement transversal des images entre les routes de vol supérieure et inférieure.

    La taille de l'image dépend de l'expression de la caméra. Pendant les vols de recherche, l'appareil photo Canon S100 a été utilisé, l'expression maximale de l'appareil photo était de 12,1 MP. L'image de 4000 × 3000 pixels a été acquise (7,44 × 5,58 mm). Il faut connaître la taille de l'image pour calculer le chevauchement longitudinal et transversal des images pendant le vol. La formule de calcul est

    où est la distance entre les vols adjacents calculée selon cette formule :

    Les valeurs du projet des vols d'UAV ont été calculées selon les formules (1) à (3) les images ont été prises par la caméra Canon S100 et dans des conditions de vol idéales. Les résultats obtenus sont donnés dans le tableau 2.

    Les valeurs du projet de vol (tableau 2) sont nécessaires afin qu'aucune zone de la zone étudiée ne soit laissée sans être capturée, entre les images et les routes adjacentes, pendant le processus du vol en drone et la prise d'images de la zone déterminée. Lors de la sélection des paramètres du projet photogrammétrique, il est nécessaire de prendre en considération certaines conditions météorologiques qui se produisent pendant le vol et en particulier la direction du vent. Le flux d'air fait augmenter la vitesse du vent avec l'augmentation de la hauteur au-dessus du sol. Le vent souffle dans la direction négative de

    -axis, l'axe positif pointe vers le ciel, et la direction de -axis dépend de la règle de la main droite [22]. La relation entre la vitesse du vent et la hauteur au-dessus de la surface est décrite dans les articles [23]. La hauteur de vol peut également être obtenue à partir de la distance d'échantillonnage au sol (GSD) ou d'une taille de pixel dans le terrain et dépend de la distance focale de la caméra, de la largeur du capteur de la caméra et de la distance couverte au sol par une image. La formule de calcul GSD est

    où pix est le pas du pixel du capteur de la caméra est la hauteur de vol de l'UAV est la distance de la distance focale de la caméra. Si le vol du drone est élevé à 214 m au-dessus du sol et que la distance focale de la caméra est de 1,86 um, la résolution de l'image GSD sera de 7,4 cm par pixel. La taille au sol sera de 3000 × 0,074 m = 222 m par 4000 × 0,074 m = 296 m. L'UAV est orienté de sorte que l'axe de 296 m soit parallèle à la trajectoire et l'axe de 222 m le long de la direction transversale. Nous recommandons un chevauchement dans la trajectoire (direction de vol), 70 % (tableau 2) et une vitesse de vol de 19 m/s. Le drone se déplace de 89 m par rapport au sol (70% de 296 m = 207 m

    ) et prend une photo. Si la vitesse de vol est de 19 m/sec, vous devez prendre une photo toutes les 5 secondes. Nous recommandons un chevauchement transversal d'au moins 45 %. Les espaces entre les lignes de vol des UAV ci-dessus ne doivent pas dépasser 123 m. Des lignes de vol plus serrées sont bonnes.

    Chaque drone a sa propre vitesse et direction de vol. Il y a huit directions de vol possibles (nord, nord-est, est, sud-est, sud, sud-ouest, ouest et nord-ouest). De plus, chaque UAV a trois orientations possibles, telles que tourner à gauche, aller tout droit et tourner à droite [24]. La direction de vol traditionnellement recommandée en photogrammétrie est est-ouest ou nord-sud [1]. Les images prises en respectant les directions de vol mentionnées ci-dessus sont faciles à traiter par la méthode photogrammétrique. Cependant, si nécessaire, la direction peut être modifiée.

    La vitesse de vol dépend de la vitesse du vent. La classification de la limite de vitesse du vent admissible pour les UAV est indiquée dans [25]. L'UAV obtient la vitesse terrestre du GPS (Global Point System). Afin de calculer le vecteur vitesse du vent inertiel du système de coordonnées cartésiennes, des informations supplémentaires sur la position de l'UAV dans l'espace sont prises en compte. Les auteurs de l'article ont présenté la trajectoire calculée de la vitesse du vent au cours de l'année [26]. En automne, la vitesse du vent augmente chaque mois : la vitesse moyenne du vent en septembre est de 4,5 à 5,0 m/s et en novembre de 3,5 à 6,5 m/s. La plage de différences de la vitesse du vent au bord de la mer et dans les régions des pays de l'Est est d'environ 2 m/s. En hiver, la vitesse du vent augmente lentement : au bord de la mer, la vitesse moyenne du vent varie de 5,5 m/s à 8,0 m/s, et dans les régions des pays de l'Est, elle varie de 5,0 m/s à 5,5 m/s. La différence est d'environ 2,5 à 3,0 m/s. Au printemps, la vitesse du vent diminue : au bord de la mer, elle varie entre 5,0-5,5 m/s et 4,5-5,0 m/s, dans d'autres régions, elle est de 4,0 m/s à 3,5 m/s, et en été, la vitesse du vent au bord de la mer est de 4,0 à 5,0 m/s, tandis que dans les régions orientales, il est de 2,5 à 4,0 m/s [26].

    La hauteur de vol de l'UAV dépend de la nébulosité et du brouillard. Les auteurs de l'article ont également inclus le diagramme de formation de brouillard sur les aérodromes de Kaunas et Siauliai chaque mois tout au long de l'année [26]. Il a été constaté que le nombre moyen de jours de brouillard à l'aérodrome de Kaunas en septembre, octobre et novembre dépassait 5 jours à l'aérodrome de Siauliai, le nombre moyen de jours de brouillard dépassait également 5 jours. Par conséquent, la période de l'année la plus favorable pour les vols de drones se situe entre avril et août, lorsque la vitesse du vent diminue et qu'il y a moins de jours de brouillard.

    Sur la base des paramètres du projet photogrammétrique et des valeurs du projet de vol (Tableau 2), le vol du drone pourra être marqué à l'aide du logiciel (Mission Planner) pendant le vol ou préalablement, en indiquant les points initiaux et finaux du plan itinéraire de vol sur la carte Google Earth. Ainsi, sur l'écran ou, plus exactement, sur les tables du logiciel, apparaissent le début et la fin des points de coordonnées géodésiques de l'itinéraire, longitude et latitude. Au cours du processus d'acquisition d'images, les coordonnées des centres d'images GPS, qui pourront plus tard être appliquées pour les mesures photogrammétriques des images, sont fixées.

    3. L'analyse des vues de la zone prises à partir de l'UAV

    Les images de la zone prises à partir de drones sont utilisées [5] : (i) pour compiler des orthophotos de la zone (ii) pour compiler et mettre à jour une carte topographique et cadastrale de la zone (iii) pour les besoins et exigences de gestion forestière iv) compiler le modèle de surface et effectuer des mesures (v) à des fins militaires (vi) observer la végétation environnante (vii) observer les conditions du réseau d'alimentation (viii) dans l'architecture (ix) et ainsi de suite.

    De nombreuses recherches travaillent sur la conception de logiciels pour l'utilisation du traitement d'images UAV [8, 27, 28]. Voici quelques exemples : PhotoMod (Russie), Pix4d mapper (Suisse), Photo Scanner (Russie), etc. La conception et l'ingénierie logicielles jouent un grand rôle dans le cycle de vie des simulateurs de formation. L'électronique, l'ingénierie de l'information et les sciences aéronautiques développent et créent de nouveaux modèles mathématiques et logiciels à des fins de photogrammétrie [29, 30]. Le projet de test a été réalisé par le système photogrammétrique modulaire PhotoMod Lite.

    La zone de Kirtimai (région de Vilnius), datée du 09/10/2012, est l'un des exemples du traitement photogrammétrique des images de la zone, prises depuis un drone. La vue de la route de vol est présentée à la figure 3.


    Ce que nous faisons

    Le département aérospatial reste à la pointe de la technologie

    Des cours sur les aéronefs sans pilote sont dispensés depuis le printemps 2014, proposés à l'origine au choix pendant la construction de la concentration complète. La concentration UAS Operations a reçu l'approbation du Tennessee Board of Regents fin 2014. « Nous nous efforçons de rester à la pointe de la technologie et de la sécurité dans nos programmes », a déclaré Ron Ferrara, président du département Aérospatiale. «Ce changement important dans l'industrie de l'aviation aura des effets positifs profonds, et nous ouvrons la voie aux étudiants pour entrer dans ce domaine de carrière.» La nouvelle majeure est entièrement disponible pour le semestre d'automne 2015. Les étudiants actuels en aérospatiale sont autorisés à ajouter les opérations UAS comme concentration principale en ligne après avoir d'abord parlé à leur conseiller. « Alors que le système de l'espace aérien national est remodelé grâce aux avions sans pilote et aux nouvelles technologies, les étudiants de la MTSU seront en mesure de montrer la voie et de trouver des postes lucratifs sur le marché du travail », a déclaré Ferrara. "C'est une chance pour nos diplômés de travailler dans plusieurs industries et d'apporter les avancées et les avantages de l'aviation - et des avions sans pilote - à ceux qui n'étaient pas atteints auparavant."

    La nouvelle majeure s'appuie sur l'expertise du corps professoral sur tout le campus

    Les opérations UAS aideront à préparer les étudiants à piloter des aéronefs sans pilote, à programmer l'aéronef et à construire et modifier des aéronefs selon leurs besoins uniques. Cela permettra aux étudiants diplômés de définir leur propre cours dans une multitude d'industries et d'autres disciplines, explique Doug Campbell, directeur des opérations UAS. «Les étudiants bénéficieront de l'expertise des membres du corps professoral de l'université, tels que l'informatique et la technologie de l'ingénierie, et la contribution de nombreux départements a été cruciale pour créer un programme d'études solide», poursuit Campbell. Promu à son poste en 2014, Campbell mène également des recherches multidisciplinaires/aéronautiques pour le programme UAS. Auparavant, il était officier de la Marine/pilote de P-3C Orion et opérateur UAS MQ-5B Hunter de l'armée. Il possède une expérience militaire dans le pilotage d'aéronefs pilotés et sans pilote dans divers profils de mission et détient également un certificat de pilote aux instruments commercial, terrestre monomoteur et multimoteur de la FAA. Campbell a obtenu un baccalauréat en finance de l'Université de Memphis en 2006 et termine sa maîtrise MTSU en aérospatiale dans la concentration Gestion de la sécurité et de la sécurité aérienne.


    Télédétection UAV pour la surveillance des campus : une évaluation comparative du voisin le plus proche et de la classification basée sur des règles

    La technologie UAV, lorsqu'elle est aidée par les stratégies uniques d'acquisition de données, les techniques de prétraitement et les capacités analytiques d'un domaine établi de la télédétection, offre une option plus abordable, personnalisée et conviviale de « UAV-Remote Sensing ». Cette branche étendue de la télédétection s'épanouit à la fois dans la cartographie et la mesure, si elle est mise en œuvre de manière ordonnée pour garantir des données de qualité de télédétection. L'étude actuelle intègre le potentiel de la technologie UAV à l'approche de classification des données à haute résolution de l'analyse d'images basée sur les objets. Département de génie civil, Institut indien de technologie-Roorkee, Inde, est choisi comme zone d'étude. Dans la première partie de l'étude, un levé UAV détaillé suivi d'un traitement des données UAV a été réalisé pour capturer l'image orthorectifiée VHR de la zone d'étude sélectionnée. Dans la deuxième étape, une évaluation comparative du voisin le plus proche (NN) et des classifications basées sur des règles ont été effectuées. L'image orthorectifiée a été segmentée en utilisant une segmentation multi-résolution. La précision globale pour le NN et le classificateur basé sur des règles était de 95,13 % et 93,87 %, respectivement. Une évaluation détaillée de la précision de l'utilisateur et de la précision du producteur a décrit que les arbres, les routes, les panneaux solaires et les plans d'eau étaient classés plus précisément avec le classificateur NN, tandis que les bâtiments, les prairies, les terrains ouverts et les véhicules étaient classés plus précisément avec le classificateur basé sur des règles.

    Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.