Suite

Existe-t-il un moyen de transformer un point OSM de nœud en système GPS de référence d'une voiture ?


J'ai une voiture avec un GPS (WGS84) et une caméra (qui a filmé la route) fixée dessus. J'aimerais savoir s'il existe un moyen d'obtenir la transformation d'un nœud OSM en coordonnées GPS cartésiennes fixées sur la voiture ? Pour que je puisse facilement projeter les coordonnées du GPS dans les coordonnées de l'image (de la caméra).

Je ne sais pas s'il s'agit d'un problème de mappage car je ne veux pas faire correspondre une trajectoire (comme par exemple https://mapmatching.3scale.net/) mais je veux juste obtenir le nœud à côté de la voiture puis avoir la transformation entre les deux.

Avez-vous une idée ?


Tout d'abord, je convertirais OSM en fichier de formes, cela le rend plus facile à utiliser et protège contre les "points noirs".

Voici un peu de code pour vous aider à démarrer :

// GDALAllRegister(); // Les versions plus récentes ne séparent pas OGR de GDAL // LIRE http://www.gdal.org/ogr_apitut.html POUR PLUS D'INFO char* BasePath = ""; // REMPLISSEZ LE CHEMIN COMPLET POUR FORMER LE FICHIER OGRRegisterAll(); OGRDataSource *hDS = NULL; Pilote OGRSF *Pilote = NULL; hDS = OGRSFDriverRegistrar::Open(BasePath,FALSE,&Driver); OGRLayer *Layer = hDS->GetLayerByName("Polyline"); OGRSpatialReference* LayerSR = Layer->GetSpatialRef(); OGRSpatialReference WGS84 = OGRSpatialReference(0); WGS84.importFromEPSG(4326); // C'EST LÀ O EPSG : LES NUMÉROS SONT PRATIQUES // créez une géométrie de requête, YourX, YourY doivent être dans la même référence spatiale // que les données osm. Cela limite les caractéristiques renvoyées à celles proches du point X,Y OGRPoint ; pt.setX(VotreX); pt.setY(VotreY); pt.assignSpatialReference(LayerSR); OGRGeometry* QueryGeom = pt.Buffer(SutableDistance); // crée un tampon du point Layer->SetSpatialFilter(QueryGeom); // maintenant, la couche ne renverra que les entités d'intersection… Layer->ResetReading(); // initialiser int pCnt = Layer->GetFeatureCount(); if (pCnt > 0) { OGRFeature* pFeat; while ((pFeat = Layer->GetNextFeature()) != NULL) { OGRGeometry* pGeom = pFeat->GetGeometryRef(); // obtenir la géométrie de la fonctionnalité… pGeom->transformTo(&WGS84); // Maintenant, la géométrie est dans WGS84 // LIRE http://stackoverflow.com/questions/18747370/how-to-extract-vertexes-of- geometries-in-esri-shapefiles-using-ogr-library-with // A PROPOS DE L'OBTENTION DES 'NODES' DANS CETTE LIGNE } }

Après avoir décomposé la ligne en sommets, c'est pythagoricien de trouver le sommet le plus proche. Vous devez savoir dans quelle direction vous vous dirigez pour décider quelle sera la prochaine (avec la direction de la ligne ou contre elle)… pour obtenir des distances raisonnables, vous devrez projeter les deux points sur un système de coordonnées projetées comme UTM, Lamberts ou Albers… les paramètres de ceux-ci dépendent de l'endroit où vous vous trouvez, mais une formule mathématique peut décider quels paramètres sont les plus appropriés.


Étagère à livres

Bibliothèque NCBI. Un service de la National Library of Medicine, National Institutes of Health.

Institute of Medicine (US) Comité sur l'initiative de la Fondation Robert Wood Johnson sur l'avenir des soins infirmiers, à l'Institute of Medicine. L'avenir des soins infirmiers : Conduire le changement, faire progresser la santé. Washington (DC) : National Academies Press (États-Unis) 2011.


Un système de positionnement à ultrasons d'intérieur basé sur TOA pour l'Internet des objets

Avec le développement de l'Internet des objets, les informations de position des objets d'intérieur deviennent plus importantes pour la plupart des scénarios d'application. Cet article présente un système de positionnement intérieur par ultrasons, qui permet d'obtenir un positionnement précis au centimètre près des objets se déplaçant à l'intérieur. Des nœuds de transmission, des nœuds de réception et un terminal de contrôle d'affichage sont nécessaires pour constituer l'ensemble du système. Le système est basé sur une technologie de positionnement à longue base qui utilise un mécanisme d'accès à multiplexage par répartition en code. Il n'y a pas de limite au nombre de nœuds de réception car le système fonctionne en mode de transmission ascendante-descendante-réception. Le positionnement d'un nœud récepteur est trouvé sur la base de la technologie de télémétrie par ultrasons de l'heure d'arrivée. Pour déterminer avec précision le positionnement, il doit y avoir au moins quatre ou cinq nœuds de transmission. Le rayon de travail ne sera pas inférieur à 5 mètres lorsque la hauteur est supérieure à 3 mètres. Le système utilise un signal de bruit pseudo-aléatoire à large bande appelé séquences Gold pour l'identification multi-utilisateur et la mesure de la distance oblique. L'article donne d'abord une brève introduction des méthodes populaires de positionnement par ultrasons en intérieur, puis décrit la théorie de l'algorithme proposé et fournit les résultats de la simulation. Pour examiner l'exactitude de l'approche et son aspect pratique, la mise en œuvre pratique et les résultats expérimentaux sont également fournis dans l'article.

1. Introduction

Avec l'avènement de l'Internet des objets (IoT) [1], la plupart des objets (objets) quotidiens dans le monde auront des capacités de calcul et de communication sans fil avec une identité (ID) et une adresse IP (Internet Protocol) uniques. Dans la plupart des applications de l'IoT, nous avons besoin de connaître la position (exactement ou approximativement) des objets rejoignant le réseau [2, 3]. Obtenir les informations de position des choses est très important dans de nombreuses applications, et il est appelé service basé sur la localisation (LBS). Dans les applications commerciales, LBS décrit un service à valeur ajoutée qui fournit des informations sur la position d'un objet avec le support de la plate-forme de système d'information géographique (SIG). Les informations de position peuvent également être acquises via le réseau radio de l'opérateur de télécommunications mobiles ou une méthode de positionnement externe. LBS sert à deux fins : premièrement, déterminer l'emplacement d'un appareil mobile ou d'un utilisateur, deuxièmement, fournir d'autres services d'information liés à la localisation.

Le signal du système de positionnement global (GPS) est généralement inaccessible dans les environnements intérieurs, ce qui rend nécessaire d'avoir une technologie de positionnement intérieur pour déterminer avec précision la position d'un objet à l'intérieur. La technologie de positionnement intérieur est utilisée comme un auxiliaire ou une alternative au GPS, où le signal des satellites GPS est faible car il atteint la terre mais ne peut pas pénétrer dans un bâtiment.

Le positionnement en intérieur est très utile dans de nombreuses applications, telles que la sécurité publique et les interventions d'urgence, le guide de positionnement, la demande sociale, la demande de promotion du marché et les applications de données volumineuses. Pour la sécurité publique et les interventions d'urgence, les applications telles que les incendies et les secouristes seraient très efficaces si les victimes de la catastrophe pouvaient être localisées avec précision, dans le bâtiment à la granularité d'un étage ou d'un numéro de pièce. Dans la vie de tous les jours, LBS peut aider à identifier l'emplacement de la voiture d'une personne dans un parking souterrain ou l'emplacement du lait dans un supermarché. Le positionnement à l'intérieur peut aider à trouver le restaurant le plus proche dans un grand centre commercial et le moyen de s'y rendre.

Le positionnement intérieur fait référence au processus de détermination de la position d'objets dans un environnement intérieur. Dans de nombreux cas, le positionnement intérieur utilise la communication sans fil, la localisation de la station de base, le système de navigation inertielle et diverses techniques similaires. Les technologies de positionnement intérieur courantes incluent [4–6] Wireless Fidelity (WiFi), Bluetooth, infrarouge, radiofréquence (RF), ultra large bande (UWB), identification par radiofréquence (RFID), ZigBee et ultrasons de force du signal reçu (RSS) . Les auteurs de [4, 5] résument ces méthodes courantes de positionnement intérieur et les évaluent en termes de précision de positionnement, de couverture, de coût et de complexité, comme indiqué dans le tableau 1. Ces technologies sont également importantes pour la recherche sur les réseaux de capteurs sans fil [7-9 ].

La technique proposée dans [10] est basée sur une méthode de positionnement par distance utilisant la couche physique de ZigBee. Les auteurs ont étudié un cas classique qui montre que la précision de la position initiale joue un rôle important dans le positionnement précis en intérieur. Cotera et al. [11] ont appliqué des algorithmes de trilatération qui utilisent l'estimation de la plage de fréquences radio et leur approche aboutit à une précision de ± 10 centimètres, avec un total de ± 4,09 centimètres. Les auteurs de [12] ont étudié plusieurs méthodes de positionnement intérieur de réseau local sans fil (WLAN) basées sur la technologie RSS et ont étudié les critères de sélection appropriés pour la taille de la grille et la réduction des points d'accès (AP). La méthode Weighted Average Tracker (WAT) [13] est également basée sur le RSS où la précision est meilleure que les méthodes traditionnelles mais reste de l'ordre du mètre. Les tailles de bases de données nécessaires à la fois pour les phases d'apprentissage et d'estimation augmentent rapidement à mesure que les zones de couverture du réseau et le nombre de points d'accès augmentent. L'approche de compression spectrale [14] a considérablement réduit la taille des bases de données à la fois pour l'apprentissage du système et l'estimation. Zheng et al. [15] a proposé un système de positionnement 3D intérieur qui utilise des capteurs MEMS (Micro Electro Mechanical System) montés sur pied à faible coût. Dans cette approche, l'écart d'estimation de portée est d'environ 1 % et les erreurs de coordonnées estimées sont inférieures à 1 % de la distance de transmission totale. Zhuang et al. [16] proposent une approche d'intégration à deux filtres pour le positionnement intérieur avec des capteurs MEMS. Les résultats de l'expérience ont montré que la méthode a une précision d'environ plusieurs mètres, malgré les améliorations apportées à la fois à la précision de positionnement et à l'efficacité de calcul.

De plus, pour optimiser la plage de couverture et la précision de positionnement, Domingo-Perez et al. [17] ont proposé une méthode optimale de déploiement de capteurs pour la localisation en intérieur. Les auteurs de [18] ont proposé une méthode de positionnement passif en adoptant des caractéristiques particulières du système MIMO (Multiple Input Multiple Output) où la cible n'a pas besoin de porter un dispositif de positionnement. Le système peut atteindre une précision d'environ 1 mètre. En milieu hospitalier, Haute et al. [19] ont évalué un système avec un nœud d'ancrage dans toutes les deux pièces. En adoptant une approche d'empreintes digitales, la recherche souligne que la précision de positionnement est d'environ 1,21 mètre et la précision de détermination de la pièce est d'environ 98%.

Les technologies de positionnement mentionnées ci-dessus prennent en compte la structure intérieure de l'environnement intérieur. La précision de positionnement entre les différentes méthodes a une grande variance. Pour atteindre une haute précision de positionnement, trois technologies de télémétrie telles que ZigBee et les ultrasons sont les plus appropriées. Normalement, la technologie ZigBee et la technologie RF maintiennent la précision de positionnement jusqu'à l'échelle du mètre, tandis que la technologie à ultrasons peut fournir une précision dans une plage centimétrique.

Le reste de cet article est organisé comme suit : la section 2 donne une brève introduction des méthodes populaires de positionnement par ultrasons en intérieur. La théorie de l'algorithme proposé est décrite dans la section 3 et les résultats de la simulation sont fournis dans la section 4. Pour examiner l'exactitude de l'approche et sa faisabilité, la section 5 décrit la mise en œuvre pratique et les résultats expérimentaux. Enfin, la section 6 fournit la conclusion et quelques remarques pour des travaux futurs.

2. Travaux connexes

Par rapport aux méthodes non acoustiques décrites ci-dessus, les méthodes acoustiques ou ultrasoniques peuvent obtenir une plus grande précision de positionnement à l'intérieur à moindre coût. Le système de positionnement à ultrasons est similaire aux systèmes radar et sonar, comprenant principalement trois parties : un module de transmission, un canal de transmission et un module récepteur. La fréquence de l'onde ultrasonore utilisée dans le système de positionnement intérieur est principalement d'environ 40 kHz [20], qui peut être un signal à bande étroite ou un signal à large bande. Les systèmes de localisation par ultrasons typiques comprennent principalement : la méthode de la chauve-souris active, la méthode du grillon et la méthode des dauphins. Parmi ceux-ci, la méthode du cricket possède un coût inférieur. Cette méthode a été développée par le Massachusetts Institute of Technology des États-Unis.

Lindo et al. [21] présentent deux méthodes de synthèse de formes d'onde multibandes pour les systèmes de positionnement intérieur à ultrasons. L'erreur horizontale de leurs résultats est inférieure à 35 cm. Avec une grille portable de balises et quelques ancres fixes, De Angelis et al. [22] ont proposé un système de positionnement à ultrasons, qui, dans un système de 7 balises, présente une précision de positionnement subcentimétrique dans une plage allant jusqu'à 4 m. L'approche proposée dans [23] utilise un son proche des ultrasons (17 kHz) avec des erreurs inférieures à environ 2 cm dans un environnement bruyant. La plage de positionnement est à moins d'un mètre carré. Pour augmenter la précision de l'estimation de la distance, les auteurs de l'article [24] appliquant la technique de corrélation croisée utilisent le signal de réception et la référence stockés en mémoire. Compte tenu de la possibilité de perte du signal de positionnement ultrasonore, basée sur la mesure des unités inertielles (IMU), la littérature [25] a proposé une méthode combinée de localisation de cibles mobiles, qui utilise un filtre de Kalman étendu (EKF) et une machine à vecteur de support des moindres carrés ( LS-SVM). Dans la recherche de système de positionnement intérieur, la stratégie énergétique [26-28] est également importante. Ceci est principalement dû au fait que les nœuds utilisés dans le système ne peuvent être alimentés que par batterie dans la plupart des cas.

Le système de positionnement intérieur à ultrasons (IPS) peut être classé en utilisant les différents critères suivants : (i) Sur la base de la transmission et de la réception du signal, l'IPS peut être émission-réception-réception ou émission-réception-bas (ii) Basé sur la distance techniques de mesure, les IPS peuvent être classés comme systèmes d'heure d'arrivée (TOA) et système de différence de temps d'arrivée (TDOA) (iii) Sur la base de la synchronisation des nœuds, il existe un système de synchronisation d'émetteur-récepteur et un système d'asynchronisation d'émetteur-récepteur.

En général, le système de positionnement à ultrasons a non seulement une meilleure précision de positionnement que le système de radiofréquence, mais a également un coût inférieur.

Pour le système de transmission ascendante-descendante-réception, les nœuds de plafond transmettent un signal ultrasonore, les nœuds terrestres ont reçu un signal ultrasonore, similaire au fonctionnement du système de positionnement GPS pour le système de transmission ascendante-réception-descendante, les nœuds de plafond reçoivent les ultrasons signal transmis par le nœud au sol, similaire au système de positionnement par satellite Beidou. La méthode TOA doit ajouter l'horodatage spécial dans le signal de transmission et utiliser l'heure d'arrivée du signal pour calculer les coordonnées de l'espace cible. D'autre part, la méthode TDOA n'a pas besoin de l'horodatage, elle peut calculer directement la position spatiale de la cible grâce à la différence de temps des transmissions ultérieures.

3. Théorie du système

Notre système de positionnement à ultrasons proposé adopte la technologie de télémétrie TOA pour trouver la position du nœud de réception. Notre système se compose de trois types de nœuds : nœud de contrôle, nœud émetteur et nœud récepteur, comme le montre la figure 1.

Dans le système de localisation par ultrasons, les nœuds les plus importants sont les nœuds d'ancrage et les nœuds mobiles. Les nœuds d'ancrage sont généralement fixés sur le toit, tandis que les nœuds mobiles se déplacent avec la cible. Lorsque le système fonctionne, les signaux d'émission peuvent être émis soit par le nœud d'ancrage, soit par le nœud mobile, le récepteur correspondant pouvant être soit le nœud mobile, soit le nœud d'ancrage. La première situation est appelée mode de transmission montante-réception descendante et la seconde situation est appelée mode de transmission montante-réception descendante. Les deux modes peuvent réaliser la fonction de positionnement. Le système mentionné ici utilise un modèle de transmission ascendante-descendante-réception. Les nœuds émetteurs sont montés au plafond à des positions prédéfinies et transmettent des signaux ultrasonores. Tandis que le nœud récepteur reçoit les signaux ultrasonores des nœuds émetteurs et calcule lui-même la position. Il envoie ensuite les informations de position au nœud de la console via le module WiFi.

L'algorithme de positionnement utilise la méthode d'intersection sphérique pour déterminer les coordonnées du nœud récepteur mobile. Supposons que le système a

nœuds émetteurs où les coordonnées de chaque nœud émetteur sont

. Pour calculer les coordonnées du nœud récepteur, , nous formons l'ensemble d'équations sphériques suivant (équation (1)) avec la position et la distance oblique entre chaque nœud émetteur et récepteur :

où sont les distances calculées avec la technique TOA.

Nous pouvons alors estimer la position du nœud récepteur en utilisant la méthode des moindres carrés, comme indiqué en (2) :

où sont les valeurs estimées de ( ) et les paramètres intermédiaires

De plus, la valeur estimée doit être donnée par l'équation suivante (4), et le choix des valeurs positives et négatives doit être conforme à la situation réelle.

La précision du positionnement est étroitement liée à la géométrie des nœuds émetteurs et du nœud récepteur. L'erreur de positionnement due à la géométrie est appelée Position Dilution of Precision (PDOP). PDOP est un facteur de précision de position en trois dimensions. Pour une meilleure précision de positionnement, la valeur PDOP doit être petite.

où VDOP signifie Dilution Verticale de Précision et HDOP signifie Dilution Horizontale de Précision. HDOP est la racine carrée du carré de latitude DOP (LaDOP) plus le carré de longitude DOP (LoDOP) :

Dans un système de transmission ascendante-descendante, le nombre de nœuds récepteurs n'est pas limité et l'opération de positionnement est effectuée par les nœuds récepteurs, de sorte que la demande de ressources est plus importante pour les nœuds récepteurs que pour les nœuds émetteurs. Le système est adapté aux services d'intégration de localisation et de navigation.

La vitesse des ondes ultrasonores dépend de la température ambiante. Il est nécessaire de corriger la vitesse du son par rapport à la température afin d'assurer une haute précision dans la mesure de la distance oblique (niveau centimétrique à sous-centimétrique).

où est la température ambiante (°C) la vitesse du son est d'environ 344 m/s à 20°C.

Le nœud de la console peut être tout équipement (téléphones mobiles ou ordinateurs) pouvant accéder au réseau WiFi. Après avoir installé le logiciel de positionnement intérieur, l'utilisateur peut visualiser la position des coordonnées spatiales de l'objet en mouvement en temps réel et même réaliser la planification et la gestion de la trajectoire cible.

4. Simulation

L'accès multiple à un support ne peut réussir que si les signaux transmis par différents utilisateurs sont orthogonaux les uns aux autres dans l'espace du signal : L'accès multiple par répartition en fréquence (FDMA) est orthogonal dans le domaine fréquentiel. L'accès multiple par répartition dans le temps L'AMRT est orthogonale dans le domaine temporel et le CDMA à accès multiple par répartition en code est orthogonal dans les formes d'onde caractéristiques des utilisateurs. Avec des codes orthogonaux, le CDMA peut réaliser le positionnement multi-utilisateur en même temps tout en utilisant la même bande de fréquence, l'efficacité de positionnement est la plus élevée. La séquence Gold est le code le plus couramment utilisé dans le système CDMA.

Dans notre simulation et notre implémentation, le système utilise un signal de bruit pseudo-aléatoire à large bande (PRN), une séquence Gold pour l'identification multi-utilisateurs (CDMA) et une mesure de distance oblique. Cela permet de gérer plus d'utilisateurs et d'améliorer la précision du positionnement.

Notre scénario de simulation d'application typique est illustré à la Figure 2 : au moins quatre nœuds émetteurs sont installés au plafond, répartis uniformément sur la circonférence d'un cercle de rayon de 0,5 mètre, et les coordonnées sont (0, 0,5, 3), (0, -0,5, 3) et (0,5, 0, 3), (-0,5, 0, 3), respectivement. Les coordonnées ont un écart type (STD) de 1 cm et le nœud récepteur est à la coordonnée (0,1, 0,2, 0).

Les résultats de simulation de 1000 fois des expériences de Monte-Carlo sont présentés dans les figures 3 et 4. L'astérisque rouge "

” dans les tracés marque la position réelle du nœud récepteur, les points verts représentent les résultats de 1000 simulations et le signe plus bleu représente la moyenne des 1000 fois la position estimée. Les quatre résultats de simulation correspondent à l'estimation de la portée avec des écarts types de 1 cm, 2 cm, 5 cm et 10 cm.


Piloter l'analyse prédictive avec la puissance de Neo4j

Agero est le leader de l'industrie de l'assistance routière depuis 40 ans. Une grande partie de leur activité dépend des emplacements - l'emplacement des clients, les emplacements prédictifs des fournisseurs de services, les emplacements de suivi et les routes - la vitesse sur une route donnée et d'innombrables autres points de données. Dès qu'Agero a réalisé la nature de leurs données connectées, ils se sont tournés vers la puissance de Neo4j.

L'entreprise utilise la base de données de graphes pour créer un plugin spatial open source utilisant des données OpenStreetMap (OSM) issues du crowdsourcing pour détecter les conditions changeantes de la route et de la conduite, analyser les conditions dynamiques pour développer des tendances, prédire les conséquences potentielles de ces tendances et améliorer la sécurité des conducteurs et la conduite. vivre.

La structure de données OSM est basée sur des données hiérarchiques constituées de nœuds (emplacements de latitude et de longitude), de chemins (un ensemble de nœuds) et de relations. S'appuyant sur des identifiants de nœud uniques et les relations entre ces nœuds, ils sont en mesure de fournir aux conducteurs des conditions de conduite en temps réel.

Alors pourquoi l'entreprise a-t-elle choisi Neo4j ? En raison du protocole Bolt, des procédures stockées et des capacités de plug-in, il fournit – qui a permis à Agero de s'interfacer facilement avec la base de données graphique en utilisant leurs processus et langages de programmation existants.

Présentation complète : Conduire l'analyse prédictive des routes avec la puissance de Neo4j

Blake Nelson: Ce dont nous allons parler aujourd'hui, c'est comment Agero utilise Neo4j pour créer des analyses prédictives des routes pour les conducteurs et leurs sociétés de services associées :

Je suis le directeur, fondateur et propriétaire de Waveonics, une petite entreprise de développement de logiciels. J'ai travaillé avec Agero sur un projet que nous aborderons sous peu, et je vais parler un peu de mon expérience en tant que petite entreprise en partenariat avec une puissance industrielle.

Agero est l'un des principaux fournisseurs de services de sécurité, d'information et de sécurité des véhicules et des conducteurs tandis que Waveonics est une société de développement de logiciels et de conseil. Ensemble, nous utilisons Neo4j pour créer un plugin spatial open source utilisant des données OpenStreetMap (OSM) issues du crowdsourcing pour détecter les conditions changeantes de la route et de la conduite, analyser les conditions dynamiques pour développer des tendances, prédire les conséquences potentielles de ces tendances et améliorer la sécurité des conducteurs et l'expérience de conduite. .

Les conditions de conduite sont dynamiques car elles sont affectées par des facteurs tels que la météo, la circulation et la construction. Nous avons désormais la possibilité de collecter et d'analyser les données de nos clients pour commencer à utiliser de meilleures analyses prédictives et un apprentissage automatique. Cela nous permet de faire des prédictions et des ajustements pour augmenter la sécurité de l'expérience de conduite.

J'ai été amené à aider à analyser différentes technologies de base de données de graphes. Nous allons passer en revue notre cas d'utilisation, notre expérience avec Neo4j, certains des problèmes que nous avons rencontrés et la flexibilité de l'environnement.

Agero : leader de l'industrie de l'assistance routière

Deve Palakkattukudy: Agero est dans le domaine de l'assistance routière depuis 40 ans :

Nous aidons les abonnés si leur voiture tombe en panne, si leur voiture a besoin d'une réparation ou si un conducteur a un accident. Nous connectons les constructeurs automobiles, les compagnies d'assurance, les concessionnaires, les institutions financières et les entreprises de remorquage afin que nous puissions fournir des services d'assistance routière et de gestion des accidents de bout en bout.

Nous sommes le leader de l'industrie dans le domaine de l'assistance routière depuis 40 ans et nous effectuons plus de 9,5 millions d'envois par an, tant pour l'assistance routière que pour la gestion des accidents de voyage. Nous desservons plus de 75 % des voitures particulières neuves, soit une voiture sur 20 en circulation.

Nous prenons en charge plus de 350 API, dont la plupart sont accessibles au public, et avons mis au point des solutions télématiques de pointe qui sont actuellement installées dans des voitures haut de gamme. Aujourd'hui, notre équipe d'ingénieurs travaille sur une plate-forme télématique de nouvelle génération avec des données que nous collectons à partir de capteurs de téléphone portable, et nous sommes actuellement en mesure de prédire les accidents.

Nous nous appuyons sur les données que nous avons collectées au cours des 40 dernières années, dont une grande partie est basée sur la localisation - la localisation de nos clients, les emplacements prédictifs de nos fournisseurs de services, les emplacements de suivi et les routes - et la vitesse sur une route donnée. Toutes ces données sont connectées à notre client. Dès que nous avons réalisé la nature connectée de nos données, nous nous sommes tournés vers la puissance de Neo4j dans notre moteur Agero.

Utiliser des données Open Source pour alimenter l'analyse prédictive

Nelson: Nous travaillons avec 85 millions de chauffeurs et distribuons près de 10 millions d'appels par an. Nous pouvons combiner ces données avec les données que nous collectons à partir des capteurs des téléphones portables des personnes pour détecter un accident en temps quasi réel. Nous sommes également en mesure de comprendre les habitudes de déplacement à l'aide de ce même capteur de téléphone portable.

En utilisant ces analyses, nous pouvons commencer à faire des prédictions et déterminer comment les transmettre à nos principaux clients : compagnies d'assurance, prestataires de services et sociétés financières. Et Agero est le ciment qui maintient le conducteur avec toutes les entreprises qui lui vendent.

Nous nous concentrons principalement sur les routes, les déplacements et la navigation. Alors, comment obtenons-nous les données dont nous avons besoin pour alimenter la base de données ? Nous utilisons des données de crowdsourcing, de la même manière que Waze - une petite entreprise achetée par Google - utilise les données.

Ces données open source et participatives sont mises en place par un grand nombre d'utilisateurs du monde entier, qu'il s'agisse d'ingénieurs, de professionnels du SIG, de cartographes et d'humanitaires. Si vous avez besoin d'informations sur la façon de réagir à un typhon ou à un ouragan, où pouvez-vous les trouver et comment pouvez-vous déployer efficacement une assistance ?

Nos données proviennent de bases de données SIG, de bases de données open source telles que les bases de données de recensement du gouvernement, de données open source provenant de sources locales, qui incluent la propriété, les limites géographiques, les routes, etc. et les cartes low-tech existantes. Toutes ces sources sont réunies pour créer OSM, c'est donc un riche ensemble de données que nous avons à notre disposition. Et c'est le cas d'utilisation que nous prévoyons de discuter.

La hiérarchie : structure de données OneStreetMap

OSM est construit sur une hiérarchie d'informations. Nous commençons par les points, qui sont nos nœuds, qui sont au niveau le plus bas. Celles-ci se composent de la latitude et de la longitude, chacune étant constituée d'un ID unique au monde ainsi que de balises qui sont des propriétés de valeur-clé.

Étant donné que ces balises proviennent de sources externes, elles peuvent être littéralement n'importe quoi, ce qui peut également être un inconvénient. Par exemple, une autoroute s'écrit-elle autoroute ou H-W-Y ? Ils signifient la même chose pour nous sémantiquement, mais il est plus difficile de les capturer efficacement dans le modèle de données.

En plus des nœuds, nous avons une séquence ordonnée de nœuds sous la forme d'un “way,” ou route. Ceux-ci se composent d'ID “way” et d'une séquence d'ID “node”, qui peuvent avoir des balises qui sont des propriétés clé-valeur. Il s'agit d'une séquence coordonnée de points GPS pouvant aller d'une courte région de routes ou de voies ferrées à des voies fluviales ou des pistes cyclables. Vous pouvez donc commencer à décrire certaines zones et régions, la limitation de vitesse dans ces zones, etc.

La sémantique tout en haut est la « relation », qui pourrait faire référence à un ensemble de points de nœud de latitude/longitude, une séquence d'organisation des « voies » dont nous venons de parler, ou elle pourrait faire référence à une sous-relation. Cette logique commence à construire des polygones - ou des zones - tels que les limites d'une ville, d'un lac ou d'un parc de bureaux. Cela fournit des informations sémantiques riches, et nous les construisons niveau par niveau dans OpenStreetMap.

Mettre les données à l'épreuve

Voici à quoi cela ressemble en XML :

Nous avons l'ID de nœud unique, une position latitude/longitude, puis éventuellement une balise, une paire clé-valeur ou une organisation. Ici, nous avons un GPS qui représente la position d'un panneau de signalisation, et en plus de cela, nous avons des "voies" avec une référence - qu'ils appellent ND pour plus de clarté (références de nœuds) - qui renvoient à un précédent ID de nœud dans le fichier. Ensuite, nous avons les relations en bas, où nous nous référons à tout chemin ou nœud de relation précédent :

1 Cabot Road #4 est l'emplacement des bureaux d'Agero, juste à l'extérieur de Boston. La zone surlignée en orange en bas est Revere Beach Parkway et ne représente qu'une section de la route. Tout en bas, nous avons un certain nombre de nœuds qui existent dans le “way,” et tous ces identifiants uniques peuvent faire partie de plusieurs façons.

Nos données nous indiquent également que nous avons une intersection entre Revere Beach Parkway et Brainard Avenue. Nos paires clé-valeur, qui se trouvent être une référence, proviennent de la base de données MassGIS et montrent que la largeur de la route est de 30,2 mètres de large.

Cela a une bonne quantité d'échelle et de complexité. Les chemins peuvent être des routes, des sentiers, des pistes cyclables, des voies navigables, des rivières, des voies ferrées, tout ce qui intéresse quelqu'un qui cartographie.

Les données sont également incroyablement dynamiques. Par exemple, un instantané d'il y a quelques semaines montre que pour un jour donné, il y a eu 1,2 million d'ajouts, 302 000 modifications et 120 000 suppressions. Rien qu'en Amérique du Nord, nous avons près d'un milliard de nœuds de points de latitude/longitude, plus de 60 millions de « (entre les voies et les nœuds). Le nombre d'utilisateurs et de contributeurs est également en constante augmentation.

Ils contiennent chacun une combinaison d'informations, telles que l'état de la surface d'une route et sa limite de vitesse, afin que nous puissions comprendre à quoi nos conducteurs sont confrontés et comment les servir au mieux.

Même dans les zones où nous n'avons pas d'informations dans la base de données, nous pouvons analyser les données dont nous disposons sur l'état de la surface, l'heure de la journée et la météo pour faire des prédictions intelligentes sur la vitesse effective. Si nous voyons des valeurs aberrantes, nous travaillons peut-être avec un conducteur dangereux.

Si vous regardez notre chaussée orange, nous avons environ une demi-douzaine de voies OSM différentes qui sont connectées car un mètre de route peut varier du mètre de route suivant.

Choisir Neo4j

Alors pourquoi avons-nous décidé de faire la transition vers une base de données de graphes ? Parce que les routes sont des graphiques :

On commence quelque part, on va quelque part, on suit la chaussée et on la transforme en tronçons. Comme nous comprenons les informations de localisation provenant de nos utilisateurs lorsqu'ils conduisent leurs voitures, nous pouvons récupérer les informations du capteur et du GPS.

Nous devons cartographier cela à l'endroit où se trouvent les routes réelles afin que nous puissions comprendre le comportement du conducteur et les propriétés de la route. Comment conduiront-ils à cet endroit ? Est-ce sûr? Devrions-nous les réacheminer si nous avons affaire à la flotte, aux voyages ou aux prestataires de services ?

Chacun de ces segments - qui sont des bords entre les nœuds - a des propriétés que nous voulons représenter. Neo4j nous donne la possibilité de mettre des propriétés sur ces arêtes et les relations entre leurs nœuds. C'est beaucoup plus facile à faire dans le modèle de base de données graphique que dans notre modèle de base de données relationnelle.

Protocole de boulon

En voyant les capacités fournies dans Neo4j, nous avons vu à quel point la base de données de graphes pouvait nous être utile. Le premier se présente sous la forme du protocole Bolt de Neo4j, qui comprend actuellement des pilotes natifs pour Python, Java, Javascript et .NET.

Nos data scientists travaillent avec des programmes d'apprentissage automatique qui incluent des algorithmes standard, dont une grande partie est réalisée en Python. Beaucoup de nos développeurs travaillent également en Java et nous avons plusieurs plates-formes exécutées en JavaScript pour nos pages Web. Mais nous prenons en charge tout cela via le protocole natif Neo4j Bolt.

La possibilité d'apporter un outil comme Neo4j qui s'adapte facilement à notre façon de développer est un énorme plus pour nous. Nous pouvons également l'utiliser pour modéliser richement nos données, car cela correspond à notre cas d'utilisation et nous permet d'accéder à nos données d'une manière que nous opérons déjà.

Procédures stockées

Les procédures stockées sont une autre grande victoire pour nous. Une grande partie de notre travail est de nature enquête, car nous cherchons toujours à en apprendre davantage à partir des données qui nous parviennent.

Nos data scientists créent des algorithmes, et si nous voulons augmenter les performances, nous pouvons déplacer ces algorithmes dans des procédures stockées. Nous pouvons rapprocher le traitement des données et tirer le courant du serveur plutôt que du client. Nous développons donc notre client et nous migrons vers le serveur au fur et à mesure de nos équipes de performance.

Capacités du plugin : Rtree et GeoHash

Neo4j a également une capacité de technologie de plugin. Je travaille avec le plugin Neo4j Spatial, qui prend en charge nativement l'importation de données OpenStreetMap et construit un index basé sur Rtree.

RTree est un moyen d'équilibrer les géolocalisations. Compte tenu des latitudes et de la longitude, vous déterminez le cadre de délimitation de l'entité d'intérêt et divisez le monde en rectangles, en équilibrant l'allocation des entrées dans ces rectangles :

Vous avez minimisé les cadres de délimitation, puis vous construisez un arbre avec des enfants. Au fur et à mesure que vous descendez l'arbre pour l'une de ces boîtes englobantes, si vous trouvez votre point d'intérêt, vous commencez à rechercher les enfants pour voir si vous pouvez avoir une boîte englobante plus petite et plus raffinée.

Malheureusement, les Rtrees ne fonctionnent pas bien à grande échelle, en particulier dans les pires scénarios. Si les données que vous importez changent continuellement, vous pouvez vous retrouver avec des chevauchements dans les cadres de délimitation. Parfois, vous devez diviser et rééquilibrer l'arbre, ce qui demande beaucoup de retraitement.

Une autre façon d'indexer est avec GeoHash, qui vous permet de prendre une latitude et une longitude à deux dimensions et de les diviser en une chaîne de bits à une dimension. Nous prenons le monde et nous le divisons en "cellules" - d'abord via la longitude pour déterminer de quel côté du monde vous vous trouvez, la gauche ou la droite. Si vous êtes à droite, vous obtenez un 1, et si vous êtes à gauche, vous obtenez un 0 :

Ensuite, vous divisez par latitude. Si vous êtes au nord, vous obtenez un 1 et si vous êtes au sud, vous obtenez un 0 :

Nous pouvons continuer à diviser jusqu'à atteindre le niveau de granularité avec lequel nous voulons travailler.

Au fur et à mesure que nous séparons les choses, les choses qui sont proches les unes des autres seront dans la même boîte englobante et auront donc la même chaîne de bits précédente, vous pouvez donc vous retrouver avec quelque chose comme ceci :

Vous prenez la latitude et la longitude, continuez à diviser le monde en deux et vous vous retrouvez avec une chaîne de bits. Si nous prenons notre emplacement ici à (37,7, -122,41), cela nous place directement à GraphConnect.

Lorsque nous le divisons plusieurs fois, nous nous retrouvons avec une longue chaîne de bits ingérable. Mais si vous prenez cela et que vous intégrez des caractères avec cinq bits à la fois, le codez en base 32, vous obtenez quelque chose de plus lisible.

Nous passons donc de la latitude et de la longitude à notre chaîne de bits encodée en base 32, et nous arrivons à 9q8yy pour notre région avec une certaine quantité de variante. Selon la longueur de la chaîne, vous obtenez une zone de délimitation plus petite. Avec une chaîne plus courte, vous obtenez un cadre de délimitation plus grand. Tout ce que nous faisons, c'est diviser et déplacer les bits, donc c'est un encodage agréable et rapide qui nous fait passer du bidimensionnel à l'unidimensionnel.

Et on peut l'inverser presque aussi vite :

On peut passer d'une dimension à une dimension en suivant les mêmes étapes en sens inverse. Prenez notre base 32, placez-la dans notre chaîne de bits, puis - sachant que chaque autre bit a une signification pour la latitude ou la longitude - nous pouvons calculer en retirant les bits et en reconstruisant notre latitude et notre longitude.

Mais il est important de se rappeler que ces coordonnées ne sont pas le point réel - elles représentent une boîte englobante, il y a donc une certaine quantité d'erreur là-dedans. Plus la chaîne est longue, moins l'erreur est importante, c'est donc un compromis.

Nous pouvons également utiliser ces données pour déterminer la proximité :

Presque tout ce qui se trouve autour de nous se trouvera dans ce cadre de délimitation, ou dans l'un des cadres de délimitation environnants, ce qui signifie une chaîne différente. Ce sera dans l'une de ces neuf zones, et nous réduisons les cadres de délimitation en allongeant un peu la chaîne ou vice versa. Il s'agit d'un mécanisme d'encodage incroyablement flexible.

Nous pouvons rechercher cette chaîne très rapidement en utilisant la technologie graphique. Si nous construisons un arbre GeoHash en utilisant notre chaîne, nous pouvons mettre des identifications sur chacune des relations entre le nœud de notre arbre. Nous suivons la chaîne le long du graphique et nous nous retrouvons à la feuille qui représente San Francisco :

Pour trouver des emplacements proches de nous, soit nous allons descendre au même nœud, soit nous allons avoir un GeoHash de l'un des voisins et suivre rapidement ce chemin, jusqu'à ce que nous arrivions vers la fin et puis on bifurque.

Voici à quoi cela ressemble lorsque nous le mettons dans Neo4j :

Pour ces cinq chaînes GeoHash, j'ai les mêmes prédécesseurs pour la chaîne de caractères, puis finalement, sur le dernier code, je suis soit un Y, soit un W, et je me diversifie. Nous avons un caractère unique pour le dernier de la chaîne, puis nous obtenons nos nœuds feuilles. Ensuite, je prends chacun de mes nœuds feuilles pour former une relation avec la voie d'intérêt OSM.

Au fur et à mesure que je récupère les informations d'OpenStreetMap et que j'examine chacune des manières, je peux déterminer avec quelles régions GeoHash cette manière va se croiser, puis associer de cette manière à la chaîne GeoHash dans mon arbre.

Ainsi, lorsque je cherche un pilote basé sur une lecture de position (latitude, longitude), je peux utiliser GeoHash pour déterminer où se trouve le pilote, encoder ce GeoHash, parcourir mon arbre et accéder à un nœud feuille qui va me pointer à l'ensemble des voies OpenStreetMap les plus proches de moi. Je peux le faire aussi pour l'équilibre des voisins.

Cela me donne un moyen rapide de voir où le conducteur est basé sur les lectures GPS. Dans certaines erreurs de lecture du GPS à travers les bâtiments ou les puces de son appareil mobile, je peux comprendre ce qu'il y a dans cette proximité en fonction de la taille de mes régions GeoHash.Je suis capable de lier mon indexation de la région avec les données réelles dans le même graphique sans aucune réelle confusion de ce que je traite.

Pourquoi la base de données de graphes Neo4j ?

Parce que j'ai Neo4j qui est une capacité open source, et parce que j'ai la possibilité d'entrer et de créer mes propres procédures stockées ou de modifier les procédures stockées existantes qui sont là pour le plugin Neo4j Spatial, je peux améliorer le Rtree existant - qui ne fonctionne pas comme j'en ai besoin - et l'améliore avec une manière différente d'indexer et de rechercher mes informations.

Notre environnement est suffisamment riche pour représenter la complexité et les relations d'OpenStreetMap entre mes entreprises clientes, les fournisseurs de services et les 85 millions de personnes sur la route qui sont liées à ma technologie - et les assembler via des relations de données connues.

Je peux exécuter des analyses sur les données de ces relations et les utiliser car les données sont adaptées à mon cas d'utilisation. Et même si je n'aimais pas les performances du Rtree en fonction de mon cas d'utilisation particulier, je peux facilement le modifier.

Nous pouvons utiliser notre graphique orienté avec le plugin Neo4j Spatial qui prend en charge nativement les données OpenStreetMap et le personnaliser pour les ensembles de données que nous avons téléchargés. Je peux modifier l'indexation pour l'adapter à mon cas d'utilisation, et je peux compter sur les performances de Bolt pour donner à mes data scientists la flexibilité de continuer à travailler avec les outils dont ils disposent.

Les développeurs Agero ayant une formation Java peuvent facilement se déplacer dans cet environnement. Je peux optimiser mes performances en utilisant des algorithmes de travail skunk et, au fur et à mesure qu'ils formalisent et valident, je peux les déplacer dans des procédures stockées et les lier à la base de données.

J'ai du code open source et le support communautaire de Google Groups et OpenStack auquel je peux m'adresser pour obtenir de l'aide, et je peux créer ma propre fonctionnalité avec la capacité du plugin. Je peux régler cela lorsque nous insérons nos propres algorithmes et nos informations exclusives qui nous permettent de connecter notre entreprise et nos clients avec lesquels nous travaillons. Toute cette flexibilité de l'environnement nous est extrêmement utile.

Curieux d'utiliser la technologie graphique dans votre secteur ?
Téléchargez ce livre blanc, Les 5 principaux cas d'utilisation des bases de données graphiques, et découvrez comment exploiter la puissance des données connectées pour votre entreprise.


La modélisation

Pour récapituler brièvement, nous envisageons un système logiciel mettant en œuvre un pipeline de trois étapes. Comme première étape, ARP stage calcule un certain nombre de chemins alternatifs avec un chevauchement limité. Dans la deuxième étape, PTDR Le module estime le temps de trajet prévu pour chaque alternative, en fonction des conditions de circulation actuelles. Pour terminer, Réorganisation stage élit le meilleur chemin à suivre en fonction de l'heure d'arrivée et d'autres politiques arbitraires définies par le fournisseur de services de navigation. Dans cette section, nous décrirons comment modéliser les trois composants considérés pour dimensionner correctement le système et atteindre la QoS souhaitée tout en réduisant au maximum les coûts de fonctionnement.

De nombreuses techniques de modélisation peuvent être utilisées pour modéliser le système considéré. Par exemple, G-Net [6] permet d'envisager des ressources partagées et des services batch. Dans ce travail, nous avons préféré utiliser une technique de modélisation multi-formalisme [10] pour exploiter les caractéristiques de deux approches de modélisation différentes, chacune mieux adaptée pour décrire les différentes caractéristiques des différents composants du système. En particulier, le premier module du service de navigation (l'étape de planification de routage alternatif) est décrit avec l'environnement de modélisation multi-formalisme pris en charge par JMT [2], qui combine des réseaux de files d'attente multi-classes (QN) [11] et des stochastiques généralisés colorés. Réseaux de Petri (GSPN) [14]. La combinaison de QN et de GSPN permet de décrire à la fois l'allocation des ressources et le comportement de mise en file d'attente de l'exécution des processus. Les deux autres étapes sont plutôt modélisées à l'aide du fork/join conventionnel et d'autres composants QN conventionnels, car ils ne sont pas caractérisés par une structure de lot et de délai d'attente complexe.

Pour modéliser les différents types de demandes, premier acheminement et réacheminement, nous utilisons deux types d'entités différents, qui sont mappés en deux classes ouvertes pour ce qui concerne les primitives de réseau de file d'attente, et en jetons colorés lorsqu'il s'agit de réseaux de Petri. Pour simplifier la notation, nous appellerons dans la suite ces différents types d'entités Des classes indépendamment du fait qu'ils se réfèrent à des primitives QN ou GSPN.

Module ARP

La première partie du pipeline représente l'étape la plus complexe du pipeline de traitement, car elle repose sur plusieurs degrés d'adaptabilité dans la mise en œuvre du service. La figure 3 illustre le modèle de multi-formalisme proposé pour le stade ARP. Il est principalement composé de deux pipelines de traitement séparés et parallèles qui partagent les mêmes ressources de calcul. Celui utilisé pour servir les requêtes dans le cas de fonctionnement normal est indiqué dans la partie supérieure du modèle, tandis que le second qui n'est utilisé qu'en cas de surcharge du système (pics de requêtes) pour réduire le temps d'attente avant qu'ils ne soient servis par le Le module ARP est représenté sur la partie inférieure de la figure.

Le modèle multi-formalisme de l'étape de planification d'itinéraire alternatif avec voie rapide

Endroit Ressources modélise le nombre de parallèles les serveurs disponible pour le stade ARP. Le marquage initial de cet endroit détermine le nombre de nœuds disponibles dans le système. Une classe spéciale nommée Noyaux est affecté aux jetons à cet endroit : ce type d'entités est nécessaire pour garder une trace du nombre d'unités de traitement occupées, qui correspond aux cœurs de l'infrastructure HPC. Les demandes de routage arrivent au système à partir du La source nœud, représenté par la case S sur la figure 3. Les requêtes entrantes, représentées ici par des jetons de réseau Petri, sont mises en file d'attente sur place Entrant et sont servis chaque fois qu'au moins un jeton de classe Noyaux est disponible en place Ressources. L'acquisition des ressources est modélisée par transition immédiate Portion, qui est activé par un jeton de classe (first!-!routing) ou (re!-!routing) et un jeton de Noyaux classer. À la suite de la mise à feu de la transition Portion, un nouveau client de même classe que la classe du token acquis sur place Entrant est généré dans le (Fork_) station de file d'attente. Ce nœud, représenté par un « K » entouré d'un cercle, correspond à un Fourchette nœud, qui divise le travail entrant en deux tâches, envoyées, respectivement, aux deux stations de mise en file d'attente des serveurs infinis Ordinaire et (Time-out) , chacun représenté par un seul petit cercle.

Ordinaire les serveurs traitent chaque tâche en fonction de leur distribution effective de temps de service, tandis que les serveurs (Time-out) suivent une distribution déterministe qui représente la date limite avant laquelle une tâche doit être terminée. Les deux serveurs acheminent les tâches vers le (Join_) station, qui est représentée avec un motif en forme de « K » en miroir entouré d'un cercle, qui met en œuvre un Rejoindre Composant QN caractérisé par un Quorum politique : le travail est considéré comme terminé lorsqu'une fraction des tâches dans lesquelles il a été divisé est terminée. Dans ce cas, il suffit qu'une seule des deux tâches soit terminée pour considérer le travail terminé, ce qui correspond soit à un time-out, soit à un achèvement régulier. La deuxième tâche terminée sera simplement rejetée lorsque vous atteindrez le nœud de jointure. La sémantique serveur infinie des deux nœuds de file d'attente Ordinaire et (Time-out) peuvent être utilisés, car le nombre de serveurs exécutant les tâches est contrôlé par lieu Ressources. Emplois au départ de Rejoindre la station est envoyée Libérer lieu, permettant Libérer transition qui déplace la demande de routage vers l'étape suivante du pipeline et restaure un jeton de Noyaux classe dans Ressources endroit. Dans le modèle, cela est représenté par une flèche qui n'a pas de nœuds de destination : cela signifie que les travaux sortant de ce point continueront d'être desservis par les autres étapes du système.

En effet, alors que des politiques de mise à l'échelle sont en place pour émettre des demandes d'acquisition de ressources du fournisseur HPC en cas de taux d'arrivées excessif, dans le délai entre la demande et l'allocation réelle des ressources, les demandes entrantes pourraient saturer toutes les stations-service disponibles en augmentant le temps de réponse du système au-delà d'un seuil acceptable. Pour aborder ce problème, nous introduisons un traitement de voie rapide en parallèle au pipeline principal pour résoudre ces problèmes. La voie rapide calcule un seul chemin le plus court et le renvoie à l'utilisateur sans autre traitement. Ce chemin particulier est choisi chaque fois que le nombre de clients en attente dans la file d'attente ARP dépasse un seuil donné, sinon, le pipeline principal est préféré. Ce comportement à forte charge est modélisé par le Surcharge transition immédiate, qui est activée chaque fois que le marquage de la Entrant l'endroit atteint le seuil m quelle que soit leur classe d'origine. Au seuil m est un paramètre qui doit être affiné en fonction du taux d'arrivée et des heures de service. Pour éviter des fluctuations excessives dans la sélection des routes en effectuant en permanence des basculements entre les deux alternatives, le système attend d'avoir suffisamment de ressources disponibles pour desservir un lot de m emplois chaque fois que le seuil est atteint. Ceci est modélisé par l'arc de poids m (jetons de Noyaux classe) qui relie le lieu Ressources À la transition Surcharge. De plus, pour empêcher les travaux de suivre le parcours de faible charge lorsque le seuil est atteint, un arc inhibiteur de poids m jobs (des classes de service (first!-!route) ou (re!-!route) ) connecte le lieu Entrant À la transition Portion. Ensuite, les travaux sont transmis au Vite endroit pour être servi par le serveur infini Vite transition chronométrée. Lorsque le traitement du travail est terminé, le travail quitte le système, répondant à un utilisateur en attente et à un jeton avec le Noyaux la classe est rétablie en place Ressources.

Pour montrer quantitativement l'effet de la voie rapide, la figure 4 montre le temps de réponse du module ARP lors de l'augmentation du nombre de requêtes au-dessus de la valeur utilisée pour dimensionner l'infrastructure. En particulier, l'infrastructure a été adaptée pour un taux de requêtes (lambda = 100

[req/s]) . Comme prévu, en augmentant le nombre de requêtes par seconde, nous constatons un pourcentage croissant de requêtes traitées par le voie rapide. Le comportement du temps de réponse est différent. Il reste inférieur à 1 seconde jusqu'à (lambda = 1300

[req/s]) , et puis, il augmente considérablement. C'est à ce moment-là que le service de voie rapide n'est plus en mesure de faire face à la lourde charge et que le système sature inévitablement. A noter cependant que ce phénomène ne se produit que lorsque la charge entrante est plus de 13 fois supérieure au débit d'arrivée pour lequel elle a été dimensionnée. Notez que dans la région intermédiaire à forte charge, c'est-à-dire avec (100<lambda <1300) , le temps de réponse moyen diminue : cela se produit car une fraction plus importante des demandes est traitée avec la voie rapide. A noter que les usagers desservis par la voie rapide reçoivent des réponses de moindre qualité : avec cette conception, au fur et à mesure que la charge augmente, le système privilégie la vitesse à la qualité, offrant une meilleure performance au détriment de l'efficacité des itinéraires proposés.

Scénario de surcharge d'un système conçu pour prendre en charge un (lambda = 100) . En vert, nous traçons le temps de réponse du système en trait plein. En orange, nous traçons le taux de demandes acheminées vers la voie rapide pour faire face à la charge de travail excessive en pointillé

PTDR et étapes de réorganisation

Les deux autres étapes sont plus simples par rapport à l'étape ARP. En effet, les itinéraires alternatifs découverts à l'étape ARP sont transmis au module PTDR pour calculer une estimation du temps de parcours sur chacun d'eux. Étant donné que ce processus peut être effectué en parallèle, il est modélisé avec un simple modèle de file d'attente fork-and-join. En particulier, chaque solution ARP produit k routes alternatives, et il est ensuite généré dans k des tâches parallèles chacune exécutant l'algorithme PTDR sur une partie différente de la solution provenant de l'étape précédente. La partie gauche de la figure 5 montre le modèle Fork-Join correspondant. En particulier, les jobs arrivant à ce stade (représentés par une flèche qui ne part d'aucun nœud) sont bifurqués en k tâches pour chaque travail par le (Fork_) gare. Les tâches générées sont toutes envoyées dans une file d'attente M/M/c, servant les tâches selon un processus de Poisson de taux (1 / S_) . (Rejoindre_) la station applique alors un Jointure standard stratégie d'attendre tous les k-tasks à terminer, puis transfère les travaux à l'étape de réorganisation (représentée par une flèche qui n'a pas de nœud de destination).

PTDR et étapes de réorganisation

L'étape de réorganisation, illustrée dans la partie droite de la figure 5, est l'étape la plus rapide et la plus facile à modéliser. À cette étape, des règles de tri arbitraires sont appliquées selon les politiques du fournisseur de services. Par exemple, les chemins peuvent être pénalisés s'ils traversent le centre-ville ou à proximité d'un événement de la ville. Cette étape est modélisée comme un processus de Poisson de taux (1 / S_) . Par conséquent, nous utilisons une simple station M/M/c pour traiter les tâches provenant du module PTDR et renvoyant une réponse finale aux clients du service. La fin du processus est modélisée par le nœud puits, représenté par un carré avec un cercle noir à l'intérieur. Nœud que les travaux desservis par la voie rapide, puisqu'ils renvoient une seule alternative, et n'ont pas besoin de passer par le PTDR et l'étape de réorganisation, se terminent immédiatement comme modélisé par le nœud de puits illustré dans le coin inférieur droit de la figure 3.


Résultats

20 Selon de nombreuses définitions, les enfants et les jeunes sont décrits comme étant âgés de 3 à 24 ans (EC/CE s.d., UN DESA s.d.). Dans ce qui suit, les termes « enfants et jeunes » ou « jeunes » se réfèrent uniquement à des sous-groupes sélectionnés de ce groupe sociétal : jeunes enfants (âgés de 3 à 5 ans), enfants du milieu de gamme (6-8 ans), enfants plus âgés (âgés de 9-12 ans) et adolescents (13-18 ans). Les adultes émergents (18-24 ans) sont exclus. C'est, entre autres raisons, parce que les adultes émergents sont à bien des égards similaires aux adultes (par exemple leur développement physique et mental, avoir l'âge légal, être entré dans l'enseignement supérieur et/ou la vie active). Dans le tableau 2, les sous-groupes d'intérêt dans le contexte de ce travail sont brièvement décrits, ainsi que les demandes d'infrastructure sélectionnées.

Tableau 2 : Enfants et jeunes : sous-groupes pertinents et leurs caractéristiques, y compris les demandes d'infrastructure sélectionnées

Source : ACT s.d., CNV4ME 2014, Haimovici et al. 2015, Saridar Masri 2017

21 Il existe une quantité considérable d'informations sur les infrastructures urbaines pertinentes pour les enfants et les jeunes. Pour la ville de Salzbourg, il existe de la littérature et des ressources en ligne qui donnent un aperçu des besoins du groupe cible en matière d'infrastructures urbaines. Un exemple est les résultats obtenus dans le projet YouthMap5020 (voir, par exemple, Hennig 2014, Hennig et Vogler 2016) ainsi que dans un certain nombre d'initiatives liées aux enfants et aux jeunes des autorités municipales de Salzbourg (voir, par exemple, MSS 2017, web plan de la ville de Salzbourg : https://maps.stadt-salzburg.at).

22 Sur la base de Chawla (2002, 2016), de l'UNICEF (2017) et de White (1997), les infrastructures urbaines pertinentes pour les enfants et les jeunes peuvent être divisées en sept catégories qui se rapportent à différents groupes d'activités et de demandes : (1) éducation et soins , (2) la mobilité, (3) jouer et faire du sport, (4) des activités culturelles, (5) rencontrer et sortir, (6) des éléments liés à la sécurité et (7) être connecté numériquement. Le tableau 3 répertorie une sélection de types d'éléments appartenant à ces catégories.

Tableau 3 : Sélection de types d'éléments urbains pertinents pour les enfants et les jeunes, en se concentrant sur la ville de Salzbourg

Source : Einfalt 2013, Hennig 2014, Hennig et Vogler 2016, Humphry et Pihl 2016, Leden et al. 2006, Thomson 2013, UNICEF 2017


Finale CIS301

Le commerce électronique reste la forme de commerce qui connaît la croissance la plus rapide par rapport aux magasins de détail physiques, aux services et aux divertissements. Le commerce social, mobile et local est devenu la forme de commerce électronique qui connaît la croissance la plus rapide.

L'étendue des offres de commerce électronique s'élargit, en particulier dans l'économie des services de réseaux sociaux, de voyages, de divertissement, de vêtements de vente au détail, de bijoux, d'électroménagers et d'ameublement.

La démographie en ligne des acheteurs s'élargit pour correspondre à celle des acheteurs ordinaires.

Les modèles commerciaux de commerce électronique pur sont encore affinés pour atteindre des niveaux de rentabilité plus élevés, tandis que les marques de vente au détail traditionnelles, telles que Walmart, Sears, JCPenney, L.L.Bean et Macy's, utilisent le commerce électronique pour conserver leur position dominante dans le commerce de détail. Walmart, le plus grand détaillant au monde, a décidé de prendre le commerce électronique au sérieux et de s'attaquer à Amazon avec un investissement de plus d'un milliard de dollars dans ses efforts de commerce électronique (voir l'étude de cas en fin de chapitre).

Les petites entreprises et les entrepreneurs continuent d'inonder le marché du commerce électronique, utilisant souvent les infrastructures créées par les géants de l'industrie, tels qu'Amazon, Apple et Google, et tirant de plus en plus parti des ressources informatiques basées sur le cloud.

Le commerce électronique mobile a décollé aux États-Unis avec des services basés sur la localisation et des téléchargements de divertissement, notamment des livres électroniques, des films, de la musique et des émissions de télévision. Le commerce électronique mobile générera plus de 170 milliards de dollars en 2017.

Les connexions Internet sans fil (smartphones Wi-Fi, WiMax et 4G) se développent rapidement.

De puissants smartphones et tablettes permettent d'accéder à la musique, à la navigation sur le Web et au divertissement, ainsi qu'à la communication vocale. Le podcasting et le streaming prennent leur envol en tant que média pour la distribution de contenu vidéo, radio et généré par les utilisateurs.

Les appareils mobiles s'étendent pour inclure les ordinateurs portables tels que les trackers Apple Watch et Fitbit.

La base Internet à large bande se renforce dans les ménages et les entreprises à mesure que les prix de transmission baissent.

Les applications et sites de réseaux sociaux tels que Facebook, Twitter, LinkedIn, Instagram et autres cherchent à devenir une nouvelle plate-forme majeure pour le commerce électronique, le marketing et la publicité. Facebook compte 1,65 milliard d'utilisateurs dans le monde et 222 millions aux États-Unis (Facebook, 2016). Cent quatre-vingt-dix millions d'Américains utilisent les réseaux sociaux, soit environ 70 pour cent de la population des internautes.

Les modèles informatiques basés sur Internet, tels que les applications pour smartphones, le cloud computing, les logiciels en tant que service (SaaS) et les logiciels de base de données, réduisent considérablement le coût des sites Web de commerce électronique.

DE NOUVEAUX MODÈLES D'AFFAIRES ÉMERGENT

Plus de 70 pour cent de la population Internet a rejoint un réseau social en ligne, créé des blogs et partagé des photos et de la musique. Ensemble, ces sites créent une audience en ligne aussi large que celle de la télévision qui est attrayante pour les spécialistes du marketing. En 2017, les réseaux sociaux représenteront environ 28% du temps en ligne.Les sites sociaux sont devenus la principale porte d'accès à Internet pour les actualités, la musique et, de plus en plus, les produits.

L'industrie de la publicité traditionnelle est perturbée car la publicité en ligne se développe deux fois plus vite que la publicité télévisée et imprimée Google, Yahoo et Facebook affichent près de 1 000 milliards de publicités par an.

Les sites de commerce électronique de services à la demande tels qu'Uber et Airbnb étendent le modèle commercial des créateurs de marché à de nouveaux domaines de l'économie.

Les journaux et autres médias traditionnels adoptent des modèles interactifs en ligne, mais perdent des revenus publicitaires au profit des acteurs en ligne malgré le gain de lecteurs en ligne. Le New York Times adopte un paywall pour son édition en ligne et réussit à capter plus d'un million d'abonnés, avec une croissance de 15 % par an. L'édition de livres prospère en raison de la croissance des livres électroniques et de l'attrait continu des livres traditionnels.


Orthorectification des images optiques KOMPSAT à l'aide de diverses données de référence au sol et évaluation de la précision.

Au cours des dernières décennies, diverses images provenant de satellites d'observation de la Terre ont été utilisées pour surveiller des événements géographiques allant des catastrophes mondiales aux changements climatiques et environnementaux. En raison du développement rapide de la technologie satellitaire, le champ d'application des images satellitaires ne cesse de s'étendre. En particulier, des images à haute résolution provenant de satellites en orbite basse sont utilisées dans des applications allant de la détection de changements à l'analyse des causes. Les images satellitaires en orbite basse sont largement utilisées pour générer diverses cartes thématiques basées sur une haute résolution spatiale, même si la largeur d'observation est étroite. Dans le passé, la cartographie traditionnelle était réalisée sur la base de photographies aériennes, mais ces dernières années, les images satellites à haute résolution ont été largement utilisées dans le domaine de la cartographie. Cependant, une grande précision de localisation est requise pour utiliser les images satellites pour la cartographie et la détection précise des changements.

Comme la plupart des images satellites reçues ne peuvent pas être utilisées immédiatement, une étape de traitement supplémentaire doit être effectuée.

Le post-traitement le plus élémentaire au niveau de l'utilisateur est la correction géométrique. La correction géométrique des images satellites est une étape importante pour améliorer l'utilisation des données. Par exemple, afin de détecter un changement entre deux images, une correspondance de position de base entre les images doit être effectuée. Une façon typique de corriger les effets de distorsion géométrique consiste à utiliser des points de contrôle au sol (GCP). Cependant, le problème avec ce type de correction est qu'il nécessite de nombreuses mesures de terrain in situ. En général, les GCP pour la correction d'images satellitaires haute résolution peuvent être obtenus à partir de relevés GPS ou de données de référence précises, mais il existe des restrictions à l'obtention d'un grand nombre de GCP de cette manière. Idéalement, un modèle qui utilise des GCP est le plus précis en termes de correction géométrique.

Avec l'apparition d'images satellitaires à haute résolution, la modélisation des capteurs a été un thème de recherche très important en photogrammétrie. La technologie liée à la cartographie a commencé à se développer rapidement avec le lancement de SPOT-1 en 1986 [1]. Dans le passé, les modèles de capteurs physiques étaient largement utilisés pour corriger les images satellites push-broom, mais le modèle de fonction rationnelle (RFM) avec coefficients polynomiaux rationnels (RPC) est désormais couramment utilisé avec les images satellites haute résolution. La RFM est la méthode de correction géométrique la plus populaire pour l'orthorectification d'images haute résolution. Les RPC fournissent une représentation compacte de la géométrie sol-image, permettant un traitement photogrammétrique sans nécessiter un modèle de caméra physique. Cependant, étant donné que les RPC sont générés par les informations orbitales du satellite et un modèle de caméra, ils contiennent divers biais du satellite. Par conséquent, afin de générer une carte précise basée sur une précision de localisation élevée, il est nécessaire d'éliminer un tel biais. De nombreuses méthodes de raffinement RPC ont été proposées afin d'améliorer la précision de localisation des images satellites à haute résolution [2-8].

Actuellement, le Korea Aerospace Research Institute (KARI) propose une variété d'images optiques de la série Korea Multipurpose Satellite (KOMPSAT). La précision de localisation de KOMPSAT-2 au niveau du système est de 80 m (CE90, ou erreur circulaire de 90 %). La précision de localisation horizontale moyenne des images standard KOMPSAT-2 de 2007 à début 2009 était d'environ 38 m (CE90) [9], mais il a été possible d'améliorer la précision de localisation en utilisant les GCP [10, 11]. De même, avec KOMPSAT-3 et KOMPSAT-3A, la précision de localisation des images standard sans GCP est de 70 m (CE90), mais cette précision peut être améliorée en utilisant des données de référence au sol [12-14]. Les images KOMPSAT présentant une grande précision de localisation par post-traitement peuvent être utilisées très efficacement dans la production de diverses cartes thématiques. Cependant, comme mentionné ci-dessus, l'amélioration de la précision de la localisation grâce au post-traitement nécessite des matériaux de référence et il n'est pas toujours possible d'obtenir des ensembles de données de haute qualité. En outre, il existe un besoin pour un moyen plus efficace de traiter de grandes quantités de données d'image. Par conséquent, il est nécessaire d'étudier des méthodes pour améliorer la précision de localisation des images standard KOMPSAT sur la base de diverses données de référence au sol. Dans cette étude, nous avons réalisé une expérience d'orthorectification d'images optiques KOMPSAT à l'aide de divers ensembles de données de référence au sol et analysé la différence de précision en fonction des données de référence.

2. Le satellite polyvalent coréen

Divers satellites ont été développés par le KARI conformément aux plans coréens à moyen et long terme pour le développement spatial.

Le programme KOMPSAT a été réalisé pour répondre à la demande nationale d'imagerie satellitaire à haute résolution et pour acquérir une technologie satellitaire de pointe.

KOMPSAT-1 a remarquablement bien fonctionné pendant 8 ans sur son orbite héliosynchrone après son lancement réussi le 21 décembre 1999. Il y avait trois capteurs dans KOMPSAT1, son capteur principal étant une caméra électro-optique (EOC) pour observer la terre. La résolution spatiale de l'EOC était de 6,6 m et il n'a fourni que des images panchromatiques. En février 2008, KOMPSAT-1 a cessé ses activités.

Le tableau 1 décrit les principales spécifications de KOMPSAT à utiliser dans cette étude. KOMPSAT-2 a été le premier satellite haute résolution en Corée et fonctionne normalement depuis son lancement le 28 juillet 2006. La caméra multispectrale (MSC), la caméra embarquée de KOMPSAT-2, fournit une image panchromatique de 1 m et un Image multispectrale de 4 m avec quatre bandes en condition de vision nadir. La largeur d'andain est de 15 km à l'altitude nominale de 685 km. KOMPSAT-2 fonctionne avec une heure locale de nœud ascendant de 10 h 50. Jusqu'à présent, KOMPSAT-2 a été largement utilisé pour générer des informations géospatiales et diverses cartes thématiques basées sur une haute résolution spatiale [15].

KOMPSAT-3 a été lancé le 18 mai 2012, à la suite de KOMPSAT-2. Les objectifs de la mission de KOMPSAT-3 sont de fournir une observation continue de la Terre après KOMPSAT 2 et de répondre aux besoins du pays en images optiques haute résolution requises pour le système d'information géographique (SIG) et d'autres applications de surveillance terrestre, environnementale, agricole et océanographique. L'altitude de mission de KOMPSAT-3 est de 685 km. L'heure locale des nœuds ascendants est 13 h 30. À l'altitude nominale de la mission avec pointage nadir, un système avancé de capteurs d'imagerie terrestre (AEISS) fournit des images panchromatiques de 0,7 m et multispectrales de 2,8 m prises à une largeur de 16 km. Contrairement à KOMPSAT-2, KOMPSAT 3 dispose de divers modes d'imagerie tels que l'imagerie stéréo en un seul passage, l'imagerie multipoint et l'imagerie à grande surface.

KOMPSAT-3A, qui est très similaire à KOMPSAT-3, a été lancé le 25 mars 2015. KOMPSAT-3A a été développé pour fournir des images à plus haute résolution en abaissant l'altitude à 528 km. L'AEISS-A, la caméra principale de KOMPSAT-3A, fournit une image panchromatique de 0,55 m et une image multispectrale de 2,2 m. KOMPSAT-3A dispose également d'une caméra pour l'imagerie dans l'infrarouge moyen avec une résolution spatiale de 5,5 m.

Il existe également KOMPSAT-5 qui fournit des images radar à synthèse d'ouverture (SAR), mais nous n'en parlerons pas dans cette étude.

3.1. Zone d'étude. Dans cette étude, la zone d'étude est différente selon les données d'utilisation, et l'expérience de traitement d'image a été réalisée sur quatre régions de Corée du Sud. Afin d'analyser l'effet du point de référence et du type de modèle numérique d'élévation (MNE) sur l'orthorectification, la zone d'étude a été sélectionnée en subdivisant en zone étendue, zone urbaine et zone rurale.

La figure 1 montre la superficie totale de cette étude. La zone d'étude 1 est d'environ 100 000 [km 2]. En Corée du Sud, environ 63 % de l'ensemble du pays sont des forêts, il n'y a donc pas beaucoup de plaines. De plus, la Corée est géographiquement entourée par la mer, avec environ 2 900 îles réparties dans la mer de l'Ouest et la mer du Sud. L'expérience d'orthorectification des images de KOMPSAT-2 à l'aide de GCP généraux a été réalisée dans la zone d'étude 1. Ensuite, une orthorectification à l'aide de puces GCP, qui a été réalisée sous forme de puce d'image, a été réalisée sur la partie sud de la péninsule coréenne les zones urbaines, forestières, fluviales et agricoles sont réparties uniformément. Comme le montre la figure 1, la zone d'étude 2 couvre cinq provinces, avec une superficie totale d'environ 9 400 [km 2]. La zone d'étude 3 est la ville de Daejeon, l'une des principales zones métropolitaines de Corée. Nous avons mené une expérience pour analyser l'influence des données de référence au sol sur la correction d'image dans la zone d'étude 3. La dernière zone d'étude est une zone rurale située sur le côté sud-ouest de la péninsule comme le montre la figure 1. Ici, nous avons analysé la précision de l'orthoimage des images optiques KOMPSAT.

3.2. Ensembles de données. Une variété de données a été utilisée pour effectuer les expériences de correction d'image KOMPSAT pour un large éventail de zones d'étude. Les données utilisées dans l'étude peuvent être divisées en images KOMPSAT et données de référence au sol. Dans le cas des images KOMPSAT, qui sont les données les plus importantes de cette étude, les images de KOMPSAT-2, KOMPSAT3 et KOMPSAT-3A, les satellites actuellement en service, ont toutes été utilisées. La figure 2 montre les différents types d'images KOMPSAT utilisées dans l'étude. Tout d'abord, 947 images de KOMPSAT niveau 1R, qui ont été acquises de 2007 à 2014, ont été sélectionnées comme le montre la figure 2(a). Dans la figure 2(b), 50 images de KOMPSAT-2 ont été utilisées pour les expériences de correction d'image basées sur des puces GCP. Les images KOMPSAT-3 et KOMPSAT-3A représentées sur les figures 2(c) et 2(d) ont été utilisées pour analyser les résultats d'orthorectification par diverses données de référence au sol.

Les données de référence au sol sont un facteur très important pour améliorer la précision de localisation d'une image satellite. Les données de référence au sol utilisées dans cette étude ont été divisées en DEM et GCP. Un DEM est nécessaire pour traiter une image satellite géoréférencée afin de supprimer les distorsions planaires causées par les variations du terrain. Deux types de DEM ont été utilisés. Tout d'abord, le DEM pour l'ensemble de la région sud-coréenne a été généré à l'aide de cartes topographiques numériques à l'échelle 1: 5000 créées par l'Institut national d'information géographique (NGII) en Corée. Le résultat de l'analyse de la précision verticale (z) à l'aide de 318 points de contrôle obtenus à partir du levé du système de positionnement global (GPS) était d'environ 1,66 m (RMSE, Root Mean Square Error). Le deuxième DEM a été obtenu de la Shuttle Radar Topography Mission (SRTM) qui a comblé un vide dans les données à une résolution de 1 seconde d'arc (30 m). En général, le SRTM DEM est réputé pour sa cohérence et sa précision globale à l'échelle mondiale [16]. Cependant, la précision verticale du SRTM DEM dépend de l'occupation du sol [17]. En raison des caractéristiques de la bande C SRTM, la précision de la hauteur SRTM à partir d'une zone de faible végétation est bien meilleure que la spécification de mission SRTM. Un total de 318 points de contrôle ont été utilisés pour évaluer l'exactitude du SRTM DEM utilisé dans cette étude. En conséquence, la précision verticale était de 5,17 m (RMSE).

Les GCP pour l'orthorectification des images KOMPSAT ont été extraits et utilisés à partir d'orthophotos aériennes ayant une résolution spatiale de 0,25 m et une précision horizontale inférieure à 1 m (RMSE). Nous avons également utilisé des puces GCP, qui ont été extraites tous les 3 km à partir d'images panchromatiques de 1 m corrigées avec précision. Des puces GCP avec des informations horizontales (x, y) et d'élévation (z) ont été créées autour de la Corée du Sud, et la taille de la puce est de 128 x 128 pixels. OpenStreetMap (OSM) a été utilisé pour analyser la possibilité d'orthorectification à l'aide de données open source. Ces dernières années, OSM est devenu la donnée open source la plus populaire. Étant donné que les données OSM peuvent être modifiées par n'importe qui, la précision de la localisation est différente pour chaque région. Par conséquent, avant d'utiliser cette source, nous avons effectué une évaluation de l'exactitude de certains échantillons de données OSM pour les régions nationales et d'outre-mer. La figure 3 montre les résultats du chevauchement d'une paire d'images OSM avec une carte topographique numérique à l'échelle 1:5000 et une image Google Earth pour évaluer facilement la précision de localisation des données OSM par inspection visuelle. La précision horizontale standard pour la carte topographique numérique à l'échelle 1: 5000 est de [+ ou -]3,5 m, tandis que la précision attendue est inférieure à [+ ou -]2,0 m [18]. En général, NGII a produit une carte topographique numérique à l'échelle 1 : 5000 par photogrammétrie aérienne basée sur les photos aériennes d'environ 10

20cm. L'image Google Earth de la Napa Valley, aux États-Unis, a une très haute résolution de plusieurs centimètres. Comme le montre la figure 3, les données OSM ne fournissent que les lignes médianes des routes, mais elles correspondent bien aux centres des routes de la carte numérique existante et de l'image Google Earth.

3.3. Traitement de l'information. Pour de nombreuses applications, la précision de localisation des images satellites est tout aussi importante que la résolution spatiale. Cependant, en général, les RPC fournis avec les images satellites ne répondent pas à la précision requise par l'utilisateur. Par conséquent, les utilisateurs doivent améliorer cette précision grâce à un traitement supplémentaire utilisant diverses données de référence. Pour cette étude, l'orthorectification des images optiques KOMPSAT a été réalisée selon le processus illustré à la figure 4.

Cette étude est divisée en deux parties. Tout d'abord, l'orthorectification des images KOMPSAT-2 a été réalisée à l'aide de GCP et de 5 m DEM. L'entrée GCP a été enregistrée de deux manières. Les GCP extraits des orthophotos aériennes (0,25 m) ont été manuellement répartis uniformément dans toute l'image (zone d'étude (a)), et les puces GCP ont été enregistrées par la méthode d'appariement (zone d'étude (b)). La deuxième expérience a utilisé diverses sources de points de contrôle, et un DEM a été réalisé pour étudier l'effet des données de référence au sol pour l'orthorectification d'images KOMPSAT haute résolution submétriques. À cette fin, l'orthorectification des images KOMPSAT-3 et KOMPSAT3A a été réalisée à l'aide de données de référence relativement précises et de données open source bien connues (par exemple, OSM et SRTM DEM) dans les zones d'étude (c) et (d).

Avec l'apparition des images satellites à haute résolution, la correction d'images à l'aide de RPC est devenue courante. Pour cette étude, une modélisation géométrique a été réalisée sur la base des RPC fournis avec les images. Cependant, comme mentionné précédemment, la précision des RPC devrait être améliorée. Les RPC peuvent être affinés directement ou indirectement. Les méthodes de raffinement direct modifient les RPC d'origine eux-mêmes, tandis que les méthodes de raffinement indirect ne modifient pas les RPC d'origine. En général, le raffinement direct est la méthode la plus largement utilisée. Le raffinement direct peut être classé en compensation de biais et en modèle polynomial. Des études antérieures ont montré que la méthode de compensation de biais a une précision légèrement meilleure que le modèle polynomial [8]. Dans le cas de KOMPSAT, de nombreuses études ont été menées pour améliorer la précision de la position en utilisant la méthode de compensation de biais [11,19,20].

Le modèle d'ajustement de bloc RPC utilisé dans cette étude est défini dans l'espace image. Le modèle est défini comme suit [4] :

Ligne = [DELTA]p + p ([phi], [lambda], h) + [[epsilon].sub.L] Échantillon = [DELTA]r + r ([phi], [lambda], h) + [ [epsilon].sub.s]. (1)

Ligne et Échantillon sont les coordonnées du point d'image correspondant aux GCP. [DELTA]p et [DELTA]r sont les fonctions ajustables exprimant les différences entre la ligne mesurée et la ligne nominale et les coordonnées d'échantillon des GCP pour une image. p([phi], [lambda], h) et r([phi], [lambda], h) sont les coordonnées de l'image calculées à l'aide des RPC fournis. [[epsilon].sub.L] et [[epsilon].sub.s] sont des erreurs aléatoires non observables.

[expression mathématique non reproductible]. (2)

[a.sub.0], [a.sub.s], [a.sub.L], . et [b.sub.0], [b.sub.S], [b.sub.L], . sont les paramètres de réglage de l'image. Certains satellites peuvent nécessiter une transformation affine comme suit :

[DELTA]p = [a.sub.0] + [a.sub.S] x Échantillon + [a.sub.L] x Ligne [DELTA]r = [b.sub.0] + [b.sub. s] x Échantillon + [b.sub.L] x Ligne. (2)

La collecte des points de contrôle à l'aide de puces GCP et OSM a été réalisée par la méthode d'appariement. De nombreuses études sur la correction géométrique automatique ont été basées sur des méthodes d'appariement. En conséquence, divers algorithmes d'appariement image-image et vecteur-image ont été présentés [20-23]. Les algorithmes d'appariement bien connus tels que la corrélation croisée normalisée (NCC) et la transformée de Fourier rapide (FFT) ont déjà été appliqués à certains logiciels de traitement d'images. Dans cette étude, l'appariement pour la collecte automatique des GCP a été effectué à l'aide d'un logiciel qui a mis en œuvre la méthode d'appariement de phase FFT. La fonction de corrélation de phase [24] est donnée par

où 0 = [0.sub.1] - [0.sub.2] et [F.sup.-1]() rétrograde la transformée de Fourier inverse. La fonction [e.sup.j0] représente donc la phase du spectre de puissance croisée. Le déplacement spatial entre les deux patchs est dérivé par appariement d'images basé sur la corrélation de phase dans le domaine de la transformée de Fourier 2D. Dans le cas de l'appariement vectoriel, les GCP candidats sont situés aux sommets des lignes (par exemple, les intersections) et reçoivent leurs coordonnées au sol.

La fusion d'images basée sur la technique d'additif de filtre passe-haut (HPFA) a été appliquée afin de générer des images KOMPSAT multispectrales à haute résolution. Au début, HPFA a été utilisé pour réduire le volume de données et augmenter la résolution spatiale des données d'images Landsat, mais plus tard, il a également été utilisé pour la fusion d'images [25]. Tout d'abord, nous avons produit l'image filtrée passe-haut. Un noyau de filtre de convolution passe-haut a été créé et utilisé pour filtrer les données d'entrée haute résolution. La taille du noyau passe-haut est fonction des tailles relatives des pixels d'entrée. Une taille de noyau adéquate est approximativement le double du rapport de résolution des paires d'images [25, 26]. L'étape suivante consistait à ajouter l'image filtrée HP à l'image multispectrale :

[HPF.sub.fusion] = [MS.sub.resampling] + ([PAN.sub.HPF] x W), (5)

où [HPF.sub.fusion] est une image multispectrale haute résolution fusionnée et [MS.sub.resampling] est une image multispectrale basse résolution qui a été rééchantillonnée à la taille de pixel d'une image panchromatique haute résolution. [PAN.sub.HPF] est l'image panchromatique filtrée HP. La pondération est déterminée comme suit :

où W est le multiplicateur de pondération pour la valeur de l'image panchromatique filtrée HF et SD(MS) est l'écart type de la bande multispectrale basse résolution à laquelle l'image panchromatique filtrée HP est ajoutée. SD([PAN.sub.HPF]) est l'écart type de l'image panchromatique filtrée HP. M est un facteur de modulation pour déterminer la netteté de l'image de sortie. Nous avons ajusté empiriquement la valeur M pour améliorer la netteté grâce à l'amélioration de la limite de l'image. Un étirement linéaire a été effectué comme dernière étape.

4. Résultats de l'expérience et discussion

4.1. Résultats d'orthorectification des images KOMPSAT à l'aide de GCP et de puces GCP. Un test de traitement des données a été effectué uniquement sur les images de fusion qui ont été traitées avec des images multispectrales à haute résolution par la méthode HPFA. Dans le cas de la zone d'étude 1, la modélisation pour l'orthorectification a été effectuée par blocs d'unités plutôt que par unités d'images individuelles car il y avait beaucoup d'images KOMPSAT-2 à traiter. Les GCP étaient répartis uniformément, avec une moyenne de 7 à 10 points par image. Au moins 6 points extraits d'une orthophoto aérienne avec une résolution spatiale de 0,25 m ont été utilisés comme points de contrôle orthophoto (OCP). Les valeurs d'altitude (z) des GCP et OCP ont été extraites du DEM (5 m) et utilisées. La figure 5 montre les résultats de la modélisation pour 947 images KOMPSAT-2. Bien qu'il y ait eu quelques erreurs grossières, la précision globale de la modélisation était bonne. Le RMSE moyen des GCP et des OCP était respectivement de 1,31 pixel et 1,41 pixel.

Sur la base des résultats de la modélisation, les orthoimages KOMPSAT-2 ont été générées à l'aide d'un DEM de 5 m, comme le montre la figure 6(a). Nous avons ensuite superposé la carte topographique numérique à l'échelle 1: 5000 sur les orthoimages générées pour inspecter visuellement leurs qualités. La figure 6(b) montre le résultat du chevauchement avec la carte topographique numérique à l'échelle 1 : 5000 pour la comparaison de la précision entre les images gauche-droite et haut-bas. Nous avons constaté que les couches de la carte correspondaient bien aux orthoimages.

La précision des orthoimages générées a été évaluée à l'aide de 843 points de contrôle indépendants (ICP) obtenus par levé GPS. La figure 7 montre la précision planimétrique des orthoimages couleur KOMPSAT-2 de 1 m générées dans cette étude. À l'exception des images avec des erreurs grossières, la précision planimétrique était de 1,43 m (RMSE). Comme le montre la figure 7, les erreurs dans les directions x et y étaient uniformes et pour la plupart à [+ ou -] 3 m.

La figure 8 montre les résultats de la modélisation de 50 images KOMPSAT-2 dans la zone d'étude 2 à l'aide de puces GCP. En moyenne, environ 52 GCP ont été collectés par image par correspondance de puces. Le RMSE moyen du résultat de la modélisation était de 1,59 pixel. La plupart des valeurs étaient inférieures à 2 pixels, sauf pour les images de montagne où les valeurs étaient légèrement supérieures. Notez que la précision de la modélisation était plus faible que dans le cas de la saisie manuelle des GCP comme dans la zone d'étude 1.

Les orthoimages générées à l'aide de puces GCP et de 5 m DEM sont illustrées à la figure 9. Pour une évaluation de la précision des orthoimages générées, 63 ICP ont été utilisées comme illustré à la figure 9 (a). Les erreurs dans les directions x et y étaient très uniformes et la précision planimétrique était de 1,40 m (RMSE). Ces résultats montrent qu'il n'y a pas de différence significative avec la précision d'une orthoimage générée par la saisie manuelle des GCP dans la zone d'étude 1. Cependant, comme le montre la figure 9, suffisamment d'ICP n'ont pas pu être obtenus, il y avait donc une limite à une analyse plus précise.

Pour surmonter ce problème, une analyse de précision supplémentaire a été effectuée à l'aide de 190 OCP extraits d'orthophotos aériennes (0,25 m). Les valeurs résiduelles maximales étaient légèrement supérieures aux résultats précédents, mais la précision globale était très similaire.

Les mêmes méthodes s'appliquaient à KOMPSAT-2 pour l'orthorectification. La fusion d'images a été utilisée pour traiter les images KOMPSAT-3 et KOMPSAT-3A dans la zone d'étude 3, et les résultats ont été analysés. Afin de modéliser à la fois les images KOMPSAT-3 et KOMPSAT-3A, 8 à 9 GCP ont été utilisés par image. Environ 24 points de contrôle par image ont été collectés en moyenne par chip matching. Le RMSE moyen utilisant les GCP dans les images KOMPSAT-3 et KOMPSAT-3A était inférieur à 0,35 pixels, mais dans le cas de l'utilisation de puces GCP, le RMSE moyen était légèrement supérieur à 2,0 pixels. La précision des orthoimages générées à l'aide d'un DEM de 5 m a été analysée à l'aide d'OCP. À la suite de l'analyse de la précision à l'aide d'environ 18 points OCP par image, il a été confirmé que les images KOMPSAT3 et KOMPSAT-3A basées sur GCP avaient une précision inférieure à 1 m, tandis que les images orthorectifiées basées sur la puce GCP avaient une précision planimétrique de l'ordre. de 1,5 m. La figure 10 montre les résultats de la génération d'ortho-images KOMPSAT-3 et KOMPSAT-3A.

4.2. Résultats d'orthorectification basés sur différentes données de référence. Afin d'évaluer quantitativement l'influence des données de référence au sol dans la correction d'image satellite à résolution submétrique, nous avons effectué une orthorectification à l'aide d'images KOMPSAT-3 et KOMPSAT-3A de la zone d'étude 3. Les GCP, les puces GCP et l'OSM ont été utilisés pour la modélisation d'images. , et le résultat de la modélisation des images KOMPSAT-3 et KOMPSAT-3A utilisant 9 et 11 GCP était inférieur à 0,4 pixel (RMSE). Le résultat de la modélisation utilisant des puces GCP avait une précision de l'ordre de 2 pixels (RMSE). Ce résultat s'est avéré plus précis que l'OSM de 0,5 pixel. De plus, le nombre de points de contrôle collectés par appariement dans les deux cas était d'environ 50. Nous avons généré des orthoimages KOMPSAT-3 et KOMPSAT3A à l'aide d'un DEM de 5 m, comme le montre la figure 11 et évalué la précision planimétrique des orthoimages à l'aide d'OCP. Dans le cas de l'OSM, la précision de la modélisation était similaire au résultat de l'utilisation de puces GCP, mais la précision de l'orthoimage était la plus faible dans l'évaluation de la précision utilisant les OCP. La figure 12 montre les résultats de la superposition d'une orthoimage générée à l'aide de données OSM et OSM pour évaluer la précision par inspection visuelle. Il n'a pas été facile de différencier les deux ensembles de données par inspection visuelle.

Nous avons effectué des expériences supplémentaires en croisant les données. Le tableau 2 montre les données utilisées dans chaque cas pour la génération d'ortho-images KOMPSAT-3 dans la zone d'étude 3. Des expériences ont été menées pour évaluer la précision des ortho-images en fonction des données horizontales et verticales. Le cas 1 visait à analyser la précision des orthoimages en fonction de la qualité des points de contrôle (x, y). Le cas 2 a été utilisé pour analyser l'effet des DEM.

Premièrement, la précision de la modélisation pour les puces GCP du cas 1 et OSM était de 2,33 pixels et 2,54 pixels, respectivement. La précision des orthoimages générées a été analysée à l'aide de 29 OCP, et elle était respectivement de 1,27 m et 2,54 m. D'autre part, dans le cas 2 utilisant différents DEM, la précision de modélisation était la même à 2,64 pixels. La précision planimétrique des orthoimages était de 2,54 m pour 5 m DEM et de 2,91 m pour 30 m DEM. Dans le cas d'un DEM de 30 m, la différence de précision pour une zone plate n'était pas importante par rapport à un DEM de 5 m, mais une différence de 5 à 6 m s'est produite pour un terrain montagneux. La figure 13 montre les résultats de l'analyse de précision planimétrique sur les cas 1 et 2.

La figure 14 compare la précision des orthoimages en fonction des données utilisées. Il était facile d'identifier les différences dans chaque cas avec une inspection visuelle. Sur la figure 14, (b) est la plus précise par rapport aux orthophotos aériennes (a), et (d) est la moins précise. Cependant, bien que la précision de l'orthoimage utilisant des données ouvertes (par exemple, OSM et SRTM DEM) soit faible dans les figures 13 et 14, on peut voir que la précision de localisation peut être grandement améliorée par rapport à l'image non corrigée de la figure 15. Parce que les données ouvertes peuvent être obtenues et utilisées par n'importe qui, il est possible d'améliorer facilement la précision de localisation de l'image existante grâce à une simple méthode de correspondance d'images.

Dans de nombreuses applications, la précision de localisation des images satellites est aussi importante que la résolution spatiale. Cependant, peu de satellites possèdent la précision requise par les utilisateurs, un traitement supplémentaire est donc nécessaire. Pour améliorer la précision de localisation des images satellites à haute résolution, beaucoup de temps et d'argent sont souvent nécessaires pour les points de contrôle, le DEM, etc. De plus, des données de référence au sol de haute qualité ne sont pas toujours disponibles. Afin d'utiliser les images optiques KOMPSAT pour des applications telles que les SIG, il est nécessaire d'orthorectifier les images. Par conséquent, pour cette étude et avec des RPC mis à jour, nous avons effectué une orthorectification des images KOMPSAT à l'aide de diverses données et évalué les résultats. La précision planimétrique des orthoimages KOMPSAT-2 générées à partir des GCP avec des précisions horizontale et verticale de 1 m (RMSE) et 2 m (RMSE), respectivement, était la meilleure. Cependant, les orthoimages générées par correspondance avec les images corrigées existantes telles que les puces GCP avaient également une précision suffisante. Nous avons également constaté que la précision planimétrique des orthoimages KOMPSAT-3 et KOMPSAT-3A générées à l'aide de GCP et de puces GCP était respectivement de 1 m (RMSE) et 15 m (RMSE). Bien que des GCP et DEM de bonne qualité aient une grande influence sur la génération d'ortho-images, il n'est pas toujours possible d'obtenir des ensembles de données de haute qualité, et donc l'orthorectification a été réalisée en utilisant OSM et SRTM DEM (30 m) dans cette étude. Nous avons analysé la disponibilité des données open source pour la correction d'image, même si la précision de localisation était médiocre par rapport aux GCP et aux puces GCP. Les orthoimages générées par OSM et 30 m DEM avaient une précision de l'ordre de 3 m (RMSE). Cependant, en terrain montagneux, il s'est avéré avoir une erreur maximale d'environ 6 m (RMSE). À l'avenir, nous présenterons une méthode de correction plus efficace pour les images KOMPSAT en utilisant des techniques améliorées d'appariement d'images et une plus grande variété de données.

Les auteurs déclarent qu'il n'y a pas de conflits d'intérêts concernant la publication de cet article.

[1] E. Kruck, "Mapping photogrammétrique d'images SPOT avec BINGO dans le système PHOCUS," International Achieves of Photogrammetry and Remote Sensing (Commission III), vol. 27, non. B3, p. 405-414,1988.

[2] C. V Tao et Y. Hu, "Une étude complète du modèle de fonction rationnelle pour le traitement photogrammétrique," Ingénierie photogrammétrique et télédétection, vol. 67, non. 12, pages 1347-1357, 2001.

[3] C. S. Fraser et H. B. Hanley, « Compensation du biais dans les fonctions rationnelles pour l'imagerie satellitaire Ikonos », Ingénierie photogrammétrique et télédétection, vol. 69, non. 1, p. 53-57, 2003.

[4] J. Grodecki et G. Dial, « Ajustement en bloc d'images satellites à haute résolution décrites par Rational Polynomials », Ingénierie photogrammétrique et télédétection, vol. 69, non. 1, p. 59-68, 2003.

[5] K. Di, R. Ma et R. X. Li, « Fonctions rationnelles et potentiel de récupération rigoureuse du modèle de capteur », Ingénierie photogrammétrique et télédétection, vol. 69, non. 1, p. 33-41, 2003.

[6] C. V. Tao, Y. Hu et W. Jiang, « Exploitation photogrammétrique de l'imagerie IKONOS pour les applications de cartographie », International Journal of Remote Sensing, vol. 25, non. 14, pages 2833-2853, 2004.

[7] J. Wang, K. Di et R. Li, "Évaluation et amélioration de la précision de géopositionnement de l'imagerie stéréo IKONOS," Journal of Surveying Engineering, vol. 131, non. 2, p. 35-42, 2005.

[8] Z. Xiong et Y. Zhang, "Une méthode générique pour le raffinement RPC utilisant les informations de contrôle au sol," Ingénierie photogrammétrique et télédétection, vol. 75, non. 9, pages 1083-1092, 2009.

[9] D. Seo, J. Yang, D. Lee et H. Lim, "L'analyse des caractéristiques de précision de la cartographie KOMPSAT-2", dans Actes

du 60e Congrès international d'astronautique, IAC-09.B1.I.13, pp. 1-10, Daejeon, République de Corée, octobre 2009.

[10] S. Sunier, B. Collet, et A. Mambimba, « Nouvelle mission tierce, évaluation de la qualité : mission KOMPSAT-2 », Consultant GAEL, pp. 1-20, 2008.

[11] JK Nowak Da, Costa., et A. Walczynska, "Tests de qualité géométrique des données d'image kompsat-2 acquises sur le site d'essai de maussane du JRC à l'aide du logiciel de télédétection ERDAS LPS et PCI GEOMATICS", Rapports scientifiques et techniques du JRC ( EUR 24542 FR), p. 1-36, 2010.

[12] SI Imaging Services Co., LTD, « Spécifications du produit KOMPST-3A : manuel de données d'image (version 1.0) », pp. 1-51, 2016.

[13] SI. Imaging and Co. SI Imaging Services, « Spécifications du produit KOMPST-3 : manuel de données d'image (version 2.0) », pp. 1-59, 2017.

[14] D. Seo, J. Oh, C. Lee, D. Lee et H. Choi, "Calibration géométrique et validation de la caméra Kompsat-3A AEISS-A," Sensors (Suisse), vol. 16, non. 10, article n. 1776, 2016.

[15] H. Lee, J. Ru et Y. Yu, « Extraction d'informations thématiques de haute qualité à l'aide d'images satellite à haute résolution », Journal de la Société coréenne des sciences de l'information géospatiale, vol. 18, non. 1, p. 73-91, 2010.

[16] G. Sun, K. J. Ranson, V. I. Kharuk et K. Kovacs, "Validation of surface height from Shuttle radar topography mission using Shuttle laser altimeter," Remote Sensing of Environment, vol. 88, non. 4, pages 401-411, 2003.

[17] JR Santillan et M. Makinano-Santillan, "Évaluation de la précision verticale de la résolution 30-M ALOS, ASTER et SRTM global DEMS sur le nord-est de Mindanao, Philippines," dans Actes des 23e Archives internationales de photogrammétrie, télédétection et Congrès des sciences de l'information spatiale, ISPRS 2016, pp. 149-156, cze, juillet 2016.

[18] H. G. Park, "Étude sur la définition des normes de précision coréennes de la carte numérique pour la construction et l'utilisation d'informations géospatiales précises", Journal de la Société coréenne de photogrammétrie et de cartographie de géodésie d'arpentage, vol. 31, non. 6, p. 493-502, 2013.

[19] J. Oh et C. Lee, « compensation de biais automatisée des coefficients polynomiaux rationnels d'images satellite haute résolution basées sur des cartes topographiques », ISPRS Journal of Photogrammetry and Remote Sensing, vol. 100, p. 14-22, 2015.

[20] J. H. Oh, D. C. Seo et C. N. Lee, « Un résultat de test sur la précision de la position des images de test bêta de Kompsat-3A », Journal de la Société coréenne d'arpentage, de géodésie, de photogrammétrie et de cartographie, vol. 34, non. 2, p. 133-142, 2016.

[21] P. Pehani, K. Cotar, A. Marsetic, J. Zaletelj et K. Ostir, « Traitement géométrique automatique pour des données satellitaires optiques à très haute résolution basées sur des routes vectorielles et des orthophotos », Télédétection, vol. 8, non. 4, article n. 343, 2016.

[22] M. Gianinetto et M. Scaioni, « Correction géométrique automatisée des données satellitaires à balai-poussoir haute résolution », Ingénierie photogrammétrique et télédétection, vol. 74, non. 1, p. 107-116, 2008.

[23] S. Leprince, S. Barbot, F. Ayoub et J.-P. Avouac, « Orthorectification automatique et précise, coregistration et corrélation de sous-pixels d'images satellites, application aux mesures de déformation du sol », Transactions IEEE sur les géosciences et la télédétection, vol. 45, non. 6, pages 1529-1558, 2007.

[24] C. D. Kuglin et D. C. Hines, « La méthode d'alignement d'images par corrélation de phase », dans Actes de la conférence internationale sur la Cybernetics Society, pp. 163-165, 1975.

[25] U. G. Gangkofner, P. S. Pradhan et D. W. Holcomb, "Optimizing the high-pass filter addition technique for image fusion," Photogrammetric Engineering and Remote Sensing, vol. 74, non. 9, pages 1107-1118, 2008.

[26] P. S. Chavez Jr., S. C. Sides et J. A. Anderson, « Comparaison de trois méthodes différentes pour fusionner des données multirésolutions et multispectrales. Landsat TM et SPOT panchromatique », Ingénierie photogrammétrique et télédétection, vol. 57, non. 3, pages 295-303, 1991.

Kwangjae Lee, Eunseon Kim et Younsoo Kim

National Satellite Operation & Application Center, Korea Aerospace Research Institute, 169-84 Gwahak-ro, Yuseong-gu, Daejeon 34133, République de Corée

La correspondance doit être adressée à Kwangjae Lee [email protected]

Reçu le 26 avril 2017 Accepté le 19 juin 2017 Publié le 8 août 2017

Légende : FIGURE 1 : Localisation des zones d'étude.

Légende : FIGURE 2 : Index des images des zones d'étude.

Légende : FIGURE 3 : résultats du chevauchement des données OSM ((a) chevauchement de l'OSM (ligne jaune) et de la carte topographique numérique à l'échelle 1 : 5000 (ligne rouge) à Daejeon, en Corée, et (b) chevauchement de l'OSM (ligne noire) et image Google Earth).

Légende : FIGURE 4 : Organigramme de l'expérience de traitement des données pour l'orthorectification.

Légende : FIGURE 5 : Résultat de la modélisation des images KOMPSAT-2 à l'aide des GCP et des OCP.

Légende : FIGURE 6 : Génération d'ortho-images couleur KOMPSAT-2 de 1 m dans la zone d'étude 1 (a) et inspection visuelle à l'aide d'une carte topographique numérique à l'échelle 1:5000 (b).

Légende : FIGURE 7 : Nuage de points des erreurs planimétriques dans l'image KOMPSAT-2 orthorectifiée (couleur 1 m) produite à l'aide de GCP et d'un DEM de 5 m.

Légende : FIGURE 8 : Résultat de la modélisation des 50 images KOMPSAT-2 utilisant les puces GCP.

Légende : FIGURE 9 : Distribution des ICP dans la zone de test 2 (a) et nuage de points des erreurs planimétriques dans l'image KOMPSAT-2 orthorectifiée (couleur 1 m) produite à l'aide de puces GCP et de 5 m DEM (b).

Légende : FIGURE 10 : Génération d'ortho-images KOMPSAT-3 (0,7 m couleur) et KOMPSAT-3A (0,55 m couleur) à l'aide de puces GCP et 5 m DEM en étude

Légende : FIGURE 11 : Répartition des OCP dans la zone d'étude 4 (a) et résultats de l'analyse de précision planimétrique (b).

Légende : FIGURE 12 : Chevauchement des orthoimages KOMPSAT et des données OSM (a, c) et inspection visuelle à l'aide d'images zoomées (b, d).

Légende : FIGURE 13 : Résultats de l'analyse de précision planimétrique sur le Cas 1 (a) et le Cas 2 (b).

Légende : FIGURE 14 : Comparaison de la précision des orthoimages en fonction des données utilisées. Légende : Figure 15 : Comparaison de la précision planimétrique à l'aide d'une carte topographique numérique à l'échelle 1 : 5000 ((a) image KOMPSAT-3 non corrigée et (b) orthoimage KOMPSAT-3 générée avec OSM et 30 m DEM).


5.4 Utilisation du système de référence de coordonnées UTM

L'UTM (Mercator Transversal Universel) le système de coordonnées utilise des unités de mètres plutôt que des degrés. Il nous permet de représenter des étendues spatiales à l'aide de carrés de grille « métriques » à deux dimensions. Pour cartographier les coordonnées de latlong aux coordonnées UTM, nous devons savoir à quel endroit de la Terre correspond approximativement un point. Le monde est imaginé en termes d'une série de zones, délimitées un peu comme des fuseaux horaires, en « bandes » verticales qui s'étendent autour du monde.

Les bandes reçoivent des codes numériques selon le système EPSG qui peuvent être déterminés à partir des coordonnées de latitude et de longitude comme suit :

Nous pouvons définir une nouvelle chaîne de projection qui identifie l'UTM CRS et une zone appropriée en utilisant les coordonnées du point de départ de notre itinéraire :

5.4.1 Utilisation de st_transform pour les transformations de projection

Nous pouvons transformer notre route vers la nouvelle projection en utilisant la fonction sf::st_transform() :

Regardons maintenant nos coordonnées sous cette projection :

Nous voyons que les valeurs X et Y ont été transformées à partir de leurs valeurs de latitude et de longitude d'origine en coordonnées UTM en mètres.

Que se passe-t-il si vous tracez les coordonnées maintenant ?

Cette forme vous semble-t-elle familière ?

Si nous traçons les trois cartes côte à côte avec un alignement vertical, nous voyons comment le tracé "géosensible" et le tracé UTM correspondent à peu près l'un à l'autre, alors que le tracé latlong est proportionné différemment :

Eh bien, ça marche, mais c'est douloureux d'avoir à faire des gestes pour qu'il y ait sûrement un meilleur moyen ?

5.4.2 Utilisation de ggplot2::coord_sf pour rendre les projections

Transformer les coordonnées d'un CRS à un autre est un problème, ce serait tellement plus facile si nous pouvions transmettre les coordonnées de latitude et de longitude dans le bloc de données en unités de degrés et laisser la carte mapper dans une direction appropriée.

Il se trouve que nous pouvons. En définissant ggplot2::coord_sf(crs) , nous pouvons forcer le graphique à utiliser une projection appropriée :

Il existe une vaste gamme de projections disponibles, mais ces deux sont peut-être les plus pratiques en raison de leur familiarité et de leur utilisation généralisée.

5.4.3 Exportation des données d'itinéraire sous forme de trame de données

Pour plus de commodité, il peut être utile d'exporter les données d'itinéraire sous forme de trame de données qui inclut à la fois les coordonnées latlong et UTM. Cependant, emprunter un tel itinéraire nécessiterait de créer un format de trame de données approprié pour l'écriture dans un fichier CSV, par exemple, ainsi que des moyens d'analyser les données de manière appropriée.


Les références

Rawat P, Deep Singh K, Chaouchi H, Bonnin J-M : Réseaux de capteurs sans fil : une enquête sur les développements récents et les synergies potentielles. J. Supercalculateur 2013, 1-48. doi:10.1007/s11227-013-1021-9

Toor Y, Muhlethaler P, Laouiti A : Réseaux ad hoc véhicule : applications et problématiques techniques associées. IEEE Commun. Surv. Tuteur 2008, 10(3):74-88.

Hartenstein H, Laberteaux KP : Une enquête didactique sur les réseaux ad hoc véhiculaires. IEEE Commun. Mag 2008, 46(6):164-171.

Boukerche A, Oliveira HA, Nakamura EF, Loureiro AA : Réseaux ad hoc véhiculaires : un nouveau défi pour les systèmes basés sur la localisation. Calcul. Commun 2008, 31(12):2838-2849. 10.1016/j.comcom.2007.12.004

Li F, Wang Y : Routage dans les réseaux ad hoc véhiculaires : une enquête. IEEE Veh. Technologie. Mag 2007, 2(2):12-22.

Luo J, Hubaux J-P : Une enquête sur la recherche en communications inter-véhicule. Dans Sécurité embarquée dans les voitures. Berlin Heidelberg : Springer 2006 : 111-122.

Cseh C : Architecture du protocole dédié aux communications à courte portée (DSRC). Dans Conférence sur la technologie des véhicules, 1998. VTC 98. 48e IEEE, vol. 3. 1998, Ottawa : IEEE 18-21 mai 1998 : 2095-2099.

Zhu J, Roy S : MAC pour les communications dédiées à courte portée dans les systèmes de transport intelligents. IEEE Commun. Mag 2003, 41(12):60-67. 10.1109/MCOM.2003.1252800

Cheng L, Henty BE, Stancil DD, Bai F, Mudalige P : mesure de canal à bande étroite de véhicule à véhicule mobile et caractérisation de la bande de fréquences dédiée aux communications à courte portée (DSRC) de 5,9 GHz. IEEE J. Sélectionnez. Domaines Commun 2007, 25(8):1501-1516.

Kenney JB : Normes dédiées aux communications à courte portée (DSRC) aux États-Unis. Proc. IEEE 2011, 99(7):1162-1182.

Amendement 6 : Accès sans fil dans les environnements véhiculaires (WAVE), Partie 11, Norme IEEE 802.11p, Norme IEEE 802.11p http://standards.ieee.org/findstds/standard/802.11p-2010.html

Jiang D, Delgrossi L : IEEE 802.11 p : Vers une norme internationale pour l'accès sans fil dans les environnements véhiculaires. Dans Conférence IEEE sur la technologie véhiculaire 2008. VTC printemps 2008. Singapour 11-14 mai 2008 : 2036-2040.

Regan MA, Oxley J, Godley S, Tingvall C : Systèmes de transport intelligents : problèmes de sécurité et de facteurs humains, no. 01/01 (Royal Automobile Club of Victoria (RACV) Ltd., 2001),. Université Monash, Australie, 2001

ETSI-Transports Intelligents. Systèmes de transport intelligents . Consulté le 11 mars 2014 http://www.etsi.org/technologies-clusters/technologies/intelligent-transport

Ghandour AJ, Fawaz K, Artail H : Garanties de livraison de données dans les réseaux ad hoc de véhicules encombrés utilisant des réseaux cognitifs. Dans 2011 7e conférence internationale IEEE sur les communications sans fil et l'informatique mobile (IWCMC). Istanbul 4-8 juillet 2011 : 871-876.

Commission fédérale des communications : rapport sur la politique du spectre du groupe de travail sur l'efficacité du spectre. 2002.

McHenry MA : Résumé du projet de mesures d'occupation du spectre NSF. Rapport d'entreprise sur le spectre partagé. . http://www.sharedspectrum.com/

Commission fédérale des communications : rapport du groupe de travail sur la politique du spectre. Registre ET (02-135) 2002, 215.

Zhao Q, Sadler BM : Une enquête sur l'accès dynamique au spectre. Mag de traitement du signal IEEE 2007, 24(3):79-89.

Patil K, Prasad R, Skouby K : Une enquête sur les campagnes mondiales de mesure de l'occupation du spectre pour la radio cognitive. Dans Conférence internationale IEEE 2011 sur les appareils et les communications (ICDeCom). Mesra 24-25 février 2011 :1-5.

Commission fédérale des communications : Deuxième avis et ordonnance en matière d'exploitation sans licence dans les bandes de diffusion TV (Dossier ET n° 04-186) et spectre supplémentaire pour les appareils sans licence en dessous de 900 MHz et dans la bande 3 GHz (Dossier ET n° 02-380) ( FCC 10-174). Washington, D.C. Septembre 2010.

Mitola III J, Maguire Jr GQ : Radio cognitive : rendre les radios logicielles plus personnelles. IEEE Pers. Commun 1999, 6(4):13-18. 10.1109/98.788210

Mitola III J : Radio cognitive pour des communications multimédia mobiles flexibles. Dans Atelier international IEEE sur les communications multimédias mobiles, 1999. (MoMuC'99). San Diego 15-17 novembre 1999 : 3-10.

Mitola III J : Radio cognitive : une architecture d'agent intégrée pour la radio définie par logiciel. Thèse. Thèse de doctorat, Royal Inst. Technol. (KTH), Stockholm, Suède, p. 271-250 (2000)

Haykin S : Radio cognitive : communications sans fil stimulées par le cerveau. IEEE J. Sélectionnez. Domaines Commun 2005, 23(2):201-220.

Akyildiz IF, Lee W-Y, Vuran MC, Mohanty S : Nouvelle génération/accès dynamique au spectre/réseaux sans fil radio cognitifs : une enquête. Calcul. Réseau 2006, 50(13): 2127-2159. 10.1016/j.comnet.2006.05.001

Wyglinski AM, Nekovee M, Hou T : Communications radio et réseaux cognitifs : principes et pratiques. Académique 2009.

Di Felice M, Doost-Mohammady R, Chowdhury KR, Bononi L : Radios intelligentes pour véhicules intelligents : réseaux de véhicules cognitifs. IEEE Veh. Technologie. Mag 2012, 7(2):26-33.

Pagadarai S, Wyglinski A, Vuyyuru R : Caractérisation des canaux de télévision UHF vacants pour l'accès au spectre dynamique des véhicules. Dans 2009 IEEE Vehicular Networking Conference (VNC). Tokyo 28-30 octobre 2009:1-8.

Di Felice M, Chowdhury KR, Bononi L : Gestion coopérative du spectre dans les réseaux ad hoc de véhicules cognitifs. Dans 2011 IEEE Vehicular Networking Conference (VNC). Amsterdam novembre 2011 : 47-54, 14-16.

Li H, Irick DK : Détection collaborative de spectre dans les réseaux ad hoc de véhicules radio cognitifs : propagation de croyances sur autoroute. Dans 2010 IEEE 71e conférence sur la technologie des véhicules (VTC 2010-printemps). Taipei 16-19 mai 2010 :1-5.

Tsukamoto K, Omori Y, Altintas O, Tsuru M, Oie Y : sur la sélection de canaux spatialement consciente dans les communications inter-véhicules multi-sauts à accès dynamique au spectre. Dans 2009 IEEE 70th Vehicular Technology Conference Automne (VTC 2009-Automne). Anchorage 20-23 septembre 2009:1-7.

Kim W, Gerla M, Oh SY, Lee K, Kassler A : CoRoute : un nouveau protocole de routage de véhicule cognitif anypath. Communication sans fil Informatique mobile 2011, 11(12):1588-1602. 10.1002/wcm.1231

Wang XY, Ho P-H : IEEE Trans. Véh. Technologie. 2010, 59(4):1936-1948.

Niyato D, Hossain E, Wang P : Gestion optimale de l'accès aux canaux avec prise en charge de la QoS pour les réseaux de véhicules cognitifs. IEEE Trans. Informatique mobile 2011, 10(4):573-591.

Akyildiz IF, Lee W-Y, Chowdhury KR : CRAHN : Réseaux ad hoc de radio cognitive. Réseaux ad hoc 2009, 7(5):810-836. 10.1016/j.adhoc.2009.01.001

Comité technique ISO 204 WG16 : Systèmes de transport intelligents - accès aux communications pour les mobiles terrestres (CALM) - architecture. 2010.

Comité technique ISO 204 WG16: Systèmes de transport intelligents - accès aux communications pour les mobiles terrestres (CALM) - M5,. ISO 21215

Comité technique ISO 204 WG16 : Systèmes de transport intelligents - Accès de communication pour les mobiles terrestres (CALM) - Réseaux non IP - Partie 1 : réseau rapide et protocole de couche transport (FNTP),. ISO 29281-1:2013

Comité technique ISO 204 WG16 : Systèmes de transport intelligents - Accès aux communications pour les mobiles terrestres (CALM) - Gestion des stations ITS - Partie 5 : protocole de publicité de service rapide (FSAP),. ISO 24102-5:2013

ETSI ES 202 663 v1.1.0. : Systèmes de transport intelligents (ITS) Norme européenne de profil pour la couche de contrôle d'accès physique et moyen des systèmes de transport intelligents fonctionnant dans la bande de fréquences 5 GHz.

Sevlian R, Chun C, Tan I, Bahai A, Laberteaux K : Caractérisation du canal pour la communication véhiculaire DSRC 700 MHz. J. Électr. Calcul. Eng 2010, 2010: 40.

Jakubiak J, Koucheryavy Y : État de l'art et défis de recherche pour les VANET. Dans 5e conférence IEEE sur les communications et les réseaux grand public, 2008. CCNC 2008. Las Vegas 10-12 janvier 2008 : 912-916.

Chen S : Accès au spectre dynamique des véhicules : utilisation de la radio cognitive pour les réseaux automobiles, Ph.D. Thèse, Worcester Polytechnic Institute. 2012.

Chen ZD, Kung H, Vlah D : réseaux sans fil de relais ad hoc sur des véhicules en mouvement sur les autoroutes. Dans Actes du 2e Symposium international de l'ACM sur les réseaux mobiles ad hoc et l'informatique, Long Beach. New York : ACM 2001 : 247-250.

Niculescu D, Nath B : La transmission par trajectoire et ses applications. Dans Actes de la 9e conférence internationale annuelle sur l'informatique mobile et les réseaux, San Diego. New York : ACM 2003 : 260-272.

Bose P, Morin P, Stojmenović I, Urrutia J : Routage avec livraison garantie dans les réseaux sans fil ad hoc.Réseaux sans fil. 2001, 7(6):609-616.

Lee J-H, Ernst T : Problèmes de sécurité IPv6 dans les systèmes de transport intelligents coopératifs. Calcul. J 2013, 56(10):1189-1197. 10.1093/comjnl/bxs006

Lee J-H, Ernst T : Problèmes de sécurité des communications IPv6 dans les systèmes de transport intelligents coopératifs (poster). Dans 2011 IEEE Vehicular Networking Conference (VNC). Amsterdam 14-16 novembre 2011 : 284-290.

Lee J-H, Ernst T, Bonnin J : Architecture multicouche pour la sécurisation de la communication IPv6 ITS : exemple de changement de pseudonyme. Dans IEEE 2011 Troisième atelier international sur la conception de couches croisées (IWCLD). Rennes novembre 2011:1-6.

Lee J-H, Ernst T, Ma X : Analyse des performances des messages de balisage sécurisé pour GeoNetworking. Sécurisé. Comm. Réseau 2011. doi : 10.1002/sec.396

Mitola J : L'architecture radio logicielle. IEEE Commun. Mag 1995, 33(5):26-38. 10.1109/35.393001

Mitola J : Logiciel Radio. New York : Wiley 2000.

Tuttlebee WH : Radio définie par logiciel : origines, moteurs et perspectives internationales. New York : Wiley 2002.

Dillinger M, Madani K, Alonistioti N : Radio définie par logiciel : architectures, systèmes et fonctions. New York : Wiley 2005.

Jondral FK : Radio définie par logiciel : bases et évolution vers la radio cognitive. EURASIP J. Wirel. Commun. Réseau 2005, 2005(3):275-283.

Arslan H : Radio cognitive, radio définie par logiciel et systèmes sans fil adaptatifs. Londres : Springer 2007.

Wang B, Liu KR : Avancées dans les réseaux radio cognitifs : une enquête. IEEE J. Sel. Haut. Signe. Processus 2011, 5(1):5-23.

Newman TR, Rajbanshi R, Wyglinski AM, Evans JB, Minden GJ : Application de réseau mobile. 2008, 13(5):442-451. 10.1007/s11036-008-0079-8

Chen S, Wyglinski AM, Pagadarai S, Vuyyuru R, Altintas O : Analyse de faisabilité de l'accès au spectre dynamique des véhicules via un modèle de théorie des files d'attente. IEEE Commun. Mag 2011, 49(11):156-163.

Chen S, Vuyyuru R, Altintas O, Wyglinski AM : Apprentissage dans les réseaux d'accès dynamique au spectre des véhicules : opportunités et défis. Dans Symposium international de l'IEEE sur les systèmes intelligents de traitement du signal et de communication (ISPACS). Chiang Mai 7-9 décembre 2011:1-6.

Chen S, Wyglinski AM : Utilisation efficace du spectre via l'optimisation inter-couches dans les réseaux radio cognitifs distribués. Calcul. Comm 2009, 32(18):1931-1943. 10.1016/j.comcom.2009.05.016

Jha SC, Rashid MM, Bhargava VK, Despins C : Contrôle d'accès au support dans les réseaux radio cognitifs distribués. Communication sans fil 2011, 18(4):41-51.

Jha SC, Phuyal U, Rashid MM, Bhargava VK : Conception d'OMC-MAC : un MAC multicanal opportuniste avec provisionnement QoS pour les réseaux radio cognitifs distribués. IEEE Trans. Communication sans fil 2011, 10(10):3414-3425.

Chen S, Vuyyuru R, Altintas O, Wyglinski AM : Sur l'optimisation des réseaux d'accès dynamique au spectre des véhicules : automatisation et apprentissage dans les environnements sans fil mobiles. Dans 2011 IEEE Vehicular Networking Conference (VNC). Amsterdam 14-16 novembre 2011 : 39-46.

Hassan K, Gautier R, Dayoub I, Radoi E, Berbineau M : Détection de spectre aveugle à antennes multiples non paramétrique par seuil de valeur propre prédite. 2012 Conférence internationale de l'IEEE sur les communications (ICC) 2012, 1634-1629.

Kharbech S, Dayoub I, Simon E, Zwingelstein-Colin M : Détecteur de modulation numérique aveugle pour les systèmes MIMO sur les voies ferrées à grande vitesse. Dans Technologies de communication pour les véhicules. Heidelberg : Springer 2013 : 232-241.

Hassan K, Dayoub I, Hamouda W, Berbineau M : Reconnaissance automatique de modulation utilisant la transformée en ondelettes et les réseaux de neurones dans les systèmes sans fil. EURASIP J. Adv. Sig. Pr. 2010. doi: 10.1155/2010/532898

Hassan K, Dayoub I, Hamouda W, Nzeza CN, Berbineau M : Identification de modulation numérique aveugle pour les systèmes MIMO spatialement corrélés. IEEE Trans. Communication sans fil 2012, 11(2):683-693.

Simon E, Khalighi M : Estimation itérative des canaux Soft-Kalman pour les canaux MIMO-OFDM à variation rapide dans le temps. Commun. sans fil IEEE. Lett 2013, 2(6):599-602.

Akyildiz IF, Lo BF, Balakrishnan R : Détection coopérative du spectre dans les réseaux radio cognitifs : une enquête. Phys. Commun 2011, 4(1):40-62. 10.1016/j.phycom.2010.12.003

Min AW, Shin KG : Impact de la mobilité sur la détection du spectre dans les réseaux radio cognitifs. Dans Actes de l'atelier ACM 2009 sur les réseaux radio cognitifs, Pékin, Chine. New York : ACM 2009 : 13-18.

Fawaz K, Ghandour A, Olleik M, Artail H : Améliorer la fiabilité des applications de sécurité dans les réseaux ad hoc de véhicules grâce à la mise en place d'un réseau cognitif. Dans IEEE 17e conférence internationale sur les télécommunications (TIC). Doha 4-7 avril 2010 : 798-805.

Borota D, Ivkovic G, Vuyyuru R, Altintas O, Seskar I, Spasojevic P : Sur le délai pour détecter de manière fiable la disponibilité des canaux dans les environnements de véhicules coopératifs. Dans IEEE 73e conférence sur les technologies véhiculaires (printemps VTC). Yokohama 15-18 mai 2011 :1-5.

Di Felice M, Chowdhury KR, Bononi L : Analyse du potentiel de la technologie radio cognitive coopérative sur la communication entre véhicules. Dans Journées sans fil IFIP 2010 (WD). Venise 20-22 octobre 2010:1-6.

Doost-Mohammady R, Chowdhury KR : Conception de réseaux de véhicules radio cognitifs assistés par base de données de spectre. Dans 2012 7th International ICST Conference on Cognitive Radio Oriented Wireless Networks and Communications (CROWNCOM). Stockholm 18-20 juin 2012 :1-5.

Ghandour AJ, Fawaz K, Artail H, Di Felice M, Bononi L : Améliorer la diffusion des messages sur la sécurité des véhicules grâce à la mise en place d'un réseau de véhicules cognitifs. Réseaux ad hoc 2013, 11(8) : 2408-2422. 10.1016/j.adhoc.2013.06.005

Khabbaz M, Assi C, Ghrayeb A : Modélisation et analyse des systèmes de communication véhicule-infrastructure basés sur DSA. IEEE Trans. Informer. Transport. Système 2013, 14(3):1186-1196.

Yang C, Fu Y, Zhang Y, Xie S, Yu R : schéma d'accès au spectre hybride économe en énergie dans les réseaux ad hoc de véhicules cognitifs. IEEE Commun. Lett 2013, 17(2):329-332.

Chowdhury KR, Felice MD : RECHERCHE : un protocole de routage pour les réseaux ad-hoc de radio cognitive mobile. Calcul. Commun 2009, 32(18) : 1983-1997. 10.1016/j.comcom.2009.06.011

Cacciapuoti AS, Caleffi M, Paura L : Routage réactif pour les réseaux ad hoc de radio cognitive mobile. Réseaux ad hoc 2012, 10(5) : 803-815. 10.1016/j.adhoc.2011.04.004

Laufer R, Dubois-Ferriere H, Kleinrock L : Routage multidébit anypath dans les réseaux maillés sans fil. Dans IEEE INFOCOM 2009. Rio de Janeiro 19-25 avril 2009 : 37-45.

Devarapalli V, Wakikawa R, Petrescu A, Thubert P : protocole de prise en charge de base de la mobilité réseau (NEMO). 2005.

Arkko J, Perkins C, Johnson D : Prise en charge de la mobilité dans IPv6. 2011.

Gundavelli S, Leung K, Devarapalli V, Chowdhury K, Patil B : proxy mobile IPv6. RFC 5213, août (2008)

Lee J-H, Ernst T : Mobilité de réseau léger au sein de PMIPv6 pour les systèmes de transport. Système IEEE. J 2011, 5(3):352-361.

Lee J-H, Ernst T, Chilamkurti N : Analyse des performances de la mobilité de réseau basée sur PMIPv6 pour les systèmes de transport intelligents. IEEE Trans. Véh. Technologie 2012, 61(1):74-85.

Lee J-H, Singh KD, Bonnin J-M, Pack S : Déchargement des données mobiles : une approche de gestion de la mobilité distribuée basée sur l'hôte. Informatique Internet IEEE 2014, 18(1):20-29.

De Nardis L, Guirao M-D : Conception de réseaux radio cognitifs sensibles à la mobilité : défis et opportunités. Dans 2010 Actes IEEE de la cinquième conférence internationale sur les réseaux sans fil et les communications radio-orientés cognitifs (CROWNCOM). Cannes 9-11 juin 2010 :1-5.

Lee W-Y, Akyildiz IF : Gestion de la mobilité sensible au spectre dans les réseaux cellulaires radio cognitifs. IEEE Trans. Informatique mobile 2012, 11(4):529-542.

Wang T, Song L, Han Z : jeux de graphes de coalition pour la distribution de contenu populaire dans les radios cognitives VANET. IEEE Trans. Véh. Technologie 2013, 62(8) : 4010-4019. http://dx.doi.org/10.1109/TVT.2013.2245353

CORRIDOR : Radio cognitive pour le chemin de fer grâce à la réutilisation dynamique et opportuniste du spectre . Consulté le 11 mars 2014. http://corridor.ifsttar.fr

Haziza N, Kassab M, Knopp R, Harri J, Kaltenberger F, Agostini P, Berbineau M, Gransart C, Besnier J, Ehrlich J, Aniss H : Système coopératif de véhicules multi-technologies basé sur la radio définie par logiciel (SDR). Dans NET4CARS 2013, 5e Atelier international sur les technologies de communication pour les véhicules, Lille, 14-15 mai 2013. Heidelberg : Springer 2013 : 84-95.

Amanna A, Gadhiok M, Price MJ, Reed JH, Siriwongpairat W, Himsoon T : Radio cognitive ferroviaire. IEEE Veh. Technologie. Mag 2010, 5(3):82-89.

CORNET, Banc d'essai du réseau radio cognitif . Consulté le 11 mars 2014. http://cornet.wireless.vt.edu

Gadhiok M, Amanna A, Price MJ, Reed JH : Métacognition : améliorer les performances d'une radio cognitive. Dans 2011 Première conférence internationale multidisciplinaire de l'IEEE sur les méthodes cognitives dans la connaissance de la situation et l'aide à la décision (CogSIMA). Miami, plage 22-24 février 2011 : 198-203.

Amoroso A, Marfia G, Roccetti M, Pau G : Bancs d'essai créatifs pour la recherche VANET : une nouvelle méthodologie. Dans 2012 IEEE Consumer Communications and Networking Conference (CCNC). Las Vegas 14-17 janvier 2012 : 477-481.

Marfia G, Roccetti M, Amoroso A, Gerla M, Pau G, Lim J-H : Voitures cognitives : construire un terrain de jeu cognitif pour les bancs d'essai de la recherche VANET. Dans Actes de la 4e Conférence internationale sur la radio cognitive et la gestion avancée du spectre Barcelone, 26-29 octobre 2011. New York : ACM 2011 : 29 : 1-29 : 5.

Banc d'essai de recherche en libre accès pour les réseaux sans fil de nouvelle génération (ORBIT). WINLAB, Université Rutgers. Consulté le 11 mars 2014 http://www.orbit-lab.org

Chowdhury KR, Di Felice M, Akyildiz IF : TP-CRAHN : un protocole de transport pour les réseaux ad-hoc de radio cognitive. Dans IEEE INFOCOM 2009. Rio de Janeiro 19-25 avril 2009 : 2482-2490.

Singh KD, Bonnin J-M, Ros D : Optimisation du TCP sur les réseaux radio cognitifs pour les trains. Dans IEEE 2012 12e conférence internationale sur les télécommunications ITS (ITST). Taipei 5-8 novembre 2012 : 678-682.

Zhang G, Xu Y, Wang X, Tian X, Liu J, Gan X, Yu H, Qian L : capacité de multidiffusion pour les VANETs avec antenne directionnelle et contrainte de délai. IEEE J. Sélectionnez. Domaines Commun 2012, 30(4):818-833.

Singh KD, Ksentini A, Marienval B : Outil de mesure de la qualité d'expérience pour le codage vidéo SVC. Dans 2011 Conférence internationale IEEE sur les communications (ICC). Kyoto 5-9 juin 2011 :1-5.

Singh KD, Hadjadj-Aoul Y, Rubino G : Estimation de la qualité de l'expérience pour le streaming vidéo HTTP/TCP adaptatif utilisant H.264/AVC. Dans 2012 IEEE Consumer Communications and Networking Conference (CCNC). Las Vegas 14-17 janvier 2012 : 127-131.

Deep Singh K, Piamrat K, Park H, Viho C, Bonnin J-M : Optimisation de la QoE pour une multidiffusion vidéo évolutive sur WLAN. Dans 2013 IEEE 24th International Symposium on Personal Indoor and Mobile Radio Communications (PIMRC). Londres 8-11 septembre 2013 : 2131-2136.

Altintas O, Nishibori M, Oshida T, Yoshimura C, Fujii Y, Nishida K, Ihara Y, Saito M, Tsukamoto K, Tsuru M, Oie Y, Vuyyuru R, Al Abbasi A, Ohtake M, Ohta M, Fujii T, Chen Si, Pagadarai S, Alexander Wyglinski M : Démonstration de communications de véhicule à véhicule sur un espace blanc TV (papier de démonstration). Dans 2011 IEEE Vehicular Technology Conference (VTC Fall). San Francisco 5-8 septembre 2011 :1-3.

Rzayev T, Shi Y, Vafeiadis A, Pagadarai S, Wyglinski AM : Implémentation d'une architecture de réseau véhiculaire prenant en charge l'accès dynamique au spectre. Dans 2011 IEEE Vehicular Networking Conference (VNC). Amsterdam 14-16 novembre 2011 : 33-38.

SUMO : Simulation de mobilité urbaine. Consulté le 11 mars 2014. http://sumo-sim.org