Suite

Mesures de distance étranges dans la matrice de distance


J'essaie de créer une matrice de distance entre deux fichiers de formes de points dans QGIS 2.6. Les deux sont en coordonnées WGS84 UTM Zone 30N (tout comme le fichier de projet), mais la matrice de distance renvoie des valeurs telles que 5673346.938, au lieu des nombres attendus compris entre 1 et 5 km.

J'ai vu un fil similaire mentionnant la désactivation des «modifications de projection à la volée» - je l'ai fait et aucun changement. Threads déjà vérifiés : Matrice de distance QGIS

Impossible d'obtenir la matrice de distance linéaire

Voici des exemples des deux fichiers de formes que j'utilise, réduits à l'ID et à l'emplacement. http://www.datafilehost.com/d/32dc1dc6

http://www.datafilehost.com/d/61fff8f3


Pour être complet, j'ai pu résoudre en partie mon problème. Il semble que QGIS enregistre les points en tant que multipoints. En effectuant un changement de plusieurs pièces en pièces uniques et en utilisant le nouveau fichier de formes produit, j'ai pu obtenir des résultats appropriés - parfois.

Pour une raison quelconque, cela ne fonctionne toujours pas TOUT le temps, même lorsque vous utilisez le même fichier de formes.


Comparaison des mesures de distance dans la modélisation analytique spatiale pour la planification des services de santé

Plusieurs approches méthodologiques ont été utilisées pour estimer la distance dans la recherche sur les services de santé. Dans cette étude, axée sur les services de cathétérisme cardiaque, Euclidienne, Manhattan et les mesures de distance moins connues de Minkowski sont utilisées pour estimer les distances entre la résidence du patient et l'hôpital. Les mesures de distance produisent généralement des estimations moins précises que les mesures réelles, mais chaque mesure fournit un modèle unique de déplacement sur un réseau donné. Par conséquent, les métriques de distance, contrairement aux mesures réelles, peuvent être directement utilisées dans la modélisation analytique spatiale. La distance euclidienne est le plus souvent utilisée, mais il est peu probable que la métrique la plus appropriée. La distance de Minkowski est une méthode plus prometteuse. Les distances estimées avec chaque métrique sont mises en contraste avec les mesures de distance routière et de temps de trajet, et une distance de Minkowski optimisée est implémentée dans la modélisation analytique spatiale.

Méthodes

La distance routière et le temps de déplacement sont calculés à partir du code postal de résidence de chaque patient subissant un cathétérisme cardiaque jusqu'à l'hôpital pertinent. La métrique de Minkowski est optimisée pour approximer le temps de trajet et la distance routière, respectivement. Les estimations de distance et les mesures de distance sont ensuite comparées à l'aide de statistiques descriptives et de méthodes de cartographie visuelle. La métrique de Minkowski optimisée est implémentée, via la matrice de poids spatial, dans un modèle de régression spatiale identifiant les facteurs socio-économiques significativement associés au cathétérisme cardiaque.

Résultats

Le coefficient de Minkowski qui se rapproche le mieux de la distance routière est de 1,54 1,31 qui se rapproche le mieux du temps de trajet. Ce dernier est également un bon prédicteur de la distance routière, fournissant ainsi le meilleur modèle unique de déplacement du domicile du patient à l'hôpital. La métrique euclidienne et la métrique optimale de Minkowski sont alternativement implémentées dans le modèle de régression, et les résultats comparés. La méthode de Minkowski produit des résultats plus fiables que la métrique euclidienne traditionnelle.

Conclusion

Les mesures de la distance routière et du temps de trajet sont les estimations les plus précises, mais ne peuvent pas être directement mises en œuvre dans la modélisation analytique spatiale. La distance euclidienne tend à sous-estimer la distance routière et le temps de trajet La distance à Manhattan tend à surestimer les deux. La distance de Minkowski optimisée pallie en partie leurs défauts en fournissant un modèle unique de déplacement sur le réseau. La méthode est flexible, adaptée à la modélisation analytique et plus précise que les métriques traditionnelles, son utilisation augmente finalement la fiabilité des modèles analytiques spatiaux.


Contenu

Le calcul de la distance entre les coordonnées géographiques est basé sur un certain niveau d'abstraction, il ne fournit pas de exact distance, qui est inaccessible si l'on tentait de rendre compte de chaque irrégularité de la surface de la terre. [1] Les abstractions courantes pour la surface entre deux points géographiques sont :

Toutes les abstractions ci-dessus ignorent les changements d'altitude. Le calcul des distances qui tiennent compte des changements d'élévation par rapport à la surface idéalisée ne sont pas abordés dans cet article.

Nomenclature Modifier

Les coordonnées de latitude et de longitude sur les cartes sont généralement exprimées en degrés. Dans les formes données des formules ci-dessous, une ou plusieurs valeurs doit être exprimé dans les unités spécifiées pour obtenir le résultat correct. Lorsque des coordonnées géographiques sont utilisées comme argument d'une fonction trigonométrique, les valeurs peuvent être exprimées dans toute unité angulaire compatible avec la méthode utilisée pour déterminer la valeur de la fonction trigonométrique. De nombreuses calculatrices électroniques permettent des calculs de fonctions trigonométriques en degrés ou en radians. Le mode calculatrice doit être compatible avec les unités utilisées pour les coordonnées géométriques.

Les différences de latitude et de longitude sont étiquetées et calculées comme suit :

Il n'est pas important que le résultat soit positif ou négatif lorsqu'il est utilisé dans les formules ci-dessous.

La « latitude moyenne » est libellée et calculée comme suit :

La colatitude est étiquetée et calculée comme suit :

Sauf indication contraire, le rayon de la terre pour les calculs ci-dessous est :

Singularités et discontinuité de latitude/longitude Modifier

Si un calcul basé sur la latitude/longitude devait être valable pour toutes les positions de la Terre, il faudrait vérifier que la discontinuité et les pôles sont traités correctement. Une autre solution consiste à utiliser m-vecteur au lieu de latitude/longitude, puisque cette représentation n'a pas de discontinuités ou de singularités.

Une approximation planaire de la surface de la terre peut être utile sur de petites distances. La précision des calculs de distance utilisant cette approximation devient de plus en plus imprécise car :

  • La séparation entre les points devient plus grande
  • Un point se rapproche d'un pôle géographique.

La distance la plus courte entre deux points dans le plan est une ligne droite. Le théorème de Pythagore est utilisé pour calculer la distance entre les points d'un plan.

Même sur de courtes distances, la précision des calculs de distance géographique qui supposent une Terre plate dépend de la méthode par laquelle les coordonnées de latitude et de longitude ont été projetées sur l'avion. La projection des coordonnées de latitude et de longitude sur un plan est du domaine de la cartographie.

Les formules présentées dans cette section offrent divers degrés de précision.

Terre sphérique projetée sur un plan Modifier

Cette formule prend en compte la variation de distance entre les méridiens avec la latitude :

Cette approximation est très rapide et produit un résultat assez précis pour de petites distances [ citation requise ] . En outre, lors du classement des emplacements par distance, comme dans une requête de base de données, il est plus rapide de classer par distance au carré, éliminant ainsi le besoin de calculer la racine carrée.

Terre ellipsoïdale projetée sur un plan Modifier

La FCC prescrit les formules suivantes pour les distances ne dépassant pas 475 kilomètres (295 mi) : [2]

Pour une implémentation plus efficace du point de vue informatique de la formule ci-dessus, plusieurs applications de cosinus peuvent être remplacées par une seule application et utilisation de la relation de récurrence pour les polynômes de Chebyshev.

Formule de coordonnées polaires de la Terre plate Modifier

Si l'on est prêt à accepter une erreur possible de 0,5%, on peut utiliser des formules de trigonométrie sphérique sur la sphère qui se rapproche le mieux de la surface de la terre.

La distance la plus courte le long de la surface d'une sphère entre deux points sur la surface est le long du grand cercle qui contient les deux points.

L'article sur la distance orthodromique donne la formule pour calculer la distance le long d'un grand cercle sur une sphère de la taille de la Terre. Cet article comprend un exemple de calcul.

Distance du tunnel Modifier

Un tunnel entre des points sur Terre est défini par une ligne à travers un espace tridimensionnel entre les points d'intérêt. La longueur de la corde du grand cercle peut être calculée comme suit pour la sphère unité correspondante :

Δ X = cos ⁡ ( ϕ 2 ) cos ⁡ ( λ 2 ) − cos ⁡ ( ϕ 1 ) cos ⁡ ( λ 1 ) Δ Y = cos ⁡ ( ϕ 2 ) sin ⁡ ( λ 2 ) − cos ⁡ ( ϕ 1 ) sin ⁡ ( λ 1 ) Δ Z = sin ⁡ ( ϕ 2 ) − sin ⁡ ( ϕ 1 ) C h = ( Δ X ) 2 + ( Δ Y ) 2 + ( Δ Z ) 2 . &Delta =cos(phi _<2>)cos(lambda _<2>)-cos(phi _<1>)cos(lambda _<1>)&Delta =cos(phi _<2>)sin(lambda _<2>)-cos(phi _<1>)sin(lambda _<1>)&Delta =sin(phi _<2>)-sin(phi _<1>)&C_=)^<2>+(Delta )^<2>+(Delta )^<2>>>.end>>

La distance du tunnel entre les points à la surface d'une Terre sphérique est D = R C h > . Pour les courtes distances ( D ≪ R ), cela sous-estime la distance du grand cercle de D ( D / R ) 2 / 24 /24> .

Un ellipsoïde se rapproche beaucoup mieux de la surface de la Terre qu'une sphère ou une surface plane. La distance la plus courte le long de la surface d'un ellipsoïde entre deux points de la surface est le long de la géodésique. Les géodésiques suivent des chemins plus compliqués que les grands cercles et en particulier, elles ne reviennent généralement pas à leurs positions de départ après un tour de la terre. Ceci est illustré sur la figure de droite où F est pris à 1/50 pour accentuer l'effet. Trouver la géodésique entre deux points sur la terre, le problème dit de géodésie inverse, a été au centre de nombreux mathématiciens et géodésiens au cours des XVIIIe et XIXe siècles avec des contributions majeures de Clairaut, [3] Legendre, [4] Bessel , [5] et Helmert. [6] Rapp [7] fournit un bon résumé de ce travail.

Les méthodes de calcul de la distance géodésique sont largement disponibles dans les systèmes d'information géographique, les bibliothèques de logiciels, les utilitaires autonomes et les outils en ligne. L'algorithme le plus largement utilisé est celui de Vincenty [8] qui utilise une série précise au troisième ordre dans l'aplatissement de l'ellipsoïde, c'est-à-dire environ 0,5 mm, cependant, l'algorithme ne parvient pas à converger pour des points presque antipodaux. (Pour plus de détails, voir les formules de Vincenty.) Ce défaut est corrigé dans l'algorithme donné par Karney, [9] qui emploie des séries précises au sixième ordre dans l'aplatissement. Il en résulte un algorithme qui est précis à double précision et qui converge pour des paires arbitraires de points sur la terre. Cet algorithme est implémenté dans GeographicLib. [dix]

Les méthodes exactes ci-dessus sont réalisables lors de l'exécution de calculs sur un ordinateur. Ils sont destinés à donner une précision millimétrique sur des lignes de n'importe quelle longueur. On peut utiliser des formules plus simples si l'on n'a pas besoin d'une précision millimétrique, ou si l'on a besoin d'une précision millimétrique mais que la ligne est courte. Rapp, [11] Chap. 6, décrit la méthode Puissant, la méthode des latitudes moyennes de Gauss et la méthode Bowring. [12]

La formule de Lambert pour les longues lignes Modifier

Sur le sphéroïde GRS 80, la formule de Lambert est désactivée de

0 Nord 0 Ouest à 40 Nord 120 Ouest, 12,6 mètres 0N 0W à 40N 60W, 6,6 mètres 40N 0W à 40N 60W, 0,85 mètre

Méthode de Bowring pour les lignes courtes Modifier

Bowring mappe les points sur une sphère de rayon R′, avec la latitude et la longitude représentées par φ′ et λ′. Définir

où la deuxième excentricité au carré est

(La courbure de Gauss de l'ellipsoïde à1 est 1/R′ 2 .) Les coordonnées sphériques sont données par


25. Résumé

Les positions sont un élément fondamental des données géographiques. Des ensembles de positions forment des caractéristiques, car les lettres de cette page forment des mots. Les positions sont produites par des actes de mesure, qui sont susceptibles d'erreurs humaines, environnementales et instrumentales. Les erreurs de mesure ne peuvent pas être éliminées, mais les erreurs systématiques peuvent être estimées et compensées.

Les arpenteurs-géomètres utilisent des instruments spécialisés pour mesurer les angles et les distances, à partir desquels ils calculent les positions horizontales et verticales. Le Global Positioning System (et, dans une plus large mesure potentiellement, le nouveau Global Navigation Satellite System) permet aux géomètres et aux citoyens ordinaires de déterminer des positions en mesurant les distances par rapport à trois satellites ou plus en orbite terrestre. Comme vous l'avez lu dans ce chapitre (et peut-être le savez-vous par expérience personnelle), la technologie GPS rivalise désormais avec les dispositifs de positionnement électro-optiques (c'est-à-dire les "stations totales" qui combinent la mesure optique de l'angle et les instruments électroniques de mesure de la distance) en termes de coût et de performance. Cela soulève la question suivante : « Si les récepteurs GPS de qualité topographique peuvent produire des données ponctuelles avec une précision inférieure au centimètre, pourquoi les dispositifs de positionnement électro-optiques sont-ils encore si largement utilisés ? » En novembre 2005, j'ai posé cette question à deux experts - Jan Van Sickle et Bill Toothill - dont j'avais utilisé les travaux comme références lors de la préparation de ce chapitre. J'ai également apprécié une discussion fructueuse avec un étudiant expérimenté nommé Sean Haile (automne 2005). Voici ce qu'ils avaient à dire :

Jan Van Faucille, auteur de GPS pour arpenteurs-géomètres et Coordonnées SIG de base, a écrit:

En général, on peut dire que le coût d'une bonne station totale (combinaison d'EDM et de théodolite) est similaire au coût d'un bon récepteur GPS « de qualité d'enquête ». Bien qu'un nouveau récepteur GPS puisse coûter un peu plus cher, il existe certainement des offres à faire pour de bons récepteurs d'occasion. Cependant, dans de nombreux cas, un système RTK qui pourrait offrir une production similaire à un EDM nécessite deux récepteurs GPS et là, évidemment, l'équation des coûts ne tient pas. Dans un tel cas, l'EDM est moins cher.

Pourtant, ce n'est pas toute l'histoire. Dans certaines circonstances, telles que les grands levés topographiques, la production de RTK GPS bat l'EDM quel que soit le différentiel de coût de l'équipement. N'oubliez pas que vous avez besoin d'une ligne de mire avec l'EDM. Bien sûr, si un relevé topographique devient trop volumineux, il est plus rentable de faire le travail avec la photogrammétrie. Et s'il devient vraiment grand, il est plus rentable d'utiliser l'imagerie satellitaire et la technologie de télédétection.

Parlons maintenant de la précision. Il est important de garder à l'esprit que le GPS n'est pas en mesure de fournir des altitudes orthométriques (élévations) sans un modèle de géoïde. Les modèles du géoïde s'améliorent tout le temps, mais sont loin d'être parfaits. L'EDM en revanche n'a pas une telle difficulté. Avec des procédures appropriées, il devrait être capable de fournir des hauteurs orthométriques avec une très bonne précision relative sur une zone locale. Mais, il est important de se rappeler que la précision relative sur une zone locale avec une ligne de visée étant nécessaire pour une bonne production (EDM) est applicable dans certaines circonstances, mais pas dans d'autres. Au fur et à mesure que la zone s'agrandit, que la ligne de visée est limitée et qu'une précision plus absolue est requise, l'avantage du GPS augmente.

Il faut également mentionner que l'idée que le GPS peut fournir une précision au cm doit toujours être discutée dans le contexte de la question « par rapport à quel contrôle et sur quel système de référence ?

En termes relatifs, sur une zone locale, en utilisant de bonnes procédures, il est certainement possible de dire qu'un EDM peut produire des résultats supérieurs au GPS en hauteurs orthométriques (niveaux) avec une certaine cohérence. À mon avis, cette idée est la raison pour laquelle il est rare qu'un arpenteur fasse un jalonnement de construction détaillé avec GPS, c'est-à-dire bordure et gouttière, égout, eau, etc. D'un autre côté, il est courant que les arpenteurs jalonnent une propriété. coins avec GPS sur un site de développement, et d'autres caractéristiques où l'aspect vertical n'est pas critique. Ce n'est pas que le GPS ne peut pas fournir des hauteurs très précises, c'est juste qu'il faut plus de temps et d'efforts pour le faire avec cette technologie par rapport à l'EDM dans cette zone particulière (composante verticale).

Il est certainement vrai que le GPS n'est pas bien adapté à toutes les applications d'arpentage. Cependant, il n'existe pas de technologie d'arpentage qui soit bien adaptée à toutes les applications d'arpentage. D'un autre côté, je pense qu'il serait difficile de faire valoir que toute technologie d'arpentage est obsolète. En d'autres termes, chaque système a des forces et des faiblesses et cela s'applique également au GPS.

Bill Toothill, professeur au Département des sciences et de l'ingénierie géoenvironnementales de l'Université Wilkes, a écrit :

Le GPS est tout aussi précis à courte portée et plus précis à longue distance que les équipements électro-optiques. Le coût du GPS est en baisse et n'est peut-être pas beaucoup plus qu'un instrument électro-optique haut de gamme. Le GPS est bien adapté à toutes les applications d'arpentage, même si pour une petite parcelle (moins d'un acre), les instruments traditionnels comme une station totale peuvent s'avérer plus rapides. Cela dépend de la disponibilité des sites de référence locaux (contrôle) et des exigences de référence du système de coordonnées du levé.

La plupart des unités GPS de qualité topographique (double fréquence) peuvent atteindre des précisions centimétriques avec des temps d'occupation assez courts. Dans le cas de RTK, cela peut prendre aussi peu que cinq secondes avec une communication appropriée avec une « base » de diffusion. La précision au centimètre près est une autre histoire. Atteindre le sous-centimètre, dont la plupart des géomètres n'ont pas besoin, nécessite des temps d'occupation beaucoup plus longs, ce qui n'est pas propice au travail de «production» dans un environnement commercial. La plupart des applications sous-centimétriques sont utilisées pour la recherche, dont la plupart appartiennent à la catégorie des déformations géologiques. J'utilise le GPS à double fréquence depuis huit ans dans le parc national de Yellowstone pour étudier la déformation de la caldeira de Yellowstone. Pour obtenir des résultats inférieurs au centimètre, nous avons besoin d'au moins 4 à 6 heures d'occupation à chaque point le long d'un transect.

Sean Hailé, un employé du service des parcs des États-Unis au parc national de Zion dont les responsabilités incluent les travaux de SIG et de GPS, conteste certaines de ces déclarations, ainsi que certains éléments du chapitre. Alors qu'il était étudiant à l'automne 2005, Sean a écrit :

Une comparaison des produits disponibles chez [un fabricant] montre que les technologies traditionnelles peuvent atteindre une précision de 3 mm. Dans des conditions idéales, l'équipement GPS le plus avancé ne peut atteindre qu'une précision de 5 mm, les résultats réels étant probablement plus proches de 10 mm. Il est vrai que le GPS est souvent la technologie la plus rapide et la plus facile à utiliser sur le terrain par rapport aux solutions électro-optiques, et avec des niveaux de précision comparables, il a remplacé les méthodes traditionnelles. Si le géomètre doit être précis au millimètre près, les outils électro-optiques sont cependant plus précis que le GPS.

Il n'y a aucun moyen, aucun, que vous puissiez acheter une unité sous-centimétrique n'importe où pour 1 000 à 2 000 $. Oui, les prix baissent, mais ce n'est que récemment (trois dernières années) que vous pourriez même acheter une unité GPS à un seul canal de précision inférieure au mètre pour moins de 10 000 $. Les unités que vous mentionnez dans le chapitre pour 1 000 à 2 000 $, elles seraient « vendre vos proches » chères au cours de la même période. Je ne suis pas dans le domaine de la mesure des plaques tectoniques, mais je m'occupe quotidiennement des unités GPS de correction différentielle de levé et de cartographie, je peux donc parler d'expérience à ce sujet.

Et la réponse de Bill selon laquelle le GPS est bien adapté à toutes les applications d'enquête ? Eh bien, je prie sincèrement de différer. Le GPS est mal adapté à l'arpentage où la vue sur l'horizon est limitée. Vous pourriez attendre indéfiniment et ne jamais obtenir le nombre requis de SV. Même avec la planification de mission. Obstacles tels que la canopée élevée, les immeubles de grande hauteur, les grandes parois rocheuses. toutes ces choses peuvent entraîner des erreurs multi-chemins élevées, ce qui peut ruiner les données des meilleures unités GPS. Aucune de ces choses n'affecte l'EDM. Oui, vous pouvez surmonter les mauvaises conditions de collecte GPS (dans une certaine mesure) en décalant votre point d'un endroit où le signal est bon, mais lorsque vous faites cela, vous prenez les mesures exactes (distance, angle) que vous feriez avec un EDM sauf avec un instrument qui n'est pas adapté à cette application !

Le système mondial de navigation par satellite (GNSS) peut éventuellement surmonter certaines des limitations du positionnement GPS. Pourtant, ces experts semblent convenir que les méthodes de levé GPS et électro-optique sont là pour rester.


Mots clés

Le travail de Cao et Morse a été financé en partie par des subventions du US Army Research Office et de la US National Science Foundation et par un don de la Xerox Corporation.

Le travail d'Anderson a été soutenu par National ICT Australia, qui est financé par le ministère australien des Communications, des Technologies de l'information et des Arts et par le Conseil australien de la recherche par le biais de l'initiative Backing Australia Ability et du programme ICT Centre of Excellence.


UofC " C'est maintenant

Enseignement offert par des membres du Département de génie géomatique de la Schulich School of Engineering.

Chef de département - D. Lichti

Chefs associés – K. O'Keefe, D.J. Marceau

Voici les cours d'études supérieures normalement offerts dans le département. Des cours supplémentaires sont également proposés par des conférenciers internationaux invités. Veuillez consulter le site Web du Département (http://www.geomatics.ucalgary.ca) pour les listes de cours actuelles.

Une introduction aux systèmes d'observation environnementale de la Terre en particulier aux plates-formes satellitaires. Technique de fusion d'ensembles de données multidimensionnels (c'est-à-dire des données au sol multispectrales, multitemporelles, multirésolutions et ponctuelles). Un certain nombre de questions environnementales seront abordées, notamment la séquestration du carbone, les techniques avancées d'estimation des variables biophysiques qui font partie intégrante de divers modèles environnementaux, la phénologie de la végétation et la compréhension de l'influence climatique sur les écosystèmes forestiers et polaires, etc.

Vue d'ensemble des concepts fondamentaux, des approches, des techniques et des applications dans le domaine de la géoinformatique. Les sujets abordés incluent le géocalcul, l'intelligence informatique, la théorie des systèmes complexes, la modélisation d'automates cellulaires, la modélisation de systèmes multi-agents, l'étalonnage et la validation de modèles dynamiques, l'échelle, le réseau de neurones artificiels, l'exploration de données et la découverte de connaissances, la géovisualisation et la science post-normale. Des projets individuels impliquant l'application de techniques et de modèles géoinformatiques sont menés.


Mesurer des distances

Les distances peuvent être mesurées par le cartographe de deux manières principales. Le cartographe peut mesurer les distances directement, en utilisant un certain type d'instrument de mesure ou d'observation, ou il peut mesurer les distances indirectement en effectuant des calculs à l'aide d'autres mesures directes.

Mesures directes

Les mesures directes de distance sont effectuées par le cartographe avec un certain type d'instrument ou d'outil de mesure. Des exemples de ces outils sont un ruban à mesurer, une roue de mesure, ou même en comptant les pas qu'une personne marche entre deux points. Les arpenteurs-géomètres peuvent utiliser un instrument spécial appelé télémètre électronique ou EDM pour mesurer les distances en comptant les longueurs d'onde des faisceaux lumineux qui rebondissent entre l'instrument et une cible. Les impulsions de sonar peuvent être utilisées pour mesurer des distances sous l'eau. Les distances peuvent également être mesurées de la même manière à l'aide du RADAR. Avec le bon équipement, les distances peuvent être mesurées à partir de photographies aériennes ou satellite et d'autres images de télédétection, ainsi qu'à partir de cartes existantes. (Nous en apprendrons plus sur la réalisation de mesures à partir de cartes dans la section de ce chapitre sur l'échelle des cartes.)

Mesures indirectes

Les mesures indirectes de distance sont basées sur des calculs à partir d'autres mesures directes. Cela implique souvent de simples calculs algébriques pour déterminer la distance inconnue par rapport à d'autres informations connues et à des principes mathématiques établis. Cela peut parfois impliquer des calculs très complexes. Par exemple, vous pouvez mesurer indirectement une distance entre deux points sur la surface de la Terre établie à l'aide du GPS. Les récepteurs acceptant les signaux GPS ne mesurent pas réellement la distance entre les deux points directement, mais la distance peut être calculée à partir d'autres mesures directes. (Les distances mesurées du récepteur aux satellites sont des mesures directes.)

Erreur dans les mesures de distance

Il est important de se rappeler que toutes les mesures contiennent des erreurs, et cela inclut les mesures directes et indirectes de distance. Pour plus d'informations sur le sujet de l'erreur de mesure, voir la section supplémentaire intitulée « Erreur de mesure ».


Localisation dans le réseau de capteurs sans fil

Les réseaux de capteurs sans fil sont particulièrement intéressants dans les environnements dangereux ou éloignés, ou lorsqu'un grand nombre de nœuds de capteurs doivent être déployés. La localisation est l'un des problèmes fondamentaux des réseaux de capteurs sans fil (WSN), car les emplacements des nœuds de capteurs sont essentiels à la fois aux opérations du réseau et à la plupart des tâches au niveau des applications. Les applications de surveillance définissent une classe importante d'applications utilisées dans les réseaux de capteurs sans fil. Dans cet article, nous tentons de présenter l'aperçu de divers défis, différentes techniques et algorithmes liés à la localisation.

,Algorithme de localisation,Réseaux de capteurs sans fil

Les réseaux de capteurs sans fil sont devenus l'un des principaux catalyseurs pour une variété d'applications telles que la surveillance de l'environnement, le suivi et la cartographie des véhicules et les interventions d'urgence. Les capteurs sont déployés dans un grand environnement physique où les informations de localisation de chaque capteur sont essentielles pour les applications,

par exemple. surveillance de l'habitat, suivi des cibles, surveillance du champ de bataille, etc[3]. Cependant, la localisation reste un problème difficile dans les réseaux de capteurs sans fil. Les nœuds d'ancrage sont des capteurs équipés de récepteurs GPS ou ayant une connaissance préalable de leurs emplacements physiques. Les informations de localisation des ancres sont utilisées pour la multilatération, la transformation de coordonnées relatives en coordonnées absolues ou en contraintes dans des algorithmes basés sur la programmation mathématique. Les algorithmes distribués basés sur la multilatération nécessitent une quantité importante d'ancres pour maintenir la précision de la solution. Cependant, le coût des ancres est beaucoup plus élevé qu'un capteur normal. De plus, le placement des ancres affecte également les performances des méthodes basées sur la multilatération.

La localisation est le processus par lequel les nœuds capteurs déterminent leur emplacement, et est un mécanisme pour découvrir les relations spatiales entre les objets. Les différentes approches sont considérées pour résoudre le problème en ce qui concerne le problème de localisation, avec différentes hypothèses considérées en fonction du type de réseau et des capacités des capteurs. Les hypothèses incluent comme le matériel de l'appareil, les modèles de propagation du signal, les exigences de synchronisation et d'énergie, et la composition du réseau (homogène vs hétérogène), l'environnement opérationnel (intérieur vs extérieur), la densité des balises, la synchronisation temporelle, les coûts de communication, les exigences d'erreur et le nœud mobilité. Cependant, la prise en compte de l'hypothèse dépend de l'application et des paramètres, notamment la précision, le coût, la puissance, les nœuds statiques et les nœuds mobiles [8]. Il existe différentes manières d'estimer les informations de localisation avec des paramètres et de distinguer les similitudes et les différences entre les différentes approches.

Défis de mise en œuvre de la localisation

WSN est un réseau de contraintes doté de ressources, afin d'éviter les interférences, la portée de communication effective est limitée dans une certaine mesure. Les données détectées peuvent arriver à destination via des sauts multiples. La fiabilité d'un chemin de routage n'est pas garantie, de sorte que le chemin de routage entre la source de données et le récepteur de données peut varier dans le temps. Dans le chemin de routage multi-sauts, pour estimer la distance entre un nœud et les balises, les erreurs provoquées dans ces approximations ont un impact négatif sur la précision de la localisation est WSN. Les erreurs de télémétrie sont un autre facteur influençant la précision de la localisation. Quel que soit le type d'approches de télémétrie adopté, il y aura toujours du bruit dans les mesures de télémétrie. De plus, comme les caractéristiques entre chaque paire émetteur-récepteur peuvent ne pas être les mêmes, ce type d'inuniformité entre les différents modes exerce également un impact négatif sur la précision de la localisation.

Aspects actuels de la localisation [8] :

Contraintes de ressources : les nœuds doivent être peu coûteux à fabriquer et trivialement faciles à déployer. Le déploiement doit également être facile. Les concepteurs doivent travailler activement pour minimiser le coût de l'énergie, le coût du matériel et le coût de déploiement de leurs algorithmes de localisation.

Densité de nœuds : de nombreux algorithmes de localisation sont sensibles à la densité de nœuds. Par exemple, les schémas basés sur le nombre de sauts nécessitent généralement une densité de nœuds élevée afin que l'approximation du nombre de sauts pour la distance soit précise. Les algorithmes qui dépendent des nœuds de balise échouent lorsque la densité de balise n'est pas suffisamment élevée dans une région particulière. Lors de la conception ou de l'analyse d'un algorithme, les hypothèses de densité implicite des algorithmes sont importantes, car une densité de nœuds élevée peut parfois être coûteuse, voire totalement infaisable.

Obstacles environnementaux et irrégularités du terrain : Les obstacles environnementaux et les irrégularités du terrain peuvent également nuire à la localisation. Par exemple, à l'extérieur, les gros rochers peuvent obstruer la ligne de visée, empêchant la télémétrie TDoA ou interférer avec les radios, introduisant une erreur dans les plages RSSI et produisant des plages de nombre de sauts incorrectes. À l'intérieur, comme les murs, peuvent également gêner les mesures. Tous ces problèmes sont susceptibles de survenir lors de déploiements réels, les systèmes de localisation devraient donc être capables de faire face.

Sécurité : la sécurité est le principal problème de localisation car les données sont transférées du nœud de balise au nœud d'ancrage, puis l'une des balises mobiles qui n'est pas sécurisée, agissant comme des balises mobiles d'origine, transmettent de faux messages à cause de cela, une erreur se produira, ce qui est préjudiciable au calcul. .

Topologies non convexes : les nœuds de bordure sont un problème car moins d'informations sont disponibles à leur sujet et avec la possibilité d'une qualité inférieure. Ce problème est exacerbé lorsqu'un réseau de capteurs a un

façonner. Les capteurs situés à l'extérieur du corps convexe principal du réseau peuvent souvent s'avérer non localisables. Même lorsque des emplacements peuvent être trouvés, les résultats ont tendance à présenter une erreur disproportionnée.

Les systèmes de localisation peuvent être divisés en trois composants distincts :

Estimation distance/angle : Ce composant est chargé d'estimer les informations sur les distances et/ou les angles entre deux nœuds. Ces informations seront utilisées par les autres composants du système de localisation.

Calcul de la position : ce composant est responsable du calcul de la position des nœuds sur la base des informations disponibles concernant les distances/angles et les positions des nœuds de référence.

Algorithme de localisation : C'est le composant principal d'un système de localisation. Il détermine comment les informations disponibles seront manipulées afin de permettre à la plupart ou à tous les nœuds d'un WSN d'estimer leurs positions.

Les techniques de mesure dans la localisation WSN peuvent être classées en trois catégories : mesures AOA, mesures liées à la distance

Angle d'arrivée (AoA): AOA est défini comme l'angle entre la direction de propagation d'une onde incidente et une direction de référence, connue sous le nom d'orientation[5]. Les informations de portée sont obtenues en estimant et en cartographiant les angles relatifs entre les voisins. AoA pour la localisation [3]. AoA estime l'angle auquel les signaux sont reçus et utilise des relations géométriques simples pour calculer les positions des nœuds. Lorsque l'orientation est 0 ou pointe vers le Nord, l'AOA est absolue, sinon relative. Une approche courante pour obtenir des mesures AOA consiste à utiliser un réseau d'antennes sur chaque nœud de capteur[5].

Fig 1 :Triangulation en localisation AOA : (a) Localisation avec information d'orientation (b) Localisation sans information d'orientation

Les schémas AoA sont décrits dans lesquels les nœuds capteurs transmettent leurs relèvements par rapport aux ancres, c'est-à-dire des nœuds supposés connaître leurs propres coordonnées et orientations. Unfortunately, these methods require a strong cooperation between neighbor nodes, and they are prone to error accumulations. Anchor nodes with adaptive antennas are used to communicate with sensors located in different parts of a network. A similar concept assumes a single anchor in the center of a network sending an angle bearing. The other nodes calculate their coordinates with the aid of the bearing and some extra information from their neighbors. However, both these solutions also need some RSS data. The position of a sensor node is determined as an intersection of antenna sectors of different anchor nodes. More precise

algorithms assume that sensors can receive exact AoA information from anchors. This can be accomplished if the anchors have directional antennas rotating with a constant angular speed. The sensors can estimate the AoA of the signal registering the time when the rotating beacon has the strongest power. However, the anchors with unrealistic radiation patterns are analyzed, the radio noise is not taken into consideration and the calculations are possible only for three anchors .The rotating antennas are too large for tiny anchor nodes. Generally, the main challenge of the AoA localization schemes for WSNs is the difficulty in achieving good accuracy while keeping the system simple and feasible to implement in pocket- size devices [6].

Distance related measurements

Distance related measurements include propagation time based measurements, time of arrival (ToA) measurements, and time difference-of-arrival (TDoA) measurements.

Time of Arrival (ToA):TOA is a widely used technology to perform localization. To obtain range information using ToA, the signal propagation time from source to destination is measured. A GPS is the most basic example that uses ToA. To use ToA for range estimation, a system needs to be synchronous, which necessitates use of expensive hardware for precise clock synchronization with the satellite[3]. It is for example used in radar systems. The basic TOA technology describes the reference nodes and the blindfolded node, co-operating to determine the inter-node distances by using timing results. The blindfolded node will send a message to each of the reference nodes to measure the distance. The moment the blindfolded node transmits a message, it attaches a timestamp (t1), indicating the clock time in the blindfolded node at the start of the data transmission. At arrival of the message at the reference node, the clock time in the reference node is stored as timestamp (t2). The difference between timestamp (t1) and (t2) indicates the time needed for the signal to travel from the blindfolded to the reference node through the air [4]. The propagation time can be directly translated into distance, based on the known signal propagation speed. These methods can be applied to many different signals, such as RF, acoustic, infrared and ultrasound. TDoA methods are impressively accurate under line-of-sight conditions. But this line-of-sight condition is difficult to meet in some environments. Furthermore, the speed of sound in air varies with air temperature and humidity, which introduce inaccuracy into distance estimation. Acoustic signals also show multi-path propagation effects that may impact the accuracy of signal detection.

Time Difference of Arrival (TDoA):To obtain the range information using TDoA, an ultrasound is used to estimate the distance between the node and the source. Like ToA, TDoA necessitates the use of special hardware, rendering it too expensive for WSNs[3].The propagation time can be directly translated into distance, based on the known signal propagation speed. These methods can be applied to many different signals, such as RF, acoustic, infrared and ultrasound. TDoA methods are impressively accurate under line-of-sight conditions. But this line-of-sight condition is difficult to meet in some environments. Furthermore, the speed of sound in air varies with air temperature and humidity, which introduce inaccuracy into distance estimation. Acoustic

signals also show multi-path propagation effects that may impact the accuracy of signal detection[7]

Received Signal Strength Indicator (RSSI): The energy of radio signal is an electromagnetic wave, which decreases as it propagates in space. As the signal propagates, its energy decreases with distance. RADAR is one of the first to make use of RSSI. RSSI has also been employed for range estimation, when the signal is received and have an estimate of the distance between sender and receiver.RSSI measures the power of the signal at the receiver and based on the known transmit power, the effective propagation loss can be calculated. After this by using theoretical and empirical models, this signal loss can be translated into a distance estimate[3], as used for RF signals. RSSI is a relatively cheap solution without any extra devices, as all sensor nodes are likely to have radios[8]

Limitations for RSSI approach

Many localization algorithms have been proposed for WSNs. Localization algorithms can be categorized as

Centralized vs. Distributed : based on their computational organization

Range-Free vs. Range-Based : to determining the location of a sensor node

Anchor-Based vs. Anchor-Free : based on whether or not external reference nodes (i.e., anchors) are needed

Individual vs. Collaborative Localization : calculating node position

Centralized vs. Distributed

Localization algorithms can be categorized as centralized or distributed algorithms based on their computational organization.

InCentralized algorithms:Sensor nodes send data to a central location where computation is performed and the location of each node is determined and sent back to the nodes[1]. In certain networks where centralized information architecture already exists, such as road traffic monitoring and control, environmental monitoring, health monitoring, and precision agriculture monitoring networks, the measurement data of all the nodes in the network are collected in a central processor unit. In such a network, it is convenient to use a centralized localization scheme. Once feasible to implement, the main motive behind the interest in centralized localization schemes is the likelihood of providing more accurate location estimates than those provided by distributed algorithms. Centralized localization is basically migration of inter-node ranging and connectivity data to a sufficiently powerful central

base station and then the migration of resulting locations back to respective nodes [1].

There exist three main approaches for designing centralized distance-based localization algorithms: multidimensional scaling (MDS), linear programming and stochastic optimization approaches. The advantage of centralize algorithms are that it eliminates the problem of computation in each node, at the same time the limitations lie in the communication cost of moving data back to the base station[7].The high communication costs and intrinsic delay.In most cases, costs increase as the number of nodes in the network increases, thus making centralized algorithms inefficient for large networks.

MDS-MAP consists of three steps.

Step 1: the scheme computes shortest paths between all pairs of nodes in the region of consideration by the use of all pair shortest path algorithm such as Dijkstras or Floyds algorithm. The shortest path distances are used to construct the distance matrix for MDS.

Step 2: the classical MDS is applied to the distance matrix, retaining the first 2 (or 3) largest eigenvalues and eigenvectors to construct a 2-D (or 3-D) relative map that gives a location for each node. Although these locations may be accurate relative to one another, the entire map will be arbitrarily rotated and flipped relative to the true node positions.

Step 3: Based on the position of sufficient anchor nodes (3 or more for 2-D, 4 or more for 3-D), transform the relative map to an absolute map based on the absolute positions of anchors which includes scaling, rotation, and reflection. The goal is to minimize the sum of squares of the errors between the true positions of the anchors and their transformed positions in the MDS map.

The advantage of this scheme is that it does not need anchor or beacon nodes to start with. It builds a relative map of the nodes even without anchor nodes and next with three or more anchor nodes the relative map is transformed into absolute coordinates. This method works well in situations with low ratios of anchor nodes [8].

A drawback of MDS-MAP is that it requires global information of the network and centralized computation.

In Distributed algorithms: This algorithm distributes the computational load across the network to decrease delay and to minimize the amount of inter-sensor communication have been introduced.Each node determines its location by communication with its neighboring nodes. Generally, distributed algorithms are more robust and energy efficient since each node determines its own location locally with the help of its neighbors, without the need to send and receive location information to and from a central server. Distributed algorithms however can be more complex to implement and at times may not be possible due to the limited computational capabilities of sensor nodes [1].Similarly to the centralized ones, the distributed distance based localization approaches can be obtained as an extension of the distributed connectivity-based localization algorithm to incorporate the available inter-sensor distance information.In Distributed localizations all the relevant computations are done on the sensor nodes themselves and the nodes communicate with each other

to get their positions in a network. Distributed localizations can be categorized into different classes.

Beacon-based distributed algorithms: Beacon- based distributed algorithms start with some group of beacons and nodes in the network to obtain a distance measurement to a few beacons, and then use these measurements to determine their own location.

Relaxation-based distributed algorithms: In relaxation-based distributed algorithms use a coarse algorithm to roughly localize nodes in the network. This coarse algorithm is followed by a refinement step, which typically involves each node adjusting its position to approximate the optimal solution.

Coordinate system stitching based distributed algorithms: In Coordinate system stitching the network is divided into small overlapping sub regions, each of which creates an optimal local map, then merge the local maps into a single global map.

Hybrid localization algorithms: Hybrid localization schemes use two different localization techniques such as proximity based map (PDM) and Ad-hoc Positioning System (APS) to reduce communication and computation cost

Interferometric ranging based localization: Radio interferometric positioning exploits interfering radio waves emitted from two locations at slightly different frequencies to obtain the necessary ranging information for localization.

Error propagation aware localization: When sensors communicate with each other, error propagation can be caused due to the undesirable wireless environment, such as channel fading and noise corruption. To suppress error propagation various schemes are proposed, like error propagation aware (EWA) algorithm [7].

Range Free:Range-free techniques use connectivity information between neighboring nodes to estimate the nodes position. Range-free techniques do not require any additional hardware and use proximity information to estimate the location of the nodes in a WSN, and thus have limited precision [1].Range-free localization never tries to estimate the absolute point to-point distance based on received signal strength or other features of the received communication signal like time, angle, etc. This greatly simplifies the design of hardware, making range- free methods very appealing and a cost-effective alternative for localization in WSNs. Amorphous localization, Centroid localization, APIT, DV-Hop localization, SeRLoc and ROCRSSI are some examples of range-free localization techniques [3].

Range Based: Range-based techniques require ranging information that can be used to estimate the distance between two neighboring nodes.Range-based techniques use range measurements such as time of arrival (ToA), angle of arrival (AoA), received signal strength indicator (RSSI), and time difference of arrival (TDoA) to measure the distances between the nodes in order to estimate the location of the sensors[1].In range-based localization, the location of a node is computed relative to other nodes in its vicinity. Range-based localization depends on the assumption that the absolute distance between a sender and a receiver can be estimated by one or more features of the communication signal from the sender to the

receiver. The accuracy of such an estimation, however, is subject to the transmission medium and surrounding environment. Range based techniques usually rely on complex hardware which is not feasible for WSNs since sensor nodes are highly resource-constrained and have to be produced at throwaway prices as they are deployed in large numbers[3]. The range methods exploit information about the distance to neighboring nodes. Although the distances cannot be measured directly they can, at least theoretically, be derived from measures of the time-of- flight for a packet between nodes, or from the signal attenuation. The simplest range method is to require knowledge about the distances to three nodes with known positions (called anchors or beacons depending on the literature), and then use triangulation.

Anchor-Based vs. Anchor-Free

Localization algorithms for WSNs, based on whether or not external reference nodes (i.e., anchors) are needed. These nodes usually either have a GPS receiver installed on them or know their position by manual configuration. They are used by other nodes as reference nodes in order to provide coordinates in the absolute reference system being used[1]

Anchor-based algorithms:Anchor nodes are used to rotate, translate and sometimes scale a relative coordinate system so that it coincides with an absolute coordinate system. In anchor based algorithms, a fraction of the nodes must be anchor nodes or at least a minimum number of anchor nodes are required for adequate results. At least three non collinear anchor nodes for 2- dimensional spaces and four non coplanar anchor nodes for 3-dimensional spaces are required. The final coordinate assignments of the sensor nodes are valid with respect to a global coordinate system or any other coordinate system being used. A drawback to anchor- based algorithms is that another positioning system is required to determine the anchor node positions. Therefore, if the other positioning system is unavailable, for instance, for GPS-based anchors located in areas where there is no clear view of the sky, the algorithm may not function properly. Another drawback to anchor- based algorithms is that anchor nodes are expensive as they usually require a GPS receiver to be mounted on them Therefore, algorithms that require many anchor nodes are not very cost-effective. Location information can also be hard-coded into anchor nodes, however, careful deployment of anchor nodes is required, which may be very expensive or even impossible in inaccessible terrainsb[1].

Anchor-free localization algorithms: [They do not require anchor nodes. These algorithms provide only relative node locations, i.e., node locations that reflect the position of the sensor nodes relative to each other. For some applications, such relative coordinates are sufficient. For example, in geographic routing protocols, the next forwarding node is usually chosen based on a distance metric that requires the next hop to be physically closer to the destination, a criteria that can be evaluated based on relative coordinates only[1]].

Individual vs. Collaborative Localization

When a node has enough information about distances and/or angles and positions, it can compute its own position using one of the methods trilateration, multilateration, and triangulation. Several other methods

can be used to compute the position of a node includes probabilistic approaches, bounding box, and the central position. The choice of which method to be used also impacts the final performance of the localization system. Such a choice depends on the information available and the processors limitations. Localization protocols also differ in their basic approach to calculating node position. In one class of protocols, nodes individually determine their location, using information collected from other nodes, typically involving trilateration, triangulation, or multilateration.

In a straightforward way, direct reach of at least three anchor nodes is needed for a node to compute its location coordinates. In computing the position using any of the above methods, algorithms often employ iterations, to start from the anchor nodes in the network and to propagate to all other free nodes calculating their positions. One of the problems of this approach is its low success ratio when the network connectivity level is not very high or when not enough well-separated anchor nodes exist in the network. To localize all the nodes, these algorithms quite often require that 20%40% of the total nodes in the network be anchor nodes, unless anchor nodes can increase their signal range.To solve the problem of demanding large numbers of anchor nodes, some approaches apply limited flooding to allow reach of anchor nodes in multiple hops, and to use approximation of shortest distances over communication paths as the Euclidean distance.

Triangulation:A large number of localization algorithms fall into this class. In simple terms, the triangulation method involves gathering Angle of Arrival (AoA) measurements at the sensor node from at least three sources. Then using the AoA references, simple geometric relationships and properties are applied to compute the location of the sensor node [3]. In triangulation information about angles is used instead of distances. Position computation can be done remotely or by the node itself, the latter is more common in WSNs. The unknown node estimates its angle to each of the three reference nodes and, based on these angles and the positions of the reference nodes (which form a triangle), computes its own position using simple trigonometrically relationships [6].Triangulation method is used when the direction of the node instead of the distance is estimated, as in AoA systems. The node positions are calculated in this case by using the trigonometry laws of sines and cosines [8].

Trilateration:Trilateration is a method of determining the relative positions of objects using the geometry of triangles similar to triangulation. Unlike triangulation, which uses AoA measurements to calculate a subjects location, trilateration involves gathering a number of reference tuples of the form (x y d). In this tuple, d represents an estimated distance between the source providing the location reference from (x y) and the

sensor node. To accurately and uniquely determine the relative location of a point on a 2D plane using trilateration, a minimum of 3 reference points are needed [3].Trilateration is the most basic and intuitive method. To estimate its position using trilateration, a node needs to know the positions of three reference nodes and its distance from each of these nodes. In real-world applications the distance estimation inaccuracies as well as the inaccurate position information of reference nodes make it difficult to compute a position. In order to do localization in a network, generally some beacons, also known as anchor notes should be set up. These beacons know exactly their coordinates. If a node with unknown coordinate can measure by some approaches the distances away from these beacons, the node can calculate its coordinate using trilateration algorithm. The geometrical representation of trilateration is illustrated in the graph above. If d1, d2, and d3 are accurate, Nk will locate at the intersection point of three circles if d1, d2, and d3 have some noise with them, Nk will locate at the intersection region of the three circles. the trilateration algorithm can be converted into linear equations.

Fig-3 the geometrical meaning of trilateration: if Nk knows the exact distances to A1, A2, and A3, it can calculate its coordinate

Multilateration:Multilateration is the process of localization by solving for the mathematical intersection of multiple hyperbolas based on the Time Difference of Arrival (TDoA). In multilateration, the TDoA of a signal emitted from the object to three or more receivers is computed accurately with tightly synchronized clocks. When a large number of receivers are used, more than 4 nodes, then the localization problem can be posed as an optimization problem that can be solved using, among others, a least squares method[3]].when a larger number of reference points are available, multilateration can be considered to compute the nodes position. The number of floating point operations needed to compute a position depends on the method used to solve the system of equations.

This paper has addressed the localization problem from the WSN perspective.The localization systems divided into three components- distance/angle estimation, position computation,and localization techniques.paper have discussed different localization algorithm/techniqueslike centralized or distributed Range-Free vs. Range-Based,Anchor-Based vs. Anchor- Free, Individual vs. Collaborative Localization depends on the application. Furthermore there is need for further research in the area localization techniques.

Thomas Kunz and Benjamin Tatham Localization in Wireless Sensor Networks and Anchor Placement Journal of Sensor and Actuator Networks 2012

Azzedineboukerche Localization systems for wireless sensor networks IEEE Wireless Communications December 2007

AvinashSrinivasan and Jie Wu A Survey on Secure Localization in Wireless Sensor Networks Florida Atlantic University, Boca Raton, FL, USA

Anneleen Van nieuwenhuyse, jeroenwyffels, jean- pierregoemaere, lieven de strycker, Bart nauwelaersTime of Arrival Based on Chirp Pulses as a means to Perform Localization in IEEE 802.15.4a Wireless Sensor Networks 10th International Conference on DEVELOPMENT AND APPLICATION SYSTEMS, Suceava, Romania,2010

RongPeng and Mihail L. SichitiuAngle of Arrival Localization for Wireless Sensor Networks Department of Electrical and Computer Engineering North Carolina State University Raleigh

PaweKuakowski a, Javier Vales-Alonso b, Esteban Egea- Lopez b, WiesawLudwina,Joan Garcia-HaroAngle-of- arrival localization based on antenna arrays for wireless sensor networks

Amitangshu Pal Localization Algorithms in Wireless Sensor Networks:Current Approaches nd Future ChallengesNetwork Protocols and Algorithms,2010

P.K Singh, Bharat Tripathi, Narendra Pal Singh Node localization in wireless sensor networksInternational Journal of Computer Science and Information Technologies,2011.


1 réponse 1

First an outline of the understanding of the question(s), then the answer.

Questions: Determine rate of change in dissimilarity (distance)?

I have repeated measures plant abundance data for 37 forest plots, across 80 years involving 50+ species of trees.

I want to calculate the rate at which plots change in community composition over time.

Is there a way I could do something similar but using the "raw" distance (dissimilarity) values?

For example (using the example data above): I want to quantify how much the community of species (as a whole) in Plot P1 has changed from Year 1 to Year 2.

However, because the distance matrix represents -- well -- a matrix of pairwise distances bewteen all points, I'm not sure how to go about quantifying change in "distance space"

@ttnphns As for purpose: I do not want to visualize the differences as that is what NMDS ordination allows me to do. I want to be able to determine the rate of change each sample has undergone between sampling periods. For example, I need to quantify the change in Plot 4 in 2000 vs 2010 (perhaps being represented by row 510 and 511 in my abund.data that informed the distance matrix. However, because the distance matrix represents, well, a matrix of pairwise distances bewteen all points, I'm not sure how to go about quantifying change in "distance space" – theforestecologist Jun 8 at 2:10

I'm not sure I completely understand the question but based on my understanding of MDS I doubt that it lends itself to an answer. First, are the 80 years of data annual and are all species measured consistently, i.e., is the panel balanced across plots, species and time? Next, why not treat it as a hierarchical and longitudinal growth model? This would involve restructuring your data matrix such that each record is plot-species-year-abundance giving about 150,000 records (37x80x50). Lots of lit on this topic, e.g., Singer's paper "Using SAS PROC MIXED to Fit Multilevel Models, Hierarchical Models, and Individual Growth Models" (.PDF) is a good intro. – DJohnson Jun 8 at 14:13

@DJohnson Thanks for the link and suggestion. To answer your questions: 1. No, the plots are not sampled regularly or even in the same years, but each plot was sampled 12-16 times. This shouldn't matter since I know the length of time between samples and can adjust results accordingly to put into "per annum" scale. 2. I don't think the approach you mention will work for me because I am not interested in a per-species change, but rather, I'm interested in a whole community change (i.e., considering all species together). This is what drew me initially to NMDS – theforestecologist Jun 8 at 14:27

@DJohnson, so you're right, that my most basic unit in my analysis is abundance for a species in a year of sampling in a given plot. However, as noted in my comment above, I am not sure how to express "community" other than using a dissimilarity matrix approach. – theforestecologist Jun 8 at 16:15

[For the sake of brevity, as best as it was possible, only comments that seemed to affect the questionS were quoted.]

Attempt to assess the quality of the inventory and dendrometry (deal with outliers).

Take existing data and: use "logistic regression", "piecewise fitting", "principal component analysis", or massage and interpolate it to fit (account for missing years).

If you don't have a Nouveau problem use established methods so you can draw on existing knowledge and present your findings in a common and expected (accessable) format.

To distill a whole community to a single point decide upon a stereotype. Examples: Determine biomass, or use height x diameter (volumetric approximation), or simply scale basal area with the comparative growth rate of each species.

Decide upon an appropriate chart style to present your data.

Reiterate to remove obvious faults or explore exceptions. See: "Ordination Methods - an overview" (so you don't have the same problem as in the question you linked to: "NMDS anomaly - data does not support point placement").

There's some software specifically designed for forestry:

Read some of the free online information, example: "Manual of forest inventory - FAO" (.PDF).

You can expand your limited data to create a larger set before distilling.

Tree allometry establishes quantitative relations between some key characteristic dimensions of trees (usually fairly easy to measure) and other properties (often more difficult to assess). To the extent these statistical relations, established on the basis of detailed measurements on a small sample of typical trees, hold for other individuals, they permit extrapolations and estimations of a host of dendrometric quantities on the basis of a single (or at most a few) measurements.

The study of allometry is extremely important in dealing with measurements and data analysis in the practice of forestry. Allometry studies the relative size of organs or parts of organisms. Tree allometry narrows the definition to applications involving measurements of the growth or size of trees. Allometric relationships often are used to estimate difficult tree measurements, such as volume, from an easily measured attribute such as diameter at breast height (DBH).

The use of allometry is widespread in forestry and forest ecology. In order to develop an allometric relationship there must be a strong relationship and an ability to quantify this relationship between the parts of the subject measured and the other quantities of interest. Also when developing this equation one must play in factors which affect tree growth such as age, species, site location, etc. Once all these guidelines are met, one may attempt to develop an allometric equation.

For your last questions see:

"Choosing the Correct Statistical Test" (Derived from Dr. Leeper's work) - General guidelines for choosing a statistical analysis and links showing how-to using SAS, Stata, SPSS and R.

Dr. Michael W. Palmer has a number of papers specific to vegetation science.


Keywords

Guoqiang Mao received the Bachelor degree in electrical engineering, Master degree in engineering and Ph.D. in telecommunications engineering in 1995, 1998 and 2002, respectively. After graduation from Ph.D., he worked in “Intelligent Pixel Incorporation” as a Senior Research Engineer for one year. He joined the School of Electrical and Information Engineering, the University of Sydney in December 2002 where he is a Senior Lecturer now. His research interests include wireless sensor networks, wireless localization techniques, network QoS, telecommunications traffic measurement, analysis and modeling, and network performance analysis.

Barış Fidan received the B.S. degrees in electrical engineering and mathematics from Middle East Technical University, Turkey in 1996, the M.S. degree in electrical engineering from Bilkent University, Turkey in 1998, and the Ph.D. degree in Electrical Engineering-Systems at the University of Southern California, Los Angeles, USA in 2003. After working as a postdoctoral research fellow at the University of Southern California for one year, he joined the Systems Engineering and Complex Systems Program of National ICT Australia and the Research School of Information Sciences and Engineering of the Australian National University, Canberra, Australia in 2005, where he is currently a researcher. His research interests include autonomous formations, sensor networks, adaptive and nonlinear control, switching and hybrid systems, mechatronics, and various control applications including high performance and hypersonic flight control, semiconductor manufacturing process control, and disk-drive servo systems.

Brian D.O. Anderson was born in Sydney, Australia, and received his undergraduate education at the University of Sydney, with majors in pure mathematics and electrical engineering. He subsequently obtained a Ph.D. degree in electrical engineering from Stanford University. Following completion of his education, he worked in industry in Silicon Valley and served as a faculty member in the Department of Electrical Engineering at Stanford. He was Professor of Electrical Engineering at the University of Newcastle, Australia from 1967 until 1981 and is now a Distinguished Professor at the Australian National University and Chief Scientist of National ICT Australia Ltd. His interests are in control and signal processing. He is a Fellow of the IEEE, Royal Society London, Australian Academy of Science, Australian Academy of Technological Sciences and Engineering, Honorary Fellow of the Institution of Engineers, Australia, and Foreign Associate of the US National Academy of Engineering. He holds doctorates (honoris causa) from the Université Catholique de Louvain, Belgium, Swiss Federal Institute of Technology, Zürich, Universities of Sydney, Melbourne, New South Wales and Newcastle. He served a term as President of the International Federation of Automatic Control from 1990 to 1993 and as President of the Australian Academy of Science between 1998 and 2002. His awards include the IEEE Control Systems Award of 1997, the 2001 IEEE James H. Mulligan, Jr. Education Medal, and the Guillemin-Cauer Award, IEEE Circuits and Systems Society in 1992 and 2001, the Bode Prize of the IEEE Control System Society in 1992 and the Senior Prize of the IEEE Transactions on Acoustics, Speech and Signal Processing in 1986.

National ICT Australia is funded by the Australian Government’s Department of Communications, Information Technology and the Arts and the Australian Research Council through the Backing Australia’s Ability initiative and the ICT Centre of Excellence Program.


Watch the video: Matriisit osa 1 (Octobre 2021).