Suite

Analyse de fréquence et analyse de superposition


Je suis nouveau sur gis et j'espère trouver de l'aide ici. Je travaille sur une recherche qui nécessite que je superpose les conditions des systèmes de drainage et la qualité des soins de santé dans un État côtier pour obtenir des zones susceptibles d'augmenter l'incidence du paludisme. Chacun de ces deux attributs de zones dans l'état a plus d'une valeur. Par exemple, sous la qualité des soins de santé, j'ai des données sur : la présence du service de santé, la fourniture de médicaments et l'attitude du personnel de santé. Dans les conditions du système de drainage, données sur : présence de drainage à ciel ouvert, efficacité de la gestion des déchets. Les données sont dérivées des réponses des répondants à une enquête auprès des ménages. Les données sont sous forme numérique

J'utilise arcgis 9.2

Pour ma question, puis-je utiliser l'analyse de fréquence dans gis pour résumer les données et superposer les deux attributs


Les statistiques de fréquence et de synthèse étaient bien présentes dans la version 9.2, la fréquence existe depuis que j'utilise les produits ESRI (début des années 1990). Les statistiques récapitulatives offrent des types de statistiques plus puissants sur la fréquence et peuvent fonctionner avec une licence de base (ArcView) là où la fréquence nécessite une licence avancée (INFO).

Idem avec Intersect, Identity et Union, qui font des choses similaires - regardez les images et décidez laquelle est pour vous. Une licence INFO vous serait bien utile ici ; si vous avez une licence ArcView ou ArcEdit, utilisez la jointure spatiale pour superposer.

Je pense que vous voulez Intersecter les deux ensembles de données suivis de statistiques récapitulatives pour tabuler les données.


Je ne sais pas si ArcGIS 9.2 prend en charge la superposition vectorielle. Vous pouvez utiliser QGIS 2.2 (SIG open source gratuit que vous pouvez télécharger sur qgis.org). Après l'installation, ouvrez vos fichiers vectoriels, puis, menu "Vecteur" - "Outils de gestion des données" - "Rejoindre les attributs par emplacement"


Analyse factorielle et système d'information géographique pour déterminer les zones de probabilité de présence de décharges illégales

Nous développons une méthodologie pour identifier les zones de décharges illégales probables.

La méthodologie consiste à mettre en œuvre une analyse factorielle à l'aide d'un modèle géostatistique SIG.

Ce modèle peut être appliqué à d'autres régions et enjeux territoriaux.

Les résultats de cette méthodologie sont corroborés par la vérification de chaque modèle spatial.

L'avantage de cette méthode est que le modèle n'inclut pas de variables arbitrairement et que les variables incluses n'ont pas le même poids.


Analyse fréquentielle et analyse superposée - Systèmes d'Information Géographique

La plupart des études de cohorte, cas-témoins ou études descriptives en épidémiologie n'incluent pas la géographie. C'est-à-dire l'emplacement d'une personne, où elle travaille, son moyen de transport, où elle se rend chaque jour, où elle passe réellement son temps dans sa communauté, sa chronologie en termes de latitude et de longitude ne sont pas incluses dans les études épidémiologiques. Le comté, l'état ou le pays d'une personne ou d'un groupe peut faire partie de l'affichage des données, mais il est probable qu'il n'y a rien sur la relation spatiale réelle entre l'endroit où elle vit et l'endroit où vivent les autres.

De la neige et un SIG

Ici, nous avons la célèbre carte du choléra de Londres par John Snow. Les points sont les emplacements des cas de choléra et les carrés l'emplacement des pompes à eau. Vous vous souvenez probablement que John Snow a conclu que la pompe de Broad Street avait quelque chose à voir avec les décès dus au choléra dans le quartier de Soho à Londres. Il a fait cette carte et a convaincu les autorités de Londres de verrouiller la pompe. Cela a été fait et en quelques jours, le nombre de décès a commencé à diminuer.

Si Snow avait un SIG en 1854, il aurait pu faire quelque chose que personne n'avait jamais pu faire auparavant. Il aurait pu poser une question à la carte. Cliquer sur les régions où les taux de mortalité sont les plus élevés (ou toute autre) révélerait toutes les données associées aux régions : population, répartition par âge, revenu et des centaines d'autres variables qui caractérisent les « quartiers de dénombrement » de Londres.

La question est simple. L'analyste voit les zones rouges sur la carte et se demande ce que sont ces populations, et sont-elles différentes du reste de Londres d'une manière ou d'une autre ? L'une des variables de la base de données SIG pourrait être la provenance de leur eau potable. Bien sûr, nous savons maintenant que cette question aurait été très importante en effet.

Calcul des taux relatifs

Le SIG permet de faire des calculs qui plaisent toujours aux épidémiologistes. Tarifs et ratios tarifaires. Les progiciels SIG ne sont pas des progiciels statistiques mais peuvent faire des choses simples. Plus important encore, lorsque l'on effectue une analyse statistique sophistiquée dans un autre logiciel, les résultats peuvent être facilement connectés à toutes les zones géographiques. La principale caractéristique du SIG est de connecter les données à une carte.

Ratios de taux de décès dus au choléra

Snow aurait pu calculer les ratios de taux et, avec un SIG, examiner de près où ils étaient hauts et bas. Quiconque regarde cette carte verra que les taux élevés semblent être tous les mêmes avec les taux bas et tous ceux qui se situent entre les deux.

Superposition de polygones

Le processus de « superposition » dans le SIG, une caractéristique centrale du SIG, nous permet d'estimer les taux de mortalité par rapport aux limites des compagnies d'eau plutôt que de rester coincé avec les taux dans les zones de dénombrement. On pourrait appeler ces "estimations synthétiques", c'est-à-dire des estimations de taux faites par interpolation aérienne. La "superposition" que nous voyons ici sur la carte bleue montre les taux de décès estimés par rapport aux limites de la compagnie des eaux plutôt qu'aux zones de dénombrement.

Superposer les résultats

Il est clair que les districts d'eau de Southwark et Kent affichent des taux de mortalité beaucoup plus élevés que n'importe quelle région de Londres. Le SIG nous permet d'estimer les taux de mortalité dans des zones pour lesquelles nous ne pouvons pas faire de mesure directe. Snow pouvait calculer les taux de mortalité dans les zones de dénombrement de Londres parce qu'il pouvait obtenir le nombre de décès et la population à partir des registres d'inscription dans les paroisses, qui étaient très bons pour compter leurs paroissiens, et quand et à partir de quoi ils étaient morts. Le SIG aurait permis à Snow d'étendre ces données aux taux de mortalité dans les districts hydrographiques, qui couvraient de nombreux districts de dénombrement, beaucoup par fractions.

Qu'est-ce que la confusion spatiale ou l'autocorrélation spatiale ? Souvent, lorsque vous calculez les taux de maladie par endroit, les taux de maladie ou leurs intervalles de confiance vont être biaisés en raison du fait qu'il y a des zones juste à côté qui sont à peu près les mêmes et que vous ne pouvez donc pas faire comparaisons très facilement.

Le SIG comme aide à la visualisation des données

Le SIG est actuellement principalement un outil de visualisation de données. Avec surtout du bon sens, cela peut nous amener à évaluer l'importance des relations spatiales et plus tard à développer des modèles analytiques. L'épidémiologie moderne a commencé avec des cartes - John Snow - et dernièrement, la technologie et le développement du cadre théorique en géographie permettent enfin aux épidémiologistes de faire des analyses spatiales bien plus sophistiquées que celles utilisées par John Snow. Il ne faut en aucun cas sous-estimer ses pouvoirs d'analyse spatiale. Considérez que la théorie des germes n'était pas disponible, considérez le siècle dans lequel il a vécu.

Cette diapositive illustre également l'une des caractéristiques centrales sinon les plus importantes du SIG, les données sont liées à la carte ou peut-être mieux, une carte est liée aux données.

Questions génériques SIG, localisation

Le SIG permet de poser des questions sur la carte comme où se trouve quelque chose. On peut obtenir un emplacement comme la longitude et la latitude ou la proximité. Où est Leavenworth ? Le polygone hachuré, dans ce cas un code postal, affiche la réponse.

Questions génériques SIG l

On peut obtenir des réponses à des questions génériques sur les relations entre les aires, la distance, les périmètres et la proximité : comment A est-il lié à B et C ? - les réponses aux questions topologiques.

Demandez la carte

Vous pouvez poser des questions comme, quelles pistes de recensement ont moins de 100 familles ? Ici, nous avons la piste de recensement 59322. La population est de 1472. Il y a trois familles, trois ménages et 1 465 hommes. Où est-ce?

Walla Walla

C'est la prison de Walla Walla. Il s'agit d'une requête très simple pour la carte. SQL (langage de requête structuré) permet de rendre ces requêtes aussi compliquées que vous le souhaitez et de s'étendre sur autant de couches que vous le souhaitez. Un exemple : "Quel code postal a < 100 familles et a un revenu médian du ménage de < 15 000 $ et vit dans un rayon de 0,5 miles si l'Interstate Highway 5 ?"

Questions génériques sur les tendances

Le SIG peut traiter des questions de tendance génériques, c'est-à-dire considérer comment les choses changent dans le temps. C'est une tâche difficile pour une base de données ordinaire, mais pour une base de données SIG, des éléments tels que les changements de taille, d'emplacement, de forme, les changements de typologie et les nouvelles fonctionnalités qui apparaissent sur une période de temps font partie de sa capacité.

La région jaune pourrait représenter l'étendue du paludisme dans un pays vert. Dans ce cas, en 1980 et comment la maladie s'était propagée 10 ans plus tard.

Questions de modélisation générique SIG

Le SIG peut vous aider à modéliser les relations spatiales et à effectuer des analyses "et si". La modélisation géographique est comme toute autre activité de modélisation. La réalité est une chose et le modèle une autre, mais c'est souvent le mieux que nous puissions ou devons faire.

La "réalité" est représentée par des formes géométriques ordinaires dans le "modèle géographique", puis une analyse "et si" peut être effectuée en modifiant certaines des relations, la forme ou d'autres caractéristiques.

Points, lignes et polygones

Les données d'un SIG sont des points, des lignes et des polygones. Les points peuvent être des villes ou des tours radio. Les lignes peuvent être des rivières ou des routes. Les polygones peuvent être des codes postaux ou des villes. L'échelle est importante ici. Si une carte est une carte à grande échelle (en regardant une petite zone), alors une ville ne peut pas être un point, ce doit être un polygone. Sur une carte à petite échelle (en regardant une grande zone), alors il peut être adéquat de représenter une ville par un point.

Même chose avec les lignes et les polygones. Si votre carte est suffisamment grande, une rivière ne peut pas être correctement représentée par une ligne et doit être représentée sous forme de polygone. Les rivières au sol ont une largeur et une longueur. Les lignes n'ont qu'une longueur.

Données référencées géographiquement

Cela signifie que les données ordinaires sur une zone ou une personne ou une ville ou une communauté ou tout ce qui peut apparaître dans le sol sont liées à un emplacement.

Caractéristiques principales des données spatiales

Cela montre que les données spatiales concernent la position, la zone, le périmètre, la distance, la proximité liées à des attributs non spatiaux tels que l'âge, la race, le sexe et la cause du décès.

Couches

La qualité fondamentale du SIG dans la représentation des données réside dans la superposition de couches de données les unes sur les autres. Supposons que vous ayez des feuilles de plastique transparentes. Un avec les limites du comté, un avec une carte thématique, un autre avec de l'eau et d'autres avec des caractéristiques géographiques, et le dernier avec des sites de déchets toxiques. Les empiler les uns sur les autres crée une carte composite.

Avec un SIG, on peut afficher certaines couches et pas d'autres, changer celles qui se superposent, et surtout, les connecter toutes ensemble pour une analyse spatiale.

Taux d'hospitalisation pour asthme

Ceci est un exemple de carte multicouche. Une couche de sites d'inventaire des rejets toxiques, une couche de taux d'hospitalisation pour asthme par secteur de recensement, une couche de sites Super Fund, une autre de stations de surveillance de l'air et une de codes postaux.

Le tableau connecté aux données indique le code postal et de combien le taux d'hospitalisation ajusté en fonction de l'âge est supérieur au taux de l'État.

Deux problèmes

Deux épidémiologistes de problèmes travaillent rarement vraiment.
1. Prise en compte de la géographie dans le contexte de la maladie et de l'exposition.

Sophisme écologique contre le sophisme "atomistique*"

2. Traiter de petits nombres.

Les épidémiologistes ne peuvent plus s'éloigner de celui-ci.

* Ignorer le contexte social et géographique d'un individu. (Peut être aussi grave que le sophisme écologique où les caractéristiques d'un individu sont supposées à partir des caractéristiques du groupe - le secteur de recensement de quelqu'un.

Pendant si longtemps, les épidémiologistes ont évité le sophisme écologique : attribuer les caractéristiques d'un groupe à un individu. Ce n'est pas parce qu'une personne vit dans un quartier à revenu élevé, très blanc et très scolarisé qu'elle a certaines, encore moins toutes, de ces caractéristiques. Cependant, il pourrait y avoir un autre côté de la médaille. Supposons que dans une étude cas-témoins, nous collections de nombreuses informations personnelles sur toutes sortes d'expositions possibles, mais ignorions le contexte géographique, spatial et social dans lequel une personne vit ? C'est le "sophisme atomistique".

Traiter de petits nombres n'est plus le fléau des épidémiologistes descriptifs. De nombreuses techniques ont été développées pour traiter de petits domaines - lissage empirique de Bayes, headbanging, modèles mixtes, estimateurs sandwich - toutes un pas vers le traitement de petits nombres et de géographies arbitraires.

Simulation de Monte-Carlo

1. Simulation de Monte-Carlo

Caractérisation du milieu d'exposition (ou de maladie)

  • Distribution gratuite
  • Non paramétrique
  • Plus facile à comprendre
  • Les résultats sont aussi bons (ou meilleurs)
    Peut être appliqué à n'importe quelle géographie

La simulation Monte Carlo nous permet de caractériser l'exposition ou le résultat sans traiter les statistiques ordinaires dépendantes de la distribution. La méthode est simple, facile à comprendre, les résultats sont meilleurs que les méthodes statistiques ordinaires, ils peuvent être appliqués à n'importe quelle géographie et la confusion spatiale peut être prise en compte à la volée.

Caractéristiques des personnes vivant à proximité des sites du Super Fund

  • Géocoder les sites SF - 257 sites
  • Construire un tampon de 1 mile
  • Superposer les tampons sur les données de recensement
  • Attribuer des emplacements aléatoires pour les sites de contrôle - 16000 points (éliminer l'eau, le parc, les emplacements improbables)
  • Pour les sites de contrôle, construisez une zone tampon de 1 mile et superposez les données de recensement
  • Construire une distribution empirique par échantillonnage aléatoire répété de 257 sites
  • Comparer les sites SF avec une distribution empirique

L'idée est de déterminer si les quartiers proches des sites Superfund sont différents des autres quartiers.

Cette notion pourrait être facilement étendue à un problème de maladie infectieuse. On pourrait vouloir caractériser les quartiers où les taux de vaccination sont faibles ou où le paludisme a eu une récente poussée ou où ils sont apparus un groupe de cas d'E.coli.

Ici, nous avons examiné 257 sites Super Fund et Toxic Release dans certains comtés de l'ouest de Washington. Nous avons construit des zones tampons de 1 mile (également des zones tampons de 0,25, 0,5, 0,75 mile) sur les données de population du recensement.

En utilisant le processus GIS Overlay, nous avons estimé les caractéristiques des quartiers dans la zone tampon par interpolation aérienne pondérée.

La même chose a été faite pour 16000 points aléatoires pris comme points de contrôle. Ensuite, une distribution empirique a été développée par échantillonnage répété avec remise à partir des points de contrôle.

Une fois la distribution empirique élaborée, les zones tampons des sites de déchets toxiques pourraient être directement comparées pour déterminer une signification statistique.

Sites Superfund et TRI dans les comtés de King et Pierce

Les points noirs indiquent les emplacements. Chacun a été "géocodé", ce qui signifie que chacun a reçu une longitude et une latitude à 6 décimales. Les progiciels SIG peuvent le faire ainsi que les géocodeurs haut de gamme comme Centrus. On peut même utiliser un système de positionnement géographique (GPS) qui est un appareil qui utilise des satellites en orbite terrestre pour déterminer l'emplacement à quelques mètres dans certains cas, des centimètres.

Tampons de 1 mile pour les sites de super fonds

Les superpositions de polygones sont utilisées pour caractériser les quartiers autour des sites Super Fund et TRI.

Nous avons également utilisé d'autres tailles de tampons.

Sites de contrôle

Cette diapositive montre les sites de contrôle. La question de la sélection des sites témoins est de savoir comment attribuer une probabilité de sélection. Il n'est pas clair qu'il devrait être uniformément aléatoire. Après tout, certains sites n'auraient jamais pu être construits sur un site industriel parce qu'il n'y avait pas d'accès maritime, pas d'accès à l'eau à grand débit ou qu'il n'y avait pas le zonage requis.

Cependant, dans ce cas, il est uniforme. L'île Mercer à revenu élevé (dans le cercle rouge) est supposée avoir été tout aussi susceptible d'avoir été un site Super Fund/TRI que n'importe quel autre site.

1 mile tampons autour des sites de contrôle

Plus de la même chose mais pour les sites de contrôle. Encore une fois, un problème de maladie infectieuse pourrait être traité de la même manière.

John Snow aurait pu utiliser cette technique.

Carte du quadrat de revenu

Cette carte montre la relation entre le revenu par habitant et l'emplacement des sites de déchets toxiques. Un quadrat est une grille et celle-ci est superposée sur les secteurs de recensement pour donner des estimations du revenu par habitant dans chaque petit carré.

Il est clair que les zones à faible revenu ont tendance à avoir plus de sites que les zones à revenu élevé. Également dans une région comme Seattle, de nombreuses zones autrefois à faible revenu sont maintenant à revenu élevé. Il est probable que le changement dans l'autre sens ne s'est pas produit.

Répartition des races minoritaires

Cela montre la distribution empirique faite à partir du site de contrôle et l'emplacement des sites SF/TRI sur cette distribution. Les sites toxiques ont 20% de leur population en tant que minorités contre 8,5% pour le reste de la zone et la signification statistique est bien inférieure à 5%.

Sites de revenus et de SF

En utilisant la même représentation graphique d'une distribution empirique, nous voyons ici la distribution des revenus autour des sites.

C'est plus bas pour les sites toxiques et clairement assez différent du reste de la ville.

SF/TRI par rapport aux sites témoins

Ce tableau compare de nombreuses autres variables.

Tous étaient statistiquement significatifs à 5 % ou moins, à l'exception du pourcentage de diplômés collégiaux.

Paludisme dans un village kenyan

La même technique est utilisée pour caractériser les zones autour des cas de paludisme dans un village kenyan.

Les données sont simulées. Le scénario est réel mais les chiffres réels et la géographie sont constitués juste pour tester cette méthode.

Une zone tampon de 50 m est utilisée autour des cas de paludisme où l'on note des flaques d'eau, de vieux pneus et des maisons qui ont été systématiquement aspergées de moustiques. Comme auparavant, les témoins ont été sélectionnés au hasard mais caractérisés de la même manière.

Répartition empirique des risques de paludisme

En utilisant ce que nous savons des risques de paludisme, la simulation a été réalisée pour évaluer l'importance des flaques d'eau, la distance de la rivière, la proximité d'une maison pulvérisée (ou vivre dans une) et la présence de vieux pneus à proximité. Les flaques d'eau, la rivière et les vieux pneus sont des zones de reproduction pour les moustiques.

Lissage Bayésien

2. Lissage bayésien

  • Comment ajuster les tarifs dans une "petite" zone.
  • Que faire à propos d'un petit nombre d'événements dans une petite population.
  • Comment tenir compte de l'emplacement. La géographie est-elle importante ?

Ici, nous essayons de traiter les "petits" nombres. Tout cela signifie qu'il s'agit de taux où le numérateur est petit et le dénominateur aussi.

Mais tout aussi important est "comment tenons-nous compte de l'emplacement ?"

Les zones pour lesquelles nous calculons les taux sont arbitraires. Qu'y a-t-il de si spécial dans un secteur de recensement ou une limite de comté ?

Le fait de redessiner les limites semblera-t-il modifier le taux de maladie dans une zone ou un point particulier ?

Décès par cancer par code postal

Le problème est illustré de façon dramatique ici. Voyez comment une zone avec un petit nombre de décès peut avoir des taux de mortalité très élevés. Cela reflète-t-il un problème particulier dont les praticiens de la santé publique devraient être conscients ?

Estimation empirique bayésienne

Le lissage bayésien a beaucoup à voir avec l'ajustement du taux apparent de maladie d'une zone avec l'entrée d'une distribution formée de ces données pour l'ensemble de l'État, ou peut-être mieux, juste celles des voisins d'une zone.

Lorsque la "distribution a priori" est broyée par la machine bayésienne qui a une fonction de vraisemblance, il en résulte une "distribution postérieure" à partir de laquelle les paramètres habituels tels que les moyennes et les erreurs standard peuvent être tirés.

S'emparer fermement de la notion bayésienne n'entre pas dans le cadre de la discussion ici, mais en parcourant le matériel suivant, vous pourrez peut-être avoir une idée de ce dont il s'agit.

Estimations non/bayésiennes

Le taux habituel est simplement le nombre de cas divisé par la population. Pas de surprise ici.

Le taux bayésien est ajusté à l'aide de la formule d'estimation bayésienne affichée. Le taux ajusté est une valeur pondérée résultant d'une valeur de pondération qui est déterminée par la variance et la moyenne de la distribution antérieure. À mesure que W se rapproche de 1, cela reflète une plus grande confiance dans le taux local en fonction de sa variance et de la taille de la population.

Plus de Bayes

Tout cela n'est pas exactement intuitivement évident, mais en bref, cela signifie que nous avons une formule qui ajuste un taux dans une "petite" zone en fonction de l'importance de la population pour cette zone et de l'importance de la variance pour la distribution "précédente" - cela est, pour la distribution des taux pour l'ensemble de l'État ou peut-être les zones les plus proches voisins.

Méthode des instants

La méthode pour démarrer toute cette affaire de Bayes est amusante pour les statisticiens et ils connaissent bien la "méthode des moments" pour ajuster une distribution.

Le message ici pour le reste d'entre nous est dans la boîte rouge. Il existe deux manières de lisser les taux, Aspatial et Spatial.

Aspatial dit que les "lets utilisent des informations pour lisser ce taux à partir de ce que nous savons de ce groupe d'âge/sexe/race de l'ensemble de l'État." Spatial dit que les "lets utilisent des informations pour lisser ce taux à partir de ce que nous savons de ce groupe d'âge/sexe/race à partir de les voisins."

Il est très logique de faire des ajustements avec les informations des plus proches plutôt que celles de l'autre côté de l'État.

Décès du cancer du sein

Cette diapositive montre le résultat du lissage bayésien. La carte du haut montre une zone en rouge où le cancer du sein semble être très élevé. Mais ce sont des zones peu peuplées.

La carte inférieure montre la carte lissée bayésienne. Les choses ont changé. Les points chauds ont disparu.

Mais certaines zones du cercle rouge restent encore élevées.

Décès par MPOC

Le même calcul a été fait pour la BPCO.

La plupart des zones à taux élevé se réduisent au niveau de l'État, mais certaines, bien que réduites, sont toujours élevées. S'agit-il de domaines où il y a vraiment un problème?

Ratios de taux lissés bayésiens vs non lissés

Ici, vous pouvez voir que les codes postaux avec de petites populations ont tendance à avoir des ratios de taux plus élevés que les codes postaux de population plus élevée. Une fois le processus de Bayes appliqué, tous rétrécissent à des valeurs plus raisonnables.

Résumé

Le SIG peut vous aider

  • Utilisation du contexte géographique des expositions et des conséquences de la maladie pour l'évaluation, la surveillance et la modélisation.
  • Traiter efficacement les problèmes de petit nombre.

Dans cette discussion, nous avons montré comment le SIG peut être utilisé pour évaluer l'importance du contexte géographique dans les études épidémiologiques. Les détails varient, mais dans l'ensemble, il en va de même pour les maladies infectieuses et chroniques.

Le SIG permet de déterminer si une zone connaît la même exposition ou la même expérience de la maladie qu'une autre.

Cela permet aussi, à l'aide d'un peu de statistiques, de traiter de petites zones, c'est-à-dire des taux instables dans des zones peu peuplées.

Enfin, le SIG permet de communiquer des données de santé publique aux professionnels comme aux non-spécialistes.

Lectures :

Richards TB, Croner CM, Novick LF. « Systèmes d'information géographique (SIG) pour les praticiens de la santé publique locaux et étatiques, Partie 1. » J Public Health Manag Pract, 5 mars 1999 (2) : 73-6.

Richards TB, Croner CM, Novick LF. "Systèmes d'information géographique en santé publique, partie 2." J Public Health Manag Pract, 5 juillet 1999 (4) : 1-6.


Analyse fréquentielle et analyse superposée - Systèmes d'Information Géographique

La direction du regard, le long de laquelle se déplace le faisceau radar, peut toujours être déterminée par la position des pentes brillantes sur un terrain vallonné - comme celles qui sont éclairées par le soleil indiquant où se trouve le Soleil en azimut, la plate-forme radar sera vers la droite (en regardant dans le direction opposée) à environ 90° par rapport au motif des pentes lumineuses allongées.

Contrairement à l'illumination solaire qui, provenant d'une source distante, envoie son signal sous forme de rayons lumineux parallèles continus (photons) sur une surface détectée, le radar envoie une série discontinue (intermittente) d'impulsions photoniques à partir d'une source ponctuelle qui faisceau. De plus, le signal de retour est étroitement lié au signal transmis en ce que le temps de trajet jusqu'à la cible et retour se rapporte à l'historique de l'impulsion. La position de n'importe quelle partie de la cible par rapport aux distances proches et lointaines affecte ses dimensions. En général, la largeur d'une surface, qu'elle soit horizontale ou inclinée, apparaît augmenter à mesure que le faisceau s'étend de près à loin.

Pour les surfaces topographiques autres que planes, les irrégularités peuvent avoir un effet significatif sur l'aspect de l'image résultante. Dans les images radar où le terrain est assez montagneux avec un relief élevé, des caractéristiques géométriques inhabituelles peuvent apparaître. Les pentes des collines ou des crêtes faisant face au radar sont sujettes à une apparence déformée. Les termes halte et raccourcissement s'appliquent à cette apparence. Les deux s'expriment sous la forme d'une compression ou d'un "amincissement" des pentes du côté face (de couleur vive) et d'un allongement du côté ombré. Dans la plupart des cas, l'escale et le raccourcissement produisent le même résultat final visuellement. Ce déplacement de pente est plus prononcé dans la partie proche d'une scène que dans la partie lointaine. Cette image radar est caractéristique de cet effet de distorsion :

L'image ci-dessus est typique de l'escale observée dans les images radar d'avions d'un terrain montagneux. Le faisceau est dirigé de droite à gauche. Le motif visuel donne l'impression que les montagnes, dont les surfaces opposées ont des angles similaires, sont analogues à la caractéristique topographique spéciale connue sous le nom de forme "flatiron" (les hogbacks le long du Rocky Mountain Front où les unités rocheuses plongent dans une direction sont ce type géomorphique ).

Toutes les pentes avant (ceux faisant face au faisceau entrant) sont raccourcies dans une certaine mesure dans les images radar. Visuellement, ces pentes semblent déformées, les pentes opposées semblant pencher vers la plate-forme radar, comme si elles étaient plus raides. Au fur et à mesure que les angles de dépression augmentent, la géométrie fait que les longueurs de pente (de haut en bas) semblent diminuer progressivement, augmentant ainsi le degré de raccourcissement. Les pentes du côté opposé des montagnes avec des crêtes ne seront généralement pas éclairées et sont donc rendues comme des ombres (aucun retour de signal et donc sombre). Les ombres bloquées par le radar s'élargissent et s'assombrissent à mesure que les angles de vue augmentent, de sorte qu'elles sont également déformées par rapport à leurs dimensions projetées. Ces idées sont résumées dans le schéma suivant, adapté d'une figure de A.J. Lewis, 1976, tel que reproduit dans la 4e édition de Télédétection et interprétation d'images, par T.M. Lillesand et R.W. Kiefer :

Dans la caractéristique topographique A, le faisceau atteint le sommet de la pente face au front d'onde avant d'atteindre la base de la pente. Ainsi, le faisceau supérieur est réfléchi vers l'antenne de réception avant le faisceau inférieur, produisant l'effet de recouvrement. Ceci est plus prononcé dans les rencontres à courte distance et diminue à mesure que la rencontre du faisceau tend vers une distance éloignée, ainsi l'escale a diminué dans la caractéristique B. L'escale est le phénomène qui se produit lorsque le front d'onde radar atteint le sommet d'une pente avant le bas. Le raccourcissement commence lorsque le front d'onde atteint le bas avant le sommet, par exemple là où la pente faisant face est moins raide que le front d'onde incident. L'angle de la face opposée (face arrière) par rapport à l'angle de regard produit un troisième phénomène connu sous le nom d'ombrage radar. La longueur de l'ombre et l'obscurité augmentent de la caractéristique A à D à mesure que l'angle d'observation devient progressivement inférieur à l'angle de pente arrière fixe.

Un autre type de distorsion se produit en terrain plat. Les figures géométriques subissent des changements dimensionnels à mesure que la direction du regard passe d'une plage oblique proche à lointaine. Cela s'exprime par la compression d'éléments de forme régulière (les champs de culture carrés peuvent se déformer en un losange). Cela est évident par le passage progressif des champs agricoles carrés aux champs rectangulaires sur cette image, de gauche à droite :

Les images radar réalisées à partir d'avions sont plus susceptibles de montrer une escale et un raccourcissement que les images acquises à partir de systèmes radar spatiaux. À des altitudes plus élevées, les satellites ont des angles de dépression plus élevés de sorte que le rayonnement atteint les pentes avant et arrière à peu près en même temps. Cela minimise également les différences liées à la synchronisation à courte et à longue distance.

Les effets de raccourci ont tendance à diminuer et à apparaître plus uniformes sur toute l'image lorsque l'unité radar est bien au-dessus de la surface. C'est le cas des radars des satellites en orbite. L'image suivante montre bien cet effet diminué. C'est une image Seasat d'une partie de la poussée de Pine Mountain en Caroline du Nord :

Mais, une distorsion se produit lorsque la géométrie de la scène par rapport au faisceau radar entraîne certaines différences dans les temps d'arrivée du front d'onde. Voici une escale dans une partie de la chaîne de l'Alaska telle que photographiée par Seasat :

Un autre mode de distorsion de l'image, non strictement géométrique, est le mouchetage. Le speckling produit une granularité sur une image radar qui peut être gênante. Ce « bruit » résulte de variations sporadiques, presque aléatoires, causées par de petits déphasages, mais enregistrables, du signal radar qui peuvent être liés à des irrégularités du sol, telles que la terre labourée dans un champ, ce qui entraîne des sources ponctuelles rétrodiffusées dans diverses directions. . Le mouchetage peut être minimisé par des méthodes de rééchantillonnage dans le traitement d'images. Voici un exemple de moucheture :

Effet de la direction de l'éclairage

Les éléments linéaires sur les terrains vallonnés ou montagneux, tels que les vallées longues et droites ou les crêtes, se distinguent normalement par une combinaison d'effets brillants d'ombre de pente. Mais leurs motifs changent en fonction de leurs orientations par rapport à la ligne de vol ou à la direction du regard. Nous illustrons cet effet avec une expérience analogique intéressante menée par le professeur Donald Wise (Université du Massachusetts), qui a utilisé une carte topographique tridimensionnelle recouverte de poudre sombre qui a été éclairée à de faibles angles de lumière artificielle dans plusieurs directions :

Un simple coup d'œil sur les deux images montre une différence immédiatement évidente : dans l'image du haut, les crêtes et les vallées orientées N 60° E sont fortement renforcées par l'éclairage provenant de la direction N 30° E , alors que ces caractéristiques lorsqu'elles sont éclairées par la N 60 ° La direction E est faiblement exprimée mais celles qui ont une tendance N 30° E (partie supérieure de la tendance de la crête) se démarquent maintenant. L'accent visuel maximal se produit lorsque l'éclairage est perpendiculaire à la tendance d'un élément linéaire. D'autres caractéristiques à des orientations variables sont visibles dans chaque scène mais avec une expression modérée. Comme nous l'avons vu à la page 2-8, ce phénomène - que les tendances linéaires sont fortement influencées par l'azimut et l'angle d'éclairage - est assez prononcé dans les images Landsat, produisant un biais directionnel. Ce biais est évident à partir des tracés de fractures sur les diagrammes en rose azimutal, où ceux orientés nord-est-sud-ouest (à peu près perpendiculaires aux angles du soleil en milieu de matinée) ont tendance à dominer la distribution des orientations. Cette tendance peut être un avantage en imagerie radar aéroportée, car on peut choisir des directions de lignes de vol pour souligner et accentuer certaines directions d'intérêt pour optimiser la détection de fractures dans toutes les orientations.

Cette dépendance à la direction de l'éclairage est utilisée à bon escient pour effectuer des vols radar sur des terrains sensibles aux différences d'orientation des crêtes montagneuses, des vallées de failles et d'autres conditions où des caractéristiques linéaires sont recherchées. L'image radar (aérienne) suivante indique clairement qu'un point de vue (et une extraction d'informations) différent se produit lorsque la direction d'éclairage se déplace par rapport à l'orientation de la scène (le nord comme référence).

The effects can be seen by keying in on several features, such as the stream valley at (e), as these "rotate" with the scene shift indicated by the north arrows. This is the same topography but its appearance, as controlled by changing slope illumination, seems quite different in the two view. Note that foreshortening lessens from top to bottom front illuminated slopes close to the top (near range) display layover.

To bring this point home, consider this image of Precambrian rocks in the African nation of Nigeria.

In the left image, the look direction is from the bottom in the right image illumination is from the right. Same scene - but with notable differences in the expression of topography and structural features.


Geographic Information Analysis

Geographic Information Analysis provides up-to-date coverage of the foundations of spatial data analysis through visualization and maps. This book covers key spatial concepts, including point pattern, line objects and networks, area objects, and continuous fields, as well as such new subjects as local statistics. With crucial methods for analyzing geographical information, this is an essential reference for professionals as well as a useful text for the classroom.

Price: 122,00 €

Price incl. VAT, excl. Expédition

Further versions

Clear, up-to-date coverage of methods for analyzing geographical information in a GIS context

Geographic Information Analysis, Second Edition is fully updated to keep pace with the most recent developments of spatial analysis in a geographic information systems (GIS) environment. Still focusing on the universal aspects of this science, this revised edition includes new coverage on geovisualization and mapping as well as recent developments using local statistics.

Building on the fundamentals, this book explores such key concepts as spatial processes, point patterns, and autocorrelation in area data, as well as in continuous fields. Also addressed are methods for combining maps and performing computationally intensive analysis. New chapters tackle mapping, geovisualization, and local statistics, including the Moran Scatterplot and Geographically Weighted Regression (GWR). An appendix provides a primer on linear algebra using matrices.

Complete with chapter objectives, summaries, "thought exercises," explanatory diagrams, and a chapter-by-chapter bibliography, Geographic Information Analysis is a practical book for students, as well as a valuable resource for researchers and professionals in the industry.

Preface to the Second Edition.

Preface to the First Edition.

1 Geographic Information Analysis and Spatial Data.

1.4 Scales for Attribute Description.

1.5 GIS and Spatial Data Manipulation.

2 The Pitfalls and Potential of Spatial Data.

2.2 The Bad News: The Pitfalls of Spatial Data.

2.3 The Good News: The Potential of Spatial Data.

3 Fundamentals-Mapping It Out.

3.1 Introduction: The Cartographic Tradition.

3.2 Geovisualization and Analysis.

3.3 The Graphic Variables of Jacques Bertin.

3.5 Issues in Geovisualization.

3.6 Mapping and Exploring Points.

3.7 Mapping and Exploring Areas.

3.8 Mapping and Exploring Fields.

3.9 The Spatialization of Nonspatial Data.

4 Fundamentals-Maps as Outcomes of Processes.

4.1 Introduction: Maps and Processes.

4.2 Processes and the Patterns They Make.

4.3 Predicting the Pattern Generated by a Process.

4.5 Stochastic Processes in Lines, Areas, and Fields.

5.2 Describing a Point Pattern.

5.3 Assessing Point Patterns Statistically.

6 Practical Point Pattern Analysis.

6.1 Introduction: Problems of Spatial Statistical Analysis.

6.2 Alternatives to Classical Statistical Inference.

6.3 Alternatives to IRP/CSR.

6.4 Point Pattern Analysis in the Real World.

6.5 Dealing with Inhomogeneity.

6.7 Cluster Detection: Scan Statistics.

6.8 Using Density and Distance: Proximity Polygons.

6.9 A Note on Distance Matrices and Point Pattern Analysis.

7 Area Objects and Spatial Autocorrelation.

7.1 Introduction: Area Objects Revisited.

7.3 Geometric Properties of Areas.

7.4 Measuring Spatial Autocorrelation.

7.5 An Example: Tuberculosis in Auckland, 2001-2006.

8.1 Introduction: Think Geographically, Measure Locally.

8.2 Defining the Local: Spatial Structure (Again).

8.3 An Example: The Getis-Ord Gi and Gi Statistics.

8.4 Inference with Local Statistics.

8.5 Other Local Statistics.

8.6 Conclusions: Seeing the World Locally.

9 Describing and Analyzing Fields.

9.1 Introduction: Scalar and Vector Fields Revisited.

9.2 Modeling and Storing Field Data.

9.4 Derived Measures on Surfaces.

10 Knowing the Unknowable: The Statistics of Fields.

10.2 Regression on Spatial Coordinates: Trend Surface Analysis.

10.3 The Square Root Differences Cloud and the (Semi-) Variogram.

10.4 A Statistical Approach to Interpolation: Kriging.

11 Putting Maps Together--Map Overlay.

11.2 Boolean Map Overlay and Sieve Mapping.

11.3 A General Model for Alternatives to Boolean Overlay.

11.4 Indexed Overlay and Weighted Linear Combination.

11.6 Model-Driven Overlay Using Regression.

12 New Approaches to Spatial Analysis.

12.1 The Changing Technological Environment.

12.2 The Changing Scientific Environment.

12.5 The Grid and the Cloud: Supercomputing for Dummies.

12.6 Conclusions: Neogeographic Information Analysis?

Appendix A: Notation, Matrices, and Matrix Mathematics.

A.2 Some Preliminary Notes on Notation.

A.3 Matrix Basics and Notation.

A.4 Simple Matrix Mathematics.

A.5 Solving Simultaneous Equations Using Matrices.

A.6 Matrices, Vectors, and Geometry.

A.7 Eigenvectors and Eigenvalues.

David O'Sullivan, PhD, is Associate Professor of Geography at the University of Auckland, New Zealand.

David J. Unwin, MPhil, formerly professor of geography at Birkbeck College in the University of London, UK, is now retired. He is also the co-author of Computer Programming for Geographers (with J.A. Dawson) and coeditor of Visualization in Geographic Information Systems (with Hilary M. Hearnshaw), both published by Wiley.

D. O'Sullivan, University of Auckland, Auckland, New Zealand D. Unwin, University of London


General Overviews

A vast body of literature exists regarding spatial analysis and its associated techniques. Efforts to summarize this literature and provide a typological overview of its core theories and techniques include the early works Bunge 1966 and Bailey and Gatrell 1995. With the advent of quantitative geography, Cliff and Ord 1981 provides statistically oriented, technique-specific reviews. Similarly, Cressie 1993 provides an excellent and more current foundation that is heavily focused on spatial statistical techniques, particularly for points, lattice structures, and raster data forms. The more recent works Unwin 1996 Fotheringham, et al. 2000 and O’Sullivan and Unwin 2010 acknowledge the complementarities between spatial analysis and the increasing use of geographic information systems (Gis). Finally, important works in domain-specific techniques are highlighted in Waller and Gotway 2004, with emphasis on the field of public health and spatial epidemiology.

Bailey, Trevor C., and Anthony C. Gatrell. Interactive Spatial Data Analysis. Harlow, UK: Longman Scientific & Technical Essex, 1995.

This book offers a data-driven approach to spatial data analysis. Each of the techniques is presented with illustrative examples and accompanying data sets to provide the reader with a stronger comprehension of the approaches being used. Broad sections include point pattern analysis, univariate area analysis, multivariate area analysis, and network analysis.

Bunge, William. Theoretical Geography. Vol. 1. Lund, Sweden: University of Lund, 1966.

In many respects, this is the book that kicked off the quantitative revolution in geography. Bunge uses geometry as a tool to describe patterns, reason about their processes, and translate both pattern and process to theory. Mathematical work on map projections, overlay, shape, geodesics, sampling, topology, and central place theory are also covered.

Cliff, Andrew David, and J. Keith Ord. Spatial Processes: Models & Applications. London: Pion, 1981.

This book was written as a follow up to Cliff and Ord 1973 (cited under Statistical) on autocorrelation. The authors added additional material to the spatial autocorrelation discussion and included more detail and valuable discussion on point pattern analysis, spatial correlograms, and hypothesis testing.

Cressie, Noel. Statistics for Spatial Data. New Jersey: John Wiley, 1993.

Revised in 2015, this book provides an excellent foundation both to the theory and to the application of spatial statistics. This text provides a comprehensive guide to analyzing geostatistical data, lattice data, and point patterns for use in science and engineering.

Fotheringham, Stewart A., Chris Brunsdon, and Martin Charlton. Quantitative Geography: Perspectives on Spatial Data Analysis. London and Thousand Oaks, CA: SAGE, 2000.

This book covers a range of spatial analytical methods and their development, including exploratory spatial data analysis (ESDA), measurement of local relationships, point pattern analysis, spatial regression, geostatistics, statistical inference, and spatial interaction modeling. The breadth of topics makes this a great resource for students and practitioners.

O’Sullivan, David, and David Unwin. Geographic Information Analysis. Hoboken, NJ: John Wiley, 2010.

This recent text, consisting of twelve chapters, covers a wide range of analytical techniques within geographic information science and also discusses data structures, a unique topic not often covered. The book is well organized and easily digestible for nonexperts, but provides enough detail to satisfy those already immersed in spatial analytics.

Unwin, David J. “Gis, Spatial Analysis and Spatial Statistics.” Progress in Human Geography 20.4 (1996): 540–551.

This paper provides a broad overview of common spatial analysis techniques used within geographic information systems, backed by many referenced works. Recent approaches to spatial analysis are discussed with a logical progression through point pattern analysis, local statistics, and an examination of the influence of Gis on the development of spatial statistics.

Waller, Lance A., and Carol A. Gotway. Applied Spatial Statistics for Public Health Data. Hoboken, NJ: John Wiley, 2004.

This book is structured as a primer for researchers interested in using spatial analysis and/or data in the domains of epidemiology, biostatistics, and public health. Spatial autocorrelation, spatial clustering, data uncertainty, and other techniques highly relevant to these emerging fields are covered.

Users without a subscription are not able to see the full content on this page. Please subscribe or login.


Tsunami Danger Analysis of Metro Vancouver

Lab 3: Tsunami Risk Assessment of the Metro Vancouver Area

TsunamiRiskAssessment_FinalMap shows a map of danger zones if a tsunami were to hit Vancouver. These danger zones include land areas that lie within 1 km. of the shoreline and at elevations below 15 meters given a tsunami wave 15 meters high: namely, road networks categorized by road type and affected areas categorized by land use. With this, I labeled ideal points where precautionary signage could be placed to warn the public of these danger zones: labeled on the map as ‘signage.’

As categorized by land use, the tsunami danger zones include health and education facilities. The healthcare facilities at risk include False Creek Residence, Broadway Pentecostal Lodge, Coastwest Community Home, Yaletown House Society, and Villa Cathay Care Home. The education facilities at risk include Ecole Rose Des Vents, St. Anthony of Padua, Heritage 3Rs School, Vancouver Montessori School, False Creek Elementary, Henry Hudson Elementary, Emily Carr Institute of Art and Design, St. John International, St Francis Xavier, and the Institute of Indigenous Government. To do this, I used an ‘overlay-intersect’ tool that allows me to create a new map layer that includes the health and education facilities within the boundary of tsunami danger zones: i.e. health and education facilities within 1 km. of the shoreline and at elevations below 15 meters.

Approximately 52% of Vancouver is in danger of a tsunami. To find this, I first used data from a digital elevation matrix (DEM) to highlight areas at elevations below 15 meters and hence, would likely be affected by the tsunami and intersect this data with coastal areas 1 km. away from the shoreline. This gives the total area of tsunami danger zones: 665 km 2 . Then divide this by the the total area of the area of study (Metro Vancouver).

  • Investigated qualitative and quantitative tsunami risk through calculations and spatial analysis
  • Outlined tsunami danger zones and points of interest for warning signage as an aid to establish tsunami hazard prevention plans
  • Evaluated potential health and education facilities at risk for improved urban planning

Merging Spatial Data Cubes using the GIS Overlay Operator

Spatial OLAP (SOLAP) integrates spatial data into OLAP and Data warehouse systems to exploit the analysis capabilities associated with geographic information. SOLAP extends OLAP operators to navigate into spatial dimensions and to slice the spatial data cube using spatial predicates. The integration of several heterogeneous spatial data cubes is particularly useful for decision-makers since it enables them to navigate into multiple data sources. In order to exploit the continuous dimension of spatial data, we propose a new operator for merging spatial data cubes without conformed spatial dimensions. Our operator is based on the spatial analysis transformation called “Overlay”. We show its implementation in the Web-based SOLAP System GeWOlap.

L’OLAP spatial (SOLAP) intègre les données spatiales dans les systèmes d’entrepôts de données et OLAP afin d’exploiter les fonctionnalités associées à l’information géographique. SOLAP étend, par des prédicats spatiaux, les opérateurs OLAP classiques et permet la navigation dans des dimensions spatiales et la manipulation des cubes de données spatiales. L’intégration de différents cubes de données spatiales s’avère, pour les décideurs, un moyen efficace pour explorer plusieurs cubes de données. Dans cet article, nous proposons un nouvel opérateur qui permet de fusionner différents cubes de données spatiales sans l’utilisation de dimensions conformes. Notre opérateur permet d’exploiter la dimension spatiale et se base sur l’opérateur de transformation OLAP-Overlay. Il est implémenté dans le système SOLAP web GeWOlap.


Spatial Analysis and Geographic Information Systems as Tools for Sustainability Research

All material on this site has been provided by the respective publishers and authors. You can help correct errors and omissions. When requesting a correction, please mention this item's handle: RePEc:gam:jsusta:v:13:y:2021:i:2:p:612-:d:478051 . See general information about how to correct material in RePEc.

For technical questions regarding this item, or to correct its authors, title, abstract, bibliographic or download information, contact: . General contact details of provider: https://www.mdpi.com/ .

If you have authored this item and are not yet registered with RePEc, we encourage you to do it here. This allows to link your profile to this item. It also allows you to accept potential citations to this item that we are uncertain about.

If CitEc recognized a bibliographic reference but did not link an item in RePEc to it, you can help with this form .

If you know of missing items citing this one, you can help us creating those links by adding the relevant references in the same way as above, for each refering item. If you are a registered author of this item, you may also want to check the "citations" tab in your RePEc Author Service profile, as there may be some citations waiting for confirmation.

For technical questions regarding this item, or to correct its authors, title, abstract, bibliographic or download information, contact: XML Conversion Team (email available below). General contact details of provider: https://www.mdpi.com/ .

Please note that corrections may take a couple of weeks to filter through the various RePEc services.


Adoption the basis of spatial analysis and geographic information systems (GIS) techniques to development oil industry projects

It is recognized today that human lives the information age, which is
characterized by the multiplicity of its data and the complexity of its aspects and
the most important thing is characterized by "information" that will determine the
progress of the people, the more able countries to devise ways to protect the
information and how to make the best use of them whenever it is an indication of
its progress and its ability to face obstacles to development and the information
sources are diverse and interrelated up to the level of complexity that they can be
analyzed and dealt with the existence of developed computer systems, that stored
and processed the information .And because maps are also considered sources of
information which use in management and project planning, and being an
important means of connecting ideas and planning them so it necessitated the need
for the emergence of advanced systems have the ability to draw and design
schemes and production of digital maps. With possibility of linking information
(metadata) with the real location on the Earth's surface, called the (spatial data).
The emergence of these systems are scientific leap on the in geographic science
especially spatial data that has accumulated over the centuries and resulted in a
huge amount of data and information. These systems added a lot in the field of
building spatial database which can updating and help in treating maps accurately
and effectively combines the advantages of the two systems (information systems
and systems of digital maps), which was named "GIS" systems which electronic
NO.10
digital competent to enter, store and retrieve, analyze data . And connect them
with large areas of maps that can not be saved on security on the paper. The data is
saved with maps in a coherent manner so as to facilitate the user to display the data
with maps and several methods as well as a calculation processing to extract the
results and reports in a few time and effort and use them in decision-making which
helps to speed the study and analysis the information and support decision-makers
in a number of important decisions concerning projects which requires accuracy
and speed.


Voir la vidéo: Analyse de fréquence - France IOI (Octobre 2021).