Suite

Les fichiers de formes tracent ensemble dans un SIG, mais pas dans R


J'ai essayé de tracer ces deux fichiers et un ensemble de points (dossier dropbox) dans QGIS et MapInfo. Ils s'alignent plutôt bien (pas parfait cependant).

Mais dans R, seules les données de www.naturalearthdata.com peuvent être tracées avec d'autres éléments comme les points. Mes "propres" fichiers de formes tracent bien, mais toujours seuls (sans ajouter ni "autoriser" de points par-dessus) et…

Mes propres fichiers de formes sont pivotés (découpés à partir d'un fichier plus volumineux où le centre est orienté vers le nord) et je ne sais pas comment enregistrer la rotation appliquée dans MapInfo (j'ai essayé d'exporter de nombreuses manières). Peut-être est-ce à l'origine de mon problème ?

library(rgdal) library(raster) #Chargement de "mes" fichiers de forme : shp.WashingtonLand<-readOGR(".","WLmap2_polyline") plot(shp.WashingtonLand) #Chargement des données naturalearthdata.com pour Washington Land uniquement shp.greenland <-readOGR(".","GRL_adm2") ext.washington.land <- extend(-68, -58, 79.9, 81.2) shp.clip.WashingtonLand <- crop(shp.greenland, ext.washington.land) plot(shp.clip.WashingtonLand) #data points SamplePoints <- read.csv2("SamplenumberAndCoordinates",header=TRUE) locs <- subset(SamplePoints, select = c("Latitude", "Longitude")) coordonnées(locs) <- c("Longitude", "Latitude") plot(locs, col="red", add=T)

J'espère que cela a du sens, il a fallu un certain temps pour rassembler toutes les choses et les simplifier de manière appropriée.


Pour le géotraitement, je suggère d'activer la reprojection à la volée dans QGIS DÉSACTIVÉ pour voir si vos formes s'alignent ou non. Dans de nombreux cas, le géotraitement ne fonctionne pas lorsque les formes sont dans des SCR différents. Enregistrez donc votre couche de polygones sous le nom WGS84 EPSG:4326 (faites NE PAS utilisationDéfinir le SCR pour le calquepour cela !), pour correspondre aux coordonnées de la couche de points.

Pour l'ensemble de données NaturalEarth, cela ne s'aligne pas parfaitement pour moi non plus. En utilisant QGIS, vous pouvez changer le projet CRS à EPSG : 3857, et ajoutez les images Google ou Openstreetmap du plugin Openlayers comme arrière-plan de référence :

Vous voyez que les points et les polygones s'adaptent à l'arrière-plan, mais pas la couche verte GADM. Je ne sais pas comment ils ont numérisé ça. Si vous avez juste besoin du littoral, vous pouvez le prendre sur Openstreetmap :

http://openstreetmapdata.com/data/coastlines

C'est la même source qui est utilisée pour les tuiles Openstreetmap.


Les données WLmap2_polyline utilisent la zone WGS 1984 UTM 24N, mais les données sont en fait dans la zone 20N. Le Danemark utilise une mise en œuvre à grande échelle de Mercator transverse pour le Groenland. J'ai vérifié par rapport à ArcGIS et notre version "mathématiques complexes" de TM n'améliore pas le décalage. Ou les données ont été projetées dans UTM 24N à l'aide d'une implémentation UTM plus standard, ce qui provoque le décalage.

Les données de limites administratives sont dans WGS84, tout comme le csv (en fait, les valeurs séparées par semi-couleur car les valeurs lat/lon utilisent des virgules pour la virgule), donc si R ne prend pas en charge la reprojection automatique des données, vous aurez pour faire ça.


Inventaire des données et systèmes d'information géographique

Les ressources archéologiques de la Caroline du Nord représentent plus de 12 000 ans de culture et d'histoire. Aujourd'hui, ces ressources se font de plus en plus rares car les sites archéologiques sont perdus à cause de la construction et de l'expansion urbaine. Pire encore, d'importants sites archéologiques sont menacés par le vandalisme. Chaque année, des centaines de sites en Caroline du Nord (et des milliers aux États-Unis) sont endommagés ou détruits par des collectionneurs sans scrupules qui cherchent des artefacts à vendre ou à ajouter à leurs propres collections. Ces activités détruisent les ressources historiques et scientifiques.

Il est important que les archéologues amateurs, qui aiment collectionner des artefacts amérindiens, comprennent la nature fragile des sites archéologiques et pratiquent les techniques appropriées lorsqu'ils les étudient. Tout d'abord, le collectionneur doit comprendre la différence entre collecter des artefacts à la surface du sol et creuser dans un site. Creuser un site archéologique sans la supervision d'un professionnel qualifié détruit la plupart des informations dont les archéologues ont besoin pour interpréter un site et ne devrait jamais être tenté. D'autre part, des archéologues amateurs responsables peuvent se livrer à des collectes de surface de sites et contribuer à la connaissance de la préhistoire de notre état.

Aidez à sauver notre patrimoine archéologique en accomplissant ce qui suit, et ensemble, nous pouvons sauver le passé pour l'avenir.

Inventaire des enregistrements de site

L'OSA tient à jour un inventaire informatisé des sites archéologiques à l'échelle de l'État, ainsi que des cartes, des photographies, des collections d'artefacts et d'autres sources de données qui soutiennent l'inventaire. Des bibliothèques complètes de rapports et de publications archéologiques sont également hébergées dans les installations de l'OSA. L'accès à l'inventaire des dossiers du site est limité aux visites en personne. Pour effectuer des recherches ou afficher les enregistrements du site, veuillez consulter nos directives de recherche de fichiers de site.

OSA entreprend actuellement le processus laborieux de création d'une base de données SIG des sites archéologiques de Caroline du Nord et des zones systématiquement étudiées. Cet effort de numérisation a permis au personnel d'enregistrer les sites et d'effectuer un examen environnemental au sein du SIG. OSA accepte désormais les sites enregistrés et les zones étudiées au format shapefile ou géodatabase. Les consultants et les chercheurs qui visitent notre bureau de Raleigh ont accès au SIG dans son état actuel, cependant, pour le moment, nous n'offrons pas d'accès Web.

Les personnes cherchant à effectuer des recherches de base dans un établissement de l'AOS doivent satisfaire ou être sous la supervision d'une personne qui répond aux normes de qualification professionnelle du secrétaire de l'Intérieur, telles que décrites dans la partie 61 du CFR 36 (voir les normes et directives de l'OSA, partie 2b). On s'attend à ce que les personnes effectuant des recherches de base aient été formées à la conduite de recherches à l'OSA avant de prendre rendez-vous.

Pour protéger les sites contre le pillage, les données et l'inventaire de l'OSA sont protégés par la loi de l'État et nous nous réservons le droit de restreindre l'accès aux informations lorsque cela est jugé nécessaire.


Utilisation de R — Utilisation de données géospatiales

SIG, un acronyme qui réjouit certains et fait peur à ceux qui ne souhaitent pas acheter des logiciels coûteux. Heureusement, le combat ou la fuite peuvent être sauvegardés pour un autre jour, car vous n'avez pas besoin d'être un sportif SIG avec une liasse d'argent pour travailler avec des données spatiales et créer de beaux tracés. Un ordinateur et une connexion Internet devraient suffire. Dans cet article, je vais montrer comment

  • Préparez une machine prête à utiliser R pour travailler avec des données géospatiales
  • Décrire quel type de données peut être utilisé et certaines des sources intéressantes de données SIG gratuites
  • Utilisez les données du département des ressources naturelles de Washington pour générer de jolis tracés en utilisant un exemple de script

Préparer votre machine

Tout d'abord, si vous n'avez pas R sur votre ordinateur, vous pouvez le télécharger ici. Mieux encore, téléchargez Rstudio, une interface incroyablement efficace et facile à utiliser pour travailler avec R disponible ici. Travailler avec R studio est fortement recommandé et sera plus clairement décrit dans cet article. R ne prend pas en charge le travail avec les données spatiales dès la sortie de la boîte, il y a donc quelques packages qui doivent être téléchargés pour que R fonctionne avec les données spatiales. Les deux packages requis sont ‘sp’ et ‘rgdal’. Nous utiliserons également un troisième package, ‘rgeos’ pour quelques astuces géospatiales sophistiquées. Malheureusement, la dernière version du package sp n'est pas compatible avec la dernière version de R — v 3.0 pour le moment. Lorsque l'installation de Rstudio vous invite à installer R, téléchargez la version 2.15.3.

Commencez par installer et ouvrir RStudio. Pour ajouter les packages requis, ouvrez RStudio et cliquez sur l'onglet “packages” dans le panneau inférieur droit de l'interface. La fenêtre en bas à droite affichera une liste des packages fournis avec un téléchargement standard de RStudio. Certains des packages auront des coches à côté d'eux, cela signifie que ces bibliothèques sont chargées et prêtes à être utilisées. Si vous venez de télécharger R pour la première fois, sp et rdgal ne figureront pas sur cette liste, cliquez sur le bouton “Install Packages”. Assurez-vous que l'option “Install from” est définie sur “Repository (CRAN)” et tapez “sp” dans l'espace “Packages”. Cochez l'option “Installer les dépendances” et téléchargez ! En cochant l'option “Installer les dépendances”, les packages d'options nécessaires pour fonctionner correctement seront automatiquement téléchargés. Téléchargez rgdal de la même manière et vous avez les outils nécessaires pour démarrer ! Téléchargez également rgeos et vous pouvez exécuter la partie de l'exemple de script qui utilise des centroïdes.

Capacités Sp et Rgdal et sources de données

Rgdal est ce qui permet à R de comprendre la structure des fichiers de formes en fournissant des fonctions pour lire et convertir des données spatiales en trames de données R faciles à utiliser. Sp permet des transformations et des projections des données et fournit des fonctions pour travailler avec les objets surfaciques spatiaux chargés. Ce qu'il faut retenir, c'est que ce sont des bibliothèques puissantes qui permettent à R d'utiliser des fichiers .shp. L'US Geological Survey, le National Park Serivce et le Washington State Department of Natural Resources ne sont que quelques exemples d'organisations qui mettent d'énormes stocks de données spatiales à la disposition du public.

Exemple de script

Le code suivant utilise les données spatiales WRIA (Watershed Resource Inventory Area) du Washington State Department of Ecology. Cet ensemble de données contient des informations sur les différentes zones de gestion des ressources en eau de l'État de Washington. Les informations exactes stockées dans les fichiers de formes seront explorées à l'aide de R ! Si une fonction ou un code semble mystérieux, essayez “? mystérieuxFunctionName()” et une documentation pratique vous renseigneront sur ce que fait une fonction. Commençons à utiliser R pour étudier les données. Il suffit de couper et coller le code suivant dans RStudio.

REMARQUE : consultez la page de données SIG du ministère de l'Écologie si l'un des liens n'est pas disponible.

Nous ne savons pas encore ce que contiennent les différents ‘slots’ mais Holy Smokes ! Ce complot ressemble à Washington. Le tracé n'est pas joli (encore) mais en quelques lignes de code, vous pouvez déjà créer une carte primitive des polygones de cet ensemble de données. Le fait que cet objet soit un

Trame de données suggère que nous pouvons le traiter comme une trame de données R. Permet de découvrir de quelles données il dispose, de sélectionner les colonnes intéressantes et de ne travailler qu'avec celles-ci. (Sans surprise, l'emplacement @data est l'endroit où se trouve la trame de données réelle, mais de nombreuses méthodes de trame de données fonctionnent également sur l'objet entier.)

Nous allons nous donner la peine de renommer les variables, de reprojeter les données dans “longlat”, puis d'enregistrer les données dans un fichier .RData pour un chargement facile à l'avenir.

Nous avons maintenant enregistré les données WRIA et WRIAPugetSound en tant qu'objets spatiaux R qui peuvent facilement être chargés ! Maintenant que le vrai plaisir commence, ceux d'entre vous qui attendaient de jolies intrigues sont sur le point d'être récompensés. Le reste du script est une présentation de certaines des analyses amusantes et de la création de figures de base qui peuvent être facilement effectuées avec les données WRIA converties.

Qui a besoin d'un logiciel SIG coûteux ?

Un autre package utile pour tracer des données spatiales est la bibliothèque “maptools” disponible à partir du référentiel Cran. Le code ci-dessous nécessite le package maptools, assurez-vous donc qu'il est installé avant d'exécuter le code.

Ces exemples ne font qu'effleurer la surface du potentiel de traçage et d'analyse disponible dans R en utilisant les packages sp, rgdal et maptools. Il est fortement recommandé d'explorer les méthodes de tracé dans sp avant d'investir beaucoup de temps dans l'écriture d'un script par vous-même.

Toutes nos félicitations! Vous savez maintenant comment découvrir ce qu'il y a dans les données géospatiales et comment faire des tracés à l'aide de R.


Installation

Le package est disponible en version CRAN, qui est mise à jour peu fréquemment (quelques fois par an), et en version GitHub, qui est mise à jour chaque fois que l'auteur travaille avec le package. Essayez la version GitHub si vous rencontrez un bogue dans la version CRAN.

En raison des limitations de taille du package, ggOceanMaps nécessite le package ggOceanMapsData qui stocke les fichiers de formes utilisés dans les cartes basse résolution. Le package ggOceanMapsData n'est pas disponible sur CRAN mais peut être installé à partir d'un référentiel drat sur GitHub. Pour installer les deux packages, écrivez :

La version GitHub (plus) fréquemment mise à jour de ggOceanMaps peut être installée à l'aide du outils de développement paquet.


Shapefiles trace ensemble dans un SIG, mais pas dans R - Geographic Information Systems

Les données satellitaires de veilleuse peuvent être utiles comme indicateur de l'activité économique dans les régions pour lesquelles aucune donnée sur le PIB n'est disponible, par exemple au niveau infranational, ou pour les régions dans lesquelles la mesure du PIB est de mauvaise qualité, par exemple dans certains pays en développement (voir par exemple Henderson et al., 2012).

Ce package a été construit à l'aide du code de l'article "The Elusive Banker. Using Hurricanes to Uncover (Non-) Activity in Offshore Financial Centers" de Jakob Miethe, mais bien que cet article se concentre uniquement sur les petites économies insulaires, ce package permet la construction de statistiques de veille. pour la plupart des unités géospatiales de la planète, ce qui, espérons-le, sera utile aux chercheurs d'autres domaines. Le package R permet d'effectuer des calculs sur les données des satellites de veilleuse et de créer des bases de données pour une région donnée en utilisant la fonction nightlight_calculate . Les tracés des veilleuses dans la zone souhaitée sont également très faciles avec nightlight_plot .

Pour installer le package, exécutez devtools::install_github("JakobMie/nightlightstats") .

Vous pouvez soit travailler avec des données DMSP annuelles allant de 1992 à 2013 (https://www.ngdc.noaa.gov/eog/dmsp/downloadV4composites.html - Traitement des images et des données par le National Geophysical Data Center de la NOAA, données DMSP collectées par les États-Unis Air Force Weather Agency) ou les données mensuelles VIIRS commençant en avril 2012 (https://eogdata.mines.edu/products/vnl/ - Earth Observation Group, Payne Institute for Public Policy, Elvidge et al., 2013). Le package (si vous le souhaitez) télécharge automatiquement les données spatiales par pays pour tout niveau administratif depuis GADM (https://gadm.org/data.html).

Les données annuelles du VIIRS sont désormais disponibles sur https://eogdata.mines.edu/nighttime_light/annual/v20/. Le package ne traite pas encore ces données.

Si, à un moment donné, vous rencontrez des problèmes avec les capacités de calcul de votre ordinateur parce que la région que vous souhaitez étudier est trop grande, vous pouvez jeter un œil à la fonction auxiliaire slice_shapefile qui découpe facilement une région en plus petits morceaux.

Vous pouvez télécharger des données satellite de veilleuse DMSP avec cette fonction.

Remarque : comme la Colorado School of Mines a modifié l'accès à ses données d'éclairage nocturne VIIRS pour exiger un compte utilisateur gratuit, vous devez télécharger les données VIIRS manuellement via leur site Web. Pour plus d'informations, voir https://payneinstitute.mines.edu/eog-2/transition-to-secured-data-access/.

Remarque sur l'espace disque utilisé par les fichiers : Les données annuelles sont de résolution inférieure aux données mensuelles et prennent moins de place (1 image DMSP annuelle pour le monde entier = 1/16 d'espace d'une image VIIRS mensuelle pour le monde entier ). Par conséquent, les données annuelles conviendront probablement sur votre lecteur normal (toutes les années ensemble environ 45 Go y compris les fichiers de qualité), mais travailler avec des données mensuelles nécessite probablement un lecteur externe (environ 1,5 + To pour tous les fichiers, y compris les fichiers de qualité). Les fichiers de qualité (reconnaissables à la terminaison cf_cvg) montrent combien d'observations sont entrées dans la valeur d'un pixel dans l'image agrégée de la veilleuse au cours d'une période donnée.

Les données DMSP sont disponibles par an en une seule image pour le monde entier. Les seules informations pertinentes sont la durée et l'emplacement où vous souhaitez enregistrer les images sur votre disque. Par exemple, pour télécharger toutes les données allant de 1992 à 2013 à la fois, vous pouvez saisir ce qui suit dans la fonction :

Les images VIIRS mensuelles divisent le monde entier en 6 tuiles géographiques. Il peut arriver que la région que vous souhaitez analyser se chevauche sur deux ou plusieurs de ces tuiles, donc pour analyser cette région, vous devrez télécharger toutes les tuiles pertinentes. Vous pouvez vérifier quelles tuiles télécharger en utilisant les coordonnées de votre région, ou vous pouvez simplement télécharger toutes les tuiles.

Cette fonction permet d'effectuer des calculs sur les veilleuses d'une région dans un intervalle de temps donné. La sortie sera une trame de données agrégée dans votre environnement ou, si vous le souhaitez, une trame de données supplémentaire pour chaque zone fournie dans area_names . Pour obtenir ces dataframes uniques, vous devez définir l'argument single_dataframes sur TRUE.

Par exemple, si vous souhaitez obtenir une dataframe pour les veilleuses DMSP dans les régions adm 1 du Luxembourg entre 1992 et 1995, vous pouvez saisir :

qui vous donnera ce dataframe appelé "lights" dans l'environnement R :

Vous pouvez voir qu'il existe des éléments de sortie par défaut utiles. Tout d'abord, vous obtenez le nom de la zone que vous entrez dans area_names . S'il existe un code de pays iso3c au cas où cette zone est un pays, celui-ci sera également enregistré et sorti. La superficie en kilomètres carrés sera automatiquement calculée en fonction de vos fichiers de formes ou de vos coordonnées, afin que vous puissiez facilement l'intégrer dans d'autres calculs. NAME_1 indique les noms des régions adm 1 du Luxembourg. Les colonnes avec des noms de régions administratives de niveau inférieur n'apparaîtront que si vous spécifiez le niveau administratif dans l'argument admlevel (la valeur par défaut est 0, qui fait référence aux frontières des pays ou ne fait rien au cas où votre fichier de formes serait par exemple une ville ou une autre région non incluse dans un système de circonscriptions administratives). "mean_obs" fait référence au nombre moyen d'observations par pixel qui sont entrées dans l'image agrégée pendant une période de temps dans une zone donnée (tirée des fichiers de qualité). Les calculs par défaut utiles sont la somme des valeurs lumineuses dans votre zone et leur moyenne. Les valeurs aberrantes peuvent être identifiées avec les valeurs de lumière minimale et maximale.

Vous pouvez cependant utiliser n'importe quelle fonction pour les calculs que vous souhaitez. Vous devez d'abord le charger dans votre environnement au cas où il s'agirait d'une fonction écrite par l'utilisateur. Les fonctions existantes de la base R ou des packages fonctionnent également. Ensuite, vous pouvez saisir le nom de l'objet R sous forme de chaîne dans un vecteur à l'aide de l'argument functions_calculate . La fonction doit accepter un argument na.rm. Dans le cas contraire, vous devez envelopper la fonction en conséquence. Si vous rencontrez des problèmes, consultez la documentation de raster::extract , dans laquelle toutes les fonctions sont introduites. Cette fonction définit les conditions pour lesquelles d'autres fonctions que les paramètres par défaut fonctionnent.

D'autres arguments utiles dans nightlight_calculate , pour lesquels vous pouvez consulter les fichiers d'aide pour plus de détails sur leur utilisation spécifique sont :

rawdata : Cet argument permet de sortir une trame de données avec simplement les pixels de lumière bruts et leurs valeurs et coordonnées pour chaque région et période de temps en plus de la trame de données traitée standard.

cut_low , cut_high , cut_quality : Ces arguments permettent d'exclure certains pixels du calcul. Si vous le souhaitez, toutes les valeurs inférieures à cut_low , toutes les valeurs supérieures à cut_high et tous les pixels avec un nombre d'observations inférieur ou égal à cut_quality seront définis sur NA. Le paramètre par défaut de cut_quality est 0, ce qui signifie que les pixels avec 0 observations dans une période de temps seront définis sur NA.

rectangle_calculate : Si votre fichier de formes ne comporte pas de zone fermée avec laquelle des calculs peuvent être effectués, le code transformera automatiquement votre fichier de formes en un rectangle basé sur les coordonnées x et y minimum/maximum. Si cela ne fonctionne pas pour une raison quelconque, vous pouvez le définir manuellement sur TRUE ou FALSE (la valeur par défaut est NULL, ce qui active la détection automatique, mais pour les fichiers de formes non standard, la détection peut échouer). Ci-dessous, vous pouvez voir une illustration de ce que le code ferait au cas où vous saisiriez ce fichier de formes avec une zone non fermée (le système ferroviaire d'Ulm, en Allemagne).

Cette fonction permet de tracer un shapefile avec ses veilleuses pour une période de temps donnée. Remarque : même s'il est possible de produire plusieurs tracés en utilisant plusieurs entrées pour area_names et un intervalle de temps pour time , vous devez faire attention au nombre de tracés qui seront produits de cette façon - tous les tracés seront chargés dans votre environnement global en tant que ggplot objets, par conséquent un grand nombre d'objets peuvent être chargés dans votre environnement rapidement.

Les arguments d'entrée de base sont les mêmes que pour les autres fonctions. Par exemple, si vous saisissez :

Vous obtenez l'image suivante, soit en ayant déjà le shapefile pour l'Allemagne adm1 stocké dans votre shapefile_location , soit, si ce n'est pas le cas, par la fonction téléchargeant automatiquement le shapefile depuis GADM.

Si vous souhaitez tracer une région qui n'est pas disponible sur GADM (c'est-à-dire une région qui n'est pas un pays), vous devez avoir le fichier de formes téléchargé dans votre shapefile_location , afin que la fonction puisse le détecter en fonction du nom que vous donnez dans area_names . Si cela échoue, il y a toujours la possibilité d'utiliser l'argument shapefiles et de donner simplement les noms de fichiers des shapefiles à la place (vous devez toujours définir les area_names pour le nom de la sortie). Cela s'applique également à nightlight_calculate.

Si vous saisissez un ensemble de coordonnées, vous obtiendrez une image avec un fichier de formes rectangulaire construit à partir de vos coordonnées.

Limitations et sources de données alternatives

Le code n'est pas explicitement écrit pour des performances rapides.

Les données annuelles du DMSP sont de qualité sous-optimale. Les problèmes sont par exemple une résolution inférieure et plus d'épanouissement/flou des lumières par rapport aux données VIIRS. De plus, les données DMSP comportent une échelle discrète qui est codée en haut à un nombre numérique de 63, tandis que les données VIIRS ont une échelle continue et aucun codage supérieur. La détection des plages de faible éclairage est également meilleure dans VIIRS.

Il existe un code Matlab pour supprimer le flou des données DMSP (voir Abrahams et al., 2018).

Vous pouvez utiliser une distribution de Pareto pour contourner le top-coding et extrapoler les valeurs lumineuses, par ex. dans les centres-villes (voir Bluhm & Krause, 2018). Il existe une version des données DMSP qui n'a pas de top-coding, bien que seulement pour les années 1996, 1999, 2000, 2003, 2004, 2006 et 2010 (disponible sur https://eogdata.mines.edu/dmsp/download_radcal. html). Vous pouvez utiliser ces images en définissantcorrected_lights sur TRUE. Ce sont des données différentes, vous devez donc d'abord les télécharger en définissant cet argument sur TRUE dans nightlight_download également (la décompression de ces fichiers prend assez de temps et ils sont plus volumineux que les fichiers DMSP normaux, environ 6 Go par fichier annuel, y compris le fichier de qualité). Notez que ces données calibrées en radiance viennent avec leurs propres problèmes (voir à nouveau Bluhm et Krause, 2018).

La cohérence temporelle n'est pas un problème avec les données VIIRS, puisque les valeurs lumineuses sont systématiquement calibrées et standardisées pour décrire une unité de rayonnement fixe (nano Watts / cm2 / stéradian).

La cohérence temporelle peut être un problème avec les données DMSP. Il existe plusieurs versions de satellites DMSP. Depuis quelques années, ces versions se chevauchent et il y a deux images disponibles pendant un an. nightlight_download télécharge toujours les deux. Ensuite, pour nightlight_calculate et nightlight_plot , les versions à utiliser seront choisies en fonction de la durée que vous saisissez dans les fonctions. Si possible, une version cohérente pour votre période sera choisie. Si 2 versions cohérentes sont disponibles pour votre période, la plus récente sera sélectionnée. Si aucune version cohérente n'est disponible, la version la plus récente pour chaque année sera choisie. Vous serez informé des versions DMSP sélectionnées. L'utilisation d'une seule version est généralement souhaitable, car l'échelle d'intensité lumineuse n'est pas calibrée de manière cohérente et les valeurs mesurées pourraient donc ne pas être parfaitement comparables d'une version satellite à l'autre (voir par exemple Doll, 2008) . Dans une analyse économétrique utilisant les données du DMSP, les effets fixes de la version satellite et les effets fixes de l'année sont recommandés (voir par exemple Gibson et al., 2020).

Les facteurs naturels influencent la qualité des données. La couverture nuageuse affecte le nombre de nuits observées qui entrent dans une image agrégée et peut être particulièrement forte dans les régions tropicales. Les données manquent souvent de valeurs pour les mois d'été pour les régions proches des pôles en raison de la lumière parasite pendant les nuits d'été. La lumière des aurores et les chutes de neige pourraient influencer les lumières observées pour les régions proches des pôles. Ces points peuvent être bien illustrés en regardant la moyenne des valeurs lumineuses à Moscou, une ville lumineuse avec une distance assez courte du pôle Nord. Vous pouvez voir que les valeurs des mois d'été ne sont pas disponibles et que les valeurs des mois d'hiver fluctuent fortement, probablement en raison de perturbations causées par la lumière des aurores ou l'intensité de réflexion variable de la lumière produite par l'homme en raison de la variation des chutes de neige.

Pour augmenter la couverture pendant les mois d'été pour les données VIIRS mensuelles, vous pouvez utiliser une version VIIRS corrigée de la lumière parasite (voir Mills et al., 2013) en définissant corrigé_lights sur TRUE. Ce sont des images différentes, vous devez donc d'abord les télécharger également. Le compromis est que ces données sont de qualité réduite.

Vous pouvez également travailler avec un ensemble de données annuel DMSP-VIIRS harmonisé couvrant de 1992 à 2018 (voir Li et al., 2020, disponible sur https://figshare.com/articles/Harmonization_of_DMSP_and_VIIRS_nighttime_light_data_from_1992-2018_at_the_global_scale/9828827/2). Pour utiliser ces données, vous devez définirhararmed_lights sur TRUE dans toutes les fonctions. L'ensemble de données harmonisé est construit avec les données VIIRS non corrigées de la lumière parasite. Les données VIIRS sont nettoyées des perturbations dues aux aurores et aux lumières temporelles, puis adaptées à la résolution et au codage supérieur des données DMSP. Les données DMSP sont temporellement calibrées pour assurer une cohérence temporelle. Les données sont déjà produites avec des poids de qualité. Les fichiers de qualité séparés ne sont pas inclus dans l'ensemble de données. Notez que ces données occupent beaucoup moins d'espace que les autres, avec environ 40 Mo par image par an.

Abrahams, A., Oram, C., & Lozano-Gracia, N. (2018). Déflouage des lumières nocturnes DMSP : une nouvelle méthode utilisant des filtres gaussiens et des fréquences d'éclairage. Télédétection de l'environnement, 210, 242-258.

Bluhm, R. & Krause, M. (2018). Top lights - Des villes lumineuses et leur contribution au développement économique. Document de travail CESifo n° 7411.

Poupée, C. (2008). Guide thématique du CIESIN sur la télédétection lumineuse nocturne et ses applications. Center for International Earth Science Information Network, Columbia University, New York.

Elvidge, C.D., Baugh, K.E., Zhizhin, M., & Hsu, F.-C. (2013). Pourquoi les données VIIRS sont supérieures au DMSP pour cartographier les lumières nocturnes. Réseau avancé Asie-Pacifique 35(35), 62.

Gibson, J., Olivia, S. Boe-Gibson, G. (2020). Les veilleuses en économie : sources et usages. Série de documents de travail de la SCDA 2020-01, Centre pour l'étude des économies africaines, Université d'Oxford.

Henderson, J.V., Storeygard, A., & Weil, D.N. (2012). Mesurer la croissance économique depuis l'espace. American Economic Review, 102(2), 994-1028.

Li, X., Zhou, Y., Zhao, M., & Zhao, X. (2020). Un ensemble de données mondiales harmonisées sur la lumière nocturne 1992-2018. Données scientifiques, 7 (1).

Mills, S., Weiss, S. et Liang, C. (2013). Caractérisation et correction de la lumière parasite de la bande jour/nuit VIIRS (DNB). Systèmes d'observation de la Terre XVIII.


Fichiers de formes à télécharger

J'utilise beaucoup de fichiers de formes différents dans cet exemple. Pour vous éviter d'avoir à chercher et à télécharger chacun individuellement, vous pouvez télécharger ce fichier zip :

Décompressez-le et placez tous les dossiers contenus dans un dossier nommé data si vous souhaitez suivre. Vous n'avez pas besoin de suivre!

Votre projet doit être structuré comme ceci :

Ces fichiers de formes proviennent tous de ces sources :

  • Carte du monde: 110m "Admin 0 - Pays" de Natural Earth
  • États américains: 20m Limites d'état 2018 du US Census Bureau
  • comtés américains: 5m limites du comté 2018 du US Census Bureau
  • États américains haute résolution: 10m « Admin 1 – États, provinces » de Natural Earth
  • Fleuves mondiaux: 10m « Rivières + lignes médianes du lac » de Natural Earth
  • Rivières d'Amérique du Nord: 10m « Rivières + lignes médianes des lacs, supplément Amérique du Nord » de Natural Earth
  • Lacs mondiaux: 10m « Lacs + Réservoirs » de Natural Earth
  • Écoles de Géorgie K-12, 2009: « Écoles de Géorgie K-12 » du ministère de l'Éducation de Géorgie(vous devez être connecté pour y accéder)

Abstrait

Les bâtiments sont la principale source de consommation d'énergie dans les zones urbaines. La modélisation et la prévision précises de l'intensité énergétique des bâtiments (IUE) à l'échelle urbaine ont de nombreuses applications importantes, telles que l'analyse comparative énergétique et la planification des infrastructures énergétiques urbaines. L'utilisation de la technologie Big Data devrait avoir la capacité d'intégrer un grand nombre de prédicteurs et de fournir une prédiction précise de l'intensité de la consommation d'énergie des bâtiments à l'échelle urbaine. Cependant, les recherches antérieures ont souvent utilisé la technologie Big Data pour estimer la consommation d'énergie d'un seul bâtiment plutôt que l'échelle urbaine, en raison de plusieurs défis tels que la collecte de données et l'ingénierie des fonctionnalités. Cet article propose donc un cadre méthodologique d'exploration de données intégré au système d'information géographique pour estimer l'IE du bâtiment à l'échelle urbaine, y compris le prétraitement, la sélection des caractéristiques et l'optimisation des algorithmes. Sur la base de 216 caractéristiques préparées, une étude de cas sur l'estimation de l'IE du site de 3640 bâtiments résidentiels multifamiliaux à New York a été testée et validée à l'aide du cadre méthodologique proposé. Une étude comparative sur les stratégies de sélection de caractéristiques et les algorithmes de régression couramment utilisés a également été incluse dans l'étude de cas. Les résultats montrent que le cadre a pu aider à produire des erreurs d'estimation plus faibles que les recherches précédentes, et le modèle construit par l'algorithme de régression vectorielle de support sur les caractéristiques sélectionnées par Elastic Net a l'erreur quadratique moyenne de validation croisée la moins élevée.


Surface 3D produite à partir de données de vitesse du vent à 100 m d'altitude sur le continent américain

Je savais que quelqu'un m'appellerait. J'aurais dû aller avec Albers EAC. Ce n'était en fait qu'une expérience rapide qui s'est avérée meilleure que ce à quoi je m'attendais, alors j'ai posté tel quel.

Twitter et IG : @geo_spatialist pour plus d'informations.

Ça a l'air génial ! J'aime vraiment l'apparence des lacs. Cela représente le phénomène que vous essayez de représenter, et les découper pour moi suggérerait pas de vent et je serais probablement contrarié lol. Idée incroyable !

J'ai l'impression que le bleu et le blanc auraient été plus appropriés pour les données, mais bon sang si ce n'est pas beau

Quel programme/bibliothèque avez-vous utilisé ? Python?R? Très beau terrain !

Cool que vous puissiez voir clairement le plateau de Columbia

Je veux ça sur mon mur ! Super boulot!

C'est un travail phénoménal et génial!

C'est une ordure absolue. Envoyez-le-moi et je m'en débarrasserai pour vous.

Edit : Attends, c'est une image ? J'ai littéralement pensé que c'était une impression 3D accrochée au mur. Putain mec. C'est une bonne chose.

Tu m'as eu en première mi-temps, je ne vais pas mentir.

Très cool, j'aime la façon dont cela montre la complexité des Grandes Plaines. Je pense que j'irais avec une échelle de couleurs différente car les bruns avec l'ombre diminuent les détails dans certaines zones. Il serait vraiment intéressant de voir les projets d'énergie éolienne cartographiés sur cela.


Projet 2 : Configuration de votre environnement d'analyse dans R

La plupart des analyses que vous utiliserez nécessitent des commandes contenues dans différents packages. You should have already loaded many of these packages, but just to ensure we document what packages we are using, let's add in the relevant information so that if the packages have not been switched on, they will be when we run our analysis.

Note that the lines that start with #install.packages will be ignored in this instance because of the # in front of the command. Lines of code with a # symbol are treated as comments by the compiler. If you do need to install a package (e.g., if you hadn't already installed all of the relevant packages), then remove the # when you run your code so the line will execute.

Note that for every package you install, you must also issue the library() function to tell R that you wish to access that package. Installing a package does not ensure that you have access to the functions that are a part of that package.

Set the working directory

Before we start writing R code, you should make sure that R knows where to look for the shapefiles and text files. First, you need to set the working directory. In your case, the working directory is the folder location where you placed the contents of the .zip file when you unzipped it. To follow up, make sure that the correct file location is specified. There are several ways you can do this. As shown below, you can set the directory path to a variable and then reference that variable whereever and whenever you need to. Notice that there is a slash at the end of the directory name. If you don't include this, it can lead to the final folder name getting merged with a filename, meaning R cannot find your file.

Note that R is very sensitive to the use of "/" as a directory level indicator. R does not recognize "" as a directory level indicator and an error will return. DO NOT COPY THE DIRECTORY PATH FROM FILE EXPLORER AS THE FILE PATH USES "" but R only recognizes "/" for this purpose.

You can also issue the setwd() function that "sets" the working directory for your program.

Finally and most easily, you can also set the working directory through RStudio's interface: Session - Set Working Directory - Choose Directory.

Issue the getwd() function to confirm that R knows what the correct path is.

When you've finished replacing the filepaths above to the relevant ones on your own computer, check the results in the RStudio console with the list.files() command to make sure that R is seeing the files in the directories. You should see outputs that print that list the files in each of the directories. 90% of problems with R code come from either a library not being loaded correctly or a filepath problem, so it is worth taking some care here.

Loading and viewing the data file (Two Code Options)

Add the crime data file that you need and view the contents of the file. Inspect the results to make sure that you are able to read the crime data.


Installing the Cartogram R packages

Two packages Rcartogram and getcartr make the functionality of the Gastner and Newman (2004) procedure available for working with objects of class Spatial* . Installing Rcartogram requires the fftw library to be installed. How to best do that depends on your system, for Mac OS X the homebrew package system makes this installation easy.

We are now ready to compute our first cartogram using the getcartr::quick.carto function.

With the cartogram functionality now being directly available through R allows one to embedd cartogram making in a full R pipeline. We illustrate this by generating a sequence of cartograms into an animated GIF file using the animation package. The animation below shows a cartogram for the population size for each of the 32 age groups in the Berlin data set. One observes that the 25-45 year old tend to live in the city centre, while the 95-110 year old seem to concentrate in the wealthy regions in the south west.


Voir la vidéo: Comment créer un fichier de forme shapefile sur Arcgis #32# (Octobre 2021).