Suite

Y a-t-il une différence entre les deux ensembles d'outils d'analyse de terrain QGIS ?


Y a-t-il une différence entreAnalyse raster/terrainet les mêmes caractéristiques dansRaster/Analyse/DEM (Analyse du Terrain)? Les deux semblent faire les mêmes types de calculs ; sont-ils identiques ou y a-t-il une différence et si oui, laquelle ?


LeRaster -> Analyse de terrainl'entrée de menu provient du noyauPlugin d'analyse de terrain raster, qui est installé par défaut. Vous pouvez le désactiver dans le programme d'installation du plugin. Il est décrit ici :

http://docs.qgis.org/2.0/en/docs/user_manual/plugins/plugins_raster_terrain.html

et un petit tutoriel est ici:

http://manual.linfiniti.com/en/qgis_plugins/plugin_examples.html#basic-fa-the-raster-terrain-analysis-plugin

LeRaster -> Analyseles entrées de menu proviennent des outils gdal et peuvent être étendues à l'aide des options de ligne de commande disponibles. Voir les pages de manuel GDAL pour plus de détails.

Un tutoriel est disponible ici :

http://manual.linfiniti.com/en/rasters/terrain_analysis.html

De plus, la boîte à outils de traitement propose également les outils GDAL, ainsi que les routines GRASS et SAGA pour l'ombrage des pentes et des collines.

Donc beaucoup de possibilités pour obtenir le style que vous voulez.


/ est le séparateur de chemin sur les systèmes Unix et de type Unix. Windows moderne peut généralement utiliser à la fois et / de manière interchangeable pour les chemins de fichiers, mais Microsoft préconise l'utilisation de comme séparateur de chemin depuis des décennies.

Ceci est fait pour des raisons historiques qui remontent aux années 1970, avant Windows de plus d'une décennie. Au début, MS-DOS (le fondement des premiers Windows) ne prenait pas en charge les répertoires. Unix a pris en charge les répertoires utilisant le caractère / depuis le début. Cependant, lorsque des répertoires ont été ajoutés dans MS-DOS 2.0, Microsoft et IBM utilisaient déjà le caractère / pour les commutateurs de commande, et en raison de l'analyseur léger de DOS (descendant de QDOS, conçu pour fonctionner sur du matériel bas de gamme), ils n'ont pas pu trouver un moyen possible d'utiliser le caractère / sans rompre la compatibilité avec leurs applications existantes.

Donc, pour éviter les erreurs sur "manquer un commutateur" ou "commutateur non valide" lors de la transmission de chemins de fichiers en tant qu'arguments à des commandes telles que celles-ci :

il a été décidé que le caractère serait utilisé à la place, vous pouvez donc écrire ces commandes comme ceci

Plus tard, Microsoft et IBM ont collaboré sur un système d'exploitation sans rapport avec DOS appelé OS/2. OS/2 avait la possibilité d'utiliser les deux séparateurs, probablement pour attirer plus de développeurs Unix. Lorsque Microsoft et IBM se sont séparés en 1990, Microsoft a pris le code qu'ils possédaient et a créé Windows NT, sur lequel sont basées toutes les versions modernes de Windows, emportant avec lui cet agnosticisme séparateur.

Comme la compatibilité descendante a été le nom du jeu pour Microsoft de toutes les transitions de système d'exploitation majeures qu'ils ont entreprises (DOS vers Win16/DOS, vers Win16/Win32, vers Win32/WinNT), cette particularité est restée, et elle sera probablement existent depuis un certain temps encore.

C'est pour cette raison que cet écart existe. Cela ne devrait vraiment avoir aucun effet sur ce que vous faites car, comme je l'ai dit, WinAPI peut généralement les utiliser de manière interchangeable. Cependant, les applications tierces échoueront probablement si vous passez un / alors qu'elles attendent un entre les noms de répertoire. Si vous utilisez Windows, restez avec . Si vous utilisez Unix ou des URI (qui ont leur fondement dans les chemins Unix, mais c'est une toute autre histoire), alors utilisez / .


Qu'est-ce que l'Europe occidentale ?

L'Europe occidentale fait référence à la partie occidentale de l'Europe. Certains des pays qui entrent dans cette catégorie sont le Royaume-Uni, la Norvège, le Portugal, l'Espagne, la France, la Suisse, la Cité du Vatican, les Pays-Bas, la Suède, Malte, l'Italie, l'Islande, l'Allemagne, la Grèce, la Finlande, etc. La région de l'Europe occidentale est très très avancé dans son économie. Parallèlement aux inventions de la révolution industrielle, les pays ont pu acquérir un taux de développement économique élevé.

Dans cette région, on peut voir des catholiques et des chrétiens protestants. Les gens parlent des langues romanes et celles qui ont des racines germaniques aussi. L'impact de la modernisation et de l'individualisation est clairement visible dans les modes de vie des gens.


La principale différence fondamentale réside dans la façon dont chaque sphère est modélisée. La sphère UV, un peu comme les lignes de latitude et de longitude de la Terre, utilise des anneaux et des segments. Près des pôles (tous deux sur l'axe Z avec l'orientation par défaut), les segments verticaux convergent vers les pôles. Cette sphère est utile pour projeter le terrain sur les planètes et/ou la modélisation complexe car elle est facilement subdivisée même après avoir été créée, et se mappe facilement sur des projections équirectangulaires (plaque carrée).

L'icosphère utilise une approche différente. Un polyèdre est composé de triangles placés (à différents niveaux de subdivision) en icosaèdre (d'où le nom) et de solides plus finement subdivisés. Toutes les faces ont la même surface, ce qui peut être utile pour certains types de mapping UV contenant des textures non organiques. Un exemple qui me vient à l'esprit est un dé isocaédrique ou des boules de billard où l'étirement doit être minimisé près du point où le nombre est imprimé sur la boule.


Une comparaison des UV et des icosphères. Les sphères UV sont à gauche. En descendant, les niveaux de subdivision sont augmentés. 10 anneaux, 3 segments 16/8 et 32/32 pour les sphères UV et niveaux de subdivision 1,2 et 3 pour l'icosphère. Le matériau BI par défaut est utilisé et la lumière est directement derrière la caméra.


3 réponses 3

L'article suivant pourrait vous être utile, car il décrit comment évaluer si l'effet d'un facteur explicatif donné est invariant sur les personnes, le temps ou les organisations :

Paternoster, R., Brame, R., Mazerolle, P., & Piquero, A.R. (1998). Utilisation du test statistique correct pour l'égalité des coefficients de régression. Criminologie, 36(4), 859-866.

Ce qu'ils disent en gros, c'est que pour tester l'hypothèse selon laquelle la différence entre $b_1$ et $b_2$ (1 et 2 étant deux échantillons ou temps) est égale à zéro, vous pouvez appliquer la formule suivante :

SE étant l'erreur standard des «pentes» respectives dans votre cas.

Si les pentes proviennent de la régression des moindres carrés ordinaires, il serait bon de vérifier que les données d'une année sur l'autre qui ont généré ces valeurs sont bien indépendantes. La plupart des études de capture-recapture doivent tenir compte des volumes des années précédentes en utilisant une méthode de gestion de la dépendance du volume au fil du temps.

En utilisant les erreurs standard, vous pouvez construire des intervalles de confiance autour de vos paramètres de pente. Un test naïf pour savoir s'ils sont différents au bon niveau $alpha$ consiste à vérifier si l'un des intervalles de confiance se chevauche. (Notez que l'intervalle de confiance d'un paramètre doit chevaucher l'autre valeur réelle du paramètre, et non son intervalle de confiance, afin de ne pas rejeter l'hypothèse nulle selon laquelle ils sont différents).


Visualiser des données 3D

L'extension ArcGIS 3D Analyst vous permet de draper des images ou des données vectorielles sur des surfaces et d'extruder des entités vectorielles à partir d'une surface pour créer des lignes, des murs et des solides. Vous pouvez utiliser des symboles 3D pour ajouter du réalisme à l'affichage de vos données SIG et créer des animations de haute qualité pour distribuer les résultats.

ArcScene offre la possibilité d'afficher une scène à partir de plusieurs points de vue à l'aide de différentes visionneuses ou de modifier les propriétés des couches 3D pour utiliser l'ombrage ou la transparence.

Vous pouvez également modifier les propriétés d'une scène 3D pour définir les éléments suivants :

  • Le système de coordonnées et l'étendue de la scène
  • L'éclairage de la scène
  • L'exagération verticale du terrain (voir graphiques ci-dessous)

Les images suivantes montrent comment vous pouvez exagérer la dimension verticale d'une scène.


Landsat Collection 2

Les produits Landsat Collection 2 Niveau 1 et Niveau 2 basés sur les scènes de réflectance de surface et de température de surface sont disponibles au téléchargement. Les données U.S. Analysis Ready Data (ARD) de la Collection 2 basée sur des tuiles seront disponibles mi-2021.

Niveau 1

Informations techniques pour les données de la Collection 2 Niveau 1.

Niveau 2

Informations techniques pour les produits scientifiques de la Collection 2 de niveau 2.

Données prêtes pour l'analyse aux États-Unis

Informations techniques pour Landsat Collection 2 U.S. Analysis Ready Data (ARD)

L'USGS est le premier récipiendaire de l'approbation du Comité sur les satellites d'observation de la Terre (CEOS) pour les produits compatibles avec les données prêtes à l'analyse pour la terre (CARD4L) pour les produits Landsat Collection 2 Level-2. Cette certification internationalement reconnue garantit que les produits Landsat Collection 2 Level-2 sont plus interopérables avec d'autres plates-formes d'observation de la Terre, telles que le satellite européen Sentinel-2, car ils fonctionnent également vers des produits conformes à CARD4L.

(Utilisé avec la permission du CEOS.)

Landsat Collection 2 marque le deuxième effort de retraitement majeur sur les archives Landsat par l'USGS qui se traduit par plusieurs améliorations des produits de données qui exploitent les avancées récentes dans le traitement des données, le développement d'algorithmes et les capacités d'accès et de distribution des données.

Une caractéristique principale de la Collection 2 est l'amélioration substantielle de la précision de géolocalisation absolue de l'ensemble de données de référence au sol mondial - ce qui améliore l'interopérabilité des archives Landsat dans le temps. La collection 2 comprend également des sources de modélisation d'élévation numérique mondiales mises à jour et des mises à jour d'étalonnage et de validation.

La collection 2 comprend des données Landsat de niveau 1 pour tous les capteurs depuis 1972, ainsi que des produits globaux de réflectance de surface et de température de surface de niveau 2 de 1982 à aujourd'hui (à l'exception du scanner multispectral Landsat 1-5 (MSS)) dans le cadre de contraintes définies.

VEUILLEZ NOTER: Collection Landsat 1 le traitement à terme basé sur la base restera en vigueur jusqu'au 31 décembre 2021, en même temps que le traitement à terme basé sur Landsat Collection 2. À compter du 1er janvier 2022, toutes les nouvelles acquisitions Landsat seront traitées dans le Collection 2 structure d'inventaire seulement.

Les utilisateurs sont encouragés à migrer leur flux de travail vers Landsat Collection 2 dès que possible. En raison des progrès réalisés dans le traitement des données et le développement d'algorithmes, il est déconseillé aux utilisateurs d'utiliser la Collection 1 et la Collection 2 de manière interchangeable dans le même flux de travail.

Les produits de la Collection 1 resteront disponibles pour la recherche et le téléchargement pendant que l'USGS évalue un calendrier formel de dépréciation.

Visitez la page Web Landsat Data Access pour découvrir comment rechercher et télécharger tous les produits Landsat à partir des portails de données USGS.

Collection 2 Faits saillants

Vous trouverez ci-dessous un résumé de haut niveau des principales améliorations de la Collection 2. Pour une description plus détaillée des améliorations de traitement, géométriques et radiométriques de la Collection 2, veuillez visiter la page Web de la Collection 2 Niveau 1 ou consulter la documentation qui l'accompagne.

Téléchargez ce Guide de référence rapide qui répertorie l'étalonnage, le traitement des données, les métadonnées et les différences de produit entre les produits Landsat Collection 1 Level-1, Level-2 U.S. Analysis Ready Data (ARD) et Landsat Collection 2.

  • Précision géométrique améliorée
    La redéfinition des points de contrôle au sol (GCP) Landsat 8 OLI sur l'image de référence globale (GRI) Copernicus Sentinel-2 de l'Agence spatiale européenne améliore l'interopérabilité spatiale et temporelle des archives Landsat mondiales. Le Janvier 2020 : Phase 4 - Section Collection 2 sur la page Web des points de contrôle au sol Landsat fournit plus d'informations. Une publication de 2019 montre une amélioration de la précision du contrôle au sol en déployant une méthode de triangulation continent par continent.
  • Modélisation numérique améliorée de l'altitude
    La collection 2 utilise les sources de modélisation numérique d'élévation (DEM) à 3 secondes d'arc répertoriées et illustrées sur la carte ci-dessous. (Veuillez vous référer au "DATA_SOURCE_ELEVATION” dans le fichier de métadonnées de niveau 1 pour déterminer la source DEM utilisée dans le traitement.)

Sources numériques d'altitude utilisées dans le traitement des données de la collection Landsat 2. (Cliquez pour agrandir)

Collection 2 niveaux

Les niveaux de collecte Landsat constituent la structure d'inventaire des produits de données de niveau 1 et sont basés sur la qualité des données et le niveau de traitement. L'objectif de la définition de niveau est de faciliter l'identification des scènes appropriées pour l'analyse des séries temporelles au niveau des pixels et de fournir des données temporaires qui sont traitées immédiatement lors de la liaison descendante pour être distribuées rapidement dans les situations d'intervention d'urgence avec un étalonnage limité.

Temps réel (RT)

Les données Landsat 7 ETM+ et Landsat 8 OLI/TIRS nouvellement acquises sont traitées sur la liaison descendante mais utilisent les éphémérides prédites (Landsat 7), les paramètres initiaux du mode pare-chocs (Landsat 7) ou les paramètres initiaux du modèle de ligne de visée TIRS (Landsat 8). Les données sont placées dans le niveau en temps réel et mises à disposition pour le téléchargement en moins de 12 heures (4 à 6 heures généralement). Une fois que les données ont été retraitées avec les éphémérides définitives, les paramètres du mode bumper mis à jour et les paramètres TIRS affinés, les produits sont transférés au niveau 1 ou au niveau 2 et supprimés du niveau en temps réel. Le délai de transition du temps réel au niveau 1 ou au niveau 2 est compris entre 14 et 26 jours. Les détails du traitement de suivi sont décrits ci-dessous.

  • Les acquisitions Landsat 7 ETM+ sont traitées immédiatement à l'aide des éphémérides prédites et des paramètres de mode bumper initiaux et placées dans le niveau en temps réel. Peu de temps après le traitement initial (environ 1 jour), les données sont retraitées à l'aide d'éphémérides définitives, mais restent dans le niveau Temps réel. Pendant une période de tendance/caractérisation de l'instrument (environ 26 jours), les ajustements des paramètres d'étalonnage finalisent le modèle de correction géométrique, et les données sont retraitées et placées dans le niveau 1 ou le niveau 2.
  • Les données Landsat 8 TIRS peuvent ne pas répondre aux spécifications de co-enregistrement avec OLI. Les paramètres du modèle de ligne de visée TIRS sont affinés en fonction des données acquises lors des manœuvres d'étalonnage bihebdomadaires et les scènes sont retraitées dans les 14 à 16 jours suivant l'acquisition et placées dans le niveau 1 ou le niveau 2.

Les scènes Landsat avec la qualité de données disponible la plus élevée sont placées dans le niveau 1 et sont considérées comme appropriées pour l'analyse de séries chronologiques. Le niveau 1 comprend des données corrigées de précision et de terrain de niveau 1 (L1TP) qui ont une radiométrie bien caractérisée et sont inter-calibrées entre les différents instruments Landsat. Le géo-enregistrement des scènes de niveau 1 est cohérent et dans les tolérances d'image à image prescrites de ≦ 12 mètres d'erreur quadratique moyenne radiale (RMSE).

Les scènes Landsat ne répondant pas aux critères de niveau 1 pendant le traitement sont affectées au niveau 2. Les scènes de niveau 2 adhèrent à la même norme radiométrique que les scènes de niveau 1, mais ne répondent pas aux spécifications de géométrie de niveau 1 en raison d'informations orbitales moins précises (spécifiques aux anciens capteurs Landsat ), une couverture nuageuse importante, un contrôle au sol insuffisant ou d'autres facteurs. Cela inclut les données traitées de terrain systématique (L1GT) et systématique (L1GS). Les utilisateurs intéressés par les scènes de niveau 2 peuvent interroger le RMSE et d'autres propriétés pour déterminer leur adéquation à l'application.

La désignation de niveau (T1, T2, RT) est visible à la fin de l'identifiant de produit Landsat, comme indiqué dans les exemples ci-dessous. Il est également fourni en tant que champ de métadonnées supplémentaire dans EarthExplorer. Remarque : les données historiques Landsat 4-5 TM et Landsat 7 ETM+ reçues des stations au sol internationales prenant en charge l'effort de consolidation des archives mondiales Landsat sont placées au niveau 1 ou au niveau 2 après le traitement de la collection 1.

Temps réel : LE07_L1TP_037035_20210429_20210429_02_RT
Niveau 1 : LE07_L1TP_013024_20061106_20200913_02_T1
Niveau 2 : LT05_L1GS_178058_19950410_20200912_02_T2

Problèmes connus de la collection Landsat 2

La page Problèmes connus de Landsat Collection 2 fournit des informations sur les artefacts trouvés dans les produits de données de Landsat Collection 2 et tente de faire des recommandations sur la manière dont les utilisateurs peuvent apporter des corrections.

Disponibilité des données, accès et calendrier de génération de produits

Visitez la page Web Landsat Data Access pour découvrir comment rechercher et télécharger tous les produits Landsat à partir des portails de données USGS. La politique de données en libre accès sans frais de l'USGS Landsat reste intacte depuis sa création en 2008.

Un calendrier typique de génération de produits Landsat Collection 2 est illustré ci-dessous (cliquez sur l'image pour l'agrandir).

Chronologie typique de génération de produits Landsat 7-9 Collection 2

Les scènes en temps réel Landsat 7 ETM+ et Landsat 8 OLI/TIRS sont disponibles en téléchargement dans les 4 à 6 heures suivant l'acquisition.

Pour Landsat 7 ETM+, le délai entre l'acquisition (temps réel) et le niveau 1 ou le niveau 2 prend environ 24 à 26 jours pour permettre l'application des paramètres de mode pare-chocs affinés aux scènes en temps réel de niveau 1. Pour Landsat 8 OLI/TIRS, il faut environ 14 à 16 jours pour passer à un produit de niveau 1 ou 2, tandis que les paramètres raffinés du modèle de ligne de vue de l'instrument TIRS sont appliqués aux scènes en temps réel.

Les produits de réflectance de surface et de température de surface de niveau 2 sont généralement disponibles dans les 24 heures suivant le traitement d'une scène au niveau 1 ou 2.

Landsat 7 et Landsat 8 utilisent tous deux les produits d'assimilation atmosphérique de la version 5 du modèle de système d'observation de la Terre Goddard de la NASA pour les équipes d'instruments (GEOS-5 FP-IT) pour la génération de produits de niveau 2.

Lors du lancement nominal et de la vérification en orbite en septembre 2021, Landsat 9 fournira des scènes de niveau 1 de niveau 1 ou de niveau 2 de la collection 2 dans les 4 à 6 heures suivant l'acquisition, et un produit de réflectance de surface et de température de surface de niveau 2 dans les 3 jours suivant acquisition. Landsat 9 utilisera également le produit de données atmosphériques auxiliaires GEOS-5 FP-IT pour la génération de produits de niveau 2.

Documentation

Masek, J., M.A. Wulder, B.L. Markham, J. McCorkel, C.J. Crawford, J. Storey et D.T. Jenstrom. (2020). Landsat 9 : renforcer la science ouverte et ses applications grâce à la continuité. Télédétection de l'environnement 248. doi:10.1016/j.rse.2020.111968

Les utilisateurs sont encouragés à consulter le COG Data Format Control Book (DFCB) pour une description détaillée des fichiers d'image, de produit et de métadonnées. Avec les DFCB de niveau 1 spécifiques aux instruments, le COG DFCB fournit un aperçu complet des nouveaux produits Landsat Collection 2.

Collection 2 Documents de niveau 1

  • Landsat 8-9 OLI/TIRS Collection 2 Level 1 Data Format Control Book
  • Landsat 7 ETM+ Collection 2 Level 1 Data Format Control Book
  • Landsat 4-5 TM Collection 2 Level 1 Data Format Control Book
  • Landsat 1-5 MSS Collection 2 Level 1 Data Format Control Book

Collection 2 Documents de niveau 2

  • Landsat 8-9 OLI/TIRS Collection 2 Level 2 Data Format Control Book
  • Landsat 7 ETM+ Collection 2 Level 2 Data Format Control Book
  • Landsat 4-5 TM Collection 2 Level 2 Data Format Control Book
  • Livre de contrôle du format des données auxiliaires atmosphériques Landsat
  • Guide des produits scientifiques de niveau 2 de la collection Landsat 8 Collection 2
  • Guide des produits scientifiques Landsat 4-7 Collection 2 Niveau 2

Résumé des améliorations et améliorations

Un résumé des améliorations et améliorations entre la Collection 1 et la Collection 2 est fourni dans ce guide de référence rapide.


Comprendre un semi-variogramme : plage, seuil et pépite

Comme discuté précédemment, le semi-variogramme représente l'autocorrélation spatiale des points d'échantillonnage mesurés. En raison d'un principe de base de la géographie (les choses qui sont plus proches se ressemblent davantage), les points mesurés qui sont proches auront généralement une plus petite différence au carré que ceux qui sont plus éloignés. Une fois que chaque paire d'emplacements est tracée après avoir été regroupée, un modèle est ajusté à travers eux. La plage, le seuil et la pépite sont couramment utilisés pour décrire ces modèles.

Portée et seuil

Lorsque vous regardez le modèle d'un semi-variogramme, vous remarquerez qu'à une certaine distance le modèle se stabilise. La distance à laquelle le modèle s'aplatit pour la première fois est appelée plage. Les emplacements des échantillons séparés par des distances plus proches que la plage sont spatialement autocorrélés, alors que les emplacements plus éloignés que la plage ne le sont pas.

Illustration des composants Range, Sill et Nugget

La valeur à laquelle le modèle de semi-variogramme atteint la plage (la valeur sur l'axe des y) est appelée le seuil. Un seuil partiel est le seuil moins la pépite. La pépite est décrite dans la section suivante.

Pépite

Théoriquement, à distance de séparation nulle (par exemple, décalage = 0), la valeur du semi-variogramme est 0. Cependant, à une distance de séparation infiniment petite, le semi-variogramme présente souvent un effet de pépite, qui est une valeur supérieure à 0. Si le modèle de semi-variogramme intercepte l'axe des y à 2, alors la pépite est 2.

L'effet pépite peut être attribué à des erreurs de mesure ou à des sources spatiales de variation à des distances inférieures à l'intervalle d'échantillonnage (ou aux deux). L'erreur de mesure se produit en raison de l'erreur inhérente aux appareils de mesure. Les phénomènes naturels peuvent varier dans l'espace sur une gamme d'échelles. La variation à des échelles microscopiques inférieures aux distances d'échantillonnage apparaîtra dans le cadre de l'effet pépite. Avant de collecter des données, il est important de comprendre les échelles de variation spatiale qui vous intéressent.


Les 6 principales méthodes de collecte de données – expliquées !

La méthode d'observation a occupé une place importante dans la recherche sociologique descriptive. C'est la technique de collecte de données la plus importante et la plus courante. L'analyse des réponses au questionnaire s'intéresse à ce que les gens pensent et font tel que révélé par ce qu'ils mettent sur papier. Les réponses en entretien sont révélées par ce que les gens expriment dans la conversation avec l'intervieweur. L'observation cherche à déterminer ce que les gens pensent et font en les observant en action alors qu'ils s'expriment dans diverses situations et activités.

L'observation est le processus par lequel une ou plusieurs personnes observent ce qui se passe dans une situation réelle et classent et enregistrent les événements pertinents selon certains schémas planifiés. Il est utilisé pour évaluer le comportement manifeste des individus en situation contrôlée ou non contrôlée. C'est une méthode de recherche qui traite du comportement extérieur des personnes dans des situations appropriées.

Selon P.V. Young, “Observation est une étude systématique et délibérée à travers l'œil, d'occurrences spontanées au moment où elles se produisent. Le but de l'observation est de percevoir la nature et l'étendue d'éléments interdépendants importants au sein de phénomènes sociaux complexes, de modèles culturels ou de conduite humaine.

De cette définition, il ressort clairement que l'observation est une observation systématique à l'aide de l'œil. Son objectif est de découvrir des relations mutuelles importantes entre des événements se produisant spontanément et d'explorer les faits cruciaux d'un événement ou d'une situation. Il est donc clairement visible que l'observation n'est pas simplement une perception aléatoire, mais un examen attentif de faits cruciaux. Il s'agit d'un effort planifié, intentionnel, systématique et délibéré pour se concentrer sur les faits importants d'une situation.

Selon l'Oxford Concise Dictionary, « L'observation signifie une observation précise, une connaissance des phénomènes tels qu'ils se produisent dans la nature en ce qui concerne les relations de cause à effet ou les relations mutuelles ».

Cette définition se concentre sur deux points importants :

Premièrement, dans l'observation, l'observateur veut explorer les relations de cause à effet entre les faits d'un phénomène.

Deuxièmement, divers faits sont observés avec précision, soigneusement et enregistrés par l'observateur.

2. Entretien :

L'entretien en tant que technique de collecte de données est très populaire et largement utilisé dans tous les domaines de la recherche sociale. L'entretien est en quelque sorte un questionnaire oral. Au lieu d'écrire la réponse, la personne interrogée ou le sujet donne les informations nécessaires verbalement dans une relation face à face. La dynamique de l'entretien, cependant, implique bien plus qu'un questionnaire oral.

L'entretien est un outil relativement plus flexible que n'importe quel formulaire d'enquête écrit et permet des explications, des ajustements et des variations selon la situation. Les méthodes d'observation, on le sait, se limitent pour la plupart à des actes non verbaux. Ceux-ci ne sont donc naturellement pas aussi efficaces pour donner des informations sur le comportement passé et privé de la personne, ses actions futures, ses attitudes, ses perceptions, ses croyances, ses processus de pensée, ses motivations, etc.

La méthode d'entretien en tant que méthode verbale est assez importante pour obtenir des données sur tous ces aspects. Dans cette méthode, un chercheur ou un intervieweur peut interagir avec ses répondants et connaître leurs sentiments et réactions intérieurs. G.W. Allport dans sa déclaration classique résume magnifiquement cela en disant que «si vous voulez savoir ce que les gens ressentent, ce qu'ils vivent et ce dont ils se souviennent, à quoi ressemblent leurs émotions et leurs motivations et les raisons pour lesquelles ils agissent comme ils le font, pourquoi ne pas demander eux”.

L'entretien est une méthode d'enquête directe. Il s'agit simplement d'un processus social dans lequel une personne connue sous le nom d'intervieweur pose des questions généralement lors d'un contact face à face avec l'autre personne ou les autres personnes connues sous le nom d'interviewé ou d'interviewés. La personne interrogée y répond et l'enquêteur recueille diverses informations à partir de ces réponses grâce à une interaction sociale très saine et amicale.

Cependant, cela ne signifie pas que tout le temps, c'est l'enquêteur qui pose les questions. Souvent, la personne interrogée peut également poser certaines questions et l'enquêteur y répond. Mais généralement, l'enquêteur initie l'entretien et recueille les informations auprès de la personne interrogée.

L'entretien n'est pas une simple conversation à double sens entre un interrogateur et un informateur. Selon P.V. Young, "l'entretien peut être considéré comme une méthode systématique par laquelle une personne entre avec plus ou moins d'imagination dans la vie d'un étranger relatif". C'est une interaction mutuelle les uns avec les autres.

Les objectifs de l'enquêteur sont de pénétrer la vie extérieure et intérieure des personnes et de collecter des informations relatives à un large éventail de leurs expériences dans lesquelles la personne interrogée peut souhaiter répéter son passé, définir son présent et explorer ses possibilités futures. Ces réponses des personnes interrogées peuvent être non seulement une réponse à une question, mais aussi un stimulus à une série progressive d'autres déclarations pertinentes sur des phénomènes sociaux et personnels.

De la même manière, W.J. Goode et P.K Hatt ont observé que « l'entretien est fondamentalement un processus d'interaction sociale ». Dans l'interview, deux personnes ne sont pas simplement présentes au même endroit, mais s'influencent également émotionnellement et intellectuellement.

3. Horaire :

Le calendrier est l'un des outils de collecte de données les plus couramment utilisés dans l'investigation scientifique. P.V. Young dit que "le calendrier a été utilisé pour la collecte de préférences personnelles, d'attitudes sociales, de croyances, d'opinions, de modèles de comportement, de pratiques et d'habitudes de groupe et de nombreuses autres données". L'utilisation croissante du calendrier est probablement due à l'accent accru mis par les spécialistes des sciences sociales sur la mesure quantitative des données uniformément accumulées.

Le calendrier est très similaire au questionnaire et il y a très peu de différence entre les deux en ce qui concerne leur construction. La principale différence entre les deux est que, alors que la grille est utilisée en entretien direct sur observation directe et que les questions sont posées et remplies par le chercheur lui-même, le questionnaire est généralement envoyé par courrier au répondant, qui le remplit et le renvoie à le chercheur. Ainsi, la principale différence entre eux réside dans la méthode d'obtention des données.

Goode et Hatt déclarent : « Schedule est le nom généralement appliqué à un ensemble de questions qui sont posées et remplies par un intervieweur dans une situation face à face avec une autre personne ». Webster définit un calendrier comme « une liste formelle, un catalogue ou un inventaire et peut être un dispositif de comptage, utilisé dans les enquêtes formelles et standardisées, dont le seul but est d'aider à la collecte de données transversales quantitatives ».

Le succès du programme dépend en grande partie de l'efficacité et du tact de l'enquêteur plutôt que de la qualité des questions posées. Parce que l'intervieweur lui-même pose toutes les questions et remplit les réponses tout seul, ici la qualité de la question a moins d'importance.

4. Questionnaire :

Le questionnaire fournit la technique la plus rapide et la plus simple pour collecter des données sur des groupes d'individus dispersés dans un champ large et étendu. Dans cette méthode, un formulaire de questionnaire est généralement envoyé par courrier aux personnes concernées, avec une demande de répondre aux questions et de retourner le questionnaire.

Selon Goode et Hatt, il s'agit d'un dispositif permettant de sécuriser les réponses aux questions en utilisant un formulaire que le répondant remplit lui-même. Selon GA. Lundberg « Fondamentalement, le questionnaire est un ensemble de stimuli auxquels les personnes analphabètes sont exposées afin d'observer leur comportement verbal sous ces stimuli.

Souvent, les termes “questionnaire” et “schedule” sont considérés comme des synonymes. Techniquement, cependant, il existe une différence entre ces deux termes. Un questionnaire consiste en un ensemble de questions imprimées ou tapées dans un ordre systématique sur un formulaire ou un ensemble de formulaires. Ce ou ces formulaires sont généralement adressés par voie postale aux personnes interrogées qui sont censées lire et comprendre les questions et y répondre par écrit dans les espaces prévus à cet effet sur le ou les formulaires. Ici, les répondants doivent répondre seuls aux questions.

D'autre part, le calendrier est également un formulaire ou un ensemble de formulaires contenant un certain nombre de questions. Mais ici, le chercheur ou l'agent de terrain pose la question à l'enquêté en face à face, clarifie ses doutes, propose l'explication nécessaire et surtout remplit ses réponses dans les espaces appropriés prévus à cet effet.

Étant donné que le questionnaire est envoyé à un nombre sélectionné d'individus, sa portée est plutôt limitée, mais dans sa portée limitée, il peut s'avérer être le moyen le plus efficace d'obtenir des informations, à condition qu'il soit bien formulé et que le répondant le remplisse correctement.

Un questionnaire correctement construit et administré peut servir de dispositif de collecte de données le plus approprié et le plus utile.

5. Techniques projectives :

Les psychologues et les psychiatres avaient d'abord mis au point des techniques projectives pour le diagnostic et le traitement des patients atteints de troubles émotionnels. De telles techniques sont adoptées pour présenter un profil complet de la structure de la personnalité de l'individu, ses conflits et ses complexes et ses besoins émotionnels. L'adoption de telles techniques n'est pas une affaire facile. Il nécessite une formation spécialisée intensive.

Les stimuli appliqués dans les tests projectifs peuvent susciter chez les individus subissant les tests, des variétés de réactions. Par conséquent, dans les tests projectifs, les réponses individuelles à la situation de stimulus ne sont pas considérées à leur valeur nominale car il n'y a pas de réponses « bonnes » ou « mauvaises ». L'accent est plutôt mis sur sa perception ou le sens qu'il y attache et la manière dont il s'efforce de la manipuler ou de l'organiser.

Le but n'est jamais clairement indiqué par la nature des stimuli et la manière de leur présentation. Cela ne permet pas non plus d'interpréter les réponses. Puisque l'individu n'est pas invité à se décrire directement et qu'il reçoit un stimulus sous la forme d'une photographie ou d'une image ou sur une tache d'encre, etc., les réponses à ces stimuli sont interprétées comme les indicateurs de l'individu. 8217s propre vision du monde, sa structure de personnalité, ses besoins, ses tensions et ses angoisses, etc., dit Bell.

6. Méthode d'étude de cas :

Selon Biesanz et Biesenz, l'étude de cas est une forme d'analyse qualitative impliquant l'observation très minutieuse et complète d'une personne, d'une situation ou d'une institution. way of organizing social data so as to preserve the unitary character of the social object being studied.” PV young defines case study as a method of exploring and analyzing the life of a social unit, be that a person, a family, an institution, cultural group or even entire community.”

In the words of Giddings “the case under investigation may be one human individual only or only an episode in first life or it might conceivably be a Nation or an epoch of history.” Ruth Strong maintains that “the case history or study is a synthesis and interpretation of information about a person and his relationship to his environment collected by means of many techniques.”

Shaw and Clifford hold that “case study method emphasizes the total situation or combination of factors, the description of the process or consequences of events in which behaviour occurs, the study of individual behaviour in its total setting and the analysis and comparison of cases leading to formulation of hypothesis.”


Implementation

This part of the report will document some of my attempts at implementing the concepts discussed previously. The first approach I took was the simple uniform patch terrain approach. The second approach I tried was a non-uniform patch terrain using a quadtree.

Uniform Patch Implementation

The uniform patch approach is fairly straightforward to implement. One set of vertex data is created that will be used for each patch. The data set contains four vertices and their associated attributes, such as origin and color texture coordinates (not heightmap coordinates). The vertices form a simple quad that is 20 by 20 OpenGL units. This vertex data is loaded into a vertex buffer object and sent to the GPU. Each patch that is drawn reuses this same vertex data – the model/view/projection matrices are used to position each patch in the world accordingly. This is convenient because there is no need to have a large data set of vertices sent to the GPU and the data does not have to be sent to the GPU for each draw call.

A scene file specifies various parameters for the terrain, such as how many tiles (a tile is simply a grid of 8 by 8 patches) wide and long the terrain should be, what heightmaps to use, what textures to use, etc.

The key to applying the heightmap is making sure each patch has the appropriate texture coordinates to map their vertices to the heightmap. The following steps achieve this:

  • Use the size and origin of the terrain to determine where the lower-left most vertex in the terrain is (if looking from a top-down view). This position is found in world-coordinates.
  • Using this “lower-left” world coordinate, the “upper-right” most vertex in the terrain can be found using the width and length of terrain specified in the scene file. There is now a conceptual world-coordinate rectangle around the terrain.
  • When a vertex is processed by the vertex shader, its world coordinate can be compared to the extents of the terrain to interpolate a (u,v) coordinate between (0,0) and (1,1) to be used as a texture coordinate for the heightmap.

For each patch that is drawn:

  • The vertex shader determines the (u,v) coordinates at which to sample the heightmap for each vertex.
  • The tessellation control shader calculates the tessellation levels for each edge using a dynamic level of detail algorithm.
  • The tessellation evaluation shader samples the heightmap and offsets all vertices accordingly.
  • The geometry shader calculates wireframe information.
  • The fragment shader samples color textures to be applied to the mesh and renders the wireframe if enabled.

The sphere approach to dynamic level of detail was implemented for this approach, and it works very well. There are no cracking issues to deal with either. Figure 11 and Figure 13 show a terrain example with a wireframe overlay, which helps visualize the dynamic level of detail algorithm in action.

As mentioned previously, the uniform patch approach does not scale well – as terrains grow in size, performance decreases. This is when I turned to the non-uniform patch approach.

Non-Uniform Patch Implementation

A non-uniform patch terrain can lead to potentially better performance however, it is much more involved to implement. The Frostbite™ 2 game engine from DICE uses a quadtree data structure for its terrain system (see [7] and [8] for details on this terrain system). For the quad tree, each successive layer in the tree represents a higher level of detail for a smaller patch size in the terrain. Each node in the tree tracks the origin, width, height and other parameters for the patch. The root of the tree represents the lowest level of detail, which would be a single patch covering the entire extent of the terrain.

For every frame, the terrain quadtree is recomputed to take into account where the camera is located in the world. The basic process for constructing the quadtree is as follows:

  • Start with the root node. This is a single patch covering the entire terrain.
  • Compare the position of the camera in the world to the origin of the node. If the camera is close enough to require additional levels of detail, subdivide the node into four smaller children.
  • Repeat for each child node until a maximum subdivision level is reached, or the camera is far enough away that it doesn’t require any more subdivision for an acceptable level of detail.

Figure 14 shows a visualization of a terrain that is subdivided into non-uniform size patches and the corresponding quadtree data structure. Note the camera position is in the upper-right corner of the terrain. The smaller sized patches are closest to the camera, and the patches grow in size as they get farther away.

Once the terrain quadtree is built, it can be traversed and the patches (nodes) that have no children are rendered (these are the nodes with the highest calculated level of detail, but smallest patch size). These patches can then be sent to the GPU to be tessellated and rendered.

Dealing with cracks for this approach was, by far, the most challenging part of implementation. As mentioned before, a tessellation scale factor is applied to each edge of a patch before it is rendered. Although it seems simple at first, tracking whether or not a neighboring patch has/will be subdivided can be difficult. I found the easiest way to assign scale factors for edges was to do it after the entire quadtree is computed and right before a patch is rendered. Before a node is rendered, a search is made through the tree for its four neighbors (north, south, east, west). The size of each neighbor is compared to the node, and a scale factor can be appropriately applied to each edge. In the tessellation control shader, after the dynamic level of detail algorithm computes a tessellation level for an edge, the scale factor can be applied.

Initially, the sphere approach to dynamic LOD was applied (just as in the uniform patch approach previously). However, I still had cracking issues with this algorithm. I finally reverted to the camera distance approach for dynamic LOD, which fixed the cracking issue. I have yet to figure out why this is. Figure 20 and Figure 21 are a comparison of the two algorithms in action.


Voir la vidéo: QGis - Effectuer une Analyse (Octobre 2021).