Suite

Vérifier si les références spatiales de deux couches sont identiques à l'aide d'ArcObjects ?


J'ai deux couches. Maintenant, je veux dire que les références spatiales de ces couches sont les mêmes ou non…

J'utilise les technologies .Net dans arcmap.

J'ai réussi à obtenir des informations de référence spatiale à partir de couches et je souhaite maintenant comparer ces références spatiales…

Exemple

sp1 , sp2

si(sp1 == sp2)

donner un message à l'utilisateur que les références spatiales sont les mêmes ;

autre

donner un message à l'utilisateur que les références spatiales ne sont pas les mêmes ;

Comment savoir si ces références spatiales sont identiques ?


public static bool CompareSpatialRefs(ISpatialReference sourceSR, ISpatialReference targetSR) { IClone sClone = sourceSR as IClone; IClone tClone = targetSR comme IClone ; // le test de premier niveau compare le composant du système de coordonnées if (!sClone.IsEqual(tClone)) return false; renvoie vrai ; }

Répartition spatiale de la vaccination incomplète chez les enfants de moins de cinq ans en Éthiopie : données probantes de 2005, 2011 et 2016 Données d'enquêtes démographiques et de santé éthiopiennes

On estime que 2 à 3 millions d'enfants de moins de 5 ans meurent chaque année dans le monde à cause d'une maladie évitable par la vaccination. En Éthiopie, la vaccination incomplète représente près de 16 % de la mortalité des moins de cinq ans, et il existe des variations spatiales pour la vaccination des enfants en Éthiopie. La variation spatiale de la vaccination peut créer un point chaud de sous-vaccination et retarder le contrôle et l'élimination des maladies évitables par la vaccination. Ainsi, cette étude vise à évaluer la distribution spatiale de la vaccination incomplète chez les enfants en Éthiopie à partir des trois données d'enquête démographique et de santé consécutives en Éthiopie.

Méthode

Une étude transversale a été utilisée à partir des données de l'enquête démographique et sanitaire en Éthiopie (2005, 2011 et 2016). Au total, 7901 mères ayant des enfants âgés de 12 à 35 mois ont été incluses dans cette étude. Le logiciel ArcGIS 10.5 a été utilisé pour l'analyse et la cartographie des statistiques mondiales et locales. De plus, un modèle de Bernoulli a été utilisé pour analyser la détection de grappes purement spatiales de l'immunisation incomplète. Le logiciel GWR version 4 a été utilisé pour modéliser les relations spatiales.

Résultat

La proportion de vaccination incomplète était de 74,6 % en 2005, 71,4 % en 2011 et 55,1 % en 2016. La distribution spatiale de la vaccination incomplète a été regroupée dans toutes les périodes d'étude (2005, 2011 et 2016) avec un I global de Moran de 0,3629, 1,0700 et 0,8796 respectivement. L'analyse Getis-Ord a mis en évidence des régions à haut risque pour une vaccination incomplète : En 2005, des régions de points chauds (à haut risque) ont été détectées dans les zones Kefa, Gamogofa, KembataTemibaro et Hadya de la région SNNPR, la zone Jimma de la région d'Oromiya. De même, les zones de Kefa, Gamogofa, Kembatatemibaro, Dawuro et Hadya de la région SNNPR Jimma et les zones West Arsi de la région d'Oromiya étaient des régions de points chauds. En 2016, les zones Afder, Gode, Korahe et Warder de la région somalienne étaient des zones sensibles. La régression pondérée géographiquement a identifié différentes variables significatives étant le fait de ne pas être éduqué et l'indice de richesse pauvre était les deux communs pour la vaccination incomplète dans différentes parties du pays dans les trois enquêtes.

Conclusion

La vaccination incomplète a été réduite au fil du temps au cours des périodes d'étude. La distribution spatiale de la vaccination incomplète a été regroupée et les zones à haut risque ont été identifiées dans toutes les périodes d'étude. Des prédicteurs d'immunisation incomplète ont été identifiés dans les trois enquêtes consécutives.


Vérifier l'autocorrélation spatiale en traçant les résidus ?

Pour mes analyses en biologie, je souhaite étudier les effets de plusieurs facteurs (climat, superficie cultivée. ) sur la dynamique et la phénologie des insectes. Pour cela, j'ai des données de captures d'insectes de plusieurs pièges au fil des années. Je veux expliquer certaines variables comme l'abondance annuelle en fonction des variables indépendantes. Je ne veux pas avoir un bon modèle de prévision, mon objectif est principalement d'expliquer quelle partie de la variance de ma variable dépendante est expliquée par les régresseurs. Mes variables dépendantes sont sujettes à être spatialement autocorrélées : leur valeur dans un piège peut dépendre de la valeur dans un autre piège.

Mon ensemble de données ressemble à ceci (pour simplifier, il n'y a que deux variables indépendantes ici). C'est déséquilibré : j'ai peut-être des données entre 1985-1995 pour un piège et entre 1990-2000 pour un autre par exemple.

J'ai d'abord pensé à utiliser l'analyse de données de panel mais je n'y suis pas parvenu et maintenant je l'essaye avec GLM. Mon idée est d'abord de construire ce genre de modèle : (j'utilise la formulation R : ici "Piège" et "Année" sont mis comme effets aléatoires.)

Indep.variable + Indep.variable2 + (1|Piège) + (1|Année) + terme d'erreur

Bien que « Piège » soit présenté comme un effet aléatoire, il pourrait rester une autocorrélation spatiale résiduelle. Donc, je voudrais vérifier s'il y a une corrélation entre les pièges au sein d'une même année, mais indépendamment des années : je veux savoir s'il y a une autocorrélation moyenne, pas dans une année particulière.

Ma question est donc la suivante : si je trace les résidus de mon modèle contre chaque piège et constate que la distribution est la même pour chaque piège, puis-je conclure qu'il n'y a plus d'autocorrélation pour ma variable ? Ou y a-t-il une sorte de test que je pourrais utiliser ? Je connais les tests de Moran et Mantel, mais il me semble que je ne peux pas les utiliser dans ce cas.


Al Jawarneh, I.M., Bellavista, P., Foschini, L., Montanari, R. : traitement approximatif des flux de données volumineux prenant en compte l'espace. Dans : 2019 IEEE Global Communications Conference (GLOBECOM), pp. 1–6 (2019)

Aljawarneh, I.M., Bellavista, P., De Rolt, C. R., Foschini, L. : Identification dynamique des communautés de santé mobiles participatives. Dans : Infrastructures cloud, services et systèmes IoT pour les villes intelligentes, pp. 208-217. Anonyme Springer (2017)

Sahoo, S.S., Wei, A., Tatsuoka, C., Ghosh, K., Lhatoo, S.D. : Traitement des données cliniques de neurologie pour la découverte des connaissances : flux de données évolutifs à l'aide de l'informatique distribuée. Dans : Machine Learning for Health Informatics, pp. 303-318. Anonyme Springer (2016)

Aji, A., Wang, F., Saltz, J.H. : Vers la construction d'un système de requête spatiale haute performance pour les données d'imagerie médicale à grande échelle. Dans : Actes de la 20e conférence internationale sur les avancées des systèmes d'information géographique, pp. 309–318 (2012)

Gomes, E., Dantas, M.A., de Macedo, D.D., De Rolt, C., Brocardo, M.L., Foschini, L. : Towards an infrastructure to support big data for a smart city project. Dans : 2016 IEEE 25th international conference on enabled technologies: infrastructure for collaborative enterprise (WETICE), pp. 107–112 (2016)

Bellavista, P., Berrocal, J., Corradi, A., Das, SK, Foschini, L., Al Jawarneh, IM, Zanni, A. : Comment le fog computing peut prendre en charge les applications IoT sensibles à la latence/la fiabilité : un aperçu et une taxonomie de solutions de pointe (2019)

Vatsavai, R.R., Ganguly, A., Chandola, V., Stefanidis, A., Klasky, S., Shekhar, S. : L'exploration de données spatio-temporelles à l'ère des mégadonnées spatiales : algorithmes et applications. Dans : Actes du 1er atelier international ACM SIGSPATIAL sur l'analyse des mégadonnées géospatiales, pp. 1–10 (2012)

Botta, A., De Donato, W., Persico, V., Pescapé, A. : Intégration du cloud computing et de l'internet des objets : une enquête. Générateur futur. Calcul. Système 56, 684–700 (2016)

Bellavista, P., Berrocal, J., Corradi, A., Das, S.K., Foschini, L., Zanni, A.: A survey on fog computing for the Internet of Things. Foule envahissante. Calcul. 52, 71–99 (2019)

Jones, K.E., Patel, N.G., Levy, M.A., Storeygard, A., Balk, D., Gittleman, J.L., Daszak, P. : Tendances mondiales des maladies infectieuses émergentes. Nature 451(7181), 990–993 (2008)

Bellavista, P., Berrocal, J., Corradi, A., Das, S.K., Foschini, L., Zanni, A.: A survey on fog computing for the Internet of Things. Foule envahissante. Calcul. 52, 71–99 (2018)

Ge, M., Bangui, H., Buhnova, B. : Big data pour l'internet des objets : une enquête. Générateur futur. Calcul. Syst. 87, 601–614 (2018)

Siow, E., Tiropanis, T., Hall, W. : Analytics pour l'internet des objets : une enquête. Calcul ACM. Surv. 51(4), 1–36 (2018)

Zaharia, M., Chowdhury, M., Franklin, M.J., Shenker, S., Stoica, I. : Spark : cluster computing avec ensembles de travail. HotCloud 10(10-10), 95 (2010)

Shvachko, K., Kuang, H., Radia, S., Chansler, R. : Le système de fichiers distribué hadoop. Dans : Msst, pp. 1-10 (2010)

Bradshaw, S., Chodorow, K. : Mongodb : le guide définitif : stockage de données puissant et évolutif, 3e éd. O'Reilly Media Inc, Newton (2018)

Banquier, K. : MongoDB en action. Manning Publications Co., Shelter Island (2011)

Yu, J., Zhang, Z., Sarwat, M. : La gestion des données spatiales dans Apache Spark : la perspective du géospark et au-delà. Géoinformatique 23(1), 37–78 (2019)

Khan, R., Khan, S.U., Zaheer, R., Khan, S. : Internet du futur : architecture de l'Internet des objets, applications possibles et principaux défis. Dans : 2012 10e conférence internationale sur les frontières des technologies de l'information, pp. 257-260 (2012)

Tsichritzis, D.C., Lochovsky, F.H. : Gestion de la base de données hiérarchique : une enquête. Calcul ACM. Surv. 8(1), 105–123 (1976)

DeCandia, G., Hastorun, D., Jampani, M., Kakulapati, G., Lakshman, A., Pilchin, A., Sivasubramanian, S., Vosshall, P., Vogels, W. : Dynamo : amazon's hautement disponible magasin clé-valeur. ACM SIGOPS Oper. Syst. Tour. 41(6), 205–220 (2007)

Lakshman, A., Malik, P. : Cassandra : un système de stockage structuré décentralisé. ACM SIGOPS Oper. Syst. Tour. 44(2), 35–40 (2010)

Chang, F., Dean, J., Ghemawat, S., Hsieh, WC, Wallach, DA, Burrows, M., Chandra, T., Fikes, A., Gruber, RE : Bigtable : un système de stockage distribué pour Les données. ACM Trans. Calcul. Syst. 26(2), 1–26 (2008)

Équipe, A.H. : Guide de référence Apache hbase. Apache, Version, vol. 2, (0) (2016)

Grolinger, K., Higashino, W.A., Tiwari, A., Capretz, M.A. : Gestion des données dans les environnements cloud : magasins de données NoSQL et NewSQL. J. Cloud Comput. Av. Syst. Appl. 2(1), 22 (2013)

Dean, J., Ghemawat, S. : MapReduce : traitement simplifié des données sur les grands clusters. Commun. ACM 51(1), 107–113 (2008)

Jennings, B., Stadler, R. : Gestion des ressources dans les nuages : défis de l'enquête et de la recherche. J. Netw. Syst. La gestion 23(3), 567–619 (2015)

Al Jawarneh, I.M., Bellavista, P., Casimiro, F., Corradi, A, Foschini, L. : stratégies rentables pour le provisionnement des services de stockage NoSQL à l'appui de l'industrie 4.0. Dans : 2018 IEEE Symposium sur les ordinateurs et les communications (ISCC), pp. 1227 (2018)

Aji, A., Wang, F., Vo, H., Lee, R., Liu, Q., Zhang, X., Saltz, J. : Hadoop gis : a high performance spatial data warehousing system over mapreduce. Proc. Dotation VLDB 6(11), 1009–1020 (2013)

Eldawy, A., Mokbel, M.F. : Spatialhadoop : un cadre mapreduce pour les données spatiales. Dans : 2015 IEEE 31e conférence internationale sur l'ingénierie des données, pp. 1352-1633 (2015)

You, S., Zhang, J., Gruenwald, L. : Traitement de requêtes de jointure spatiale à grande échelle dans le cloud. Dans : 2015 31e conférence internationale IEEE sur les ateliers d'ingénierie des données, pp. 34-41 (2015)

Nishimura, S., Das, S., Agrawal, D., El Abbadi, A. : Md-hbase : une infrastructure de données multidimensionnelle évolutive pour les services de localisation. Dans : en 2011, 12e conférence internationale IEEE sur la gestion des données mobiles, pp. 7-16 (2011)

Yu, J., Wu, J., Sarwat, M. : Geospark : un cadre informatique en cluster pour le traitement de données spatiales à grande échelle. Dans : Actes de la 23e conférence internationale SIGSPATIAL sur les avancées des systèmes d'information géographique, pp. 70 (2015)

Tang, M., Yu, Y., Aref, W.G., Mahmood, A.R., Malluhi, Q.M., Ouzzani, M. : Locationspark : traitement et optimisation des requêtes spatiales distribuées en mémoire. Dans : CoRR, p. 1-15 (2019)

Eldawy, A., Mokbel, M.F., Alharthi, S., Alzaidy, A., Tarek, K., Ghani, S. : Shahed : un système basé sur mapreduce pour interroger et visualiser des données satellitaires spatio-temporelles. Dans : 2015 IEEE 31e conférence internationale sur l'ingénierie des données, pp. 1585–1596 (2015)

Vo, H., Aji, A., Wang, F. : SATO : un cadre de partitionnement de données spatiales pour le traitement de requêtes évolutif. Dans : Actes de la 22e conférence internationale ACM SIGSPATIAL sur les avancées des systèmes d'information géographique, pp. 545-548 (2014)

Bentley, J.L., Friedman, J.H. : Structures de données pour la recherche par plage. Calcul ACM. Surv. 11(4), 397–409 (1979)

Knuth, D.E. : L'art de la programmation informatique : tri et recherche, vol. 3, 2e éd. Addison-Wesley Publishing Company, Redwood City (1998)

Finkel, R.A., Bentley, J.L. : Quad tree a data structure for retrieval on composite keys. Acta Informatica 4(1), 1–9 (1974)

Bentley, J.L. : Arbres de recherche binaire multidimensionnels utilisés pour la recherche associative. Commun. ACM 18(9), 509–517 (1975)

Sellis, T.K., Roussopoulos, N., Faloutsos, C. : L'arbre R : un index dynamique pour les objets multidimensionnels. Dans : Actes de la 13e conférence internationale sur les très grandes bases de données, pp. 507-518 (1987)

Sagan, H. : Courbes qui remplissent l'espace. Springer-Verlag, Berlin (1994)

Fuchs, H., Kedem, Z.M., Naylor, B.F. : Sur la génération de surface visible par des structures arborescentes a priori. Dans : ACM Siggraph infographie, pp. 124-133 (1980)

Leutenegger, S.T., Lopez, M.A., Edgington, J. : STR : un algorithme simple et efficace pour le remplissage de R-tree. Dans : Actes 13e conférence internationale sur l'ingénierie des données, pp. 497-506 (1997)

Asano, T., Ranjan, D., Roos, T., Welzl, E., Widmayer, P. : courbes de remplissage d'espace et leur utilisation dans la conception de structures de données géométriques. Théor. Calcul. Sci. 181(1), 3–15 (1997)

Aljawarneh, I.M., Bellavista, P., Corradi, A., Montanari, R., Foschini, L., Zanotti, A. : cadre efficace basé sur des étincelles pour le traitement et l'analyse de grandes requêtes de données géospatiales. Dans : Symposium IEEE 2017 sur les ordinateurs et les communications (ISCC), pp. 851-856 (2017)

Al Jawarneh, I.M., Bellavista, P., Corradi, A., Foschini, L., Montanari, R., Zanotti, A. : cadre in-memory spatial-aware pour le traitement des requêtes de proximité dans les mégadonnées spatiales. Dans : 2018 IEEE 23e atelier international sur la modélisation et la conception assistées par ordinateur de liens et de réseaux de communication (CAMAD), pp. 1–6 (2018)

Aly, A.M., Mahmood, A.R., Hassan, M.S., Aref, W.G., Ouzzani, M., Elmeleegy, H., Qadah, T. : AQWA : partition adaptative de la charge de travail des requêtes volumineuses. Proc. Dotation VLDB 8(13), 2062–2073 (2015)

Abdelhamid, A.S., Tang, M., Aly, A.M., Mahmood, A.R., Qadah, T., Aref, W.G., Basalamah, S. : Cruncher : traitement en mémoire distribué pour les services géodépendants. Dans : 2016 IEEE 32e conférence internationale sur l'ingénierie des données (ICDE), pp. 1406-1409 (2016)

Eldawy, A., Alarabi, L., Mokbel, M.F. : Techniques de partitionnement spatial dans SpatialHadoop. Proc. Dotation VLDB 8(12), 1602–1605 (2015)

Amini, S., Gerostathopoulos, I., Prehofer, C. : Architecture d'analyse de mégadonnées pour le contrôle du trafic en temps réel. Dans : 2017 5e conférence internationale IEEE sur les modèles et les technologies pour les systèmes de transport intelligents (MT-ITS), pp. 710-715 (2017)

Abdelhaq, H., Gertz, M. : Sur la localité des mots-clés dans les flux twitter. Dans : Actes du 5e atelier international ACM SIGSPATIAL sur le géostreaming, pp. 12-20 (2014)

Jacox, E.H., Samet, H. : Techniques de jointure spatiale. ACM Trans. Système de base de données. 32(1), 7 (2007)

Kriegel, H., Kröger, P., Sander, J., Zimek, A. : clustering basé sur la densité. Wiley Interdiscip Rev Data Min Knowl Discov 1(3), 231–240 (2011)

Ester, M., Kriegel, H., Sander, J., Xu, X. : Un algorithme basé sur la densité pour découvrir des clusters dans de grandes bases de données spatiales avec bruit. Dans : Kdd, p. 226-231 (1996)

Dai, B., Lin, I. : Algorithme dbscan basé sur une carte/réduction efficace avec une partition de données optimisée. Dans : 2012 IEEE cinquième conférence internationale sur le cloud computing, pp. 59-66 (2012)

He, Y., Tan, H., Luo, W., Feng, S., Fan, J. : MR-DBSCAN : un algorithme DBSCAN évolutif basé sur MapReduce pour les données fortement asymétriques. De face. Calcul. Sci. 8(1), 83–99 (2014)

Xu, R., Wunsch, D. : Clustering, vol. 10. Wiley, New York (2008)

Wang, W., Yang, J., Muntz, R. : PK-tree : une structure d'index spatial pour les données ponctuelles de grande dimension. Dans : Information Organisation and Databases Anonymous Springer, pp. 281-293 (2000)

Aji, A., Wang, F. : Traitement de requête spatiale haute performance pour les données scientifiques à grande échelle. Dans : Actes de la thèse sur SIGMOD/PODS 2012 colloque, p. 9-14 (2012)

Zhong, Y., Zhu, X., Fang, J. : Schéma de traitement des requêtes spatio-temporelles élastique et efficace sur hadoop. Dans : Actes du 1er atelier international ACM SIGSPATIAL sur l'analyse des mégadonnées géospatiales, pp. 33-42 (2012)

Hagedorn, S., Gotze, P., Sattler, K. : Le cadre STARK pour l'analyse de données spatio-temporelles sur Spark. Datenbanksysteme Für Business, Technologie Und Web (BTW 2017) (2017)

Giachetta, R. : Un cadre pour le traitement de données géospatiales et de télédétection à grande échelle dans l'environnement MapReduce. Calcul. Graphique. 49, 37–46 (2015)

Whitman, R.T., Park, M.B., Ambrose, S.M., Hoel, E.G. : indexation spatiale et analyse sur hadoop. Dans : Actes de la 22e conférence internationale ACM SIGSPATIAL sur les avancées des systèmes d'information géographique, pp. 73-82 (2014)

Al Naami, K.M., Seker, S., Khan, L. : GISQF : un système efficace de traitement des requêtes spatiales. In: 2014 IEEE 7th international conference on cloud computing, pp. 681-688 (2014)

Fahmy, M.M., Elghandour, I., Nagi M. : CoS-HDFS : Co-location de données spatiales géo-distribuées dans le système de fichiers distribué hadoop. Dans : 2016 IEEE/ACM 3rd international conference on big data computing applications and technologies (BDCAT), pp. 123-132 (2016)

Han, D., Sroulia, E. : Hgrid : un modèle de données pour les grands ensembles de données géospatiales dans hbase. Dans : 2013 IEEE sixième conférence internationale sur le cloud computing, pp. 910-917 (2013)

Weixin, Z., Zhe, Y., Lin, W., Feilong, W., Chengqi, C. : Le modèle de gestion des données spatiales non-sql en temps de big data. Dans : 2015 IEEE international geoscience and remote sensing symposium (IGARSS), pp. 4506–4509 (2015)

Li, S., Amin, M.T., Ganti, R., Srivatsa, M., Hu, S., Zhao, Y., Abdelzaher, T. : Stark : optimisation du calcul en mémoire pour les collections de jeux de données dynamiques. Dans : 2017 IEEE 37e conférence internationale sur les systèmes informatiques distribués (ICDCS), pp. 103–114 (2017)

Zheng, K., Gu, D., Fang, F., Zhang, M., Zheng, K., Li, Q. : Stratégie d'optimisation du stockage de données dans une base de données distribuée orientée colonnes en tenant compte de la contiguïté spatiale. Calcul en grappe. 20(4), 2833–2844 (2017)

Brinkhoff, T., Kriegel, H., Schneider, R., Seeger, B. : Traitement en plusieurs étapes des jointures spatiales. ACM 23(2), 197–208 (1994)

Sriharsha, R. : Magellan : analyse géospatiale sur étincelle. Récupéré en mai, vol. 1, p. 2018 (2015)

Baig, F., Vo, H., Kurc, T., Saltz, J., Wang, F. : Sparkgis : traitement efficace des requêtes spatiales en mémoire en fonction des ressources. Dans : Actes de la 25e conférence internationale ACM SIGSPATIAL sur les avancées des systèmes d'information géographique, pp. 1-10 (2017)

Xie, D., Li, F., Yao, B., Li, G., Zhou, L., Guo, M. : Simba : une analyse spatiale en mémoire efficace. Dans : Actes de la conférence internationale 2016 sur la gestion des données, pp. 1071-1085 (2016)

Reiss, C., Tumanov, A., Ganger, G.R., Katz, R.H., Kozuch, M.A. : Heterogeneity and dynamicity of clouds at scale : Google trace analysis. Dans : Actes du troisième symposium de l'ACM sur le cloud computing, pp.7 (2012)

Delimitrou, C., Kozyrakis, C. : Quasar : gestion de clusters économe en ressources et sensible à la QoS. Dans : Actualités de l'architecture informatique ACM SIGARCH, pp. 127-144 (2014)


Les références

Adams, R., Bischof, L. : Région ensemencée en croissance. IEEE Trans. Modèle Anal. Mach. Informer. 16, 641–647 (1994)

Aiello, M. : Raisonnement spatial : théorie et pratique. doctorat thèse, Institut de logique, langage et calcul, Université d'Amsterdam (2002)

Aiello, M., Pratt-Hartmann, I., van Benthem, J. : Manuel de logique spatiale. Springer, New York (2007)

Akkus, Z., Galimzianova, A., Hoogi, A., Rubin, D.L., Erickson, B.J. : Apprentissage profond pour la segmentation de l'IRM cérébrale : état de l'art et orientations futures. J. Chiffre. Imagerie 30, 449–459 (2017)

Bartocci, E., Bortolussi, L., Loreti, M., Nenzi, L. : Surveillance des systèmes cyber-physiques mobiles et spatialement distribués. Dans : Talpin, JP, Derler, P., Schneider, K. (eds.) Actes de la 15e conférence internationale ACM-IEEE sur les méthodes et modèles formels pour la conception de systèmes, MEMOCODE 2017, Vienne, Autriche, 29 septembre–02 octobre, 2017, p. 146-155. ACM, New York (2017)

Bartocci, E., Bortolussi, L., Milios, D., Nenzi, L., Sanguinetti, G. : Etudier les comportements émergents en morphogenèse à l'aide de la logique spatio-temporelle du signal. Dans : Hybrid Systems Biology : Fourth International Workshop, HSB 2015, Madrid, Espagne, 4-5 septembre 2015. Documents sélectionnés révisés, pp. 156-172. Springer (2015)

Bartocci, E., Gol, E.A., Haghighi, I., Belta, C.: Une approche de méthodes formelles pour la reconnaissance de formes et la synthèse dans les réseaux de diffusion de réaction. IEEE Trans. Réseau de contrôle Syst. 5(1), 308–320 (2018)

Bauer, S., Wiest, R., Nolte, L.-P., Reyes, M. : Une enquête sur l'analyse d'images médicales par IRM pour les études sur les tumeurs cérébrales. Phys. Méd. Biol. 58(13), R97 (2013)

Belmonte, G., Ciancia, V., Latella, D., Massink, M. : Des systèmes adaptatifs collectifs au calcul centré sur l'humain et inversement : vérification de modèle spatial pour l'imagerie médicale. Dans : ter Beek, M., Loreti, M. (eds.) Actes de l'atelier sur les méthodes formelles pour l'évaluation quantitative des systèmes adaptatifs collectifs, [email protected] 2016, Vienne, Autriche, 8 juillet 2016, Volume 217 de l'EPTCS, p. 81-92 (2016)

Belmonte, G., Ciancia, V., Latella, D., Massink, M. : Voxlogica : un vérificateur de modèle spatial pour l'analyse déclarative d'images. Dans : Tools and Algorithms for the Construction and Analysis of Systems—25th International Conference, TACAS 2019, tenue dans le cadre des European Joint Conferences on Theory and Practice of Software, ETAPS, Logical Methods in Computer Science. Springer (apparaître) (2019)

Belmonte, G., Ciancia, V., Latella, D., Massink, M., Biondi, M., De Otto, G., Nardone, V., Rubino, G., Vanzi, E., Banci Buonamici, F. .: Une méthode topologique pour la segmentation automatique du glioblastome dans l'air MR pour la radiothérapie—ESMRMB 2017, 34e réunion scientifique annuelle. Magn. Réson. Mater. Phys. Biol. Méd. 30(S1), 437 (2017)

Brock, K. : Traitement d'image en radiothérapie. Presse CRC, Boca Raton (2014)

Brown, L. : Une enquête sur les techniques d'enregistrement d'images. Calcul ACM. Surv. 24(4), 325–376 (1992)

Brown, R., Cheng, N., Haacke, E., Thompson, M., Venkatesan, R. (eds.): Imagerie par résonance magnétique. Wiley, New York (2014)

Burnet, N. : Définition de la tumeur et des volumes cibles pour la radiothérapie. Imagerie du cancer 4(2), 153–161 (2004)

Castellano, G., Bonilha, L., Li, L., Cendes, F. : Analyse de texture d'images médicales. Clin. Radiol. 59(12), 1061–1069 (2004)

Chen, C., Da Ponte, J., Fox, M. : Analyse et classification des caractéristiques fractales en imagerie médicale. IEEE Trans. Méd. Imagerie 8(2), 133–142 (1989)

Chetelat, G., Baron, J. : Diagnostic précoce de la maladie d'Alzheimer : apport de la neuroimagerie structurale. NeuroImage 18(2), 525–541 (2003)

Ciancia, V., Gilmore, S., Grilletti, G., Latella, D., Loreti, M., Massink, M. : Vérification spatio-temporelle des modèles de mouvement des véhicules dans les systèmes de transport public. Int. J. Softw. Outils Technol. Transf. 20(3), 289–311 (2018)

Ciancia, V., Gilmore, S., Latella, D., Loreti, M., Massink, M. : Vérification des données pour les systèmes adaptatifs collectifs : vérification du modèle spatial des données de localisation des véhicules. Dans : Huitième conférence internationale de l'IEEE sur les ateliers sur les systèmes auto-adaptatifs et auto-organisés, SASOW, pp. 32-37. Société informatique IEEE (2014)

Ciancia, V., Grilletti, G., Latella, D., Loreti, M. et Massink, M. : Un vérificateur de modèle spatio-temporel expérimental. Dans: Software Engineering and Formal Methods—SEFM 2015 Collocated Workshops, Volume 9509 of Lecture Notes in Computer Science, pp. 297-311. Springer (2015)

Ciancia, V., Latella, D., Loreti, M., Massink, M. : Spécification et vérification des propriétés de l'espace. Dans : Theoretical Computer Science—8th IFIP TC 1/WG 2.2 International Conference, TCS 2014, Rome, Italy, September 1-3, 2014. Proceedings, Volume 8705 of Lecture Notes in Computer Science, pp. 222-235. Springer (2014)

Ciancia, V., Latella, D., Loreti, M., Massink, M. : Modèle vérifiant les logiques spatiales pour les espaces de fermeture. Enregistrer. Méthodes Calcul. Sci. 12(4), 1–51 (2016)

Ciancia, V., Latella, D., Loreti, M., Massink, M. : Logique spatiale et vérification du modèle spatial pour les espaces de fermeture. Dans : Bernardo, M., De Nicola, R., Hillston, J. (eds.) Formal Methods for the Quantitative Evaluation of Collective Adaptive Systems—16th International School on Formal Methods for the Design of Computer, Communication, and Software Systems, SFM 2016, Bertinoro, Italie, 20-24 juin 2016, Advanced Lectures, Volume 9700 of Lecture Notes in Computer Science, pp. 156-201. Springer, New York (2016)

Ciancia, V., Latella, D., Massink, M., Pakauskas, R. : Exploration des propriétés spatio-temporelles des systèmes de vélos en libre-service. Dans : 2015 IEEE International Conference on Self-Adaptive and Self-Organizing Systems Workshops, SASO Workshops, pp. 74-79. Société informatique IEEE (2015)

Ciancia, V., Latella, D., Massink, M., Paskauskas, R., Vandin, A. : Une chaîne d'outils pour la vérification statistique spatio-temporelle des modèles de systèmes de partage de vélos. Dans : Margaria, T., Steffen, B. (eds.) Levering Applications of Formal Methods, Verification and Validation: Foundational Techniques—7th International Symposium, ISoLA 2016, Imperial, Corfou, Grèce, 10-14 octobre 2016, Actes, Partie I, Volume 9952 de Notes de cours en informatique, pp. 657-673 (2016)

Ciesielski, K., Chen, X., Udupa, J., Grevera, G. : algorithmes de temps linéaire pour la transformation de distance exacte. J. Maths. Imagerie Vis. 39(3), 193–209 (2010)

Clarke, E., Emerson, A. : Conception et synthèse de squelettes de synchronisation utilisant la logique temporelle de branchement. Dans : Logique des programmes, Atelier, pp. 52-71. Springer, Londres (1982)

Clarke, E., Grumberg, O., Peled, D. : Model Checking. MIT Press, Boca Raton (1999)

Davnall, F., Yip, C., Ljungqvist, G., Selmi, M., Ng, F., Sanghera, B., Ganeshan, B., Miles, KA, Cook, GJ, Goh, V. : évaluation de hétérogénéité tumorale : un outil d'imagerie émergent pour la pratique clinique ? Imagerie des informations 3(6), 573–589 (2012)

De Nicola, R., Katoen, J., Latella, D., Loreti, M., Massink, M. : Modèle vérifiant la logique stochastique mobile. Théor. Calcul. Sci. 382(1), 42–70 (2007)

De Santis, S., Drakesmith, M., Bells, S., Assaf, Y., Jones, D. : Pourquoi l'IRM du tenseur de diffusion ne fonctionne bien qu'une partie du temps : variance et covariance des attributs de la microstructure des tissus de la substance blanche dans le vivant cerveau humain. NeuroImage 89, 35–44 (2014)

Despotović, I., Goossens, B., Philips, W. : Segmentation IRM du cerveau humain : défis, méthodes et applications. Calcul. Math. Méthodes Méd. 1–23, 2015 (2015)

Doi, K. : Diagnostic assisté par ordinateur en imagerie médicale : revue historique, état actuel et potentiel futur. Calcul. Méd. Graphique d'imagerie. 31(4–5), 198–211 (2007)

Dupont, C., Betrouni, N., Reyns, Vermandel, M. : Sur les méthodes de segmentation d'images appliquées au glioblastome : état de l'art et nouvelles tendances. IRBM 37(3), 131–143 (2016)

Fabbri, R., Costa, L., Torelli, J., Odemir, B. : Algorithmes de transformation de distance euclidienne 2D : une étude comparative. Calcul ACM. Surv. 40(1), 2:1–2:44 (2008)

Fabbri, R., Da Fontoura Da Costa, L., Torelli, J., Bruno, O. : Algorithmes de transformation de distance euclidienne 2D : une étude comparative. Calcul ACM. Surv. 40(1), 2:1–2:44 (2008)

Fyllingen, E., Stensjøen, A., Berntsen, E., Solheim, O., Reinertsen, I. : Segmentation du glioblastome : comparaison de trois progiciels différents. PLoS UN 11(10), e0164891 (2016)

Galton, A. : La meréotopologie de l'espace discret. Dans : Freksa, C., David, M. (éds.) Théorie de l'information spatiale. Fondements cognitifs et informatiques de la science de l'information géographique, volume 1661 des notes de cours en informatique, pp. 251-266. Springer, Berlin (1999)

Galton, A. : Une vue topologique généralisée du mouvement dans l'espace discret. Théor. Calcul. Sci. 305(1–3), 111–134 (2003)

Galton, A. : Meréotopologie discrète. Dans : Calosi, C., Graziani, P. (eds.) Mereology and the Sciences : Parts and Wholes in the Contemporary Scientific Context, pp. 293-321. Springer, New York (2014)

Gol, E., Bartocci, E., Belta, C.: Une approche de méthodes formelles pour la synthèse de motifs dans les systèmes de diffusion par réaction. Dans : 53e conférence IEEE sur la décision et le contrôle, pp. 108-113 (2014)

Gordillo, N., Montseny, E., Sobrevilla, E. : Enquête de pointe sur la segmentation des tumeurs cérébrales par IRM. Magn. Réson. Imagerie 31(8), 1426–1438 (2013)

Grevera, G. : Algorithmes de transformation de distance et leur implémentation et évaluation. Dans : Farag, A.A., Suri, J.S. (éds.) Modèles déformables, pp. 33-60. Springer (2007)

Grosu, R., Smolka, S., Corradini, F., Wasilewska, A., Entcheva, E., Bartocci, E. : Apprentissage et détection du comportement émergent dans les réseaux de myocytes cardiaques. Commun. ACM 52(3), 97–105 (2009)

Haghighi, I., Jones, A., Kong, Z., Bartocci, E., Grosu, R., Belta, C. : Spatel : Une nouvelle logique spatio-temporelle et ses applications aux systèmes en réseau. Dans : Actes de la 18e Conférence internationale sur les systèmes hybrides : Calcul et contrôle, HSCC '15, pp. 189-198. ACM, New York (2015)

Han, F., Wang, H., Zhang, G., Han, H., Song, B., Li, L., Moore, W., Lu, H., Zhao, H., Liang, Z. : Analyse des caractéristiques de texture pour le diagnostic assisté par ordinateur sur les nodules pulmonaires. J. Chiffre. Imagerie 28(1), 99–115 (2014)

Haralick, R., et al. : Caractéristiques texturales pour la classification d'images. IEEE Trans. Syst. Homme Cybern. 3(6), 610–621 (1973)

Heinonen, T., Arola, T., Kalliokoski, A., Dastidar, P., Rossi, M., Soimakallio, S., Hyttinen, J., Eskola, H. : Outil de diagnostic assisté par ordinateur pour la segmentation et l'analyse de texture d'images médicales. Dans : Actes IFMBE, pp. 274-276. Springer (2009)

Kassner, A., Thornhill, R. : Analyse de texture : une revue des applications d'imagerie par résonance magnétique neurologique. Un m. J. Neuroradiol. 31(5), 809–816 (2010)

Kimmel, R., Kiryati, N., Bruckstein, A. : Cartes de distance sous-pixels et transformations de distance pondérées. J. Maths. Imagerie Vis. 6(2), 223–233 (1996)

Kontchakov, R., Kurucz, A., Wolter, F., Zakharyaschev, M. : Logique spatiale + logique temporelle = ? Dans : Aiello, M., Pratt-Hartmann, I. , van Benthem, J. (eds.) Handbook of Spatial Logics, pp. 497-564. Springer (2007)

Kutz, O., Wolter, F., Sturm, H., Suzuki, N., Zakharyaschev, M. : Logics of metric spaces. ACM Trans. Calcul. Enregistrer. 4(2), 260–294 (2003)

Lemieux, L., Hagemann, G., Cracovie, K., Woermann, F. : segmentation automatique rapide, précise et reproductible du cerveau dans les données d'IRM de volume pondérées en T1. Magn. Réson. Méd. 42(1), 127–135 (1999)

Li, C., Herndon, J., Novembre, F., Zhang, X.: Une évaluation d'imagerie par transfert de magnétisation longitudinale des lésions cérébrales dans un modèle macaque de NeuroAIDS. SIDA Rés. Hum. Rétrovir. 31(3), 335–341 (2015)

Lopes, R., Ayache, A., Makni, N., Puech, P., Villers, A., Mordon, S., Betrouni, N. : Caractérisation du cancer de la prostate sur des images IRM à l'aide de caractéristiques fractales. Méd. Phys. 38(1), 83 (2011)

Madabhushi, A., Udupa, J. : Nouvelles méthodes de normalisation de l'intensité des images RM via une échelle généralisée. Méd. Phys. 33(9), 3426–3434 (2006)

Maurer, C., Rensheng, Q., Raghavan, V. : Un algorithme de temps linéaire pour le calcul des transformées exactes de distance euclidienne d'images binaires dans des dimensions arbitraires. IEEE Trans. Modèle Anal. Mach. Informer. 25(2), 265–270 (2003)

Mazzara, G., Velthuizen, R., Pearlman, J., Greenberg, H., Wagner, H.: Détermination du volume cible des tumeurs cérébrales pour la planification de la radiothérapie par segmentation IRM automatisée. Int. J. Radiat. Oncol. Biol. Phys. 59(1), 300–312 (2004)

Menze, B., et al. : La référence de segmentation d'image de tumeur cérébrale multimodale (gamins). IEEE Trans. Méd. Imagerie 34(10), 1993–2024 (2015)

Meshgi, K., Ishii, S. : histogramme de couleurs en expansion avec quadrillage pour améliorer la précision du suivi. Dans : MVA (2015)

Mohan, G., Subashini, M.M. : analyse d'images médicales par IRM : enquête sur la classification des grades des tumeurs cérébrales. Biomed. Processus de signal. Contrôler 39, 139–161 (2018)

Nenzi, L., Bortolussi, L. : Spécification et suivi des propriétés des systèmes spatio-temporels stochastiques en logique temporelle du signal. Dans : 8th International Conference on Performance Evaluation Methodologies and Tools, VALUETOOLS 2014, Bratislava, Slovaquie, 9-11 décembre 2014. ICST (2014)

Nenzi, L., Bortolussi, L., Ciancia, V., Loreti, M., Massink, M. : Suivi qualitatif et quantitatif des propriétés spatio-temporelles. Dans : Runtime Verification—6th International Conference, RV 2015 Vienne, Autriche, 22-25 septembre 2015. Actes, Volume 9333 de Lecture Notes in Computer Science, pp. 21-37. Springer (2015)

Nenzi, L., Bortolussi, L., Ciancia, V., Loreti, M., Massink, M. : Suivi qualitatif et quantitatif des propriétés spatio-temporelles avec SSTL. Enregistrer. Méthodes Calcul. Sci. 14(4), 1-38 (2018). https://doi.org/10.23638/LMCS-14(4:2)2018

Prvu, O., Gilbert, D. : Une nouvelle méthode pour vérifier les modèles informatiques à plusieurs niveaux de systèmes biologiques à l'aide de la vérification de méta-modèles spatio-temporels multi-échelles. PLoS UN 11(5), 1–43 (2016). 05

Reif, J., Sistla, A. : Une logique de réseau multiprocessus avec des modalités temporelles et spatiales. J. Informatique. Syst. Sci. 30(1), 41–53 (1985)

Rengier, F., Mehndiratta, A., von Tengg-Kobligk, H., Zechmann, CM, Unterhinninghofen, R., Kauczor, H.-U., Giesel, FL : impression 3D basée sur des données d'imagerie : revue d'applications médicales . Int. J. Informatique. Aider. Radiol. Surg. 5(4), 335–341 (2010)

Rodriguez Gutierrez, D., Awwad, A., Meijer, L., Manita, M., Jaspan, T., Dineen, R., Grundy, R., Auer, D.: Metrics and textural features of MRI diffusion to better classification des tumeurs pédiatriques de la fosse postérieure. Un m. J. Neuroradiol. 35(5), 1009–1015 (2013)

Sharma, N., Ray, A., Sharma, S., Shukla, K., Pradhan, S., Aggarwal, L. : Segmentation et classification d'images médicales à l'aide de caractéristiques primitives de texture : application d'un réseau de neurones artificiels de type BAM . J. Méd. Phys. 33(3), 119 (2008)

Sheremet, M., Wolter, F., Zakharyaschev, M. : Un cadre logique modal pour le raisonnement sur les distances comparatives et la topologie. Anne. Appl pur. Enregistrer. 161(4), 534–559 (2010)

Simi, V., Joseph, J. : Segmentation du glioblastome multiforme à partir d'images IRM - une revue complète. Egypte. J. Radiol. Nucl. Méd. 46(4), 1105–1110 (2015)

Srinivasan, G., Shobha, G. : Analyse statistique de la texture. Proc. Acadie mondiale. Sci. Ing. Technol. 36, 1264–1269 (2012)

Sundstrom, A., Grabocka, E., Bar-Sagi, D., Mishra, B.: Les caractéristiques de traitement d'images histologiques induisent une caractérisation quantitative de l'hypoxie tumorale chronique. PLoS UN 11(4), 1–30 (2016). 04

Thorup, M. : Chemins les plus courts à source unique non orientés avec des poids entiers positifs en temps linéaire. J. ACM 46(3), 362–394 (1999)

Tijms, B., Series, P., Willshaw, D., Lawrie, S.: Extraction basée sur la similarité de réseaux individuels à partir d'analyses IRM de la matière grise. Céréb. Cortex 22(7), 1530–1541 (2011)

Toosy, A. : L'imagerie du tenseur de diffusion détecte l'atteinte du tractus corticospinal à plusieurs niveaux dans la sclérose latérale amyotrophique. J. Neurol. Neurochirurgien. Psychiatrie 74(9), 1250–1257 (2003)

van Benthem, J., Bezhanishvili, G. : Logiques modales de l'espace. Dans : Aiello, M., Pratt-Hartmann, I. , van Benthem, J. (eds.) Handbook of Spatial Logics, pp. 217-298. Springer (2007)

Woods, B., Clymer, B., Kurc, T., Heverhagen, J., Stevens, R., Orsdemir, A., Bulan, O., Knopp, M. : segmentation des lésions malignes utilisant une texture de cooccurrence 4D analyse appliquée aux données d'images mammaires par résonance magnétique dynamique à contraste amélioré. J. Magn. Réson. Imagerie 25(3), 495–501 (2007)

Zhu, Y., Young, G., Xue, Z., Huang, R., You, H., Setayesh, K., Hatabu, H., Cao, F., Wong, S. : Logiciel de segmentation semi-automatique pour l'évaluation clinique quantitative du glioblastome cérébral. Acad. Radiol. 19(8), 977–985 (2012)


Science des données spatiales et applications

Spatial (carte) est considéré comme une infrastructure de base du monde informatique moderne, ce qui est corroboré par les transactions commerciales des grandes sociétés informatiques telles que Apple, Google, Microsoft, Amazon, Intel et Uber, et même des sociétés automobiles telles que Audi, BMW, et Mercedes. Par conséquent, ils sont obligés d'embaucher de plus en plus de scientifiques des données spatiales. Sur la base de cette tendance commerciale, ce cours est conçu pour présenter une solide compréhension de la science des données spatiales aux apprenants, qui auraient une connaissance de base de la science des données et de l'analyse des données, et éventuellement pour différencier leur expertise des autres scientifiques et données nominaux. analystes. De plus, ce cours pourrait faire prendre conscience aux apprenants de la valeur des mégadonnées spatiales et de la puissance des logiciels open source pour traiter les problèmes de science des données spatiales. Ce cours commencera par définir la science des données spatiales et répondre aux raisons pour lesquelles le spatial est spécial de trois points de vue différents - les entreprises, la technologie et les données au cours de la première semaine. Au cours de la deuxième semaine, quatre disciplines liées à la science des données spatiales - SIG, SGBD, analyse de données et Big Data Systems, et les logiciels open source associés - outils QGIS, PostgreSQL, PostGIS, R et Hadoop sont présentés ensemble. Au cours des troisième, quatrième et cinquième semaines, vous apprendrez les quatre disciplines une à une, du principe aux applications. Au cours de la dernière semaine, cinq problèmes du monde réel et les solutions correspondantes sont présentés avec des procédures étape par étape dans un environnement de logiciels open source.

Олучаемые навыки

Analyse Spatiale, Qgis, Big Data, Système d'Information Géographique (SIG)

Ецензии

Excellent cours qui commence par les bases, devient descriptif avec des exemples, des scénarios de la vie réelle, l'utilisation de logiciels. Certainement recommandé.

J'adore le cours ! Expliqué très en détail sur l'espace. J'espère pouvoir bientôt décrocher l'emploi de mes rêves lié à l'analyse spatiale.

Le sixième module est intitulé "Applications pratiques de la science des données spatiales", dans lequel cinq problèmes du monde réel sont présentés et les solutions correspondantes sont présentées avec des procédures étape par étape dans les structures de solution et les logiciels open source associés, abordés dans le module 2 La première conférence présente un exemple de Desktop GIS, dans lequel seul QGIS est utilisé, pour trouver les 5 principaux comtés pour les investissements forestiers dans les États du sud-est des États-Unis, dans lesquels une simple différenciation de la demande et de l'offre est appliquée pour déterminer les comtés de déficit important de l'offre de bois par rapport à la demande de bois. Dans la deuxième conférence, un exemple de serveur SIG, dans lequel QGIS et PostgreSQL/PostGIS sont utilisés, sera présenté comme une solution à un problème donné du centre de données spatiales de New York, qui nécessitait un accès utilisateur multiple et différents niveaux de privilèges. La troisième conférence présente un exemple d'analyse de données spatiales, dans laquelle QGIS et R sont utilisés, pour découvrir les facteurs régionaux qui contribuent à une prévalence plus élevée ou plus faible de la maladie dans les districts administratifs, pour lesquels une analyse d'autocorrélation spatiale est effectuée et une analyse d'arbre de décision est appliquée. . La quatrième conférence est un autre exemple d'analyse de données spatiales, pour trouver un routage d'infiltration optimal avec une analyse de réseau, dans laquelle la surface de coût est produite et l'algorithme de Dijkstra est utilisé. La cinquième conférence est un exemple de gestion et d'analyse de données volumineuses spatiales, dans lesquelles QGIS, PostGIS, R et Hadoop MapReduce sont tous utilisés, pour fournir une solution de "Passenger Finder", qui peut guider les endroits où plus de passagers attendent un taxi. taxis. Pour la solution, les mégadonnées spatiales, la trajectoire du taxi sont collectées, et la suppression du bruit et la correspondance cartographique sont effectuées dans l'environnement Hadoop. Ensuite, une série de traitements et d'analyses de données spatiales telles que la jointure spatiale dans PostGIS, l'analyse des points chauds dans R sont menées afin de fournir la solution. Dans l'ensemble, les apprenants réaliseront la valeur des mégadonnées spatiales et la puissance de la structure de la solution avec la combinaison de quatre disciplines.

Реподаватели

Joon Heo

Екст идео

Dans les cours précédents, vous avez étudié des exemples d'application SIG de bureau et d'application SIG serveur. Dans cette leçon, nous avons un problème plus avancé d'analyse de données spatiales. Le problème est que le ministère de la Santé et du Bien-être en Corée veut vérifier s'il existe une relation spatiale entre le district administratif et la prévalence de la maladie. En ce qui concerne la maladie de la dépendance spatiale, le ministère de la Santé souhaite découvrir tout facteur régional qui contribue à une prévalence plus élevée ou plus faible de la maladie dans le but d'améliorer la santé publique en Corée. Pour le problème, deux jeux de données spatiales sont présentés. Premièrement, le taux de prévalence de la maladie dans les districts administratifs et, deuxièmement, une variété de variables liées à l'économie, à la démographie, à l'environnement, à la santé publique, à la couverture végétale, à l'utilisation des terres et à l'industrie pour trouver des variables influentes. La solution est conçue en deux étapes. Tout d'abord, une analyse d'autocorrélation spatiale est effectuée en ce qui concerne le taux de prévalence de la maladie du district administratif, et une liste de maladies ayant une autocorrélation spatiale a été trouvée. En d'autres termes, les facteurs spatiaux auraient un impact sur la prévalence de la maladie. Pour ces maladies, une classification par arbre de décision est appliquée pour trouver les variables influentes à partir des 165 variables d'entrée données. Il s'agit d'un problème typique d'analyse de données spatiales, que nous n'alimentons pas dans un logiciel SIG de base, et qui nécessite une puissance analytique plus avancée. Je recommanderais donc de connecter un logiciel SIG tel que QGIS et un outil d'analyse de données tel que R studio, pour résoudre le problème. Dans la structure de la solution, le logiciel SIG s'occupera de la visualisation des résultats, et l'outil d'analyse de données sera utilisé pour les deux analyses de données. Premièrement, une analyse d'autocorrélation spatiale et deuxièmement, une analyse d'arbre de décision pour dériver des variables influentes liées à une prévalence de maladie spécifique. Maintenant, prenons des procédures étape par étape pour obtenir les solutions aux problèmes donnés. La première étape consiste à préparer des ensembles de données pour l'analyse. Ici, nous avons utilisé QGIS pour créer des couches SIG en joignant le taux de prévalence de la maladie aux districts administratifs, et catégorisé chaque prévalence de la maladie en trois niveaux, et finalement produit des cartes de tertile. Vous regardez une carte tertile de l'hypertension par rapport aux districts administratifs de la Corée. La première analyse consiste à vérifier si chaque taux de prévalence de la maladie est spatialement autocorrélé. Vous exécutez la méthode de vérification de l'autocorrélation spatiale, qui est Moran's I. Ainsi, en utilisant R, Moran's I est calculé par rapport à chaque prévalence de la maladie, en prenant une étape supplémentaire de tests statistiques après la conversion, étant donné Moran's I en z-score. Le tableau décrit les résultats de l'analyse. Sur 24 maladies, 12 maladies dues à la rhinite allergique et à l'angine pectorale étaient spécialement autocorrélées au niveau de confiance de 95 %. Pour votre meilleure compréhension de l'autocorrélation spatiale, la carte tertile de chaque prévalence de la maladie et le score z correspondant de Moran's I sont présentés ici. Vous regardez le top 6 des maladies pour lesquelles l'autocorrélation spatiale existe fortement. Ce sont la rhinite allergique, la dermatite atopique, la dyslipidémie, l'arthrite, l'hypertension et l'ostéoporose. N'est-ce pas intéressant ?. Nous ne savons pas pourquoi, mais au moins nous pouvons supposer que certains facteurs spatiaux auraient un impact sur le taux de prévalence de 6 maladies. Cette diapositive présente la prévalence des 6 maladies suivantes à autocorrélation spatiale élevée. Qui sont encore statistiquement significatifs au niveau de confiance de 95 %, qui incluent la cataracte, le diabète, l'AVC, la tuberculose, l'infarctus du myocarde et l'angine de poitrine. Je ne pouvais pas comprendre la science derrière le résultat à ce stade. Mais il est surprenant pour moi que la prévalence du diabète et des accidents vasculaires cérébraux soit spatialement corrélée en Corée. Maintenant, vous examinez les prévalences de maladies sans autocorrélation spatiale. Une découverte intéressante est que l'asthme n'a pas d'autocorrélation spatiale, ce qui va à l'encontre de la croyance selon laquelle l'asthme est la maladie typique affectée par des facteurs environnementaux. Je suppose qu'un tel résultat serait lié au problème d'échelle. La résolution spatiale actuelle du district administratif est beaucoup trop grande, de sorte qu'elle ne peut pas détecter un changement aussi subtil des facteurs environnementaux. Encore une fois, je peux le dire, la science des données spatiales est une science d'échelle. Cette diapositive présente 6 autres maladies pour lesquelles aucune autocorrélation spatiale n'est attendue à l'échelle donnée. Maintenant, nous sommes prêts à mener une analyse d'arbre de décision en ce qui concerne la maladie avec un taux de prévalence spatialement autocorrélé. Sur 12 candidats, j'ai sélectionné trois maladies, l'hypertension, l'AVC et le diabète. En ce qui concerne 165 variables d'entrée et le tertile du taux de prévalence de la maladie en tant que variable cible, une analyse de l'arbre de décision est effectuée. Pour l'hypertension, 7 facteurs influents sont récupérés, à savoir le taux de nuptialité et les demandes d'assurance privée comme facteurs positifs, ce qui signifie plus le facteur, moins la prévalence de la maladie. D'autre part, le taux de l'employeur, le pourcentage de veufs, le nombre de détartrages, la période de résidence, le brossage des dents après le déjeuner sont récupérés comme facteurs négatifs. Certaines variables ont du sens et d'autres non. Quoi qu'il en soit, on peut dire que l'état matrimonial, l'économie et l'hygiène de vie sont des facteurs majeurs du taux de prévalence de l'hypertension. La même analyse d'arbre de décision a été menée pour trouver des facteurs influents pour l'AVC. Encore une fois, 7 facteurs ont été récupérés, à savoir le taux de nuptialité, le contrôle du poids en tant que facteurs positifs et le nombre de personnes ayant souffert de dépression, le nombre de personnes bénéficiant d'une assistance psychologique, le niveau d'anxiété/dépression, la taxe de séjour en tant que facteurs négatifs. Il est également très intéressant de constater que le nœud racine, qui est le facteur le plus important de l'arbre de décision, est le taux de mariage, à la fois pour l'hypertension et l'AVC. C'est le pouvoir de la science des données. Les données indiquent que si vous voulez être en bonne santé contre l'hypertension et les accidents vasculaires cérébraux, la réponse est de vous marier. La même analyse a été menée en ce qui concerne le diabète. Le nombre de visites au centre de santé, l'impôt local sur le revenu, la taxe d'urbanisme et le temps de sommeil moyen étaient des facteurs positifs. Et la capacité d'exercice, le nombre de personnes sous contrôle alimentaire, le nombre de personnes vaccinées contre la grippe étaient des facteurs négatifs. Le diabète a des facteurs influents principalement liés aux variables économiques et au niveau des soins de santé. Dans cette conférence, un problème d'analyse de données spatiales est donné, qui est lié à la santé publique. Une solution a été proposée avec une combinaison d'analyse d'autocorrélation spatiale et d'analyse d'arbre de décision. Nous aurions pu déterminer cinq maladies dont le taux de prévalence est spatialement autocorrélé et extraire des variables influentes pour 3 maladies sélectionnées, l'hypertension, l'AVC et le diabète. Un aspect unique de la solution proposée est qu'il s'agit d'un bon exemple d'approche de la science des données sans tenir compte de la relation causale. Par exemple, nous ne pouvions pas comprendre pourquoi à ce stade, mais l'analyse des données peut indiquer que le mariage est une bonne solution pour être en bonne santé hors de l'hypertension et de l'AVC. Très bien. C'est la fin de ce cours sur l'analyse des données spatiales. J'espère que vous pourrez revenir à la prochaine conférence.


Introduction

La détection d'anomalies pour l'analyse des données spatio-temporelles reste un problème en croissance rapide dans le sillage d'un nombre toujours croissant de capteurs avancés qui génèrent en permanence des ensembles de données à grande échelle. Par exemple, le suivi GPS des véhicules, les médias sociaux, les journaux des réseaux financiers et des routeurs et les caméras de surveillance haute résolution génèrent tous une énorme quantité de données spatio-temporelles. Cette technologie est également importante dans le contexte de la cybersécurité, car les cyberdonnées comportent une adresse IP pouvant correspondre à une géolocalisation spécifique et à un horodatage. Pourtant, les approches de cybersécurité actuelles ne sont pas en mesure de traiter efficacement ce type d'informations. Pour illustrer cette lacune, considérons le scénario d'une attaque par déni de service distribué (DDoS) dans lequel les paquets réseau peuvent provenir de différentes adresses IP avec des emplacements épars. Dans un tel cas, un système d'analyse spatio-temporelle [1] est nécessaire pour analyser le schéma spatial de l'attaque DDoS. Pourtant, les environnements analytiques orientés utilisateur pour la cybersécurité avec des marques spatio-temporelles sont actuellement limités aux méthodes statistiques traditionnelles telles que la détection des valeurs aberrantes spatio-temporelles et la détection des points chauds [2]. Note de bas de page 1 De plus, une grande partie des travaux actuels en analyse à grande échelle se concentre sur l'automatisation des tâches d'analyse, telles que la détection d'activités suspectes dans un large intervalle de mouvement et de temps. Mais ces approches ne fournissent pas aux analystes des données de cybersécurité des marques spatio-temporelles la flexibilité nécessaire pour faire preuve de créativité et découvrir de nouvelles tendances dans les données tout en opérant sur des ensembles de données extrêmement volumineux. Les solutions actuelles sont prohibitives car elles nécessitent une compétence pluridisciplinaire.

Une solution possible pour effectuer des analyses sur de telles données spatio-temporelles à grande échelle consiste à récupérer les métadonnées des modèles de points spatiaux [5] et à appliquer des approches de traitement et de stockage des métadonnées [6], ainsi que des connaissances du domaine dérivées par l'apprentissage automatique et des moyens statistiques. Un avantage supplémentaire de cette méthode est que les métadonnées masquent les détails des modèles de points, assurant ainsi la confidentialité tout en prenant en charge une variété d'analyses.

Nous proposons donc un cadre pour effectuer des analyses avec des données spatio-temporelles qui a les propriétés suivantes :

Protection de la vie privée : nous utilisons une méta-analyse des données de suivi comme indicateur du comportement des sujets. La géolocalisation du sujet ne sera pas exposée à l'utilisateur du système.

Haute évolutivité : nous sommes en mesure de récupérer le modèle de comportement pour différentes quantités de données puisque l'index Morisita fournit l'évolutivité adaptée à différentes quantités de données de suivi.

Commodité : nous avons conçu un moyen pratique de mapper l'événement d'anomalie de la cybermenace à la menace physique, car la cybermenace peut être visualisée sur la carte réelle.

Plus en détail, nous proposons un cadre pour stocker et traiter des données spatio-temporelles à grande échelle sur une infrastructure de « motif de points basé sur les métadonnées », tout en fournissant aux utilisateurs une analyse des métadonnées qui masque les détails des données spatio-temporelles à grande échelle et fournit avec une interface frontale qui leur permet d'exécuter une variété de contrôles de sécurité, y compris la détection de valeurs aberrantes pour un seul sujet, la détection de groupes d'anomalies, la détection de comportements d'anomalie et la détection d'événements d'anomalie. De plus, les données spatio-temporelles sont stockées dans diverses mémoires de données. En conséquence, ce cadre fournit des fonctionnalités analytiques hautes performances, de la flexibilité et de l'extensibilité.

L'apport théorique et la nouveauté de nos travaux résident dans la combinaison de méthodes issues des domaines de l'analyse spatio-temporelle, de l'apprentissage automatique et de l'analyse statistique. En extrayant des méthodes pertinentes de ces trois domaines de recherche, nous avons créé un outil efficace et efficient de détection d'anomalies en surveillant simultanément les niveaux cyber et physiques.


Déploiement de la réponse aux requêtes par flux spatial dans les scénarios C-ITS 1

Affiliations : [ a ] ​​Université de technologie de Vienne, Vienne, Autriche. E-mails : [email protected] , [email protected] | [ b ] Institut national d'informatique, Tokyo, Japon. Courriel : [e-mail protected] | [ c ] Siemens AG Österreich, Vienne, Autriche. Courriel : [e-mail protected] | [ d ] Institut national des sciences et technologies industrielles avancées, Tokyo, Japon. Courriel : [e-mail protected]

Correspondance : [*] Auteur correspondant. E-mail : [e-mail protected] .

Remarque : [1] Cet article est une version révisée et étendue d'un article présenté à l'EKAW 2018 (In Proc. of EKAW 2018 (2018) 386–406).

Résumé : Les systèmes de transport intelligents coopératifs (STI-C) jouent un rôle important en fournissant les moyens de collecter et d'échanger des données spatio-temporelles via une communication basée sur V2X entre les véhicules et l'infrastructure, qui deviendra un catalyseur central pour la sécurité routière des (semi- )-véhicules autonomes. La carte dynamique locale (LDM) est un concept clé pour l'intégration de données statiques et en continu dans un contexte spatial. Le LDM a été amélioré sémantiquement pour permettre un modèle de domaine élaboré qui est capturé par une ontologie de mobilité, et pour des requêtes sur des flux de données qui répondent aux concepts sémantiques et aux relations spatiales. Notre approche pour l'amélioration sémantique s'inscrit dans le contexte de la réponse aux requêtes à médiation par l'ontologie (OQA) et présente des requêtes conjonctives sur les ontologies DL-LiteA qui prennent en charge les opérateurs de fenêtre sur les flux et les relations spatiales entre les objets spatiaux. Dans cet article, nous montrons comment cette approche peut être étendue pour traiter un plus large éventail de cas d'utilisation dans les trois scénarios C-ITS : statistiques de trafic, détection d'événements de circulation et systèmes avancés d'aide à la conduite. Nous définissons pour les cas d'utilisation mentionnés des exigences dérivées des fonctionnalités spécifiques au domaine nécessaires et rapportons, sur la base de celles-ci, les extensions de notre langage de requête et de notre modèle d'ontologie. Les extensions incluent des relations temporelles, des prédictions numériques et des prédictions de trajectoire ainsi que des stratégies d'optimisation telles que la mise en cache. Une évaluation expérimentale des requêtes qui reflètent les exigences a été menée à l'aide de l'outil de simulation de trafic PTV Vissim. Il fournit des preuves de la faisabilité/efficacité de notre approche dans les nouveaux scénarios.

Mots-clés : Mobilité, C-ITS, réponse aux requêtes, accès aux données basé sur une ontologie, raisonnement de flux, relations temporelles


Vérifier si les références spatiales de deux couches sont identiques à l'aide d'ArcObjects ? - Systèmes d'information géographique

Pasquale Steduto
Istituto Agronomico Mediterraneo di Bari, Via Ceglie 9, 70010 Valenzano (BA), Italie, tél. (+39-80) 7806201, fax (+39-80)7806206, [email protected]

Angelo Caliandro
Istituto di agronomia e coltivazioni erbacee, Facolt di Agraria, Universit di Bari, Via Amendola 165a, 70100 Bari, tél. (+39-80)5443004, fax (+39-80)5443043, [email protected]

Maurizia Catalano
Istituto di agronomia e coltivazioni erbacee, Facolt di Agraria, Universit di Bari, Via Amendola 165a, 70100 Bari, tél (+39-80)5443033. télécopieur (+39-80)5442813

Ezio Rusco
Timesis srl., Via Niccolini 7, 56017 S. Giuliano Terme (PI), tél. (+39-50)818800, fax (+39-50)818801, [email protected]

Enrico Quaglino
Timesis srl., Via Niccolini 7, 56017 S. Giuliano Terme (PI), tél. (+39-50)818800, fax (+39-50)818801, [email protected]

Sergio Samarelli
Planetek ITALIA s.r.l., Tecnopolis, 70010 Valenzano (BA), Italie, tél. (+39-80)4670611, fax (+39-80)4670595, [email protected]

Agostino Tortorella, Enrico Nerilli, Saverio De Santis, Antonello Madaro, Alessandra Pezzuto, Oronzo Filomeno, Domenico Fanelli et Oronzo D'Amico
Istituto Agronomico Mediterraneo di Bari, Via Ceglie 9, 70010 Valenzano (BA), Italie, tél. (+39-80) 7806201, fax (+39-80)7806206, [email protected]

Ce travail présente l'état de l'art dans le développement du projet ACLA 2 qui vise à la caractérisation agro-écologique de la région des Pouilles (sud de l'Italie) à travers l'évaluation de la productivité agricole potentielle.

La génération de la base de données administrative, climatique, pédologique et topographique des Pouilles est décrite. Cette base de données fournira un support important pour le développement de zones agro-climatiques et agro-pédologiques homogènes qui serviront à la détermination du rendement potentiel de cultures spécifiques. Ceci sera accompli au moyen d'une modélisation à la fois mécaniste et statistique.

La base de données SIG est développée dans ArcInfo puis transférée dans ArcView pour fournir un moyen plus facile pour la recherche et l'analyse des données, et pour faciliter la distribution et l'utilisation des données.

Les activités menées ont impliqué des efforts considérables dans la collecte, l'analyse et le développement de données climatiques, l'échantillonnage des sols et la création d'une base de données numérique sur les sols, la collecte des paramètres de culture pertinents, la numérisation des données topographiques et des limites administratives. Les données sont soumises à une détection et à une correction complètes des erreurs. Une procédure d'échantillonnage progressif est utilisée pour la création de la base de données régionale des sols.

Les activités en cours sont axées sur l'achèvement d'une base de données SIG, la préparation de données pour le développement d'un modèle numérique d'élévation pour la région des Pouilles et sur l'évaluation des procédures d'analyse de séries chronologiques et d'interpolation spatiale des données climatiques ainsi que la conception de sols Système d'Information.

La caractérisation agro-écologique d'une zone met en évidence et intègre les différents aspects du système culture-environnement et, à travers les mesures (qualitatives et quantitatives) de productivité potentielle spatialement référencée, elle vise principalement à fournir la description agro-écologique de la zone d'intérêt. et le système d'information de base nécessaire à un processus décisionnel approprié mené par les institutions gouvernementales locales.La caractérisation agro-écologique comprend le développement de grandes bases de données couvrant différents aspects de l'environnement des cultures, tels que les informations pertinentes sur le sol et la météo, les principaux paramètres de croissance des cultures, l'utilisation réelle des terres et les modes de culture et, dans certains cas, les limites administratives.

Au cours des dernières décennies, la plupart des informations pour la caractérisation agro-écologique d'une zone ont été développées, stockées et traitées sur des feuilles de papier, des bases de données locales assistées par ordinateur et des systèmes de CAO. Ces systèmes, d'une part, facilitaient la maintenance et la collecte de nouvelles données et l'échange de données, mais, d'autre part, ils ne permettaient pas la connexion d'informations référencées géographiquement et de bases de données numériques et descriptives, et l'intégration de données provenant de sources diverses, couches et échelles. Cependant, le développement rapide de nouvelles technologies de l'information telles que les systèmes d'information géographique (SIG), les modèles altimétriques numériques (MNE), les techniques d'analyse et de modélisation du terrain, ainsi que le PC en réseau et les postes de travail puissants ont offert des stratégies et des outils améliorés et modernes pour améliorer la capacité pour extraire rapidement et efficacement des connaissances approfondies à partir des informations stockées.

Malgré cela, de nombreuses recherches tentent maintenant d'intégrer des bases de données descriptives et basées sur la CAO dans un environnement SIG afin de produire des approches de modélisation structurées pour une évaluation complète et polyvalente d'une zone. L'un de ces projets est l'ACLA 2 (P.O.P. – Misura 4.3.6) qui vise à la caractérisation agro-écologique de la région des Pouilles (Figure 1) à travers la productivité agricole potentielle.

Figure 1. La région des Pouilles est située dans le sud de l'Italie et couvre une superficie d'environ 19 500 km 2

Le projet ACLA 2 est coordonné par l'Institut Agronomique Méditerranéen de Bari (CIHEAM/MAI-Bari) et l'Université Agricole de Bari (Institut d'Agronomie) et il est financé par les fonds de l'Union Européenne et la région des Pouilles. Le projet a démarré à l'automne 1997 et durera trois ans. Ce travail présente l'état de l'art dans le développement du Projet et il est principalement axé sur la création d'une base de données SIG indispensable à l'accomplissement des tâches du Projet.

DESCRIPTION DU PROJET

Le projet ACLA 2 présente la poursuite des activités menées dans le cadre du projet ACLA 1 au début des années 90. L'ACLA 1 a été principalement orientée pour étudier différentes méthodologies pour la caractérisation territoriale du sol et du climat et pour vérifier leur validité et leur applicabilité dans le sud de l'Italie. En outre, l'ACLA 1 a été sollicitée pour identifier les principales sources de données climatiques et pédologiques relatives à la région des Pouilles et pour collecter et stocker les informations disponibles sous forme numérique. Il a été réalisé en numérisant les informations référencées géographiquement existantes au format AutoCAD dwg et en organisant les bases de données alphanumériques principalement au format ASCII. L'analyse de l'ensemble de données climatiques a été limitée à la période de 30 ans de 1951 à 1980. L'ensemble de données de sol a été enrichi par 1000 échantillonnages de sol effectués lors de la réalisation du projet, puis une carte des sols préliminaire de la région des Pouilles a été conçue. sur la base de ces données et des informations déjà existantes.

Cependant, le projet ACLA 1 n'a pas traité les données suffisantes pour développer une caractérisation agro-écologique détaillée de la région. De plus, ACLA 1 ne prévoyait pas l'intégration de bases de données dans un environnement SIG. En conséquence, le projet ACLA 2 s'est construit pour :

  • examiner et compléter la base de données développée lors de la réalisation du projet ACLA 1 se référant à la fois aux données climatiques et pédologiques, et créer la base de données des cultures relatives aux exigences climatiques et pédologiques et à d'autres paramètres pertinents pour la modélisation de la productivité des cultures
  • intégrer et analyser les bases de données dans un environnement SIG et produire des cartes agro-climatiques et agro-pédologiques de la région des Pouilles où les informations géographiques sont liées aux attributs numériques et textuels correspondants et
  • déterminer la productivité agricole potentielle de la région au moyen d'une modélisation à la fois mécaniste et statistique.

Le produit final du projet doit être une base de données structurée SIG qui comprend des cartes administratives, climatiques, pédologiques, d'utilisation des terres et topographiques ainsi que les résultats de la modélisation de la productivité des cultures (Figure 2). Il doit fournir un support efficace sur la caractérisation agro-écologique de la région des Pouilles à utiliser principalement par les autorités régionales, mais aussi par les institutions scientifiques.


Figure 2. La superposition de différentes couches (couvertures) produit la base de données agro-écologique

Cela signifie que les autorités régionales doivent accéder à une base de données SIG et, à travers l'évaluation des requêtes spatialement référencées, identifier les zones d'intérêt particulier. Cela implique une approche applicable à différentes échelles. Les requêtes doivent être développées :

  1. par unités administratives (provinces et communes), c'est-à-dire quelles sont les espèces végétales les plus aptes à pousser dans une unité administrative
  2. par culture, c'est-à-dire quelle est la zone la plus appropriée pour la culture d'une certaine culture
  3. par les exigences climatiques, c'est-à-dire quelle est la zone qui satisfait les exigences définies par la requête concernant les variables climatiques et
  4. par les exigences du sol, c'est-à-dire quelle est la superficie qui correspond aux caractéristiques du sol imposées par la requête.

Les requêtes doivent être effectuées en tenant compte :

  1. la superficie totale de la région des Pouilles, ou
  2. la superficie limitée aux zones qui sont effectivement disponibles pour la plantation et la production végétale, c'est-à-dire en retranchant de la superficie totale les zones effectivement plantées d'oliviers, de forêts et de vignes et d'autres zones actuellement non adaptées à la culture.

La base de données ACLA 2 doit permettre aux utilisateurs d'effectuer les requêtes d'une manière séquentielle interdépendante, ce qui signifie essentiellement qu'à n'importe quel stade de chaque requête, les utilisateurs du système peuvent demander des informations sur différents sujets. Par exemple, une fois la zone propice à la culture d'une culture spécifique définie, les utilisateurs peuvent procéder à l'interrogation par d'autres thèmes (unités administratives, climat ou sol), soit en sélectionnant la zone dans un ensemble qui satisfait la requête précédente, soit en l'ajoutant à l'ensemble de données défini précédemment. la zone qui confirme la nouvelle requête. Les résultats de chaque requête doivent être résumés sous forme spatiale, tabulaire et graphique et être imprimés dans un format approprié à la demande de l'utilisateur.

Selon la portée spécifique du projet, la version ArcInfo ver. 7.1.2 monté de la plate-forme de poste de travail Sun est sélectionné comme système d'information géographique pour acquérir des données décrivant les informations spatiales et leurs attributs associés, créer des bases de données et développer et exécuter les opérations SIG spatiales, tandis que le logiciel Windows ARCView 3.0 est choisi comme le plus approprié pour être utilisé par les autorités régionales pour les requêtes des bases de données et la génération des rapports.

DÉVELOPPEMENT DE LA BASE DE DONNÉES ACLA 2

La base de données ACLA 2 comprend une base de données SIG comprenant les unités administratives, l'utilisation des terres, les sols, le climat et les données topographiques et une base de données SIG indépendante des cultures essentiellement utilisée pour soutenir les modèles statistiques et mécanistes (Figure 3). La base de données est développée en tenant compte de plusieurs facteurs : la disponibilité réelle des données provenant de diverses sources et dans différents formats, les fonds financiers affectés à l'évaluation de la base de données et les exigences du projet concernant les données d'entrée pour le modèle de productivité des cultures et les données nécessaire pour concevoir des cartes agro-climatiques et agro-pédologiques.

La structure multi-objectifs du projet nécessite l'intégration de différents ensembles de données à différentes étapes de la réalisation du projet. Par exemple, les données pédologiques et climatiques doivent être évaluées pour développer les cartes agro-climatiques et agro-pédologiques, mais elles doivent également être intégrées afin de fournir un ensemble de données SIG à utiliser comme entrée pour le modèle de productivité des cultures. De plus, afin de satisfaire les différentes tâches du projet, certaines données doivent être disponibles dans différents formats (vecteur et raster). Par exemple, l'ensemble de données de température sera produit à l'origine à partir des données d'altitude numériques et des informations de température dans les stations météorologiques et sera donc au format raster. Cependant, le développement des zones de températures homogènes nécessitera la classification des valeurs de température par intervalles et la création d'un format d'entités polygonales à utiliser pour l'intégration avec d'autres cartes.


Figure 3. Structure schématique de la base de données ACLA 2 et organigramme des principales opérations

La structure spécifique du Projet aborde une méthodologie d'adaptation comme le meilleur outil pour l'évolution du Projet. Cela permet le développement de la base de données SIG et du modèle à travers la procédure étape par étape où, à différentes phases du projet, les exigences de la base de données et du modèle doivent être analysées et éventuellement redéfinies afin de correspondre les unes aux autres. Il s'agit de développer un cadre général (méthodologie) qui se compose de la base de données régionale (sol, climat et culture), et d'étendre les procédures de paramétrage agro-écologique et de mise en œuvre des modèles de productivité des cultures. Ce système principal (base de données primaire) est abordé de manière conceptuelle pour représenter une méthode généralisée qui, appliquée au moyen des procédures de paramétrisation agro-écologique, fournit des informations sur l'adéquation globale des sites aux différents modes de culture. Progressivement, cette base de données primaire devrait être utilisée comme fichier de démarrage sol, climat et culture, raccourcissant les délais de mise en œuvre pour chacune des tâches suivantes. Ces tâches devraient impliquer le développement de bases de données plus détaillées, l'exécution du modèle et la génération de cartes de productivité des cultures.

Traitement des données existantes

La première étape du développement du projet ACLA 2 a été l'identification des données déjà existantes sous forme numérique et l'interprétation de leurs caractéristiques et limites au moyen de la source, du format, de la quantité et de la qualité (précision). La principale source de données est la base de données développée lors de la réalisation du projet ACLA 1. Cette base de données contient la carte des limites régionales et administratives, la carte d'occupation des sols et les cartes pédologiques et climatiques préliminaires. Ces cartes ont été numérisées dans le système AutoCAD à partir du 54 I.G.M. (Istituto Geografico Militare) feuilles de carte à l'échelle 1:50 000 avec la portée principale à afficher et donc à utiliser comme support visuel, et à imprimer comme produit final du projet ACLA 1.

Dans la plupart des cas, les informations textuelles fournies sur ces cartes ne sont pas adaptées à une intégration directe dans une base de données SIG, car elles sont incomplètes, rarement répétées et mal placées et elles ne font pas référence aux caractéristiques géographiques qu'elles décrivent. De plus, de nombreux polygones n'étaient pas fermés et les intersections des arcs n'étaient pas représentées par des nœuds. De plus, les cartes ont été numérisées dans la projection transverse de Mercator de Gauss-Boaga, avec le méridien central centré le long du Monte Mario (Italie). Cette projection est utilisée en Italie depuis des décennies. La projection universelle transverse de Mercator (UTM) étant adoptée comme projection du système de coordonnées du projet, les cartes déjà numérisées ont dû être transférées de Gauss-Boaga vers la projection UTM.

Les caractéristiques et les limites des données déjà existantes au format numérique ont imposé la procédure de traitement de ces données comme illustré à la figure 4.


Figure 4. Organigramme pour le traitement des données déjà existantes numérisées dans AutoCAD

Les fichiers AutoCAD dwg sont importés au format dxf, puis convertis dans ArcInfo à l'aide du convertisseur dxftoarc standard. Étant donné qu'ArcInfo ne prend pas en charge la projection Gauss-Boaga, un programme de conversion des données de la projection Gauss-Boaga vers la projection UTM est développé en tenant compte des caractéristiques suivantes de la projection cartographique Gauss-Boaga :

  • sphéroïde : INT1909
  • facteur d'échelle du méridien central : 0.9996
  • longitude du méridien central : 15 0 0
  • latitude d'origine : 0 0 0
  • fausse abscisse (mètres): 2520000.0
  • fausse ordonnée (mètres) : 0 .

Avant le traitement des données existantes, le fichier maître tic et la couverture décrivant les frontières du 54 I.G.M. des feuilles de cartes à l'échelle 1:50 000 ont été créées.

Le fichier tic maître est créé pour être utilisé dans toutes les couvertures d'une base de données SIG. Quatre tics sont établis pour chaque échelle I.G.M. de 1:50 000. feuille de carte correspondant, à la section transversale des coordonnées UTM x et y arrondies de 1 km les plus proches des coins des cartes. Ces emplacements sont préférés plutôt que les coins des feuilles de carte car, dans certains cas, les informations à numériser sont situées sur les feuilles transparentes recouvrant la carte originale et, par conséquent, rendant les coins de la carte moins visibles que les coupes transversales de la coordonnées dans les cartes.

La couverture représentant les limites des feuilles de carte à l'échelle 1:50 000 est créée pour être utilisée comme outil auxiliaire – couverture de fond pour la correction de l'erreur topologique puisque la grande partie des erreurs est observée dans les zones de connexion de la feuilles. De plus, cette couverture sera utilisée pour faciliter l'identification des objets géographiques sur les feuilles de carte.

La région des Pouilles traverse deux zones UTM (33 et 34) avec la majorité de la zone tombant dans la zone 33. Par conséquent, les caractéristiques géographiques aux frontières de ces zones ne correspondent pas et les sept (sur 54) feuilles de carte tombant dans la zone 34 ont été projetés dans la zone 33 afin d'effectuer une analyse sur l'ensemble de la région. On suppose qu'une seule précision de couverture peut maintenir de manière satisfaisante la précision requise des caractéristiques géographiques traitées dans le projet. Lors de la numérisation, il est supposé que la valeur acceptable pour l'erreur RMS indiquant la précision en unités du monde réel ne dépasse pas 15 m, ce qui dans les feuilles de carte à l'échelle 1:50 000 correspond à la valeur de 0,3 mm.

La région des Pouilles se compose de cinq provinces avec un total de 257 municipalités. La carte administrative décrivant les limites régionales, provinciales et municipales est une couverture polygonale (ADMIN) développée à partir de données numérisées dans AutoCAD. Les limites régionales et les lignes côtières définies dans la couverture ADMIN sont supposées être référencées pour toutes les autres couvertures. Étant donné que de nombreuses municipalités comprennent les zones de plusieurs polygones, la caractéristique géographique régionale est appliquée pour décrire les municipalités dans la couverture ADMIN. Les erreurs de numérisation sont identifiées par le contrôle visuel et la comparaison des surfaces des communes obtenues par SIG et celles issues des jeux de données statistiques régionales. La table attributaire d'ADMIN se compose des noms de région, de province et de commune et du code ISTAT de la commune.

Les données sur l'utilisation des terres fournissent les informations de base pour évaluer les terres propices à l'agriculture dans la région. La carte d'occupation du sol, de couverture polygonale, comprend les plans d'eau naturels et artificiels (lacs), les zones urbaines et les zones couvertes d'espèces pérennes (foresterie, oliviers et vignobles).

Certaines données ont été extraites des cartes déjà numérisées dans AutoCAD (lacs et foresterie) tandis que d'autres données sont en cours de numérisation dans ArcInfo. Le format régional est utilisé pour décrire les caractéristiques géographiques.

Le projet ACLA 2 utilise un certain nombre d'informations pédologiques (cartes) réalisées dans le cadre du projet ACLA 1 et d'autres investigations sur les caractéristiques des sols de la région. Les données spatiales et les principaux attributs de sol de ces cartes sont stockés dans des couvertures créées et gérées par ArcInfo. En fait, la base de données sur les sols comprend des ensembles de données déjà créés : couverture polygonale préliminaire du sol de l'ACLA 1 (PEDA1), sites d'échantillonnage de sol ponctuel du projet ACLA 1 (PEDA1P), sites de sol de référence ponctuels (PEDREF) et sites d'échantillonnage de sol ponctuel du ACLA 2 (PEDA2P) qui est en cours de développement.

Le développement de la carte régionale des sols est soutenu par les 5 000 échantillonnages de sol, dont environ 4 000 échantillonnages de forage, 500 profils de sol et 500 observations. L'échantillonnage des sols sur le terrain suit la procédure établie dans le manuel d'échantillonnage des sols (Timesis, 1997) et il est principalement axé sur les terres agricoles hautement productives de la région.

Les emplacements des sites d'échantillonnage du sol sont dérivés à l'aide d'une procédure SIG d'échantillonnage progressif (figure 5), similaire à la procédure proposée à l'origine par Makarovic (1973) pour l'échantillonnage de terrains de complexité variable.


Figure 5. Procédure d'échantillonnage progressif basée sur le SIG pour la base de données des sols

La procédure d'échantillonnage progressif implique une série d'échantillonnages successifs où les emplacements de nouveaux sites d'échantillonnage sont déterminés à l'aide des résultats d'une analyse SIG des données de l'échantillonnage précédent. Les propriétés physiques et chimiques du sol de chaque série de données sont analysées en laboratoire et stockées dans deux fichiers MS Access dbf relatifs aux informations sur le site et les horizons. L'emplacement des sites d'échantillonnage est numérisé sous forme d'entités ponctuelles dans ArcInfo où les caractéristiques physiques et chimiques du sol du site sont associées à des informations géographiques dans la couverture PEDA2P. Ensuite, la couverture ponctuelle PEDA2P est fusionnée dans la couverture polygonale PEDA1 qui contient les caractéristiques du sol obtenues lors de la réalisation du projet ACLA 1. Une nouvelle couverture est créée en superposant deux ensembles d'entités où tous les éléments de la couverture polygonale sont joints dans la table attributaire d'entités ponctuelles en sortie. La couverture en sortie est importée dans ArcView où le fichier dbf avec des paramètres de sol supplémentaires concernant les caractéristiques des horizons de sol est lié à la table d'attributs de sol PEDA2P. Cela permet d'interroger la base de données des sols en cours de développement pour identifier les zones d'incohérence sur les caractéristiques des sols provenant des enquêtes précédentes et les résultats d'analyses en laboratoire de nouveaux prélèvements de sols. Étant donné que les informations descriptives sur les échantillonnages de sol et les zones de sol polygonales homogènes ne sont pas toujours simples, la série de requêtes séquentielles a été réalisée pour produire des caractéristiques d'échantillonnage de sol comparables aux descripteurs de surface de sol polygonale. À leur tour, les résultats de ces requêtes permettent de déterminer les emplacements où de nouveaux échantillonnages de sol doivent être effectués.

L'ensemble de données sur les sols en préparation devrait fournir l'identification des classes de taxonomie des sols dans la région des Pouilles, y compris des informations détaillées sur les caractéristiques des sols selon la taxonomie des sols (1994). Le produit final de la base de données sur les sols sera la carte régionale des sols à l'échelle 1:100 000. Il sera conçu à l'aide des résultats de l'analyse SIG sur les couvertures mentionnées ci-dessus, des photos aréales en noir et blanc existantes et de trois scènes satellite (Landsat 5) de la région. Ces données de télédétection seront également utilisées dans l'évaluation de la base de données sur l'utilisation des terres.

Les données météorologiques primaires appartiennent aux fichiers historiques de 72 stations météorologiques situées dans la région des Pouilles et de 29 stations météorologiques fictives introduites dans les zones où le réseau de stations était insuffisamment dense et où une forte variation d'altitude a été observée. Cet ensemble de données est le résultat de l'analyse complète développée sur les données météorologiques historiques pour une période de 30 ans, de 1951 à 1980, lors de la réalisation du projet ACLA 1.Les produits finaux de l'analyse météorologique ACLA 1 étaient les cartes d'isolignes concernant la température moyenne mensuelle et le déficit hydrique potentiel annuel estimé comme une différence entre l'évapotranspiration de référence et les précipitations. Ces isolignes ont été produites à l'aide de la procédure d'interpolation SAS/GRAPH (Statistical Analysis System) G3GRID où le réticule d'interpolation se composait de 26000 (200x130) nœuds avec une distance entre eux de 1708,2 et 1852,2 mètres sur les axes x et y respectivement. De plus, l'analyse statistique a donné de très bons résultats de la régression linéaire entre la température mensuelle et l'altitude de la station avec un coefficient de régression allant de 0,77 (en août) à 0,89 (en février et mars).

L'ensemble de données primaires développé dans le projet ACLA 1, est amélioré temporellement, afin de comprendre les enregistrements météorologiques pour une période de 45 ans, jusqu'en 1995, et spatialement pour élargir la zone considérée aux provinces voisines de la région des Pouilles.

Les données météorologiques historiques comprennent la température et l'humidité de l'air minimales et maximales, les précipitations, la fraction d'ensoleillement et la vitesse du vent et elles sont stockées au format ASCII standard. Ces fichiers sont traités par le programme Turbo Pascal pour la conversion des données et la détection des erreurs. Le programme produit un fichier de sortie qui contient les résultats de l'examen de chaque fichier historique. Le programme attribue le code d'erreur lorsque :

où W est une variable météorologique, Wmin est une valeur minimale de météo, Wmax est une valeur maximale de la variable météorologique et Wll et Wul sont des limites inférieures et supérieures prédéfinies des variables météorologiques, respectivement. Ensuite, le calcul de l'évapotranspiration de référence est effectué à l'aide du programme IAM_ETo (Snyder et Steduto, 1998), qui fournit une estimation de l'évapotranspiration à l'aide de 13 formules différentes sur n'importe quelle période entre le quotidien et le mois. Enfin, des ensembles de données mensuelles moyennes à long terme sont produits pour chaque variable météorologique.

Les séries climatiques mensuelles à long terme seront testées sur une base temporelle afin d'identifier les valeurs aberrantes, les valeurs mensuelles qui sont en dehors des écarts prédéfinis par rapport aux valeurs moyennes. Ensuite, chaque donnée suspecte sera comparée aux valeurs des stations voisines afin d'évaluer son intégrité spatiale.

Différentes méthodes d'interpolation seront utilisées pour vérifier la qualité spatiale des données comme cela est proposé par Baker et al. (http://www.ncdc.noaa.gov/gcps/papers/qc1/qc.html) . Ces méthodes seront comparées aux valeurs réelles pour chaque variable météorologique et pour chaque mois/station afin de sélectionner la meilleure pour tester l'intégrité spatiale. Enfin, les valeurs ayant échoué aux deux tests (temporels et spatiaux) seront retirées de la série climatique à long terme. Ensuite, un ensemble de données contenant les valeurs moyennes des variables climatiques sera créé pour chaque station sur une base mensuelle et annuelle. Ces données seront jointes à la représentation spatiale ponctuelle des stations météorologiques dans ArcInfo pour être utilisées dans l'interpolation spatiale des variables météorologiques.

L'interpolation spatiale doit produire des informations continues sur les variables météorologiques sur l'ensemble de la région dans le format raster régulièrement quadrillé à utiliser comme entrée au modèle de productivité des cultures mécaniste et pour la dérivation des zones agro-climatiques homogènes. La méthode d'interpolation des données climatiques sera définie après l'analyse de diverses méthodes déterministes (polygones de Thiessen, tessellations) et stochastiques (krigeage, interpolation de distance inverse, analyse de tendance de surface), dont beaucoup sont déjà disponibles dans ArcInfo.

La base de données des cultures se compose de trois fichiers. La première prend en charge les données générales sur le sol et le climat qui fournissent l'adéquation descriptive globale pour la croissance des cultures dans différentes conditions. Les deuxième et troisième ensembles de données sont étroitement liés aux exigences globales de modélisation du modèle statistique et mécaniste respectivement.

Les statistiques de la productivité des cultures sur différents sites pour diverses cultures et sous différentes conditions climatiques sont collectées sous forme de tableau à partir des relevés annuels déjà existants. Successivement, à l'aide d'un SIG, des informations statistiques seront attribuées aux sites géographiques (terres agricoles à l'échelle communale) où elles sont observées. De cette manière, les caractéristiques du sol seront extraites du tableau d'attributs de couverture du sol, ce qui permettra d'évaluer l'approche de modélisation statistique où la productivité des cultures sera liée aux données réelles du sol et du temps observées dans la région des Pouilles. Dans la mesure où cette approche statistique ne prend pas en considération l'application d'engrais et les pratiques d'irrigation, elle fournit une estimation approximative utile de la productivité des cultures dans différentes conditions pédoclimatiques. Les modèles de cultures statistiques sont utilisés à la fois pour les cultures de plein champ et les cultures arboricoles.

Un modèle mécaniste de productivité des cultures est développé en utilisant les expériences des modèles CROPSYST (Stockle et Roger, 1992) et EPIC (Williams et al., 1989 Steduto et al., 1995).

Le modèle fournit une prévision quantitative de la croissance et du rendement des cultures pour différentes espèces de grandes cultures qui poussent couramment dans la région des Pouilles. Aucune culture arboricole n'est modélisée par le modèle mécaniste.

Le moteur du modèle mécaniste de croissance des cultures est entraîné par deux variables météorologiques majeures : la température et le rayonnement solaire. La température dirige le développement des stades de croissance (par exemple, l'émergence, la floraison, le pic de surface foliaire, la maturité physiologique, etc.) en utilisant le concept d'accumulation de degrés-jours ou de temps thermique (Ritchie et Nesmith, 1991). Le rayonnement solaire intercepté par la culture entraîne la croissance de la biomasse, qui est ensuite divisée en racines, tiges, feuilles et rendement commercial. La surface foliaire est le paramètre de culture majeur déterminant la quantité de rayonnement solaire intercepté ainsi que les taux d'évapotranspiration.

Le module bilan hydrique sol est lié au modèle de croissance des cultures qui permet d'estimer les précipitations s'infiltrant dans la zone sol-racine (précipitations effectives) ainsi que la consommation d'eau par évaporation du sol et transpiration des cultures.

Le modèle est d'abord exécuté sans déficit en eau et en nutriments. De cette façon, il fixe le 1 er niveau hiérarchique de la productivité potentielle de la culture, c'est-à-dire celui contraint par le climat uniquement, mais sans restriction hydrique. En fonction de ce 1 er niveau de productivité potentielle, le modèle génère la "demande" en eau (le besoin en eau des cultures). La différence entre la demande potentielle en eau par les cultures et l'approvisionnement en eau réel par les précipitations « efficaces » détermine le déficit en eau pour la productivité potentielle de chaque culture.

En utilisant le rapport de transpiration eau-biomasse (Steduto, 1996) et l'approche de Stewart (Stewart et Hagan, 1973) reliant la biomasse et le rendement à la consommation d'eau par les cultures, le modèle définit le 2 ème niveau hiérarchique de productivité potentielle des cultures, c'est-à-dire celui contraint par le climat et l'eau, mais sans restriction en éléments nutritifs.

En indexant la fertilité physique et chimique du sol, le 3 ème niveau hiérarchique de productivité potentielle des cultures est fixé par le modèle, c'est-à-dire celui contraint par le climat, l'eau et les nutriments de chaque zone homogène.

Les écarts entre le 1 er , 2 ème et 3 ème niveau de productivité potentielle sont des mesures de la "distance" ou de la "quantité" en termes de ressources nécessaires pour "couvrir" ou "réaliser" afin d'atteindre la pleine productivité potentielle.

Ainsi, pour chaque zone homogène, on peut identifier un rang de cultures selon leur productivité au regard des ressources naturellement disponibles (sol et eau). De même, pour chaque culture on peut identifier un rang de zones homogènes en fonction de leur attitude vis-à-vis de la productivité potentielle. De cette manière, diverses cartes thématiques peuvent être générées pour caractériser agro-écologiquement le territoire de la région des Pouilles.
Le modèle mécaniste est écrit en Visual Basic.

Données topographiques et modèle altimétrique numérique

Les informations topographiques jouent un rôle important dans l'évaluation de l'interpolation spatiale des variables météorologiques et dans l'analyse statistique des caractéristiques du terrain en calculant la pente et l'aspect.

Nous essayons de créer un modèle numérique d'élévation de la région des Pouilles en utilisant la méthode d'interpolation ANUDEM développée par Hutchinson à l'Université nationale australienne (Hutchinson, 1988, 1989, 1996). L'approche de maillage de surface d'ANUDEM est basée sur une technique itérative d'interpolation aux différences finies et elle applique un algorithme d'interpolation spline et diverses contraintes localisées pour représenter plus fidèlement la surface du terrain. L'ANUDEM utilise comme entrée non seulement les données de contour et d'altitude de point, mais également les données de ligne de courant et de point de chute, ce qui a considérablement renforcé la qualité du DEM de sortie. Dans la littérature, ANUDEM semble être la technique raster la plus appropriée pour la création de DEM et elle est déjà utilisée dans le développement de DEM pour l'Australie, l'Afrique, l'Amérique du Sud, etc. La commande TOPOGRID d'ArcInfo supporte complètement la méthode d'interpolation ANUDEM.

Un pré-traitement important des données topographiques est requis pour l'entrée dans TOPOGRID. Les données d'élévation de contour ont été numérisées dans AutoCAD d'I.G.M. Feuilles de carte à l'échelle 1:50 000 avec un intervalle d'élévation de contour allant de 5 à 25 mètres. La détection et la correction des élévations de contour erronées sont effectuées par le contrôle visuel sur les cartes sources et l'attribution des valeurs d'élévation aux arcs. Cette procédure a été adoptée car il n'était pas possible d'utiliser les descripteurs d'arcs de texte attribués dans AutoCAD dans l'environnement ArcInfo. De plus, ces descripteurs étaient fréquemment répétés et de nombreux arcs n'étaient pas connectés. En fait, les données des courbes de niveau sont améliorées pour comprendre que les informations topographiques appartiennent aux provinces voisines de la région puisqu'une partie des stations météorologiques est située en dehors de la région des Pouilles. Presque tous les flux présentés à l'échelle 1:50 000 I.G.M. les cartes seront numérisées et seuls les flux très mineurs seront omis. Les hauteurs de spot et les points de dépression de surface connus sont en cours de sélection et ils seront numérisés dans des couvertures séparées.

Les données topographiques seront traitées en utilisant comme forme principale de données d'entrée une couverture en ligne des contours d'élévation. La résolution du DEM sera optimisée en utilisant la procédure suggérée par Hutchinson (1996) où la pente du DEM ajusté aux points de données est examinée à partir d'une grille grossière (quelques kilomètres) à une résolution plus fine (100 mètres) et en observant lorsque la pente moyenne de la racine est stabilisé. La résolution provisoire du DEM est d'environ 100 à 200 mètres.

Ce document décrit l'état actuel de la mise en œuvre du système d'information géographique dans le projet ACLA 2 dont des leçons peuvent être tirées et des améliorations apportées en réfléchissant sur les actions menées et sur les tâches à accomplir.

La caractérisation agro-écologique d'une zone inévitable implique l'utilisation d'une technologie SIG pour le développement de données et la modélisation de la productivité des cultures. Le développement d'une base de données comprend des applications SIG courantes en tant que fonctions de superposition spatiale pour produire de nouvelles couvertures. De plus, dans le développement de la base de données des sols, le SIG propose l'évaluation des requêtes orientées objectif pour déterminer les zones où les échantillonnages de sol doivent être effectués. En outre, le SIG est un outil précieux pour l'interpolation spatiale des variables météorologiques et la paramétrisation spatiale d'autres variables à utiliser par les modèles de productivité des cultures.

Le projet ACLA 2 s'adresse aux besoins des utilisateurs à différents niveaux et à différentes fins, ce qui pose des difficultés dans le développement d'une base de données SIG. Cependant, le développement d'une base de données SIG et le projet lui-même offrent la possibilité de stocker et de maintenir des données régionales sur le sol, le climat, l'utilisation des terres, les cultures et la topographie dans un format cohérent, pour faciliter l'échange de données et prendre en charge bon nombre d'éventuelles autres données SIG basées sur le SIG. projet concernant la région des Pouilles. Pour y parvenir, des travaux supplémentaires seront nécessaires pour améliorer et évaluer la qualité des données sources et de la base de données dérivée du projet et garantir leur exhaustivité, leur validité, leur cohérence, leur intégrité et leur précision de positionnement et d'attribut.


LASmoons : Olumese Efeovbokhan

Olumese Efeovbokhan (récipiendaire de trois LASmoons)
Géosciences, École de géographie
Université de Nottingham, Royaume-Uni

Arrière-plan:
L'une des exigences vitales pour conduire et justifier avec succès des politiques de gestion des risques d'inondation favorables est la disponibilité de données fiables pour la modélisation hydrologique. Malheureusement, cela pose un grand défi dans les régions où les données sont rares et a entraîné des politiques de gestion des risques d'inondation non coordonnées et inefficaces, certaines zones étant laissées à la merci des inondations auxquelles elles sont exposées. Cette recherche est axée sur la capacité à générer avec succès les données nécessaires à la modélisation hydrologique à l'aide de méthodes abordables et faciles à reproduire. La recherche utilisera des véhicules aériens sans pilote (UAV) pour la génération de modèles de terre nue (MNT) à partir de points de photogrammétrie, qui seront ensuite utilisés pour la cartographie de la vulnérabilité aux inondations.

Nuage de points de photogrammétrie de la place Tafawa Balewa sur l'île de Lagos, Nigéria

But:
Générez un modèle de terre nue à l'aide d'une combinaison d'Agisoft Photoscan et de LAStools, puis validez son adéquation à la modélisation hydrologique. Si le modèle généré s'avère approprié, nous l'utiliserons pour effectuer une analyse de sensibilité aux inondations et une modélisation des inondations dans d'autres régions où les données sont rares en utilisant des modèles de terre nue à haute résolution générés de la même manière.

Données:
+
nuage de points de photogrammétrie haute résolution pour une partie de la zone d'étude
– – – images obtenues avec un vol de drone Ebee Sensefly
– – – Nuage de points de photogrammétrie généré avec Photoscan par AgiSoft
+ nuage de points classé LiDAR avec une résolution de 1 impulsion par mètre carré obtenu pour la zone d'étude du gouvernement de l'État de Lagos

Traitement LAStools:
1) tuile grand nuage de points de photogrammétrie en tuiles avec tampon [lastile]
2) marque un ensemble de points dont la coordonnée z est un certain centile de celle de leurs voisins [lasthin]
3) supprimer les points bas isolés de l'ensemble des points marqués [lasnoise]
4) classer les points marqués en sol et non sol [lasground]
5) tirez les points au-dessus et au-dessous du sol [cils]
6) créer un modèle numérique de terrain (MNT) à partir de points au sol [las2dem]
7) fusionner et ombrager des DTM raster individuels [blast2dem]


Voir la vidéo: Cours SIG 2: Découpage. clip un raster ArcGis (Octobre 2021).