Suite

La requête spatiale par ESRI ST_Geometry prend trop de temps


J'utilise ESRI ST_Geometry dans mon application et j'ai trouvé que la requête spatiale est plutôt lente :

Le SQL suivant est utilisé pour la requête pois à l'intérieur d'un certain bounding_box :

select * from ( select name, st_astext(shape) as shape from POIView h where 1 = 1 and ST_Intersects(h.shape, st_geometry('POLYGON ((20.227742 30.1681829, 20.296578 30.168182, 20.296578 30.21127,20.22774 30.211270, 20.1818') 30. ,3)) = 1 ) où rownum <= 10

Comptez les nombres totaux :

sélectionnez count(shape) de POIView h où 1 = 1 et ST_Intersects(h.shape, st_geometry('POLYGON ((20.227742 30.1681829, 20.296578 30.168182, 20.296578 30.21127,20.22774 30.211270, 20.22774 30.16818))',3)) = 1

Et le premier SQL coûtera près de 3 secondes, et le second coûtera plus de 4 minutes, ce qui est inacceptable.

De plus, le bounding_box est un polygone plutôt simple avec une petite surface, je ne peux pas imaginer combien de temps cela coûtera une fois que j'ai mis un polygone complexe comme argument.

Est-il possible de réparer ça?

BTW, toutes les tables sont exportées vers Oracle 11g par ArcMap 10.0 avec la connexion sde, et nous n'avons que 120 000 enregistrements dans la table.


Mise à jour : la vue :

CRÉER OU REMPLACER VIEW POIView (objectid, shape, id, name, address, table_name) AS SELECT objectid,shape,hotel_id as id,hotel_name as name,address,'HotelPoint' AS table_name from HotelPoint union ALL SELECT objectid,shape,school_id as id,school_name as name,address,'SchoolPoint' AS table_name from SchoolPoint union ALL SELECT objectid,shape,id,name,address,'ImportFeaturePoint' AS table_name from ImportFeaturePoint union ALL SELECT objectid,shape,id,name,address,'ImportFeatureLine ' AS table_name de ImportFeatureLine union ALL SELECT objectid,shape,id,name,address,'ImportFeaturePolygon' AS table_name de ImportFeaturePolygon union ALL…

Et une fois que j'ai suivi le commentaire de @Vince, j'ai essayé de changer le sql en :

select * from ( select name, st_astext(shape) as shape from POIView h where ST_ENVINTERSECTS(h.shape, st_geometry('POLYGON ((20.227742 30.1681829, 20.296578 30.168182, 20.296578 30.21127,20.22774 30.211270, 20.)22774 30.3) = 1 ) où rownum <= 10

Cela prend 6 secondes maintenant. Et le compte sql :

sélectionnez count(shape) de POIView h où ST_ENVINTERSECTS(h.shape, st_geometry('POLYGON ((20.227742 30.1681829, 20.296578 30.168182, 20.296578 30.21127,20.22774 30.211270, 20.22774 30.16818))',3)) = 1

prend 240 secondes.

Je télécharge le sp5, je posterai le nouveau résultat après avoir installé le patch.


Mettez à jour après avoir installé le SP5 et j'ai constaté que la requête prendrait plus de temps qu'avant avec 24 secondes pour la requête de base et 2 minutes pour la requête de comptage.


Un schéma de base de données relationnelle simplifié pour la transformation des données BIM en une base de données efficace pour les requêtes et spatialement activée

Avec l'adoption croissante du BIM dans l'industrie AECO (Architecture, Ingénierie, Construction et Propriétaire-exploitant), le contenu BIM est de plus en plus complet et précieux. Malheureusement, les données sont en grande partie verrouillées dans l'outil de création BIM respectif avec une facilité limitée pour les utilisateurs d'effectuer des requêtes au-delà des simples requêtes sur les objets et leurs propriétés. Même avec l'utilisation d'un format d'échange de données ouvert tel que IFC (Industry Foundation Classes), extraire les données du BIM n'est toujours pas une tâche facile. Cette recherche se concentre sur la définition d'un schéma et de règles de transformation pour amener les données BIM sous une forme facilement interrogeable. Le schéma est défini à l'aide d'une structure de base de données relationnelle populaire suivant un modèle de schéma en étoile bien défini dans le domaine de l'entrepôt de données. L'objectif principal du concept est de permettre des requêtes flexibles et efficaces dans les données BIM à l'aide de SQL standard qui supprime les restrictions sur les requêtes prédéfinies, transformant efficacement les données BIM en une base de données ouverte et interrogeable. Une autre contribution majeure de cette recherche est le potentiel important de prise en charge des requêtes spatiales. Il s'agit d'une caractéristique critique souvent négligée dans l'approche actuelle des bases de données BIM. Cet article présente l'intégration d'opérations spatiales dans des requêtes SQL standardisées, rendant les données BIM accessibles pour un large éventail de capacités de requête. Une telle fonctionnalité permettra une bien meilleure visibilité sur les données BIM pour de meilleurs processus de prise de décision.


Aide d'ArcMap 10.1 - Extraction de données

Désolé si ma terminologie est incorrecte, je commence tout juste à apprendre ce programme.

J'ai plusieurs points sur une carte autour desquels j'ai créé une zone tampon de 4 km de diamètre. La carte est un raster avec une résolution de 1 km (de http://www.worldclim.org/) et j'ai besoin d'extraire des données de la carte. Fondamentalement, ce que je veux faire, c'est prendre les valeurs (température, par exemple) associées à chaque pixel de 1 km carré avec lequel mon tampon chevauche, et l'exporter en tant que fichier .dbf afin que je puisse l'ouvrir dans Excel et faire une analyse plus approfondie. Je n'arrive pas à trouver un moyen de le faire, cependant.

Toute aide serait grandement appréciée! Merci!

Étant donné que votre tampon est probablement un fichier vectoriel, vous pouvez convertir votre raster en un fichier de points, puis effectuer une requête spatiale demandant quels points sont contenus dans le tampon, exporter votre sélection en tant que nouveau calque, puis exporter votre dbf à partir de celui-ci. Je suis sûr que quelqu'un a un meilleur moyen cependant.

Je vais essayer ça. Mes principales préoccupations sont : 1) le raster est un fichier assez volumineux et sa conversion prendra un certain temps (j'imagine), ce qui n'est pas un gros problème, je suppose, mais 2) la sortie de conversion sera-t-elle d'un point par km carré ? Si c'est le cas, je ne pourrai sélectionner que les points qui se trouvent à l'intérieur de mon tampon, et non ceux dont le pixel de 1 km carré chevauche le tampon, mais dont le point ne le fait pas (c'est une phrase alambiquée, j'espère que vous attraperez mon sens).

Si vous débutez avec ArcGIS, sachez qu'il existe de nombreuses façons différentes d'arriver là où vous allez.

Si je vous comprends bien, votre objectif ultime est d'avoir une base de données qui contient la température pour chaque pixel qui se trouve à moins de 4k de certains points fixes et que vous avez déjà ces points fixes sous forme de fichier de formes ainsi qu'un raster de résolution de 1 km. Je suppose qu'ils sont dans la même projection (sinon, reprojetez ces points dans la même projection que le raster).

J'aborderais ce problème comme ceci :

Utilisation d'ArcGIS avec l'extension Spatial Analyst

En utilisant les points, je créerais un tampon de 4 km (Analysis Tools>Proximity>Buffer)

J'utiliserais ce tampon pour extraire uniquement les pixels du raster que je souhaite analyser (Spatial Analyst Tools>Extraction>Extract by Mask)

Je convertirais ensuite les pixels en points (Outils de conversion>From Raster>>Raster en points) (Assurez-vous que la valeur raster souhaitée est affectée à la sortie du champ)

Si les points n'ont pas de latitude/longueur ou X/Y (désolé, je le fais de mémoire), continuez et ajoutez deux colonnes (clic droit sur les points et ouvrez la table attributaire, dans la première liste déroulante de la table, sélectionnez Ajouter un champ, assurez-vous de faites-les Doubles, étiquetez-les Xcord & Ycord (ou Lat & Long. Ensuite, sélectionnez la colonne en cliquant avec le bouton droit sur l'en-tête >Calculate Geometry, choisissez la coordonnée X et la projection et l'unité appropriées.

Accédez au dossier dans lequel vous avez enregistré ce fichier de formes de points, ouvrez le fichier de formes de points (l'extension .dbf) avec Excel, enregistrez-le en tant que fichier Excel.

Cela devrait vous donner une base de données avec les températures au centroïde de chaque pixel de 1 km à moins de 4 km des points, ainsi que les coordonnées pour l'identification/l'analyse.

Problèmes avec cette méthode - certains pixels auront des portions qui se situent dans la plage de 4 km mais ne seront pas inclus car l'extraction du masque ne prend que les pixels qui sont plus de 50 à l'intérieur du tampon. Si vous décidez que vous avez également besoin de ces données, vous pouvez procéder comme suit, bien que cela vous oblige à prendre vos propres décisions quant à ce qui doit être inclus.

Utilisation d'ArcGIS avec l'extension Spatial Analyst

En utilisant les points, je créerais un tampon de 4 km et un tampon de 5 km (Analysis Tools>Proximity>Buffer)

J'utiliserais ce tampon de 5 km pour extraire uniquement les pixels du raster que je souhaite analyser (Spatial Analyst Tools>Extraction>Extract by Mask)

Je convertirais ensuite les pixels en points (Outils de conversion>From Raster>>Raster en points) (Assurez-vous que la valeur raster souhaitée est affectée à la sortie du champ)

Commencez à éditer le fichier de points (clic droit sur le fichier de points>Edit>Edit Features)

Sélectionnez tous les points que vous souhaitez conserver

Sélectionnez tous les points dans la plage de 4 km (à partir de la barre d'outils de l'en-tête Sélection>Sélectionner par emplacement>Sélection des fonctionnalités de "ce que vous avez nommé les points" qui se trouvent dans "ce que vous avez nommé le tampon de 4 km">ok) tous les centroïdes seront mis en surbrillance (en cyan, très probablement)

Examinez les points restants (ceux situés entre les bandes de 5 km et 4 km - s'il s'agit d'un point qui, selon vous, devrait être inclus [b/c le pixel raster est dans la bande de 4 km, même si le centroïde ne l'est pas] sélectionnez-le également (En maintenant la touche Maj enfoncée pendant que vous cliquez sur ce point)

Lorsque tous les points appropriés sont sélectionnés, cliquez avec le bouton droit sur les points de Cat. Tree>open table attributaire. Sélectionnez l'icône Changer (maintenant, tous ceux que vous souhaitez conserver ne sont pas sélectionnés et tous ceux dont vous souhaitez vous débarrasser sont surlignés, probablement en cyan). Supprimer (ou faites un clic droit sur une ligne en surbrillance et choisissez Supprimer la sélection (je pense). Cela supprimera tous les points de 5 km que vous ne voulez pas dans votre zone d'étude.

Fermez la fenêtre contextuelle du tableau et accédez à la liste déroulante de la barre d'outils d'édition et sélectionnez Enregistrer les modifications, arrêter l'édition.

Si les points n'ont pas de latitude/longueur ou X/Y (désolé, je le fais de mémoire), allez-y et ajoutez deux colonnes (clic droit sur les points et ouvrez la table attributaire, dans la première liste déroulante de la table, sélectionnez Ajouter un champ, assurez-vous de faites-les Doubles, étiquetez-les Xcord & Ycord (ou Lat & Long. Ensuite, sélectionnez la colonne en cliquant avec le bouton droit sur l'en-tête >Calculer la géométrie, choisissez la coordonnée X et la projection et l'unité appropriées.

Accédez au dossier dans lequel vous avez enregistré ce fichier de formes de points, ouvrez le fichier de formes de points (l'extension .dbf) avec Excel, enregistrez-le en tant que fichier Excel.

Et voilà. Cela suppose que j'ai bien compris la demande - alors il y a quelques options sur la façon de l'aborder, mais comme je l'ai dit, il y a beaucoup de façons différentes d'arriver là où vous allez…

Si ce n'est pas ce que vous recherchez, j'espère que certains de ces petits outils vous aideront tout au long de votre chemin.


La requête spatiale par ESRI ST_Geometry prend trop de temps - Systèmes d'Information Géographique

Dans une grille, chaque pixel a une caractéristique qui lui est attachée. Il peut s'agir d'un code mais aussi d'un numéro, comme par exemple le niveau d'eau ou le niveau topographique. Une fois les grilles comparées au même endroit, il devient simple de faire des calculs entre les grilles.

Regardons un exemple. La figure 14.1 présente une coupe transversale des plaines inondables de Pais Pesca, la ligne marron représentant la topographie du terrain et la ligne bleue le niveau de l'eau.

FIGURE 14.1
Coupe transversale de la plaine inondable de Pais Pesca

Dans la coupe transversale, la ligne bleue est un tracé de surface généré pour les niveaux d'eau (comme celui que vous avez fait précédemment) et vous voyez immédiatement qu'il y a de l'eau aux endroits où le niveau topo (ligne marron) est inférieur au tracé de surface . Pour faire une carte des inondations, c'est-à-dire l'étendue réelle des inondations, vous avez besoin de la grille de niveau d'eau générée et d'une grille représentant la topographie des plaines inondables.

Les deux fichiers de grille ont des valeurs attachées à chaque pixel. Cela nous permet de calculer la profondeur de l'eau à chaque emplacement présenté par un pixel en soustrayant simplement la valeur du niveau topo du niveau de l'eau.

Profondeur d'eau = Niveau d'eau-Niveau Topo

Un exemple de ce calcul est présenté dans le tableau 14.1, et il est clair qu'une fois que la valeur de la profondeur d'eau devient négative, la zone est sèche.

TABLEAU 14.1
Exemple de calcul de profondeur d'eau dans la plaine inondable de Pais Pesca

Niveau d'eau
(cm au dessus du niveau de la mer)

Niveau topo
(cm au dessus du niveau de la mer)

La même procédure, mais maintenant dans ArcView :

1. Démarrez ArcView, ouvrez un nouveau projet et une nouvelle vue. Ajoutez les thèmes ‘Pais_Pesca_country.shp’, ‘Flood_districts.shp’, ‘Flood_district_topo.shp’ et ‘Flood_levels.shp’ du dossier 㢰_Calc_with_grids’. Projetez la vue (via la barre de menu : V ue/Propriétés. /Projection. , ‘Egal surface cylindrique’), et définissez les unités de distance en mètres.

2. Créez d'abord une carte topographique des districts de plaine inondable concernés : d'abord, vous souhaitez créer une grille du thème ‘Flood districts.shp’ ( T hème/Convertir en grille. Nom de la grille : ‘Mask’, Sortie Extension de la grille Identique à la vue, taille de cellule 100 mètres), définissez cette grille comme masque dans les propriétés d'analyse, et seulement après cela, interpolez les niveaux topo.

3. Activez le thème ‘Flood_district_topo.shp’, accédez via la barre de menu à S urface/I nterpolate Grid. (extension de la grille de sortie : identique à la vue, taille de la cellule 100 mètres, méthode : IDW, champ de valeur Z : qu'en pensez-vous ? [16] ). Cette interpolation peut prendre beaucoup de temps. Enregistrez la grille sous le nom ‘Floodtopo’ dans un dossier de votre choix. Après l'interpolation, vous pouvez charger la légende qui a été faite pour cette grille (‘Topo.avl’). Si vous ne vous souvenez pas comment charger une légende, veuillez consulter l'astuce à la page 53.

FIGURE 14.2
Le niveau topographique des quartiers concernés

Si l'interpolation prend trop de temps, vous pouvez arrêter le processus et charger la grille interpolée. (À partir du dossier 㢰_Calc_with_grids’, Type de source de données : Source de données de grille, ‘floodtopo’. Si vous ne pouvez pas ajouter la grille à votre vue et que vous êtes sûr que la grille se trouve dans un certain sous-dossier, vérifiez si le chemin d'accès à ce sous-dossier suit la convention de nommage d'ArcView (voir les remarques sur la convention de nommage à la page 52, il se peut que quelque part dans le chemin d'accès à votre fichier il y ait un espace, ou un nom qui soit plus long que 13 caractères. Après avoir ajouté la grille, chargez la légende [dans l'éditeur de légende] : ‘topo.avl’).Les résultats de vos efforts devraient ressembler à la figure 14.2.

L'interpolation précédente prenait tellement de temps, car ArcView devait calculer le niveau d'eau pour chaque cellule de la vue (3 767 cellules par 3 983 cellules, soit un total de 15 003 961 cellules !). Le temps de calcul peut être réduit lorsque vous réduisez le nombre de cellules à calculer. Vous pouvez le faire en augmentant la taille de la cellule. Si vous augmentez la taille de la cellule de 100 à 1 000, le nombre de cellules diminue à (377 * 398) = 150 046 cellules. Ce faisant, la grille que vous créez aura une résolution assez faible, avec laquelle il est difficile de faire une analyse significative. Une autre façon de réduire le nombre de cellules à calculer et de conserver la même résolution (CellSize : 100) consiste à zoomer sur la zone où vous souhaitez effectuer le calcul et à définir l'étendue de la grille de sortie ‘Identique à l'affichage& #146. Si vous faites cela, vous devez faire particulièrement attention à inclure toute la zone avec laquelle vous souhaitez effectuer le calcul, sinon votre calcul ne vaut rien et vous devrez le refaire.

Maintenant, vous devez faire une grille avec les niveaux d'eau en octobre. Consultez le tableau des attributs du Thème ‘Flood_levels.shp’. Vous verrez qu'il y a deux niveaux d'eau par enregistrement, le niveau d'eau d'octobre et de juin, pour l'instant vous allez faire la grille avec le niveau d'eau d'octobre.

4. Assurez-vous que vous avez toujours le masque défini (dans la barre de menu : A nalysis/Propriétés. ) (cela devrait être ‘Mask’, la grille que vous avez faite précédemment à 3. de ‘flood_district_topo.shp’) . Activez le thème ‘Flood_levels.shp’. Allez via la barre de menu jusqu'à S urface/ I nterpolate Grid. (Output Grid Extend : Identique à la vue [si l'interpolation précédente a pris beaucoup de temps, vous pouvez réduire cette durée en zoomant sur ‘Flood_levels.shp’ et en étendant la grille de sortie : Identique à l'affichage], Taille de la cellule 100 mètres , Méthode : IDW, Champ de valeur Z : qu'en pensez-vous ? [17] ). De plus, cela peut prendre beaucoup de temps, et aussi pour cette interpolation, le résultat est déjà dans le dossier si vous ne pouvez pas attendre que l'interpolation ait lieu (‘Watersurf’, légende : ‘Water_levels.avl’).

Si vous avez vous-même interpolé la grille, vous pouvez enregistrer cette grille sous le nom ‘Watersurf’ (barre de menu : T heme/Save Data Set. ) dans un dossier de votre choix, et changer le nom de ce Thème en Watersurf (Thème/ Propriétés. ). Ce n'est que si vous modifiez le nom du Thème (via la barre de menu : T hème/ Propriétés. , Nom du thème :) que ce nom apparaîtra dans la Table des matières (sur le côté gauche de la Vue).

Pourquoi ne voyez-vous pas un niveau d'eau dans la rivière et le grand lac au centre des zones inondables ? [18]

Vous avez maintenant les deux grilles ‘Watersurf’ et ‘Floodtopo’ de la même zone dans votre vue, toutes deux avec les mêmes dimensions de grille de 100 mètres. Calculez la profondeur d'eau dans la plaine inondable avec la formule : Profondeur d'eau = Niveau d'eau - Niveau Topo.

1. Accédez à Analyse/Calculatrice de carte. via la barre de menu (Figure 14.3). La fenêtre Calcul de carte s'ouvre (Figure 14.4).

FIGURE 14.3
Ouvrir le menu de calcul de carte

FIGURE 14.4
Calcul de la profondeur de l'eau dans la plaine inondable

2. Dans la fenêtre, vous voyez les noms des grilles [Watersurf], [Floodtopo], [Mask] et [Mask.count]. Le calcul que vous devez effectuer sera avec les deux premiers. Entrez simplement la formule en double-cliquant sur [Watersurf], puis sur ‘-’, puis en double-cliquant sur [Floodtopo]. Cliquez sur Évaluer pour lancer le calcul et fermez la fenêtre Calcul de la carte une fois que les résultats s'affichent en tant que Thème ‘Calcul de la carte 1’. Enregistrez ce thème [19] sous le nom ‘Fldepth’, avant de modifier quoi que ce soit d'autre. (Thème/Ensemble de données de sauvegarde. ).

3. Refaire la légende de ‘Fldepth’ de telle sorte que l'eau devienne divers gradients de bleu et la terre sèche devienne un grade de vert (Figure 14.5). Vous verrez que ce dernier n'est pas facile, car vous devez penser en valeurs négatives. Il est plus facile de changer le calcul en Profondeur d'eau = Floodtopo-Watersurf. Refaire le calcul, mais maintenant d'abord [Floodtopo]. Les valeurs positives signifient la terre ferme, tandis que les valeurs négatives correspondent à la profondeur de l'eau (Figure 14.6). Enregistrez ce thème sous le nom ‘fldepth2’.

FIGURE 14.5
Plan d'inondation de Pais Pesca

FIGURE 14.6
Floodmap de Pais Pesca, calcul inversé

4. Vous pouvez enregistrer le projet sous : ‘Pais Pesca floodmap.apr’ dans un dossier de votre choix.

Lors du calcul ou de la manipulation de la grille, vous pouvez obtenir le message suivant :

Cela signifie que vous avez supprimé les fichiers de grille du répertoire de travail. NE JAMAIS FAIRE CELA ! Utilisez toujours Gérer les sources de données dans le menu Fichier (via Fichier/Gérer les sources de données. dans la barre de menu, Figure 14.7). Si vous sélectionnez cette option, la fenêtre du gestionnaire de sources s'ouvrira (Figure 14.8) et vous pourrez ici copier, déplacer ou supprimer des grilles.

FIGURE 14.7
Démarrage du gestionnaire de sources de données

FIGURE 14.8
Le gestionnaire de sources

14.2. Reclassement

Le calcul de la profondeur d'eau donne un grand nombre de profondeurs d'eau différentes dans la plaine inondable de Pais Pesca. Cependant, dans certains calculs, nous ne sommes pas intéressés par la profondeur de l'eau mais seulement si une certaine zone est inondée ou non. Travailler avec tous les différents niveaux d'eau rend les calculs supplémentaires inutilement fastidieux. Un moyen simple de surmonter ce problème est de reclasser les données, c'est-à-dire de donner une valeur spécifique à tous les pixels représentant une zone sèche (0) et une autre valeur spécifique (1) à tous les pixels inondés.

1. Continuez là où vous vous êtes arrêté avec l'exercice précédent ou ouvrez le projet que vous avez enregistré : ‘Pais Pesca Floodmap.apr’.

2. Activez le thème ‘Fldepth’.

3. Allez dans A nalyse/ Reclassifier. via la barre de menu (Figure 14.9), la fenêtre Reclassifier les valeurs apparaîtra. Pour le classement en sec et inondé nous n'avons évidemment besoin que de deux classes (sec et inondé).

4. Cliquez sur Classer. et sélectionnez 2 classes dans la fenêtre Classification (Figure 14.10) et cliquez sur OK .

5. La fenêtre Reclassifier les valeurs apparaît à nouveau, maintenant avec deux classes. Toutes les valeurs négatives que nous avons calculées sont des zones sèches, vous utilisez donc les valeurs -200 à 0 pour les terres sèches et les valeurs 0 à 200 pour les terres inondées. Cliquez sur OK et la nouvelle carte apparaîtra (Figure 14.11).

FIGURE 14.9
Ouverture de la fenêtre de reclassement

FIGURE 14.10
Sélection de deux classes à reclasser

6. Donnez un nouveau nom au fichier, arrangez la légende (en double-cliquant sur le thème, ou en allant dans Thème/Modifier la légende via la barre de menu). Si vous avez oublié comment organiser une légende, veuillez consulter Affichages graphiques dans la vue Carte, à la page 15.

7. Créez une carte des crues de juin (Figure 14.12) et enregistrez à nouveau le projet.

FIGURE 14.11
La nouvelle carte des crues de Pais Pesca d'octobre

FIGURE 14.12
Carte des crues de juin

14.3. Interrogation

Dans une requête, vous essayez de trouver des emplacements ou des zones sur une carte qui répondent à certains critères. Cela peut être fait avec deux critères en utilisant deux thèmes SIG, mais cela peut aussi être une requête plus compliquée utilisant un grand nombre de thèmes.

Trouvez toutes les zones avec un niveau de salinité de 15 ppt et l'élevage de crevettes comme culture principale. Pour cela, deux thèmes SIG sont nécessaires, à savoir la salinité et les élevages de crevettes.

Trouvez toutes les zones avec des sols alluviaux, des précipitations moyennes et le riz comme culture principale. Ici, trois thèmes sont nécessaires, à savoir la carte des sols, la carte des précipitations et la carte de l'utilisation des terres.

Trouvez tous les villages avec plus de 50 pour cent de pêcheurs, plus de 50 pour cent de ménages hindous, le revenu moyen de ces ménages inférieur à 150 $/an et la pêche en rivière. Quatre thèmes SIG sont nécessaires pour cette requête, à savoir la profession, le revenu, la religion et la zone de capture.

14.3.1. Élevage de crevettes dans les zones côtières de Pais Pesca

Dans les provinces côtières de Pais Pesca, l'élevage de crevettes s'est rapidement développé, passant de 8 000 ha en 1992 à 86 000 ha en 2001. Le système appliqué [20] est extensif avec de faibles densités de post-larves, principalement obtenues dans la nature. Le système est une alternance de riz aux crevettes, avec du riz pluvial pendant la saison humide et une récolte de crevettes pendant la saison sèche. Les rendements moyens de crevettes sont de l'ordre de 200-400 kg/ha/culture. Cependant, l'expansion de l'élevage de crevettes n'était pas planifiée et trois problèmes majeurs se sont développés au fil du temps :

Au milieu des années 1990, les premiers gros problèmes avec le virus Monodon baculo (MBV) sont arrivés, suivis d'une grave épidémie de maladie des points blancs en 1998, qui a presque complètement anéanti la production de crevettes.

En outre, en raison de l'expansion et de l'intensification de l'élevage de crevettes, un grave conflit s'est développé entre les grands éleveurs de crevettes et les producteurs de paddy. Cela s'est produit lorsque les éleveurs de crevettes ont essayé de cultiver deux cultures et, par conséquent, l'élevage de crevettes s'est prolongé jusqu'à la saison des pluies, ce qui a entraîné une intrusion de sel entravant sérieusement la culture du riz dans la même zone.

L'élevage de crevettes a empiété sur la forêt de mangrove, la principale réserve de biosphère de Pais Pesca. Des étangs à crevettes ont été construits dans des sols sulfatés acides dans la zone de mangrove, ce qui a entraîné une grave acidification des eaux de surface au début de la saison des pluies.

En 2000, le Département des pêches a mené une vaste enquête dans la zone côtière et a recueilli les informations suivantes :

Emplacement et taille des élevages de crevettes

Vous effectuerez une analyse dans le SIG pour démontrer comment les grilles et l'interrogation de différentes grilles peuvent être utilisées pour soutenir les options de gestion pour l'élevage de crevettes à Pais Pesca.

Le ministère de l'Agriculture a recommandé de réduire le nombre d'élevages de crevettes dans les zones agricoles de la ceinture côtière, c'est-à-dire les zones à faible salinité des eaux de surface (5 ppt) en saison sèche où le paddy peut être transplanté au début de la saison des pluies. Il a donc demandé au Département des pêches de donner une indication des conséquences de cette stratégie.

1. Ouvrez ArcView, Nouveau projet, Nouvelle vue.

2. Définissez le répertoire de travail sur un répertoire de votre choix (par exemple : C:FAO_GISTemp), la projection de la vue sur ‘Equal-Area Cylindrical’ et les unités de distance et de carte en mètres.

3. Ajoutez les thèmes suivants du dossier 㢱_Querying_shrimp’ à la vue : ‘Pais Pesca country.shp’, ‘Shrimpfarms.shp’, ‘shrimp yields.shp’ (tous étant des sources de données d'entités ), et la source de données Grid ‘Salgrid’. Le dossier contient également une légende pour la grille de salinité (‘Salgrid’) à utiliser si vous le souhaitez.

Salgrid est la même grille que celle que vous avez créée dans l'exercice de la page 58. ‘Shrimpfarms.shp’ est un fichier polygonal de toutes les fermes de crevettes de la zone côtière de Pais Pesca. ‘Shrimp yield.shp’ un fichier de points contenant l'emplacement de chaque ferme, ses rendements moyens et d'autres données. ‘Pais pesca country.shp’ est un fichier polygone contenant le contour du pays.

4. Vous voulez d'abord savoir combien d'étangs à crevettes sont situés dans la zone à faible salinité. Vous pouvez le faire avec une requête entre deux grilles. Vous devez donc d'abord convertir le fichier ‘Shrimpfarms.shp’ en grille. Vous souhaitez travailler en hectares, vous choisissez donc une grille de sortie CellSize de 100 m (d'où une surface de 100 m sur 100 m = 1 hectare). Utilisez le champ ‘Id’ pour les valeurs des cellules et n'oubliez pas de renommer la grille en ‘crevettes’. Pour éviter que ce calcul ne prenne trop de temps, vous pouvez effectuer un zoom avant sur les fermes de crevettes et effectuer l'interpolation avec l'étendue de la grille de sortie : identique à l'affichage.

Vous devez interroger cette grille de crevettes avec la grille de salinité et utiliser comme critères de sélection : étangs à crevettes = vrai, ([Shrimps] = 1.AsGrid) et salinité <= 5 ([Salgrid] <= 5) . En d'autres termes : de tous les spots du Thème crevette où il y a une ferme présente (ou égale à la valeur souhaitée des pixels, dans ce cas 1, car il n'y a pas d'autre valeur), trouvez les spots où la salinité (sur le thème salgrid) est égal ou inférieur à 5 ppt.

5. Accédez à Analyse/Requête cartographique. via la barre de menu (Figure 14.13).

FIGURE 14.13
Ouvrir une requête de carte

6. La fenêtre de requête de carte apparaîtra et vous devrez mettre les critères de sélection dans la fenêtre : ([Shrimps] = 1.AsGrid) et ([Salgrid] <= 5) . Vous pouvez le faire de plusieurs manières : Vous pouvez taper cette phrase dans la fenêtre inférieure, ou vous pouvez sélectionner les arguments dans la partie supérieure de la fenêtre Map Query D'abord vous double-cliquez sur [Shrimps], puis vous cliquez sur ‘= ‘, puis vous cliquez sur ֫’. Lorsque vous avez cliqué sur ֫’ vous voyez apparaître dans la ligne de requête : ֫.AsGrid’. C'est normal, mais vous pouvez également utiliser un numéro que vous avez entré vous-même (comme ֫’) qui fonctionnera également. Cliquez ensuite sur ‘et’ au milieu de la fenêtre de requête de carte, après quoi vous double-cliquez sur [Salgrid], ‘<=‘, et tapez ֯’. Vous ne pouvez pas sélectionner ֯’ dans la partie valeurs, vous devez donc saisir cette valeur. (Illustration 14.14). Cliquez sur Évaluer.

FIGURE 14.14
Sélection des critères de la requête

FIGURE 14.15
Résultats de l'interrogation des fermes de crevettes et de la salinité

7. La requête s'exécutera et après un certain temps, les résultats de la requête, qui s'appelle ‘Map Query 1’, apparaîtront dans la vue (Figure 14.15). Fermez d'abord la fenêtre Map Query 1, puis n'oubliez pas d'enregistrer cette requête sous le nom ‘SHRSAL5’ [21] ( Theme/Sa v e Dataset. ). Si vous ouvrez la table attributaire Thème de la grille, vous verrez qu'il y a environ 14 800 pixels d'étang à crevettes, ce qui signifie que 14 800 ha d'étangs à crevettes sont situés dans la zone de faible salinité. Nous avons converti le fichier de formes d'origine en une grille avec une taille de cellule de 100 mètres sur 100 mètres, soit 1 hectare. Si le nombre diffère considérablement de 14 800, vous devez vérifier la projection de la vue pour vous assurer qu'elle est cylindrique à aire égale.

8. Pour obtenir une image plus claire, vous voulez également savoir combien de fermes sont situées dans les autres zones et nous faisons la requête Fermes de crevettes oui et 5> salinité<=10 . En d'autres termes, trouvez les fermes de crevettes qui sont situées dans des zones où la salinité est supérieure à 5 ppt et inférieure ou égale à 10 ppt (Figure 14.16).

FIGURE 14.16
Interrogation avec deux grilles et trois critères

9. Remplissez le tableau 14.2 :

TABLEAU 14.2
Salinité et nombre d'élevages de crevettes

Vous voyez que plus de 50 pour cent des fermes sont situées dans la zone de salinité de 5 à 10 ppt. Mais encore environ 15 000 ha sont situés dans la zone de faible salinité et la question est de savoir si vous pouvez obtenir plus d'informations sur l'état du système agricole dans cette zone avant de décider de les fermer. Pour cela, il faut regarder les rendements des fermes. L'emplacement et les rendements des fermes individuelles sont disponibles dans le thème ‘Shrimp yields.shp’. Il s'agit d'un fichier de formes de points, vous pouvez donc l'utiliser pour générer une grille pour les rendements.

10. Faites une grille de surface des rendements (par interpolation, barre de menu : S urface/ Grille d'interpolation. ), Taille de la grille de sortie 100 mètres, avec la grille Crevettes définie comme masque. N'oubliez pas que cela peut prendre un certain temps ! (Pour réduire le temps, effectuez un zoom avant sur le thème ‘Shrimp yield.shp’ et définissez l'étendue de la grille de sortie : identique à l'affichage). Une fois l'interpolation terminée, vous pouvez charger une légende pour cette grille nommée ‘shrimp_yield_grid.avl’ (dans le dossier 13_Querying_shrimp).

Si vous le faites correctement, vous obtiendrez une grille comme celle présentée à la Figure 14.17.

FIGURE 14.17
Rendement de l'élevage de crevettes dans les différentes zones de salinité de Pais Pesca

Les résultats changent quelque peu le tableau. On voit des rendements (bleu) d'environ 150-250 kg/ha/culture dans le nord-est dans la zone de salinité de 0-3 ppt. Dans les zones de 3-12 ppt les rendements sont de l'ordre de 250-450 kg/ha/culture (bleu clair à rouge) et dans le sud on observe soudain des rendements très faibles (bleu foncé) de 100-150 kg/ha/ récolte dans des salinités de 12-15 ppt.

Une première conclusion pourrait être de recommander au Ministère de l'Agriculture de fermer les fermes crevettières dans les zones de salinité de 0-3 ppt. Demandez à nouveau combien d'hectares d'élevages de crevettes seraient fermés avec cette option [22] . Deuxièmement, vous avez trouvé un autre problème dans la zone 12-15 ppt. Les niveaux de salinité sont favorables à la culture de P. monodon, il doit donc y avoir un autre facteur à l'origine de ces très faibles rendements dans la partie sud.

Dans le tableau des thèmes du fichier de formes « Élevages de crevettes » 146, nous avons des données sur les maladies des crevettes et la qualité de l'eau. Avec des requêtes simples de cette table thématique, vous pouvez sélectionner les exploitations avec une ‘occurrence de maladie élevée’, une ‘occurrence de maladie faible’, une ‘mauvaise qualité de l'eau’, une ‘qualité d'eau raisonnable’, etc. ceci (Rappelez-vous : vous devez d'abord convertir le thème ‘shrimpfarms.shp’ en une grille (barre de menu : T hème/Convertir en grille), avec une taille de cellule de 100 mètres, tout en choisissant le champ de conversion approprié , avant de pouvoir l'interroger dans la requête de carte).

Vous constaterez que la faible production dans le sud est liée à ‘une fréquence élevée de maladies’ et une ‘mauvaise qualité de l'eau’. La question est maintenant de savoir quelle est la cause de ce problème.

Ajoutez le thème ‘Mangrove.shp’. Vous pouvez voir que les fermes avec les faibles productions sont principalement situées dans la ceinture de mangrove.

Combien d'hectares d'élevage de crevettes sont situés dans la ceinture de mangrove ?

1. Convertissez le thème ‘Mangrove.shp’ en grille, avec une taille de grille de 100 mètres (vérifiez votre répertoire de travail et votre projection, effectuez un zoom avant sur le thème et effectuez la conversion Étendue de la grille de sortie : identique à l'affichage).

2. Interrogez la grille Mangrove avec la grille de la ferme de crevettes (Figure 14.18), ce qui vous donnera la Figure 14.19.

FIGURE 14.18
Interroger la grille de mangrove avec la grille d'élevage de crevettes

FIGURE 14.19
Fermes de crevettes dans la forêt de mangrove de Pais Pesca

From the Theme table of the Map Query Theme you see that approximately 15 589 pixels are selected with this query, meaning that 15 589 ha of shrimp ponds are constructed in the mangrove belt of Pais Pesca (as one cell is 100 metres by 100 metres). Query further the Mangrove grid with the surface grid of the yields, after which you will get the following distribution (Table 14.3):

TABLE 14.3
Area of shrimp ponds according to average yields in the mangrove belt of Pais Pesca


Additional Useful Functions

There are a couple of other functions in bcdata that are useful to know when working with spatial data from the catalogue. bcdc_describe_feature gives the column names, whether the column is selectable, and the column types in both R and on the remote server:

This is a helpful initial step to learn column names and types when you construct your query.

Another useful function is show_query() which provides information on the request issued to the remote server:


Shared Flashcard Set

definition= "OR" boolean operator. creates new vector layer by placing two polygon layers on top of each other.

input=both layers must be polygon

output layer=always polygon

azimuthal-geometrically projected onto a plane. the point of the projection is at inifinity

used for prospective views of the whole planet

areas, shapes and directions only true at center point

projected onto a cone tangent at two standard parrallels

used to show aregion that is primarily east to west.

Universal transverse mercator

projected on to a cylinder with a 6° width

good for area with mostly a north to south extent

projected on a cylinder tangent to the chosen meridian

distances only true along the central meridian

distortions increase with distance from central meridian

a document or table that describes info about the data set

Position dilution of precision

-angles of the satelites (satelites require a 60º spread between them)

-obscured satelites(deep canyons, cliffs, tall buildings)

-recalibration of satelites

-multibeam (issues due to ionosphere disruptions)

uncorrected(single antennae, hand held GPS)

distance are only true along the equator

distortion increses with distance from equator

perimiter and ares of polygons as well as adjacency of polygons

used for spatial analysis by linking with attributes and locations

handeled differently in raster and vector

not a perfect correlation for measuring randomness

used for calculating distribution patterns

features on a continuous surface

combining lots of data layers

sopphisticated spatial modelling

where either of two polygons exist but not both

spatial relationships in a network (ie roads)

lots of attribute for each area

large spatial data queries

high quality detailed maps

based on the average distance between adjacent points

where either question occurs

data has only two possible values

use DEM (digital elevation model)

rise=the max difference between the cells z value and the z values if the 8 closest neighboring cells

geodetic-aligns spheroid to fit particular area

Geocentric-uses earths ceter of mass as the origin

not uniform units of distance

cant get accurate distances areas or directions between points

defined for locations with a 3-D sphere

referenced in lattitude and longitude

-points have zero dimensions so they cant realistically be portrayed in raster

-lines are 1 dimensional so they cant be accurately shown either

-small features can be lost or be hard to depict

-not usefulf for measuring perimiter

mathmatical model that describes the shape of the earth

different datums for different parts of the earth

geographic coordinate systems, locating data on a spherical surface(lats and longs)

projected coordinate systems, locating data on on to a flat surface (measured in meters)

-no spatial data only used to dsiplay info

only include features that the map maker decided to include

typically only shows one point in time

might only cover a limited area

a picture of all or part of the earth

shows where things are locted in relation to eachother

only shows part of what exists on earth at any one time

sends out a signal and times the response then uses this to create an image

uses ambient energy to create an image.

electromagnetic radiation is the most common form of energy used for this method

uses eye safe lazer of light to creat an image in a terestrial environment

-Lazer scanning and cooling system

-inertial navigation system

creates massive data sets

high speed autonmous post processing

-cancel out reduntant information

-create a new data layer that highlights certain features

-exagerate differences in a new layer

TOPOLOGY STORED =Perimeter and area of p olygons. Adjacency of polygons

for every polygon in GIS there will be information stored about which lines make it up and which polygons are next to each other (called contiguity)

affected by depth shorter wave lengths (blue) penetrat deeper than longer wave lengths (Red)

Turbidity- turbid water will scatter incident light and result in false bottom images


Efficient Processing of Spatial Group Keyword Queries

Efficient Processing of Spatial Group Keyword Queries XIN CAO, Queen's University Belfast GAO CONG and TAO GUO, Nanyang Technological University CHRISTIAN S. JENSEN, Aalborg University BENG CHIN OOI, National University of Singapore With the proliferation of geo-positioning and geo-tagging techniques, spatio-textual objects that possess both a geographical location and a textual description are gaining in prevalence, and spatial keyword queries that exploit both location and textual description are gaining in prominence. However, the queries studied so far generally focus on finding individual objects that each satisfy a query rather than finding groups of objects where the objects in a group together satisfy a query. We define the problem of retrieving a group of spatio-textual objects such that the group's keywords cover the query's keywords and such that the objects are nearest to the query location and have the smallest interobject distances. Specifically, we study three instantiations of this problem, all of which are NP-hard. We devise exact solutions as well as approximate solutions with provable approximation bounds to the problems. In addition, we solve the problems of retrieving top-k groups of three instantiations, and study a weighted version of the problem that incorporates object weights. We present empirical

Journal

ACM Transactions on Database Systems (TODS) &ndash Association for Computing Machinery


Geotracking

“Do you know where your assets are?” Chris Stern, director at Trimble Water, asks water utilities. Infrastructure is constantly being built over, and often there are only hand-drawn sketches available to pinpoint its location. Even in cases where good records are kept, such as Los Angeles, they’re still not digital. “It’s old technology that is inefficient.”

Asset management is a large challenge for customers, due to aging infrastructure and lack of investment. The historical approach held that pipes last 100 years and utilities should adopt a 1% annual replacement rate. Kelly Ball, senior consultant for PSD Software, estimates that cities typically rehab 20% of their manholes a year. But tracking the condition of assets can extend their life because it’s possible to “prolong the life of the system by avoiding events.”

Utilities need an asset registry to manage information about their assets, says Christa Campbell, industry specialist for global water practice at Esri, which she describes as the world leader in mapping and analytics. A geodatabase contains the location and all the information for each asset, including the installation date and type of material. “It should be an authoritative data source that maps assets, contains all relevant information, and helps to identify patterns.”

To remain accurate, a digital record should be updated as changes are made. “You have to know the condition of the assets so you can determine the highest-risk asset,” explains Stern. Therefore, he advises, it’s critical to capture good records.

GIS—a geographic information system for capturing, storing, managing, and analyzing data—can be used as a system of record and a system of engagement, making it easy to share information Campbell says. “Data collection in the field can validate and grow your asset registry, analysis supports activities such as leak detection, and web maps help to share information across your organization and with stakeholders. Management tools allow you to share with the right people, applications help with daily workflows like inspections, while story maps bring your work to life whether it’s about conservation or construction projects.”

Credit: TRIMBLE
Wireless pressure and infrastructure monitoring

TRIMBLE TRACKING
GPS has been used in a variety of industries, but is now providing broader solutions as it supports the life cycle of infrastructure such as pipes, valves, hydrants, and meters—and in wastewater, manholes, pumps, and lift stations.

Trimble’s smart water management software (Trimble Unity 3.8) is a cloud-based, GIS-centric software-as-a-service solution that runs on a mobile app and is suitable for the water, wastewater, stormwater, and environmental water industries. It works with an iPhone and is capable of 1-centimeter accuracy horizontally and vertically.

Furthermore, it enables customers to monitor operations in real time, assess the condition of assets, reduce leakage and non-revenue water, locate and map infrastructure, and track maintenance and repairs. Real-time data helps utilities make better decisions to predict and prevent failures.

Version 3.8 extends the platform’s capabilities to include proactive asset performance monitoring with the integration of Trimble Telog wireless Internet of Things remote monitoring sensors to measure and monitor water, wastewater, and groundwater systems for water pressures, flows, levels, and rainfall volumes. The software provides “layers of value,” says Stern, such as mapping and the condition of the asset, tracking for maintenance and repair, and real-time monitoring. The ability to provide an indication of performance data and the expected condition of the assets is hugely beneficial, allowing utilities to address the challenges associated with aging water infrastructure, leakage, and non-revenue water loss.

Credit: TRIMBLE
The latest technology from Trimble for asset management and mapping uses Mixed Reality technology. This shows high-accuracy Trimble mapping technology displaying buried infrastructure locations below the street based on GIS data.

Information about flow and pressure is important to collect. Spikes in pressure can cause damage to the pipes. A drop in pressure indicates a leak, which can lead to a pipe burst. It’s the same for sewer lines, which have an added environmental issue when overflows occur.

Trimble recently partnered with Aquarius Spectrum to distribute wireless leak detection and monitoring. Sensors on hydrants and valves assist an acoustic leak detection correlator in looking for lost revenue water. Trimble Leak Manager takes you to the area, while Trimble Leak Locator pinpoints the leak. “They work together,” summarizes Stern. Together, they are more precise and accurate, with fewer false positives—and contribute to as much as 18% reduction in water loss. “Utilities lose $12 billion in lost water revenue annually, so this is significant savings.”

Other benefits include reduced cost of repair and construction due to pinpointing the site—a big driver for utilities, Stern says, and improved asset performance, extended life, and reduced risk.

“If a pressure recorder finds a leak but doesn’t see water, and the utility doesn’t use a leak detector, the leak could burst the pipe,” cautions Stern. “That’s expensive. A UCLA campus flood caused by a sewer overflow cost $1 million in liability and fines.”

In addition, the value of water in drought areas is elevated. “They manage water as a valuable resource,” says Stern. Tracking non-revenue water is vitally important. “There’s no excuse not to use technology to be a steward of the environment.”

Unfortunately, too many have found an excuse. Stern says there are more than 3,000 using the technology, but many do so only temporarily for a study or project, rather than for permanent deployment. “They do small-scale studies to fix a problem. It’s a reactive approach: engineering problem-solving.” He calls it “lift and shift” as part of the capital improvement planning process to study the system. “For wastewater, it’s regulated that they must monitor overflows,” he explains, adding that EPA regulations have driven adoption of the latest technology in wastewater, while acceptance lags in water.

Barriers to adoption include lack of awareness adoption resistance by a utility, which Trimble tries to overcome by offering as a hosted service that provides alerts and alarms for the customer and funding. “It’s a challenge to update pipes at a static rate [by age],” notes Stern, “but you can reduce risk, improve performance, and prevent failure through monitoring.”

DATA SHARING
Esri’s analytics and mapping can supply data that provides an overall assessment of the system and its components. Do some areas have a record of leaks? Campbell queries. The same type of pipe? The same age? The same contractor? Corrosive soils?

Proactive planning is better than reacting to a crisis however, disaster preparedness and recovery can also be improved. A tracing tool identifies the asset’s location and then traces the system to determine which lines and valves to shut for maintenance or emergency repair. “It knows which valves are operational,” says Campbell. It can save time and money—drive time, search time with a map (which are often not updated), data entry, etc.

Vital information is shared with the office and the field to assist with disaster preparedness. That’s important because of a trend that sees roughly 60% of utilities staff reaching retirement eligibility within the next five years. “Most utilities function with in-house expertise, but they really need that information in the GIS system where everyone can access it,” explains Campbell. Domestically, GIS is here in a large part of the market, Campbell observes, but she is seeing increasing migration to web GIS, which field crews can access.

In addition to sharing information, mobile solutions allow crews to respond and prepare better on the East Coast, that might be hurricanes, Campbell says. Before the emergency, the system allows the authorities to manage road closures and sandbags. During the situation, it can alert to road closures and flooding, and after the crisis, it can collect damage data for funding and aid. “It helps with budgeting,” says Campbell, pointing out that utilities are often “strapped for cash.”

Credit: BENTLEY
A map of critical assets

CASE STUDY
Located on the Pacific Ring of Fire, the Philippines experience frequent earthquakes, volcanic eruptions, and typhoons that cause catastrophic losses. Manila Water Company Inc., in National Capital Region, Rizal Province, Philippines, prepared a Natural Calamity Risk Resiliency and Mitigation Masterplan to ensure that there is a reliable water supply in the event of a natural disaster for the service area covering the East Zone of Metro Manila (the National Capital Region) and Rizal Province.

Modeling with WaterGEMS illustrated what would happen if one or more interconnected supply systems shut down and which facilities would cause the most losses if they were operating at less than full capacity. The results helped Manila Water prioritize resiliency measures and contingency plans for more than 100 facilities to ensure that there is a reliable water supply during calamities. Estimates based on the simulations reduced the cost to restore reliable water service by $380 million, compared with $520 million without these measures.

Manila Water operates the concession to provide water treatment, water distribution, sewage, and sanitation services to the eastern side of Metropolitan Manila, where there are more than six million residential, commercial, and industrial customers. The concession encompasses 24 cities and municipalities in a 1,400-square-kilometer area. Manila Water has a mandate to provide customers with an uninterrupted water supply that complies with national drinking water standards. The masterplan saved $30 million in insurance costs through the end of Manila Water’s concession period.

Its goal is to mitigate the adverse effects of natural disasters on Manila Water customers and maintain reliable water service during natural disasters when it is essential for sanitation, hygiene, and preservation of life. However, the Philippines are threatened by an average of 20 typhoons every year, with 10 making landfall and five reaching superstorm proportions. In 2009, the deadliest season in decades, Typhoon Ketsana left more than 670 dead and caused $237 million in damages.

The country also suffers at least one destructive earthquake each year. When the magnitude 7.6 Samar earthquake struck in 2012, it displaced more than one million people and destroyed extensive infrastructure, leaving critical facilities inoperable, and disrupting water service. Government hazard assessments predict that the next catastrophic earthquake could cause as many as 34,000 fatalities and disrupt access to drinking water for months.

Credit: BENTLEY
WaterGEMS system analysis and design software

To assess preparedness for such a calamity, Manila Water conducted a Resiliency and Business Interruption study to determine which of its facilities would be the most vulnerable. The RBI study confirmed that the utility would suffer significant damage to dams, water transmission and distribution pipelines, treatment plants, reservoirs, pump stations, and other facilities. Initial damage assessments indicated that it would take $520 million to restore service after a calamity.

The utility concluded that it could not afford to lose these critical facilities and that it would take too long to restore them to full operational capacity. The RBI study suggested high-priority facilities that would need to be made more resilient to minimize damage. Lower priority facilities would require contingency plans in case of their loss. The objective was to mitigate the adverse effects of a natural disaster, ensure a reliable water supply during such calamities, and accomplish these objectives for the most economical cost. Savings would not only benefit the private utility and its public partners but also be passed on to customers in the form of lower tariffs.

WaterGEMS, Bentley’s water distribution analysis and design software, was used to build a model and simulate operations of the entire water supply system. The model incorporated data from internal and external sources, including ground elevations, demand loading and patterns, pipe profiles, and other parameters. Manila Water undertook a rigorous process to optimize the masterplan for improving resiliency and mitigating risk at its more than 100 facilities.

Simulating operations under various scenarios revealed the effects of losing one or more components of the water system, illustrating how interconnected systems would react if one or more systems shut down. The what-if scenarios included assessing options for evacuation sites near secure and reliable water supplies, network segmentation, water storage capacities, and other variables. The results allowed Manila Water to identify and prioritize critical facilities with confidence.

The modeling also helped the utility to make contingency plans in case of catastrophic losses. The simulations identified the best locations for underground emergency reservoirs to supply evacuation centers and other population centers if connecting systems were damaged. The masterplan also prioritized facilities whose failure would cause further damage, such as a dam that would cause a catastrophic release of water if it failed.

WaterGEMS produced project cost calculations, supporting documentation, and detailed reports for review. According to final RBI study projections, the WaterGEMS simulations demonstrated that the proposed measures would significantly reduce property damage and business interruption in Metro Manila and Rizal Province. More importantly, the plan would ensure a stable water supply for Manila Water’s customers.

“Mitigation of the adverse effects of a natural calamity is a race against time. Bentley’s WaterGEMS helped Manila Water minimize the amount of its investment while maximizing the resiliency and contingency of its facilities,” says Diogenes Adelbert Voltaire B. Evangelista, water system analysis and planning engineer, Manila Water Company.

Credit: ESRI
A web map displayed in a simple application that shares location data

PUTTING IT ALL TOGETHER
Stormwater monitoring using GIS is common in California for loss prevention and to track leaks. Quarterly certified inspections mandated by the EPA using GIS are conducted in a FOG environment to identify grease traps for violators. Sensors on manholes take readings of surges in flow—or lack of flow—to predict or see problems. A surge can predict a downstream overflow coming. “The software can predict and confirm an event, which can allow the utility to be pre-emptive, particularly for sanitary sewer overflow. They look through GIS at the area to see overflowed manholes, gather data, map to process, and log in to hot spots,” explains Ball.

Managing work operations around storm and surface water is only part of the broad-range solution offered by PSD Software’s HiperWeb. The software can also assist with compliance and permitting. Service lines can integrate with billing, inventory manifest, and distribution and collection lines. The software performs 2,300 processes invisibly. “The software tracks assets, personnel, and scheduling,” elaborates Ball. “It can integrate with data acquisition programs.”

Protocols are based on priority while routing optimizes workflow. “You want to react to an event in the most economic method possible,” notes Ball. “It becomes a function of operation and saves money.”

The life-cycle asset management application predicts the next water pump failure. “This is predictive and conditional through contract award and capitalization of replacement asset,” says Ball.

In addition, it can “normalize” data, Ball says, by working with all utilities to find commonality. “Contractors, crew—water or wastewater or public works—they’re all doing the same thing a different way.” This software provides a single platform for data, eliminating confusion.

Credit: ESRI
A water loss map

PAPERLESS
The trend goes beyond wastewater, says Adam Dinges, COO, Futura Systems Inc. “We eliminate the paper process for regulatory inspections and maintenance. Information is recorded in a native database, but is converted in GIS.”

Field workers are given an iPad that enables them to spatially see the GIS info and routes them to the exact location of the asset with directions for contractors, where they digitally record information, take a picture, and route an action—either to billing or to create a work order.

The importance of GIS tracking is that it stores information on the GIS server relevant to that feature: inspection dates, location, condition, etc. There’s no separate database. Information is shared by the feature everyone has the same data and information to be used for emergencies or maintenance. “It does away with contractor-specific forms,” says Dinges. It also provides more complete data in a standard form, which makes it easier to decipher. Previously, different data was collected by various sites or it was collected in different formats. “Data conversions are time-consuming and costly.” Utilities can choose what to share without exposing all the GIS data, he points out: no confidential information is shared.

The reason it’s important to have consistent data in an easy-to-understand format is to be able to see patterns in the data. Futura’s analytics tool, IQ, does this using historical data. “Maybe repairs are seasonal or in specific areas,” says Dinges. “This allows you to see trends and costs so you can budget.” It also allows you to see the number of repairs that have been performed. It makes the data usable, not just stored.

Dinges says there is a steady migration to GIS tracking. “Utilities are digitizing maintenance and inspection data at a rapid pace.” But he doesn’t see it stopping there. He anticipates widespread acceptance of the web map concept, in which data is posted in real time for utilities, police, medical facilities, and the community. “If a water main breaks, first responders could see the work done, the estimated time, the location, etc.”

That leads to savings of employees’ time and, ultimately, customer dollars. Dinges mentions one utility in Knox County, TN, that saved $150,000 a year in man-hours when they switched to digital backflow inspections. Rather than having to manually send the annual bill to customers for 40,000 water meter inspections, the system automatically sends information directly to the billing department. “It streamlined the process. There’s no storing manual records, no overlap of work.” Thus, fewer employees are needed—saving labor costs.

Customer service also benefits because as data is collected, it creates a history to build a database, which leads to predictive analysis and the ability to make changes accordingly. “You can see trends in the system,” says Dinges. “Who installed it, the type of parts used, which manufacturer’s part is failing…”

Dinges believes it signals a commitment from the utility to meet customer expectations when attention is paid to the quality of the equipment, equipment performance, and customer perception.

Previously, it was possible to see where an asset is, but now, it’s possible to know the asset’s make and other details, including recalls. When assets come from the manufacturer, information such as purchase date, manufacturer, and part number can be digitally input into the GIS database. “It’s the next level of GIS tracking.”

Analysis is the future, according to Campbell, who says that Insights for ArcGIS is the next step in analytics. “You can run it in an enterprise system or in the cloud.” Either way, it allows you to bring in spatial and non-spatial data, such as billing and business intelligence systems. “The strong analytical capabilities allow for on-the-fly comparisons. You can even share with other utilities for regional initiatives. GIS is limitless.”


Title: FASTMap v. 2010.01

FASTMap is mapping application available for the web or on mobile devices (IOS and Android) that browses geospatial data and produces detailed reports of objects within any area of analysis. FASTMap can access any geospatial dataset. The software can provide immediate access to the selected data through a fully symbolized interactive mapping interface. FASTMap can load arbitrary contours that represent a region of interest and can dynamically identify and geospatially select objects that reside within the region. The software can produce a report listing the objects and aggregations for the region, as well as producing publication quality maps. FASTMap also has the ability to post and maintain authored maps, any GIS data included in the map, areas of interest, as well as any titles, and labels. These defining ingredients of a map are called map contexts. These mao contexts can be instantly broadcast via the internet through any of an infinite number of named channels to small or large numbers of users monitouring any of the channels being posted to, so a user can author a map and immediately share that map with others instantly, whether they are on traditional desktop computer, laptop, mobile tablet or smartphone. Further, users receivingmore » broadcast maps can also alter the maps can also alter the maps, or create new ones and publish back to the channel in a collaborative manner. FASTMap can be configured to access virtually any geospatial data. « less


Speakers’ Biographies

Paul Thompson, Director Analytical Services – EMEA, Pitney Bowes Software
Paul has accumulated over 17 years of experience helping businesses harness the power of predictive analytics to grow their business. Working with some of the largest businesses in the world such as Home Depot, Pep Boys, IKEA, T-Mobile, and TJX, Dennys, Hooters, Rogers Communication, BBC, Japan Tobacco, Paul has developed and implemented state of the art real estate market optimisation systems and customer behavioural models that bridge the gaps between real estate and marketing. Paul has recently relocated from Toronto, Canada to head up the predictive analytics practice across EMEA.

Mark Thurstain-Goodwin is the founder and MD of Geofutures Ltd, an independent data, analysis and mapping software business, originally spun out of UCL in 2002. Having built Geofutures’ reputation delivering large-scale GIS projects such as the CLG Town Centres boundaries, property value models for Transport for London and Grosvenor Estates and the CPI spatial sampling model for ONS, Mark led the design of web-delivered mapping and data applications, enabling any organisation to access spatial data insight without software or training investment. The company’s latest innovation, The Knowledge Garden, takes the next step in meeting research and strategic needs by enabling teams to interact with maps, graphics and data and build insight together.

Mark was among the earliest MSc graduates in GIS from UCL’s Centre for Advanced Spatial Analysis, which he undertook following an early career in commercial property analysis. He also holds a Cambridge BA (Hons) in Geography, and remains an honorary fellow at CASA. Contact Mark at [email protected]

Nigel Dodd joined the Telefónica Dynamic Insights team earlier this year after nearly 25 years experience in food retailing with Tesco and Morrisons.

Following a degree in Philosophy, Politics and Economics, he joined the Tesco graduate training programme, performing a number of roles across Property, Marketing and Tesco.com including Director of Insight, Director of Tesco.com Marketing as well as heading up UK Site Research. Nigel joined Morrisons in 2007 as Insight Director, creating Morrisons first Insight department and supporting Marketing as Morrisons successfully made the transition from regional to national brand.

Crawford Davidson, MD in the UK at Telefónica Dynamic Insights , has extensive experience within the industry and has previously driven principal consumer data programmes as Marketing Director at Tesco.com, Tesco Direct and Clubcard in addition to Boots Advantage card.

Gary Powell is the UK Sales Director at Telefónica Dynamic Insights. With years of sales and marketing experience in data analytics companies including Acxiom, Experian, Equifax and Dun & Bradstreet, Gary heads up our sales team looking after our customers.

Ian Abbott, Business Development Manager, MapMechanics
Ian Abbott is a business development manager in the emerging markets team at MapMechanics. He previously worked for MapInfo and Pitney Bowes software for 14 years in a number of roles from support, consulting and presales. He has specialised in the retail and property sectors and has worked closely with many leading organisations ensuring that they have the best software and data for their needs and are able to use them to their full potential. He has a BSc in Geographical Information Systems from Kingston University.

About Blair Freebairn
o Founder and Principal Geolytix – 2011 present
o Global head of analytical data and routing at PB MapInfo – 2011
o Manager of the MapInfo UK predictive analytics (PA) business 2009-2011
o Principal architect and methodologist for EMEA PA 2005-2009
o Modeller working in UK retail 2001-2005
o Head of Site Research at UK largest leisure retailer 1997-2001
o Operational management for leisure retailer 1991-1997
o Over the last ten years have served the site research teams at the majority of the top 25 UK retailers

About GeoLytix
o Founded by Blair Freebairn in 2011 to deliver vendor neutral spatial analytical consulting, development and deployment services
o Sarah Hitchcock joined in Oct 2012 from managing the Network Planning team at J Sainsbury’s bringing additional business consulting, project management and training skills
o Recent projects have included bespoke store forecasting models, training, custom data development, system development and consulting projects
o Can be found via www.geolytix.co.uk or by email to [email protected]

Mark Stileman is a Propositions Manager at Ordnance Survey, responsible for developing new product and service concepts. Mark has played a leading role in developing new products enabled with the third dimension. He has a background in Geography, GIS and Marketing, and has previously worked for Halcrow and the Government of Bermuda.

Sarah Gibbons is the OS MasterMap Topography Layer Product Manager. Her background is predominantly in OS large-scales data Product Management including Product Manager for Land-Line (OS MasterMap Topography Layer’s predecessor) but also having spent some time within the OS Sales team as a Partner Account Manager.


Voir la vidéo: ArcGIS Online - Premiers pas (Octobre 2021).