Suite

ArcGIS 10.1, Python 2.7 « RuntimeError : une colonne a été spécifiée qui n'existe pas. "


Lorsque cette erreur est renvoyée, une colonne problématique doit avoir été rencontrée.

Je voudrais savoir QUELLE colonne inexistante a été "spécifiée".

Comment obtenir cette information apparemment évidente ? Y a-t-il une bonne raison pour laquelle il n'est pas fourni par défaut ?

Le code comprenait un searchCursor qui parcourt une liste de variables. Je suppose que je pourrais commenter tout cela et les ramener un par un jusqu'à ce que je trouve le coupable.


avant d'exécuter le curseur de recherche, vous pouvez faire quelque chose comme

flds=[] fldObj=arcpy.ListFields(yourfeatureclass) pour fld dans fldObj : flds.append(fld.name) #puis parcourez votre liste de variables que le curseur de recherche recherche : missingvar=[] pour v dans variables : si v pas dans flds : missingvar.append(v) #et affiche les variables manquantes pour m dans missingvar : print m,'
'

Exportation au format PDF

PDF, le format de document portable, est un format de fichier graphique populaire qui prend en charge les graphiques vectoriels et matriciels dans un seul fichier compact. Un seul fichier PDF peut contenir plusieurs pages, et le format a la capacité de préserver les couches et les attributs d'entités graphiques et les informations de géoréférencement de la carte. Le PDF est l'un des moyens les plus largement utilisés de publier des informations géographiques pour les utilisateurs non SIG et est un important format d'échange d'archives et de presse papier.

Étant donné qu'une grande majorité d'ordinateurs ont déjà installé le logiciel Adobe Reader ou Adobe Acrobat, vous devriez envisager d'exporter votre carte au format PDF lorsque vous devez échanger une carte de manière fiable avec un utilisateur non SIG. Les fichiers PDF sont particulièrement utiles lorsque vous souhaitez fournir un document pouvant être imprimé sur une imprimante en plus d'être affiché à l'écran. Étant donné que le format PDF permet la préservation des graphiques vectoriels et des polices intégrées, il fournira la meilleure opportunité pour une impression de haute qualité par l'utilisateur final de la carte.

Vous devez également utiliser PDF lorsque vous souhaitez fournir une expérience de visualisation de carte interactive simple et autonome. Les documents PDF stockent toutes les informations cartographiques dans un seul fichier, ce qui en fait un support utile pour partager du contenu avec ceux qui travaillent dans des endroits où une connexion réseau n'est pas disponible. L'exportation d'informations de couche de carte et d'informations de géoréférencement peut géoactiver le document PDF, permettant à l'utilisateur d'interagir et de rechercher dans le contenu de la carte.


ST_Transformer

ST_Transform convertit les données ST_Geometry bidimensionnelles dans la référence spatiale spécifiée par l'ID de référence spatiale (SRID).

Si vous avez enregistré la colonne spatiale avec la base de données PostgreSQL à l'aide de la fonction st_register_spatial_column, le SRID au moment de l'enregistrement est écrit dans la table sde_geometry_columns. Si vous avez créé un index spatial sur la colonne spatiale dans une base de données Oracle, le SRID au moment où l'index spatial a été créé est écrit dans la table st_geometry_columns. L'utilisation de ST_Transform pour modifier le SRID des données ST_Geometry ne met pas à jour le SRID dans la table sde_geometry_columns ou st_geometry_columns.

Utiliser ST_Transform avec PostgreSQL

Dans PostgreSQL, la référence spatiale de destination que vous spécifiez pour la transformation doit avoir le même système de coordonnées géographiques que la référence spatiale source sur la colonne ST_Geometry.

Si les données sont stockées dans une base de données (plutôt que dans une géodatabase), procédez comme suit pour modifier la référence spatiale des données ST_Geometry :

  1. Créez une copie de sauvegarde de la table.
  2. Créez une deuxième colonne ST_Geometry (destination) sur la table.
  3. Enregistrez la colonne de destination ST_Geometry, en spécifiant le nouveau SRID.

Cela spécifie la référence spatiale de la colonne en plaçant un enregistrement dans la table système sde_geometry_columns.

Si les données sont stockées dans une géodatabase, vous devez utiliser les outils ArcGIS pour reprojeter les données dans une nouvelle classe d'entités. L'exécution de ST_Transform sur une classe d'entités de géodatabase contourne la fonctionnalité de mise à jour des tables système de la géodatabase avec le nouveau SRID.

Utilisation de ST_Transform avec Oracle

Dans Oracle, vous pouvez effectuer une conversion entre des références spatiales ayant le même système de coordonnées géographiques ou des systèmes de coordonnées géographiques différents. Lorsque les systèmes de coordonnées géographiques sont différents, une transformation géographique est effectuée. Une transformation géographique effectue une conversion entre deux systèmes de coordonnées géographiques. Une transformation géographique est définie dans une direction particulière, par exemple, de NAD 1927 à NAD 1983, mais la fonction ST_Transform appliquera correctement la transformation quels que soient les systèmes de coordonnées source et destination.

Les méthodes de transformation géographique peuvent être divisées en deux types : basées sur des équations et basées sur des fichiers. Les méthodes basées sur des équations sont autonomes et ne nécessitent aucune information externe. Les méthodes basées sur des fichiers utilisent des fichiers sur disque pour calculer les valeurs de décalage. Elles sont généralement plus précises que les méthodes basées sur des équations. Les méthodes basées sur des fichiers sont couramment utilisées en Australie, au Canada, en Allemagne, en Nouvelle-Zélande, en Espagne et aux États-Unis. Les fichiers (à l'exception des fichiers canadiens) peuvent être obtenus à partir d'une installation ArcGIS for Desktop ou directement auprès des différentes agences nationales de cartographie.

Pour prendre en charge les transformations basées sur des fichiers dans Oracle, les fichiers doivent être placés sur le serveur Oracle dans la même structure de dossiers relative que le dossier pedata dans le répertoire d'installation d'ArcGIS for Desktop.

Par exemple, dans le répertoire d'installation d'ArcGIS for Desktop, il existe un dossier appelé pedata . Ce dossier contient plusieurs sous-dossiers, mais les trois dossiers qui contiennent les méthodes basées sur des fichiers prises en charge sont harn , nadcon et ntv2 . Copiez le dossier pedata et son contenu du répertoire d'installation d'ArcGIS for Desktop sur le serveur Oracle ou créez un répertoire sur le serveur Oracle qui contient les sous-répertoires et les fichiers de la méthode de transformation basée sur les fichiers pris en charge. Une fois les fichiers sur le serveur Oracle, définissez une variable d'environnement du système d'exploitation appelée PEDATAHOME sur le serveur. Définissez la variable PEDATAHOME sur l'emplacement du répertoire qui contient les sous-répertoires et les fichiers, par exemple, si le dossier pedata est copié dans C:pedata sur un serveur Microsoft Windows, définissez la variable d'environnement PEDATAHOME sur C:pedata .

Reportez-vous à la documentation de votre système d'exploitation pour savoir comment définir une variable d'environnement.

Après avoir défini PEDATAHOME, vous devez démarrer une nouvelle session SQL avant de pouvoir utiliser la fonction ST_Transform. Cependant, le serveur n'a pas besoin d'être redémarré.

Si les données sont stockées dans une base de données (plutôt que dans une géodatabase) et qu'aucun index spatial n'a été défini sur la colonne spatiale, vous pouvez ajouter une deuxième colonne ST_Geometry et y sortir les données transformées. Vous pouvez conserver à la fois la colonne ST_Geometry d'origine (source) et la colonne ST_Geometry de destination dans la table, bien que vous ne puissiez afficher qu'une colonne à la fois dans ArcGIS à l'aide d'une vue ou en modifiant la définition de la couche de requête pour la table.

Si les données sont stockées dans une base de données (plutôt que dans une géodatabase) et que la colonne spatiale a un index spatial défini dessus, vous ne pouvez pas conserver la colonne ST_Geometry d'origine. Une fois qu'un index spatial a été défini sur une colonne ST_Geometry, le SRID est écrit dans la table de métadonnées st_geometry_columns. ST_Transform ne met pas à jour cette table.

  1. Créez une copie de sauvegarde de la table.
  2. Créez une deuxième colonne ST_Geometry (destination) sur la table.
  3. Exécutez ST_Transform. Spécifiez que les données transformées soient sorties dans la colonne de destination ST_Geometry.
  4. Supprimez l'index spatial de la colonne source ST_Geometry.
  5. Supprimez la colonne source ST_Geometry.
  6. Créez un index spatial sur la colonne de destination ST_Geometry.

Si les données sont stockées dans une géodatabase, vous devez utiliser les outils ArcGIS pour reprojeter les données dans une nouvelle classe d'entités. L'exécution de ST_Transform sur une classe d'entités de géodatabase contourne la fonctionnalité de mise à jour des tables système de la géodatabase avec le nouveau SRID.


Find_similar_locations¶

arcgis.geoanalytics.find_locations. find_similar_locations ( couche_entrée , couche_recherche , champs_analyse , most_or_least_similar : str = 'MostSimilar' , match_method : str = 'AttributeValues' , nombre_de_résultats : int = 10 , append_fields : str = Aucun , nom_sortie : str = Aucun , gis = Aucun , contexte = aucun , futur = Faux , return_tuple = Faux ) ¶

La tâche find_similar_locations mesure la similarité des emplacements candidats avec un ou plusieurs emplacements de référence.

En fonction des critères que vous spécifiez, find_similar_locations peut répondre à des questions telles que les suivantes :

  • Lesquels de vos magasins sont les plus similaires à vos plus performants en ce qui concerne les profils de clients ?

  • Sur la base des caractéristiques des villages les plus durement touchés par la maladie, quels autres villages sont à haut risque ?

  • Pour répondre à de telles questions, vous fournissez les emplacements de référence (le paramètre input_layer), les emplacements candidats (le paramètre search_layer) et les champs représentant les critères auxquels vous souhaitez correspondre. Par exemple, input_layer peut être une couche contenant vos magasins les plus performants ou les villages les plus durement touchés par la maladie. Le search_layer contient vos emplacements candidats à rechercher. Cela peut être tous vos magasins ou tous les autres villages. Enfin, vous fournissez une liste de champs à utiliser pour mesurer la similarité. La tâche find_similar_locations classera tous les emplacements candidats en fonction de leur degré de correspondance avec vos emplacements de référence dans tous les champs que vous avez sélectionnés.

La description

Couche requise. Le input_layer contient un ou plusieurs emplacements de référence par rapport auxquels les entités du search_layer seront évaluées pour la similarité. Par exemple, le input_layer peut contenir vos magasins les plus performants ou les villages les plus durement touchés par une maladie. Voir Saisie d'entités .

Il n'est pas rare que input_layer et search_layer soient le même service d'entités. Par exemple, le service d'entités contient les emplacements de tous les magasins, dont l'un est votre magasin le plus performant. Si vous souhaitez classer les magasins restants du plus similaire au moins similaire à votre magasin le plus performant, vous pouvez fournir un filtre pour input_layer et search_layer . Le filtre sur input_layer sélectionnerait le magasin le plus performant, tandis que le filtre sur search_layer sélectionnerait tous les magasins à l'exception du magasin le plus performant. Vous pouvez utiliser le paramètre de filtre facultatif pour spécifier des emplacements de référence.

S'il existe plusieurs emplacements de référence, la similarité sera basée sur les moyennes des champs que vous spécifiez dans le paramètre analysis_fields. Par exemple, s'il existe deux emplacements de référence et que vous souhaitez faire correspondre la population, la tâche recherchera les emplacements candidats dans search_layer avec des populations qui ressemblent le plus à la population moyenne pour les deux emplacements de référence. Si les valeurs des emplacements de référence sont 100 et 102, par exemple, la tâche recherchera des emplacements candidats avec des populations proches de 101. Par conséquent, vous souhaiterez utiliser des champs pour les champs d'emplacements de référence qui ont des valeurs similaires. Si, par exemple, les valeurs de population pour un emplacement de référence sont 100 et l'autre 100 000, l'outil recherchera des emplacements candidats avec des valeurs de population proches de la moyenne de ces deux valeurs : 50 050. Notez que cette valeur moyenne n'a rien à voir avec la population pour l'un ou l'autre des emplacements de référence.

Couche requise. Couche contenant les emplacements candidats qui seront évalués par rapport aux emplacements de référence. Voir Saisie d'entités .

Chaîne obligatoire. Une liste de champs dont les valeurs sont utilisées pour déterminer la similarité. Il doit s'agir de champs numériques, et les champs doivent exister à la fois sur input_layer et sur search_layer . Selon la méthode match_method sélectionnée, la tâche trouvera les fonctionnalités les plus similaires en fonction des valeurs ou des profils des champs.

Chaîne facultative. Les fonctionnalités que vous souhaitez récupérer. Vous pouvez rechercher les entités les plus ou les moins similaires à input_layer , ou rechercher à la fois les plus et les moins similaires.

Liste de choix :[‘MostSimilar’, ‘LeastSimilar’, ‘Both’]

La valeur par défaut est « MostSimilar ».

Chaîne facultative. La méthode que vous sélectionnez détermine comment la correspondance est déterminée.

Liste de choix :[‘AttributeValues’, ‘AttributeProfiles’]

  • La méthode AttributeValues ​​utilise les différences au carré des valeurs standardisées.

  • La méthode AttributeProfiles utilise des mathématiques de similarité cosinus pour comparer le profil des valeurs standardisées. L'utilisation d'AttributeProfiles nécessite l'utilisation d'au moins deux champs d'analyse.

La valeur par défaut est « AttributeValues ».

Entier facultatif. Le nombre d'emplacements candidats classés sortis vers similar_result_layer . Si number_of_results n'est pas défini, les 10 emplacements seront renvoyés. Le nombre maximum de résultats est de 10 000.

Chaîne facultative. Ajoutez éventuellement des champs à vos données à partir de votre couche de recherche. Par défaut, tous les champs de la couche de recherche sont ajoutés.

Chaîne facultative. La tâche créera un service d'entités des résultats. Vous définissez le nom du service.

SIG en option. Le SIG sur lequel cet outil s'exécute. S'il n'est pas spécifié, le SIG actif est utilisé.

dict. facultatif. Le paramètre context contient des paramètres supplémentaires qui affectent l'exécution de la tâche. Pour cette tâche, il existe quatre paramètres :

Etendue (étendue) - Un cadre de délimitation qui définit la zone d'analyse. Seules les entités qui croisent la boîte englobante seront analysées.

Traitement de la référence spatiale ( processSR ) - Les entités seront projetées dans ce système de coordonnées pour analyse.

Référence spatiale en sortie ( outSR ) - Les entités seront projetées dans ce système de coordonnées après l'analyse à enregistrer. La référence spatiale de sortie pour le stockage de Big Data spatio-temporelles est toujours WGS84.

Magasin de données ( dataStore ) - Les résultats seront enregistrés dans le magasin de données spécifié. Pour ArcGIS Enterprise, la valeur par défaut est le stockage de Big Data spatio-temporelles.

Booléen facultatif. Si « True », un GPJob est renvoyé à la place des résultats. Le GPJob peut être interrogé sur l'état de l'exécution.

La valeur par défaut est « False ».

Booléen facultatif. Si « True », un tuple nommé avec plusieurs clés de sortie est renvoyé.

La valeur par défaut est « False ».

tuple nommé avec les clés suivantes si return_tuple est défini sur « True » :

else renvoie une couche d'entités des résultats.


Couleur par valeurs de colonne dans Matplotlib

L'un de mes aspects préférés de l'utilisation de la bibliothèque ggplot2 dans R est la possibilité de spécifier facilement l'esthétique. Je peux rapidement créer un nuage de points et appliquer une couleur associée à une colonne spécifique et j'aimerais pouvoir le faire avec python/pandas/matplotlib. Je me demande s'il existe des fonctions pratiques que les gens utilisent pour mapper les couleurs sur des valeurs à l'aide de cadres de données pandas et de Matplotlib.

EDIT : Merci pour vos réponses, mais je souhaite inclure un exemple de cadre de données pour clarifier ce que je demande. Deux colonnes contiennent des données numériques et la troisième est une variable catégorielle. Le script auquel je pense attribuera des couleurs en fonction de cette valeur.


Fonctionnalités ajoutées dans les versions précédentes

Nouveau à 10.9

  • Un nouveau paramètre, timeReferenceUnknownClient , a été ajouté à 10.9. La définition de timeReferenceUnknownClient sur true indique que le client est capable de travailler avec des valeurs de données de champ de date qui ne sont pas en UTC. Pour plus d'informations sur ce paramètre, consultez le tableau Paramètres de requête ci-dessous.
  • Le paramètre multipatchOption prend en charge une nouvelle valeur d'étendue. L'étendue est utilisée pour renvoyer l'étendue 3D des entités multipatch. Cette nouvelle valeur est prise en charge lorsque la propriété supportedmultipatchOptions de la couche d'entités sous advancedQueryCapabilities inclut l'étendue :
  • L'opération de requête de couche prend en charge le centile en tant que statisticType lors de l'utilisation de outStatistics pour les services d'entités publiés à partir d'ArcGIS Pro qui référencent les données de géodatabase d'entreprise. Les couches qui prennent en charge les centiles incluent la propriété supportsPercentileStatistics comme true , trouvée dans l'objet de couche advancedQueryCapabilities.
  • Les données multipatch peuvent être interrogées avec multipatchOption défini comme externalizeTextures et f comme pbf pour les services d'entités publiés à partir d'ArcGIS Pro .
  • Les services d'entités non hébergés publiés à partir d'ArcGIS Pro prennent en charge une optimisation pour obtenir le nombre de lignes d'une couche. En définissant where comme 9999=9999 et returnCountOnly comme true , le résultat est un nombre approximatif qui est renvoyé très rapidement. Pour un nombre de lignes précis, mais plus lent à renvoyer, utilisez n'importe quel autre filtre (par exemple, où : 1=1 ). Ceci n'est pris en charge que lorsqu'une couche a à la fois isDataVersioned et isDataArchived comme false .

L'opération de requête de couche prend en charge le centile en tant que statisticType lors de l'utilisation d'outstatistic pour les services d'entités hébergés dans ArcGIS Online ou ArcGIS Enterprise lorsqu'il est exécuté sur un magasin de données relationnelles. Les couches qui prennent en charge les centiles incluent la propriété d'objet advancedQueryCapabilities supportsPercentileStatistics comme true .

  • Les services d'entités prennent désormais en charge le format de requête de tampon de protocole ( pbf ). Ce format est pris en charge sur les couches de service d'entités publiées à partir d'ArcGIS Pro qui référencent des données dans une géodatabase d'entreprise enregistrée. La propriété de couche supportéeQueryFormats répertorie pbf s'il est disponible sur la couche.
  • L'opération de requête de couche de service d'entités prend en charge le paramètre havingClause.
  • L'opération de requête de couche de service d'entités prend en charge l'interrogation du nombre d'entités distinctes dans un champ à l'aide des paramètres returnDistinctValues ​​et returnCountOnly.
  • Prise en charge des requêtes pour la quantification des coordonnées à l'aide de returnCentroid , returnExceededLimitFeatures et resultType lorsque supportsCoordinateQuantization = true .
  • Ajout d'options de requête pour les données multipatch avec stripMaterials , embedMaterials et externalizeTextures .
  • Prise en charge des requêtes à l'aide de la syntaxe INTERVAL, qui peut être utilisée à la place des requêtes date-heure et sera normalisée dans tous les services de carte et d'entités.

Pour les services d'entités publiés sur un serveur fédéré ArcGIS Enterprise avec des données stockées dans une géodatabase d'entreprise enregistrée, lors de la demande de géométrie quantifiée, si returnTrueCurves = true , les courbes seront densifiées dans les résultats quantifiés.

  • L'opération de requête de la couche de service d'entités prend en charge les paramètres returnTrueCurves , historicMoment et sqlFormat .
  • L'opération de requête de la couche de service d'entités prend en charge le paramètre returnTrueCurves.
  • La propriétéextredTransferLimit est désormais incluse dans la réponse JSON lors de la pagination d'un résultat de requête avec les paramètres resultOffset et resultRecordCount. Lorsque dépasséTransferLimit est true , cela indique qu'il y a plus de résultats de requête et que vous pouvez continuer à parcourir les résultats. Lorsqu'excédéTransferLimit est false , cela indique que vous avez atteint la fin des résultats de la requête.
  • Lorsque vous n'utilisez pas les paramètres resultOffset et resultRecordCount, la propriétéextredTransferLimit peut également être incluse dans les résultats de la requête. Dans ce cas, la propriété ne sera vraie que si le nombre d'enregistrements dépasse le nombre maximum configuré par l'administrateur du serveur.
  • Dans certains cas, lors de l'utilisation des paramètres resultOffset et resultRecordCount, la propriétéextredTransferLimit peut être incluse dans les résultats de la requête même si la valeur spécifiée dans resultRecordCount n'a pas été dépassée. Cela est dû au filtrage d'index spatial interne des résultats de la requête. Pour cette raison, vous devez toujours vous fier à la propriétéextredTransferLimit pour déterminer si vous devez parcourir les résultats plutôt que de vous fier au nombre de résultats renvoyés par chaque page. Dans certains cas extrêmes, zéro résultat peut être renvoyé mais la propriétéextredTransferLimit sera renvoyée. Dans ces cas, vous devez continuer à parcourir vos résultats jusqu'à ce qu'excédéTransferLimit ne soit plus renvoyé.
  • Si vous utilisez orderByFields avec les paramètres resultOffset et resultRecordCount pour paginer dans un ensemble ordonné de lignes, assurez-vous de définir orderByFields de sorte que l'ordre soit déterministe. Par exemple, si vous devez trier par type et que plusieurs lignes peuvent avoir les mêmes valeurs de type, définissez orderByFields sur type,objectid .
  • Prend en charge la pagination dans une couche de requête. Utilisez les paramètres resultOffset et resultRecordCount pour parcourir un résultat de requête.
  • Notez que lorsque vous transmettez l'un de ces deux paramètres et que orderByFields reste vide, le service de carte utilise le champ object-id pour trier le résultat. Pour une couche de requête avec une pseudo-colonne comme champ object-id (par exemple, FID), vous devez fournir orderByFields sinon, la requête échoue.

Commençons par initialiser une liste :

Prenons chaque 3 ème élément de s :

Prenons chaque 3 ème élément de s[2:] :

Prenons chaque 3 ème élément de s[5:12] :

Prenons chaque 3 ème élément de s[:10] :

Cet exemple visuel vous montrera comment sélectionner soigneusement des éléments dans une matrice NumPy (tableau à 2 dimensions) d'une manière assez divertissante (je le promets). L'étape 2 ci-dessous illustre l'utilisation de ce "double deux points" :: en question.

(Attention : il s'agit d'un exemple spécifique au tableau NumPy dans le but d'illustrer le cas d'utilisation de "doubles-colons" :: pour le saut d'éléments sur plusieurs axes. Cet exemple ne couvre pas les structures de données Python natives comme List ).


Vous pourriez être intéressé par le package SciPy Stats. Il a la fonction centile que vous recherchez et de nombreux autres avantages statistiques.

Ce ticket me porte à croire qu'ils n'intégreront pas de sitôt percentile() dans numpy.

Soit dit en passant, il existe une implémentation en Python pur de la fonction percentile, au cas où l'on ne voudrait pas dépendre de scipy. La fonction est copiée ci-dessous :

Voici comment le faire sans numpy, en utilisant uniquement python pour calculer le centile.

À partir de Python 3.8 , la bibliothèque standard est livrée avec la fonction quantiles dans le cadre du module de statistiques :

quantiles renvoie pour une distribution donnée dist une liste de n - 1 points de coupure séparant les n intervalles quantiles (division de dist en n intervalles continus avec une probabilité égale) :

statistiques.quantiles(dist, *, n=4, method='exclusive')

où n , dans notre cas ( centiles ) est 100 .

La définition du centile que je vois habituellement attend comme résultat la valeur de la liste fournie en dessous de laquelle P pour cent des valeurs sont trouvés. ce qui signifie que le résultat doit provenir de l'ensemble, pas d'une interpolation entre les éléments de l'ensemble. Pour l'obtenir, vous pouvez utiliser une fonction plus simple.

Si vous préférez obtenir la valeur de la liste fournie à ou au-dessous de laquelle P pour cent de valeurs sont trouvés, utilisez cette simple modification :

Ou avec la simplification suggérée par @ijustlovemath :

recherchez le module scipy.stats :

Pour calculer le centile d'une série, exécutez :

Un moyen pratique de calculer les centiles pour une séquence ou une matrice numpy unidimensionnelle consiste à utiliser numpy.percentile <https://docs.scipy.org/doc/numpy/reference/generated/numpy.percentile.html>. Exemple:

Cependant, s'il y a une valeur NaN dans vos données, la fonction ci-dessus ne sera pas utile. La fonction recommandée à utiliser dans ce cas est la fonction numpy.nanpercentile <https://docs.scipy.org/doc/numpy/reference/generated/numpy.nanpercentile.html> :

Dans les deux options présentées ci-dessus, vous pouvez toujours choisir le mode d'interpolation. Suivez les exemples ci-dessous pour une meilleure compréhension.

Si votre tableau d'entrée se compose uniquement de valeurs entières, vous pourriez être intéressé par la réponse en pourcentage sous forme d'entier. Si tel est le cas, choisissez le mode d'interpolation tel que « inférieur », « Plus élevé » ou « le plus proche ».


Analyse

Pour vous aider à trouver les couches dont vous avez besoin, les outils d'analyse offrent une expérience améliorée pour parcourir et ajouter des couches d'analyse à partir du volet de la boîte de dialogue de l'outil. Vous pouvez accéder aux couches à analyser en cliquant sur Choisir une couche d'analyse dans le menu déroulant des paramètres d'outils compatibles.

  • Mon contenu : les calques que vous possédez.
  • Mes favoris—Calques que vous définissez comme favoris parce que vous les utilisez fréquemment.
  • Mes groupes—Calques disponibles via les groupes auxquels vous appartenez.
  • Mon organisation : couches que d'autres membres du portail ont créées et partagées avec l'organisation.
  • Groupe d'analyse de l'organisation : si votre administrateur de portail a configuré le portail avec un groupe d'analyse personnalisé, cette option vous fournit une liste organisée de couches d'analyse.
  • Couches d'analyse de l'atlas vivant : cette option est disponible si votre portail est configuré pour accéder au contenu de l'atlas vivant à partir d'ArcGIS Online .
  • Couches limites Esri : cette option est disponible si votre administrateur de portail a publié des couches limites Esri sur le portail.

Lorsque les couches d'entités du groupe d'analyse de l'organisation ou des couches de limites Esri contiennent plusieurs couches, l'option Choisir une couche d'analyse vous permet de choisir des sous-couches individuelles pour l'analyse des entités.

En plus de cette nouvelle expérience de découverte de couches disponible dans tous les outils d'analyse, plusieurs outils nouveaux et améliorés sont disponibles pour l'analyse d'entités standard et GeoAnalytics et l'analyse raster.

Analyse des caractéristiques standard

Les outils nouveaux et mis à jour suivants sont disponibles sur le portail ArcGIS Enterprise :

    est un nouvel outil qui crée des bacs sur une zone d'étude en fonction de la forme et de la taille spécifiées. , Créer des zones de temps de conduite, Planifier des itinéraires, Connecter les origines aux destinations et Choisir les meilleures installations incluent désormais une option pour appliquer des barrières de point, de ligne et de zone sur les rues. Des exemples d'obstacles possibles incluent les arbres tombés, les accidents de la circulation, les itinéraires de parade et les inondations. publié à partir d'ArcGIS Pro peut désormais créer des résultats en tant que couches d'entités hébergées.
  • Le privilège Analyse d'altitude n'est plus requis pour exécuter les outils Créer des bassins versants, Créer un bassin visuel ou Tracer en aval. Cependant, le portail doit toujours être configuré avec le service utilitaire d'élévation pour que les outils d'élévation soient disponibles.

Géoanalyse

Il y a de nouvelles améliorations dans GeoAnalytics à 10.7 et 10.7.1.

Version 10.7.1

Des améliorations ont été apportées aux outils et capacités existants suivants :

    prend en charge les nouvelles opérations de superposition (union, différence symétrique et identité). prend en charge les relations proches en utilisant une distance géodésique.
  • Vous pouvez désormais appliquer un filtre aux entrées d'un outil GeoAnalytics Server dans Portal Map Viewer. Le filtre n'est appliqué qu'à des fins d'analyse et peut être utilisé sur des couches d'entités et des partages de fichiers Big Data.

Version 10.7

    extrait les entités en entrée à partir des polygones d'intérêt spécifiés. trouve les polygones qui se croisent ou ont les mêmes valeurs de champ et les fusionne pour former un seul polygone. joint les attributs d'une couche de grille multivariée à une couche de points. crée des modèles et génère des prédictions à l'aide d'une adaptation de l'algorithme de forêt aléatoire de Leo Breiman, qui est une méthode d'apprentissage automatique supervisé. génère des prédictions et modélise une variable dépendante en fonction de sa relation avec un ensemble de variables explicatives. copie toutes les entités de deux couches vers une seule couche de sortie. fournit un résumé et un échantillon de vos mégadonnées.

Des améliorations ont été apportées aux outils et capacités existants suivants :

    peut appliquer l'algorithme HDBSCAN. , Détecter les incidents et Reconstruire les pistes prennent en charge de nouvelles options de fractionnement du temps.
  • Une prise en charge a été ajoutée pour l'écriture des résultats dans les partages de fichiers Big Data.

Analyse raster

Il y a de nouvelles améliorations dans l'analyse raster à 10.7 et 10.7.1.

Version 10.7.1

Des améliorations ont été apportées à deux outils existants exposés dans Map Viewer via le portail Enterprise.

  • Calculer la distance a trois nouveaux paramètres :
    • Utilisez le paramètre Choisir un raster ou une couche d'entités pour représenter les barrières afin d'incorporer des barrières dans les calculs de distance.
    • Utilisez le paramètre Méthode de distance pour choisir entre une méthode planaire et une nouvelle méthode géodésique pour calculer la distance.
    • Créez un nom de calque de direction arrière du résultat facultatif . Cette nouvelle sortie ainsi que la distance euclidienne peuvent être utilisées dans le nouvel outil de service Cost Path As Polyline pour rechercher des chemins.

    Un nouvel outil de service est disponible, Cost Path As Polyline , accessible via l'API REST ou un outil de géotraitement dans ArcGIS Pro lorsqu'il est connecté à un portail. Cet outil peut être utilisé pour calculer le chemin le moins coûteux d'une source à une destination.

    Version 10.7

    L'analyse raster dans ArcGIS Image Server comprend les deux nouveaux outils suivants exposés dans Map Viewer via le portail Enterprise :

    • Classifier les pixels à l'aide de l'apprentissage en profondeur : exécute un modèle d'apprentissage en profondeur entraîné sur un raster en entrée pour produire un raster classé, chaque pixel valide ayant une étiquette de classe attribuée.
    • Détecter les objets à l'aide de l'apprentissage en profondeur : exécute un modèle d'apprentissage en profondeur entraîné sur un raster en entrée pour produire une classe d'entités contenant les objets qu'il trouve. Les entités peuvent être des cadres de délimitation ou des polygones autour des objets trouvés, ou des points au centre des objets.

    L'éditeur de fonctions Raster est une interface de programmation visuelle permettant de construire des chaînes de traitement d'imagerie et d'analyse raster. Les flux de travail peuvent être enregistrés en tant que modèles de fonction raster (RFT), qui peuvent automatiser vos analyses et processus d'images. Vous pouvez créer et modifier des RFT dans le panneau de l'éditeur de fonctions. L'éditeur de fonction Raster est exposé dans Map Viewer via le portail Enterprise.

    L'éditeur de fonctions raster contient une galerie de 142 fonctions raster. Ces fonctions raster peuvent être combinées dans des chaînes de traitement de fonction raster, appelées modèle de fonction raster (RFT), à l'aide des outils de programmation visuelle. Les RFT peuvent être testés, modifiés, enregistrés et partagés avec d'autres membres de votre entreprise.

    Géocodage

    Geocode File est une nouvelle API disponible pour les développeurs pour effectuer un géocodage par lots à grande échelle à partir d'ArcGIS Enterprise 10.7.1 . Il permet aux développeurs de tirer parti d'une API qui peut géocoder de gros fichiers de données et renvoie les résultats géocodés dans un fichier de sortie. Les entrées possibles pour cette API sont des fichiers de valeurs séparées par des virgules (CSV) compressés, des fichiers Microsoft Excel ( .xls ) et des tables de géodatabase fichier avec des informations d'adresse. L'API génère un fichier CSV compressé, un fichier .xls ou une classe d'entités avec les résultats géocodés (informations de localisation) ajoutés au fichier d'entrée. Les développeurs peuvent écrire du code sur cette API pour effectuer un géocodage par lots à grande échelle dans leur organisation de portail ArcGIS Enterprise.

    Pour plus d'informations sur la configuration du géocodage par lots à grande échelle, consultez : Configurer le portail pour géocoder les adresses.

    Pour plus d'informations sur l'API Geocode File, consultez la documentation de l'API REST.

    Il existe de nouvelles fonctionnalités et améliorations pour les applications dans le portail.

    ArcGIS Excalibur

    ArcGIS Excalibur est une nouvelle application Web pour ArcGIS Enterprise 10.7 qui modernise et améliore les flux de travail basés sur des images grâce à des expériences intuitives. Ces expériences permettent aux utilisateurs de rechercher, de découvrir et de travailler facilement avec des images dans des flux de travail entièrement intégrés, permettant une analyse et une exploitation d'images puissantes et assistées manuellement. ArcGIS Excalibur introduit l'idée d'un projet d'imagerie, un moyen dynamique pour les utilisateurs d'organiser les ressources nécessaires à l'exécution d'une tâche basée sur des images à un seul endroit. Les projets d'imagerie incluent des couches de référence géospatiales pour fournir aux utilisateurs un contexte pour leur tâche d'imagerie en plus d'un ensemble d'outils pour rationaliser les flux de travail basés sur l'image de manière ciblée.

    • Les paramètres de recherche vous aident à filtrer vos résultats lors de la recherche d'images dans le canevas d'exploitation d'images. Vous pouvez effectuer une recherche avec la plage de dates, la couverture nuageuse, le NIIRS prévu, l'obliquité et le nom de l'image.
    • Les couches d'observation activées dans le temps vous donnent désormais la possibilité d'utiliser un curseur temporel interactif pour voir quand les observations ont été collectées sur vos images. Vous pouvez utiliser ce curseur temporel pour afficher toutes les observations recueillies précédemment.
    • De nouvelles améliorations de la couche d'observation sont apportées lorsque vous créez une nouvelle couche d'observation pour votre projet d'imagerie. Now, you can define your layer's style based on a single symbol or use coded value domains for unique values styling. You can also create multiple observation layers during your observation imagery project.
    • There are multiple improvements to the layer list. Now, you can interact with imagery layers, context layers, and project layers. You can change the transparency on any content or project layers and toggle the time slider on your project layers.

    For more information, see the What's new in Excalibur .

    ArcGIS QuickCapture

    A new mobile app, ArcGIS QuickCapture , is supported at 10.7.1. ArcGIS QuickCapture is specifically designed for at-speed field data collection workflows, delivering a user experience focused on the needs of users who collect field observations on the go, travelling in a vehicle such as a car, truck, and even helicopter. You can create your own ArcGIS QuickCapture projects on top of existing ArcGIS Enterprise feature layers using ArcGIS QuickCapture designer.

    ArcGIS Enterprise Sites

    Experience a new way to edit sites and share content with the 10.7.1 release of Sites in the ArcGIS Enterprise portal. When editing a site, you'll notice a new navigation bar at the top of the Site Editor and a redesigned side panel.

    The new navigation bar includes dropdown menus with options to quickly go elsewhere, like to add data or manage existing sites.

    The redesigned Customize side panel features a sleeker design and includes more options to configure your site's settings and capabilities. This panel will also now close automatically to give you more room when adding a card to your layout.

    The new enhanced text card includes rich-text editing so you can add and format text more easily, no HTML required.

    Interested in sharing more accessible content? Read our recent blog post on how to use our drag-and-drop cards to design an accessible site.

    Ortho Maker

    • The Cut-and-fill volume calculation is provided in the Ortho Maker map viewer. The Volume Calculation map tool summarizes the areas and volumes of change from a cut-and-fill operation. By using the digital surface model product and an area of interest (AOI) with a given base type, it identifies regions of surface material removal and addition.
    • The Add GCPs from a feature service tool refines the block adjustment to produce more accurate products such as Digital Surface Models (DSM), Digital Terrain Models (DTM) and seamless ortho mosaics. Two types of feature services are supported for GCPs:
      • Point feature layer within organization.
      • Point feature layer from ArcGIS Online that is publicly accessible.

      Tracker for ArcGIS

      Tracker for ArcGIS is a new product that brings location tracking to life, using the location tracking service in two new apps: the Track Viewer web app and the Tracker for ArcGIS mobile app.

      Track Viewer

      When using location tracking to record where users are and where they have been, the tracks are secure within the location tracking service users only see their own tracks, with additional permissions required to view the tracks of others. The Track Viewer web app enables administrators to create track views, defining who is tracked and who can view those tracks. Users with access to a track view use Track Viewer to visualize the tracks available to them.

      Tracker for ArcGIS

      The Tracker mobile app is optimized for tracking locations in the background, minimizing the impact on device battery. The mobile app records tracks independently of whether there is a data connection, and gives mobile users control of when they are and aren't tracked.

      Operations Dashboard for ArcGIS

      At ArcGIS Enterprise 10.7.1, three additional languages are now supported: Ukrainian, Arabic, and Hebrew. More configuration options are available with Category Selectors in multiple selection mode, and for styling elements when they show No Data or No Value.

      Starting at ArcGIS Enterprise 10.7, you can configure Show Pop-up and Follow Feature actions and control actions through URL Parameters. Styling improvements include logarithmic scaling, label and legend text size as well as color choices for the background, borders, elements, tabs, and selections. You can also now view dashboards on mobile phones.

      Web AppBuilder for ArcGIS

      The Web AppBuilder for ArcGIS Enterprise includes support for accessibility, new widgets, and improvements on a number of widgets. For more information, see the Web AppBuilder for ArcGIS section of the help.

      General

      • At 10.7.1, support for accessibility is added in 21 widgets and 5 themes, and are tested with selected screen readers. With incremental releases, more widgets and themes will support accessibility.
      • At 10.7.1, you can control which layers are visible through the URL parameter, showLayers.

      Themes

      A Pocket theme has been added for apps embedded in websites, story maps, or other locations with surrounding context, where only one widget is supported in a panel positioned on the left or the right.

      Widgets

      • The new Network Trace widget utilizes a geoprocessing service to trace a geometric network and interact with its results. For example, a user specifies the location of the main break to generate the outage area. (10.7.1)
      • Scalebar has a new option to display the scale number. (10.7.1)
      • You can display the custom basemap in Overview Map. (10.7.1)
      • You can control which layers are visible with a new link option in Share. (10.7.1)
      • Query adds an option to let you control if end users can provide a different name for the result layer name at runtime. (10.7.1)
      • Swipe provides an option to hide the layer choosing list. (10.7.1)
      • The Smart Editor widget enables you to move a point feature to coordinates or a GPS location that you provide. At 10.7.1, Smart Editor has made it easier to streamline workflows by adding Smart Action and Attribute Action options.
      • When using Cost Analysis, it's easier to generate a centroid of the project area by updating multiple configurations within the widget. (10.7.1)
      • With the Query widget, you can hide or customize filter labels for query criteria and spatial filters, and you can type a value and press Enter to apply the query. When you use the Query widget, you can rename the resultant layer and keep the spatial filter shape drawn on the map after execution.
      • The Time Slider widget allows you to set relative time span and intervals to animate live data such as showing the weather for the past five days in two-hour intervals.
      • When you use the Search widget to perform geocoding or feature search on point, line, and polygon layers, the widget honors the zoom-scale parameter in the resulting search extent. This widget also allows you to type coordinates with UTM or specified by a WKID in the search box to locate a place on the map and has an option to pan to the search result without zooming.
      • The Legend widget includes a new option to display the symbology of the basemap layers.
      • With the Daylight (3D) widget, you can choose a specific date to reflect the sun’s position at different times.
      • The Draw widget displays the measurement label for a point in degrees or degree-minute-second format. You can also now use this widget to change the font size and font color to display the measurements.
      • The Measurement widget allows you to snap to the measured features for accuracy.
      • The Measurement (3D) widget supports measuring the area and perimeter of a polygon.
      • The Attribute Table widget allows you to configure a default sort field.
      • With the Coordinate widget, you can change the display label for a configured coordinate system and set a default coordinate system.
      • With the Infographic widget, you can add line and area markers as guidelines to view the charts in the bar, line, column, and area templates add titles for x- and y-axis change the background color of the gauge bar and set dynamic maximum and minimum values, which are dependent on statistic data configured in Extra Data source, for the gauge templates.
      • When using the Related Table Charts widget, you have the option to use line charts. You can use a line chart with one or many data series.
      • The Parcel Drafter widget allows you to save your last used traverse settings, and delete parcels using the Delete tool. When using the traverse pane, you can move it to the start and rotation position.
      • The Edit widget now allows you to edit many-to-many related records and control the capability to add or delete features. This widget also has a new option to honor the editable layer setting defined in the web map.
      • The Geoprocessing widget allows you to select a table from the map as an input of GPRecordSet and to check the option to hide the Others symbol from the legend as an output.
      • The Directions widget allows you to save the route as a hosted layer in your portal.
      • The Print widget allows you to define the output spatial reference on the Advanced tab for the printout.
      • The new Threat Analysis widget supports public safety personnel and first responders to identify safe distances and zones when planning events, should an incident occur. For example, should an explosion occur at a location susceptible to attack, personnel can understand what parameters to set up and what areas to evacuate.
      • The new Visibility widget determines what is visible from an observer location based on a given distance, an observer height, and a field of view.
      • The Analysis widget adds three new tools: Geocode Locations from Table, Find Centroids, Find Point Clusters, and Summarize Center and Dispersion.
      • Living Atlas is available in the Analysis widget.
      • Add an option to set thousands separator in the Number Template of the Infographic widget.
      • You can now set feature layers as search sources in the 3D Search widget.
      • The Directions widget allows you to specify map layers (point, line, or polygon) as the barriers when configuring the widget.
      • In the 3D Coordinate widget, you can set the units of elevation and eye altitude measurements as metric or English.
      • The result panel of the Query widget shows a Displayed features message to indicate how many features are displayed out of all the results matching the query criteria, and a Load more button appears when the results are more than the displayed features. In addition, you can configure the default expand/collapse state for the result items.
      • The Infographic widget adds a configurable option to allow showing integers only for the value axis.
      • The Chart widget supports sorting charts by both label and value fields.

      The new CoordinateControl class allows coordinates to be consumed and parsed in multiple formats and notation styles.

      When using the Analysis widget, you may refer to this matrix to understand tools that require a standard or advanced GIS Server license.

      Administrators can view and manage apps and templates created by everyone.

      Configurable app templates

        (10.7.1) (10.7.1) —Present a side-by-side or stacked view of two maps, two scenes, or a map and a scene that allows the app user to explore the differences and similarities in the data in each. —Create an app that allows users to identify differences between two imagery layers. —You can bookmark locations within a map that displays imagery to lead the app user through a predefined tour of the map. —Apps created using this template allow users to compare two imagery layers using a swipe tool. This is useful for comparing changes over time. —This group template allows you to create a gallery of layers to help portal members find the content they need. —The Map Styler template allows you to customize the app presentation and provides basic tools for app users to explore a web map. This template replaces the Map Tools and Simple Map Viewer templates. —The template is designed to create apps that present web maps in a small space, such as within a news article or presentation on the web. —The Scene Styler template allows you to customize the app presentation and provides basic tools for app users to explore a web scene. —Display a 2D inset map with a 3D scene to help app users orient themselves within the scene.

      The following app templates are in mature status and are no longer available for creating apps in the portal. Use the suggested replacement app template instead.


      Scripting syntax

      BinaryRasterToArcGISRaster_GeoEco (inputFile, outputRaster, dataType, columnCount, rowCount, xLowerLeftCorner, yLowerLeftCorner, cellSize, nodataValue, offset, swapBytes, transpose, mirror, flip, swapHemispheres, coordinateSystem, projectedCoordinateSystem, geographicTransformation, resamplingTechnique, projectedCellSize, registrationPoint, clippingRectangle, mapAlgebraExpression, buildPyramids)

      A binary raster is a file that contains a raw array of numbers stored in binary format, as if a snapshot of in-memory data had been written directly to disk. In ArcGIS, this is the type of file output by the Raster to Float tool, although that tool can only output binary rasters that use a 32-bit floating point data type. This tool can use any standard numeric data type.

      The data must have two dimensions. By default, it is assumed that the data are in "row-major order", the approach used by the C programming language: the cells are ordered left-to-right, top-to-bottom, with columns increasing before rows. The upper-left cell is the first cell, followed by the cell to its right, and so on to the end of the first row. The second row comes next, and so on to the end. The lower-right cell is the last one. If the data are in "column-major order", the approach used by Fortran and MATLAB, use the Transpose option to flip the data about the diagonal axis.

      By default, it is assumed that the data should be read starting with the first byte of the file. If the file contains a header of a known length, use the Offset parameter to skip over it.

      If the file contains extra bytes that occur after the data, they will be ignored.

      If you provide a compressed file in a supported compression format, it will be automatically decompressed. If it is an archive (e.g. .zip or .tar), it must contain exactly one file, which must not be in a subdirectory.

      Data type of the binary raster.

      This may be one of the following values:

      int8 - 8-bit signed integer, range -128 to 127

      uint8 - 8-bit unsigned integer, range 0 to 255

      int16 - 16-bit signed integer, range -32768 to 32767

      uint16 - 16-bit unsigned integer, range 0 to 65535

      int32 - 32-bit signed integer, range -2147483648 to 2147483647

      uint32 - 32-bit unsigned integer, range 0 to 4294967295

      float - 32-bit single-precision floating point

      double - 64-bit double-precision floating point

      Binary rasters with other data types cannot be converted because the ArcGIS raster format does not support them.

      The exact format, precision and range of the floating types depend on the processor architecture of your computer. Most processors implement the IEEE Standard for Binary Floating-Point Arithmetic (IEEE 754).

      Binary rasters that use the float or double data type must not contain "infinity" (INF) or "not a number" (NAN) values. A ValueError will be raised if these values are discovered.

      This tool first converts the binary file to an ArcInfo ASCII Grid file and then converts that to an ArcGIS raster using ArcGIS's ASCII to Raster geoprocessing tool. That tool, and ArcGIS raster format itself, have some quirks:

      The ArcGIS raster format supports the 32-bit float data type but not the 64-bit double data type. If you supply a binary raster that has the double data type, it will be converted into a properly formatted ArcInfo ASCI Grid and passed to the ASCII to Raster tool. That tool appears to accept ASCII files that contain doubles, but its behavior is not documented. In ArcGIS 9.1 it appears to be:

      Values where the exponent ranges from -38 to +38 are properly represented in the resulting 32-bit float raster, although some precision is lost due to the smaller mantissa of the 32-bit float data type.

      Values where the exponent is less than -38 (e.g. -39, -40, and so on) are converted to 0.

      Values where the exponent is greater than +38 are converted to -INF or +INF, depending on the sign of the value (e.g. -5.3083635279597874e-212 appears as -1.#INF in the ArcCatalog GUI, while 2.5502286890301497e+084 appears as 1.#INF).

      The ArcGIS 9.1 ASCII to Raster tool also exhibits some quirks when converting integer rasters:

      For an ASCII file created from an int8 binary file, the tool will create an int16 raster if the value -128 appears in the ASCII file, unless -128 is designated the NODATA value. Specifying a different NODATA value, such as 0, still yields an int16 raster if -128 appears.

      Similarly, for an ASCII file created from an int16 binary file, the tool will create an int32 raster if the value -32768 appears in the ASCII file, unless it is designated the NODATA value.

      Worse, for an ASCII file created from an int32 binary file, the tool will report an error if the value -2147483648 appears in the ASCII file unless it is designated the NODATA value. Even stranger, the value -2147483647 is always translated to NODATA, no matter what.

      For all types of integer rasters, the tool produces strange behavior when you specify a NODATA value that is not the smallest possible value for the data type. For example, if the ASCII file contains values from 0 to 255 and 0 is designated the NODATA value, the tool produces a uint8 output raster. But if 1 is designated the NODATA value, it produces an int16 output raster, and ArcCatalog shows under Raster Dataset Properties that the NoData Value is -32768, although the Identify tool shows cells that had value 1 are actually NODATA. Similar strange results can be obtained for integer rasters of other data types, when you designate a NODATA that is not the smallest possible value.

      Number of columns in the binary raster.

      Number of rows in the binary raster.

      X coordinate of the lower-left corner of the raster.

      The coordinate is for the corner of the lower-left cell, not the center of that cell. For example, if the raster is a geographic projection of the entire Earth, the coordinate of the lower left corner would be -180.0, corresponding to a longitude of 180 degrees West.

      Y coordinate of the lower-left corner of the raster.

      The coordinate is for the corner of the lower-left cell, not the center of that cell. For example, if the raster is a geographic projection of the entire Earth, the coordinate of the lower left corner would be -90.0, corresponding to a latitude of 90 degrees South.

      For example, if the raster is a geographic projection of the entire Earth, with 720 columns and 360 rows, it would have a cell size of 0.5, corresponding to 1/2 of a geographic degree.

      The underlying data format requires the cells be square. It is not possible to specify a cell size for each dimension.

      Value that indicates a cell has no data.

      Number of bytes of the file to skip before reading the data.

      This option is useful for skipping a headers or other metadata that occur before the data. For example, if the file contains a 512 byte header, set this parameter to 512 to skip over the header. If this parameter is not specified, the data will be read starting at the first byte of the file.

      If True, the byte ordering of the binary raster will be reversed prior to conversion.

      This option is ignored if the raster data type is int8 or uint8.

      This option is useful if the input file was produced on computer with a processor architecture that uses a different byte ordering than your computer. For example, if you are running on an Intel x86 processor, which uses "little endian" byte ordering, you might use this option to process data produced by a Sun SPARC processor, which uses "big endian" byte ordering.

      If True, the image will be transposed (flipped about the diagonal axis) prior to conversion. Use this option to fix an image that has the east/west axis going up and down instead of left and right.

      If True, the image will be flipped about the vertical axis prior to conversion. Use this option to fix an image that is the "mirror image" of what it is supposed to be.

      If True, the image will be flipped about the horizontal axis prior to conversion. Use this option to fix an image that is upside-down.

      If True, the east and west hemispheres of the image will be swapped. Use this option to change the orientation of a global image from a 0 to 360 orientation centered on the Pacific ocean to a -180 to +180 orientation centered on the Atlantic ocean, or visa versa.

      Coordinate system to define for the raster.

      If a value is not provided, the coordinate system of the raster will remain undefined.

      New coordinate system to project the raster to.

      The raster may only be projected to a new coordinate system if the original projection is defined. An error will be raised if you specify a new coordinate system without defining the original coordinate system.

      The ArcGIS Project Raster tool is used to perform the projection. The documentation for that tool recommends that you also specify a cell size for the new coordinate system.

      I have noticed that for certain coordinate systems the ArcGIS 9.2 Project Raster tool seems to clip the projected raster to an arbitrary extent that is too small. For example, when projecting a global MODIS Aqua 4 km chlorophyll image in geographic coordinates to Lambert_Azimuthal_Equal_Area with central meridian of -60 and latitude of origin of -63, the resulting image is clipped to show only one-quarter of the planet. This problem does not occur when Project Raster is invoked interactively from the ArcGIS user interface it only occurs when the tool is invoked programmatically (the ProjectRaster_management method of the geoprocessor). Thus you may not see it when you use Project Raster yourself but it may happen when you use MGET tools that invoke Project Raster as part of their geoprocessing operations.

      If you encounter this problem, you can work around it like this:

      First, run this tool without specifying a new coordinate system, to obtain the raster in the original coordinate system.

      In ArcCatalog, use the Project Raster tool to project the raster to the new coordinate system. Verify that the entire raster is present, that it has not been clipped to an extent that is too small.

      In ArcCatalog, look up the extent of the projected raster by right-clicking on it in the catalog tree, selecting Properties, and scrolling down to Extent.

      Now, before running the MGET tool that projects the raster, set the Extent environment setting to the values you looked up. If you are invoking the MGET tool interactively from ArcCatalog or ArcMap, click the Environments button on the tool's dialog box, open General Settings, change the Extent drop-down to "As Specified Below", and type in the values you looked up. If you're invoking it from a geoprocessing model, right-click on the tool in the model, select Make Variable, From Environment, General Settings, Extent. This will place Extent as a variable in your model, attached to the MGET tool. Open the Extent variable, change it to "As Specified Below" and type in the values you looked up. If you're invoking the MGET tool programmatically, you must set the Extent property of the geoprocessor to the values you looked up. Please see the ArcGIS documentation for more information about this and Environment settings in general.

      Run the MGET tool. The extent of the raster should now be the proper size.

      A transformation method used to convert between the original coordinate system and the new coordinate system.

      This parameter is a new option introduced by ArcGIS 9.2. You must have ArcGIS 9.2 to use this parameter.

      This parameter is only needed when you specify that the raster should be projected to a new coordinate system and that new system uses a different datum than the original coordinate system, or there is some other difference between the two coordinate systems that requires a transformation. To determine if a transformation is needed, I recommend the following procedure:

      First, run this tool without specifying a new coordinate system, to obtain the raster in the original coordinate system.

      Next, use the ArcGIS 9.2 Project Raster tool on the raster to project it to the desired coordinate system. If a geographic transformation is needed, that tool will prompt you for one. Write down the exact name of the transformation you used.

      Finally, if a transformation was needed, type in the exact name into this tool, rerun it, and verify that the raster was projected as you desired.

      The resampling algorithm to be used to project the original raster to a new coordinate system. The ArcGIS Project Raster tool is used to perform the projection and accepts the following values:

      NEAREST - nearest neighbor interpolation

      BILINEAR - bilinear interpolation

      You must specify one of these algorithms to project to a new coordinate system. An error will be raised if you specify a new coordinate system without selecting an algorithm.

      The cell size of the projected coordinate system. Although this parameter is optional, to receive the best results, the ArcGIS documentation recommends you always specify it when projecting to a new coordinate system.

      The x and y coordinates (in the output space) used for pixel alignment.

      This parameter is a new option introduced by ArcGIS 9.2. You must have ArcGIS 9.2 to use this parameter. It is ignored if you do not specify that the raster should be projected to a new coordinate system.

      Rectangle to which the raster should be clipped.

      If a projected coordinate system was specified, the clipping is performed after the projection and the rectangle's coordinates should be specified in the new coordinate system. If no projected coordinate system was specified, the coordinates should be specified in the original coordinate system.

      The ArcGIS Clip tool is used to perfom the clip. The clipping rectangle must be passed to this tool as a string of four numbers separated by spaces. The ArcGIS user interface automatically formats the string properly when invoking this tool from the ArcGIS UI, you need not worry about the format. But when invoking it programmatically, take care to provide a properly-formatted string. The numbers are ordered LEFT, BOTTOM, RIGHT, TOP. For example, if the raster is in a geographic coordinate system, it may be clipped to 10 W, 15 S, 20 E, and 25 N with the string:

      Integers or decimal numbers may be provided.

      Map algebra expression to execute on the raster.

      WARNING: The ArcGIS Geoprocessing Model Builder may randomly and silently delete the value of this parameter. This is a bug in ArcGIS. Before running a model that you have saved, open this tool and validate that the parameter value still exists.

      The expression is executed after the converted raster is projected and clipped (if those options are specified). Use the case-sensitive string inputRaster to represent the raster that you now want to perform map algebra upon. For example, to convert the raster to an integer raster and add 1 to all of the cells, use this expression:

      The string inputRaster is case-sensitive. Prior to executing the map algebra expression, the string is replaced with the path to a temporary raster that represents the raster being generated. The final expression must be less than 4000 characters long or ArcGIS will report an error.

      The ArcGIS Single Output Map Algebra tool is used to execute the map algebra expression. You must have a license for the ArcGIS Spatial Analyst extension in order to perform map algebra.

      Map algebra syntax can be very picky. Here are some tips that will help you succeed with this tool:

      Before using this tool, construct and test out your map algebra expression using the ArcGIS Single Output Map Algebra tool. Then paste the expression into this tool and edit it to use the inputRaster variable rather than the test value you used with Single Output Map Algebra.

      If you do develop your expression directly in this tool, start with a very simple expression. Verify that it works properly, add a little to it, and verify again. Repeat this process until you have built up the complete expression.

      Always separate mathematical operators from raster paths using spaces. In the example above, the / operator contains a space on either side. Follow this pattern. In some circumstances, ArcGIS will fail to process raster algebra expressions that do not separate raster paths from operators using spaces. The reported error message usually does not indicate that this is the problem, and tracking it down can be very frustrating.

      If True, pyramids will be built for the raster, which will improve its display speed in the ArcGIS user interface.