Suite

Passer d'un système de coordonnées artificiel à un système réel


J'ai des données spatiales générées dans une fouille archéologique qui se trouve dans un système de coordonnées artificiel et je souhaite les convertir en un système de coordonnées "réel". Pour ce faire j'ai pris des coordonnées réelles de points déjà connus (qui ont des coordonnées artificielles) mais je ne sais pas comment procéder maintenant. J'utilise la dernière version de QGIS.


Vous devez définir votre propre système de projection :

  1. Trouvez-vous x0 et y0 (l'origine de votre système) en fonction des points dont vous connaissez les coordonnées réelles
  2. Dans le sélecteur de système de référence de coordonnées (clic droit sur une couche et définir le CRS de la couche), utilisez le système de coordonnées défini par l'utilisateur (utilisez la définition du CRS que vous avez mentionné comme "coordonnée réelle" et modifiez vos x0 et y0)

Vous ne mentionnez pas le logiciel que vous utilisez. Bien que cette solution soit basée sur ArcGIS, les principes de la méthode sont les mêmes pour tous les logiciels, bien que les outils pour le faire et leurs noms puissent différer ou ne pas être disponibles selon le logiciel.

Vous avez des coordonnées « artificielles » pour tous les points, et pour certains de ces points, vous avez des coordonnées « réelles ». Vous devez d'abord déterminer ou savoir dans quel CRS se trouvent ces coordonnées réelles. Une fois que vous avez établi cela, vous pouvez créer un ensemble de données de points avec des points aux emplacements de coordonnées « réels ». Ceux-ci sont connus comme vos points de contrôle, et il serait utile qu'ils aient des noms à faire correspondre entre les ensembles de données. Il existe plusieurs façons de le faire, notamment la création d'une couche d'événements XY à partir d'une table/feuille de calcul de coordonnées.

Si les coordonnées que vous avez sont déjà dans le CRS souhaité, tant mieux. Si ce n'est pas le cas, ce serait le bon moment pour les projeter vers le CRS souhaité. Par exemple, si vous avez capturé les coordonnées avec un GPS, elles seraient probablement en WGS84 et vous direz que vous voulez travailler et garder les choses dans la zone UTM appropriée à l'excavation. Vous utiliseriez l'outil Projet pour reprojeter vos points nouvellement créés dans la zone UTM souhaitée, ou simplement en exporter une nouvelle couche et choisir cette zone UTM.

Vous pouvez maintenant charger vos données de points complètes. Il n'entrera probablement pas au bon endroit ou à la bonne échelle. Vous utiliserez l'outil d'ajustement spatial pour créer ce que l'on appelle des liens de déplacement entre les points que vous avez créés dans le CRS correct et leurs points correspondants dans votre ensemble de points complet (en gros, « ce point devrait être ici »). Lorsque l'ajustement est exécuté, il met à l'échelle/transforme/déforme tout pour correspondre le plus possible aux deux ensembles de points de contrôle.

Notez que cette méthode peut introduire des distorsions dans vos mesures de points d'origine en fonction de la précision de votre levé d'origine (probablement très élevée) et de la collecte des coordonnées de votre point de contrôle (peut-être plutôt faible avec un GPS de qualité grand public). Il pourrait également ne pas être en mesure de former un ajustement exact. La méthode de Tsoc ne déformera pas les points car elle établit simplement un lien à un seul point de contrôle (l'origine), mais elle ne les mappera pas non plus vraiment à la surface de la terre ou à des coordonnées cohérentes dans votre CRS sélectionné. Encore une fois, la taille de l'excavation et votre objectif pour les coordonnées « réelles » peuvent être des facteurs importants à prendre en compte.


Évaluation des températures quotidiennes locales au moyen de nouvelles approches analogiques : une étude de cas basée sur la ville d'Augsbourg, en Allemagne

Dans le cadre de la modélisation du climat urbain, des analogues météorologiques sont utilisés pour réduire les informations basées sur une réanalyse à grande échelle aux séries chronologiques des stations. Deux nouvelles approches d'analogues météorologiques sont introduites qui permettent une comparaison au jour le jour avec les observations au cours de la période de validation et qui sont facilement adaptables aux périodes futures pour les projections. Les deux méthodes affectent le premier niveau d'analogie qui est généralement basé sur la sélection des modèles de circulation. Premièrement, les séries chronologiques ont été corrigées et corrigées des tendances avant que des sous-échantillons ne soient déterminés pour chaque jour d'intérêt spécifique. Par la suite, le vecteur normal des plans de régression standardisés (NVEC) ou le centre de gravité (COG) des modèles de circulation absolue normalisés a été utilisé pour déterminer un point dans un système de coordonnées artificiel pour chaque jour. Le(s) jour(s) qui présente(nt) la(les) distance(s) la moins absolue(s) entre les points artificiels du jour d'intérêt et les jours du sous-échantillon est/sont utilisé(s) comme analogique ou sous-échantillon pour le deuxième niveau d'analogie, respectivement. Ici, le deuxième niveau d'analogie est un deuxième processus de sélection basé sur la comparaison des données de température maillées entre le sous-échantillon analogique et le jour d'intérêt. Après le processus de sélection analogique, les tendances de l'observation ont été ajoutées à la série chronologique analogique. En ce qui concerne la température de l'air et le dépassement du 90e quantile de température, la présente étude compare les performances des deux méthodes analogiques avec une méthode analogique déjà existante et une régression linéaire multiple. Les résultats montrent que les deux nouvelles approches analogiques peuvent suivre les méthodes existantes. Un inconvénient des méthodes présentées ici est qu'elles sont limitées à des applications locales ou régionales de petite taille. En revanche, moins de pré-traitement et la petite taille de domaine des modèles de circulation conduisent à de faibles coûts de calcul.



$g(x) = omega_0 + omega^Tx = omega_0 + omega_1x_1 + omega_2x_2 = 0$

  • Perceptron trouve l'un des nombreux hyperplans possibles séparant les données s'il en existe un
  • Parmi les nombreux choix possibles, lequel est le meilleur ?
  • Utiliser les informations de distance
  • Intuitivement, nous voulons que l'hyperplan ait la marge maximale
  • Une marge importante conduit à une bonne généralisation sur les données de test
    • nous le verrons officiellement lorsque nous couvrirons Support Vector Machine

    Je souhaite amener notre entreprise à utiliser un SCU qui s'aligne sur la fenêtre.

    Cependant, mon hésitation a toujours été que World ne semble pas revenir aux coordonnées d'origine.

    Nous rédigeons des sondages et les coordonnées de la grille de la carte sont essentielles et nous ajoutons régulièrement de nouvelles données de sondage sur celles existantes.

    Je l'ai testé à nouveau la semaine dernière, mais je ne peux toujours pas insérer de nouvelles données dans la même position, même après la restauration dans World UCS. Il est systématiquement décalé d'environ 1,5 unité par rapport à la position correcte.

    Est-ce que je fais quelque chose de mal? Si USC World redéfinissait les coordonnées d'origine identiques, de sorte que je puisse coller en toute confiance avec un point de base 0,0 et que la géométrie soit dans la bonne position.


    AutoCAD Civil 3D :: Exporter les coordonnées et les élévations des points le long de la tabulation

    Je travaille sur un projet de restauration de cours d'eau et nous devons déterminer les coordonnées x et les élévations correspondantes le long d'un alignement de cours d'eau sur certaines lignes d'échantillonnage. La ligne médiane de l'alignement du ruisseau a été créée ainsi que des lignes d'échantillonnage pour les coupes transversales à des intervalles de 50'. Nous avons besoin des coordonnées et des élévations de chaque échantillon de ligne (section transversale) exportées dans un document Excel/txt.

    Par exemple, à la station 1+00 de l'alignement, nous avons une ligne d'échantillonnage. Nous devons connaître à droite et à gauche le long de cette ligne d'échantillonnage les élévations correspondantes et cette coordonnée x) à partir de l'alignement. Principalement, des intervalles de contour entiers, mais plus d'informations seraient également utiles. J'espérais que cela pourrait être généré automatiquement.


    Passer d'un système de coordonnées artificiel à un système réel - Systèmes d'Information Géographique

    De nombreux musées, bibliothèques et autres institutions d'archivage considèrent l'imagerie numérique comme une solution au dilemme consistant à fournir un accès illimité à leurs collections de documents de haute qualité tout en préservant simultanément ces collections dans un stockage sécurisé et à environnement contrôlé. Les images numériques peuvent être reproduites indéfiniment sans dégradation et distribuées électroniquement dans le monde entier. La conversion sous forme d'image numérique peut également fournir un type de permanence pour les collections qui se détériorent autrement. Cependant, un déterminant essentiel de la valeur des images numériques de substitution, en particulier pour les chercheurs, les historiens et les restaurateurs, est leur qualité.

    Parlant de l'importance de la qualité de l'image, Charles S. Rhyne, professeur émérite d'histoire de l'art au Reed College, a déclaré qu'« aucun potentiel de l'imagerie numérique n'est plus méconnu et sous-évalué que la fidélité à l'apparence des œuvres d'art originales, mais aucun porte plus de promesses pour transformer l'étude de l'art." Il déclare en outre que « . . . à chaque saut de qualité, de nouvelles utilisations deviennent possibles ». et "Ce qui a été négligé dans la plupart des discussions sur l'imagerie numérique, c'est l'immense potentiel des images de haute qualité" (Rhyne, 1996).

    Malheureusement, pour de nombreux chercheurs et autres utilisateurs, bon nombre des images numériques actuellement disponibles dans les musées et les bibliothèques ne peuvent pas être qualifiées de haute qualité et ne conviennent probablement qu'à des fins d'identification de documents.

    Ce guide décrit certains des problèmes techniques associés à la planification, l'acquisition, la configuration et l'exploitation d'un système d'imagerie. Les utilisateurs finaux des images peuvent également trouver ce guide utile car il fournit des suggestions pour tester et configurer les systèmes de visualisation ou d'impression et peut aider à expliquer les décisions prises par les créateurs de contenu concernant les compromis de qualité.

    Ce guide ne recommande aucun scanner, appareil photo, système d'exploitation ou logiciel de traitement d'image spécifique, ni ne suggère l'utilisation d'une technique d'acquisition, fréquence d'échantillonnage, résolution spatiale, nombre de bits par pixel, espace colorimétrique, algorithme de compression, ou format de stockage. Le guide fournit plutôt des informations générales sur l'imagerie numérique, décrit des techniques généralement applicables pour garantir une imagerie de haute qualité et suggère des procédures qui, dans la mesure du possible, ne sont pas limitées par les capacités du matériel ou des logiciels actuellement disponibles. La sélection de composants spécifiques est laissée aux utilisateurs du système et doit être basée sur leurs évaluations de leurs propres exigences de qualité d'image, leurs tailles et quantités de documents, et la vitesse d'acquisition nécessaire.

    Ce guide explique comment la qualité de l'image peut être mesurée et maintenue, à la fois pendant l'effort de conversion et pendant le traitement ultérieur. Dans la mesure du possible, les divers compromis qui doivent être faits entre des facteurs tels que la qualité d'image, le taux de compression et le temps de stockage ou de transmission sont décrits en des termes qui ne dépendent pas du système.

    Le reste de cette section explique l'approche de mesure de la qualité d'image utilisée par ce guide. La section 2 fournit une terminologie de base. La section 3 décrit les principaux composants et étapes de traitement d'un système d'imagerie, en mettant l'accent sur ceux qui sont essentiels au maintien de la qualité. La section 4 décrit comment la qualité d'image peut être spécifiée et mesurée. La section 5 fournit des informations sur l'approche de l'International Color Consortium en matière de gestion des couleurs et l'utilisation des profils ICC. La section 6 aborde certaines des questions liées à la gestion d'un système d'imagerie, en particulier pour la conversion d'un grand nombre d'objets en images numériques. La section 7 décrit le point de vue de l'utilisateur final sur la gestion de la qualité.

    1.1 Spécification et mesure de la qualité d'image

    Lorsqu'un observateur non entraîné décrit la qualité d'une image numérique, il utilise généralement des termes subjectifs et non quantitatifs, tels que « réaliste », « bien focalisé », « très net », « bien tonique », « bonnes couleurs » ou "fidèle à l'original." Ces termes sont, bien entendu, susceptibles d'être mal interprétés. De plus, les moyens de présentation et l'environnement de visualisation, ainsi que le contenu des images, peuvent grandement affecter toute évaluation visuelle de la qualité de l'image, même pour un observateur entraîné.

    Des méthodes plus objectives ont été développées pour caractériser les performances d'un système d'imagerie et la qualité des images qu'il produit. Certaines de ces méthodes mesurent la qualité d'image en utilisant des images de documents ou d'objets réels dans une collection. Comme les caractéristiques des objets eux-mêmes sont généralement inconnues, de telles approches dépendent du contenu des images et nécessitent une expertise considérable pour être interprétées. Une alternative préférable, et celle employée dans ce guide, consiste à mesurer des images de mires dont les caractéristiques sont connues a priori.

    La mesure de la qualité de l'image à l'aide de modèles connus peut souvent être automatisée ou être effectuée rarement, cela ne nécessite pas un effort majeur. La plupart des projets de conversion à volume élevé sont facilement capables d'inclure des motifs de test dans des parties des images d'objets ou de capturer, occasionnellement, des images de motifs de test avec des images d'objets. Si des mires de test sont périodiquement intercalées et qu'une qualité d'image inférieure à la norme est détectée, toutes les images générées après la dernière mire de test supérieure à la norme doivent être considérées comme inférieures à la norme. Ainsi, la fréquence à laquelle les motifs de test sont intercalés doit être mise en balance avec le coût de la renumérisation des lots d'images qui pourraient avoir une qualité inférieure aux normes.

    Les organismes de normalisation se sont récemment efforcés d'élaborer des normes internationales pour la spécification et la mesure de la qualité des images numériques. Notamment, le comité technique de la Photographic and Imaging Manufacturers Association sur l'imagerie électronique des images fixes (IT10) s'efforce d'établir des normes pour l'imagerie électronique des images fixes. L'American National Standards Institute accrédite PIMA en tant qu'organisme de normalisation. L'élaboration de normes pour le comité technique 42 de l'Organisation internationale de normalisation (ISO), groupe de travail 18, figure parmi les activités de PIMA relatives à la qualité d'image. Le tableau 1 fournit les numéros et les titres des normes de qualité d'image ISO/TC42/WG18 en cours d'élaboration, ainsi que leur statut au début de 2000. De plus amples informations peuvent être trouvées sur la page IT10 du site Web PIMA.

    Tableau 1. Documents de normes ISO en cours d'élaboration pour la qualité d'image

    Numéro ISO Titre Comité technique Numéro de brouillon
    ISO 16067 Photographie-Scanners électroniques pour images photographiques-Mesures de résolution spatiale : Partie I Scanners pour supports réfléchissants ISO/TC42/WG18 Ébauche de travail 3.1
    ISO 14524/DIS Photographie - Appareils photo électroniques - Méthodes de mesure des fonctions de conversion opto-électronique ISO/TC42/WG18 DIS
    ISO 15739 Photographie-Appareils photo électroniques-Mesures de bruit ISO/TC42/WG18 Ébauche de travail 5.2
    ISO 17321 Technologie graphique et photographie-Caractérisation des couleurs d'appareils photo numériques à l'aide de cibles de couleur et d'éclairage spectral ISO/TC42/WG18
    ISO/TC130/WG3
    Ébauche de travail 3.1
    ISO 12233:1999E Photographie-Appareils photo électroniques-Mesures de résolution ISO/TC42/WG18 FDIS

    1.2 Facteurs affectant la qualité

    • qualité des objets originaux
    • qualité de la reproduction photographique intermédiaire, le cas échéant
    • moyens de numérisation et les paramètres de conversion choisis
    • algorithmes de traitement et de compression d'images
    • utilisation du reformatage, du rééchantillonnage ou de la réduction du nombre de niveaux de quantification
    • le matériel et le logiciel d'application du spectateur
    • qualité et configuration du moniteur ou de l'imprimante du spectateur
    • environnement de visualisation

    2.0 Quelques termes de base

    1. Traitement des images d'acquisition
    2. Compression
    3. Formatage et stockage de fichiers
    4. Affichage
    5. Impression

    3.1 Dispositifs d'acquisition et de capture d'images

    Les dispositifs de capture d'images numériques peuvent être classés en scanners ou appareils photo, selon la manière dont le processus d'échantillonnage périodique est effectué. Bien qu'il n'y ait pas de correspondance univoque entre la conception du capteur et les types de dispositifs de capture, un scanner utilise généralement un capteur linéaire et capture une seule ligne de pixels à la fois. Par conséquent, le document doit être déplacé sur le plan objet ou le capteur doit être déplacé sur le plan image. Un appareil photo numérique, en revanche, utilise généralement un capteur matriciel, qui capture les valeurs de tous les pixels de l'image au cours d'une seule exposition. De plus, un scanner a généralement une distance objet-capteur fixe, tandis qu'un appareil photo numérique fournit un mécanisme de mise au point pour s'adapter à une large gamme de distances objet-capteur.

    La sélection d'un scanner ou d'un appareil photo numérique pour un effort de conversion numérique implique des compromis entre plusieurs facteurs, dont beaucoup changent rapidement à mesure que les technologies pertinentes, en particulier pour les appareils photo, évoluent. Guide 2 de cette série, Sélection d'un scanneur, fournit des informations supplémentaires sur ces compromis.

    3.2 Traitement des images

    • rééchantillonnage-modification des dimensions en pixels de l'image
    • modification au niveau des pixels
      • réglage de la luminosité et du contraste
      • correction gamma
      • modification de l'histogramme
      • Correction de couleur
      1. la valeur du pixel le plus proche parmi les quatre pixels environnants dans l'image d'origine ("le plus proche voisin")
      2. une combinaison pondérée des valeurs des quatre pixels environnants dans l'image originale (interpolation bilinéaire)
      3. une combinaison pondérée des valeurs des seize pixels environnants dans l'image originale (interpolation bicubique).

      3.3 Compression

      Étant donné que les images peuvent consommer de grandes quantités de stockage, divers types d'algorithmes de compression sont utilisés pour réduire leur taille. La plupart des images se compressent assez bien car les valeurs des pixels d'une image sont généralement corrélées localement. Les algorithmes de compression utilisent cette corrélation pour réduire le nombre de bits qui doivent être stockés ou transmis.

      Les algorithmes de compression d'image peuvent être soit des algorithmes de préservation de l'information (également appelés réversibles ou sans perte) ou ne préservant pas l'information (également appelé irréversible ou à perte). La compression sans perte peut être inversée pour générer l'image d'origine exactement. La compression avec perte sacrifie les informations et ne peut pas être inversée sans une certaine dégradation. Pour la plupart des images, la compression avec perte permet d'obtenir des taux de compression considérablement plus élevés que la compression sans perte, souvent sans trop sacrifier la fidélité à l'original.

      Guide 5 de cette série, Formats de fichiers pour les masters numériques, couvre plus largement la compression.

      3.4 Formatage et stockage des fichiers

      Un format de fichier image doit être flexible, puissant, capable de s'adapter à un large éventail de formats d'image et de techniques de compression, non exclusif et officiellement publié par une organisation internationale de normalisation. En outre, il devrait être largement pris en charge par les applications logicielles informatiques.

      Si un produit ou une spécification développé par l'entreprise devient largement utilisé, il s'agit d'une norme de facto et d'autres fournisseurs peuvent l'aider à rester compétitif. Dans le domaine de l'imagerie, il existe de nombreuses normes de fait. L'inconvénient de toute norme de facto est que l'organisation auteur peut la modifier à volonté, sans consulter la communauté des utilisateurs. Guide 5, Formats de fichiers pour les masters numériques, couvre plus largement les formats de fichiers.

      3.5 Affichages

      À l'heure actuelle, deux technologies dominent l'affichage des images couleur : les tubes cathodiques à masque d'ombre (CRT) et les écrans à cristaux liquides (LCD).La qualité des images affichées dépend non seulement des capacités du moniteur, mais aussi de la carte d'adaptateur d'affichage de l'ordinateur (c'est-à-dire la carte graphique ou l'adaptateur d'affichage vidéo) et sa configuration, la configuration du logiciel du pilote d'affichage, la caractérisation appropriée du moniteur, et l'environnement de visionnage.

      3.5.1 Écrans CRT

      Les écrans CRT sont le moyen par lequel la plupart des images "soft copy" de haute qualité sont fournies aux utilisateurs. Les tubes cathodiques couleur utilisent un ensemble de triades de phosphore rouge-vert-bleu, combinés à un masque d'ombre métallique aligné avec précision et à des canons à électrons, pour produire des images en couleur. Un schéma de ces composants et de leurs relations physiques les uns avec les autres est fourni à la fig. 2. (Notez que le diagramme implique à tort que les faisceaux d'électrons traversent un trou à la fois. En réalité, les tubes cathodiques ont des faisceaux d'électrons qui, au niveau d'intensité de 5 pour cent, englobent plusieurs trous.)

      Même si les faisceaux d'électrons du tube cathodique pouvaient être focalisés avec précision, la taille minimale des pixels affichés est limitée par l'espacement de la triade, puisque chaque pixel doit englober au moins une triade. Les écrans de haute qualité actuellement disponibles ont un pas de triade d'environ 0,25 mm (0,01"), limitant ainsi leur densité de pixels utiles à environ 100 par pouce.

      Figure 2. Schéma de la technologie CRT couleur masque d'ombre

      La plage dynamique d'un tube cathodique est le rapport de son intensité lumineuse la plus brillante à sa plus sombre, telle que mesurée sous un éclairage ambiant. La luminosité maximale est limitée par le courant du faisceau d'électrons, la fraction du courant du faisceau d'électrons qui traverse le masque perforé et l'efficacité des luminophores. La valeur la plus sombre est limitée par la réflexion de l'éclairage ambiant de la matrice de phosphore et de la plaque frontale en verre.

      3.5.2 Écrans à cristaux liquides

      La technologie LCD s'est considérablement améliorée ces dernières années, et les LCD sont maintenant presque en concurrence avec les CRT dans certaines applications d'affichage d'images haut de gamme.

      Le terme cristal liquide fait référence à l'état d'une substance qui n'est ni vraiment solide ni liquide. En 1963, il a été découvert que la façon dont la lumière passe à travers un cristal liquide pouvait être affectée par un champ électrique appliqué. Les écrans LCD sont formés dans un agencement de type sandwich dans lequel la couche de cristaux liquides affecte la rotation de la lumière polarisée. En plaçant des polariseurs sur la lumière entrant et sortant et des électrodes transparentes de chaque côté de la couche de cristaux liquides, il peut faire passer la lumière sélectivement à travers le sandwich, quand et où une tension est appliquée. Les écrans LCD couleur sont formés à l'aide d'un réseau de filtres de couleur pour la lumière sortante.

      Alors que les écrans LCD sont parfaitement plats, dimensionnellement stables et ne nécessitent aucune mise au point, ils n'ont pas encore la résolution spatiale des écrans cathodiques. Les autres défis auxquels est confronté le concepteur d'écrans LCD couleur pour les applications d'imagerie comprennent l'obtention d'une luminosité, d'un contraste, d'un nombre de niveaux par couleur et d'une gamme d'angles de vision suffisants.

      3.5.3 Adaptateurs d'affichage

      L'adaptateur d'affichage de l'ordinateur convertit les images numériques stockées dans l'ordinateur en signaux électroniques analogiques requis par le moniteur. L'adaptateur détermine le nombre maximal de pixels adressables dans chaque axe (adressabilité), le taux de rafraîchissement et le nombre de couleurs par pixel. (Bien sûr, le moniteur doit être tout aussi capable. Ce n'est pas parce que l'adaptateur a une capacité d'adressage que tous les pixels peuvent être distingués ou résolus sur le moniteur.)

      Les adaptateurs d'affichage contiennent généralement leur propre mémoire pour stocker les images pendant les cycles de rafraîchissement. À titre d'exemple de mémoire requise pour un adaptateur d'affichage, l'affichage de 1 280 pixels (horizontaux) sur 1 024 pixels (verticaux) avec 24 bits d'informations de couleur par pixel nécessite au moins 4 mégaoctets de mémoire vidéo (c'est-à-dire 1 280 x 1 024 x 24 / 8).

      3.5.4 Caractérisation de l'affichage

      Les couleurs produites par un écran CRT dépendent non seulement de l'amplitude des signaux d'entrée fournis par l'adaptateur d'affichage, mais également des courants et des tensions des phosphores et des canons à électrons (qui sont affectés par les commandes de luminosité, de contraste et de température de couleur de l'écran) et par l'éclairage ambiant. Pour le même signal d'entrée, les écrans de différents fabricants ou avec des numéros de modèle différents peuvent produire des couleurs très différentes. De plus, à mesure que les moniteurs vieillissent, leurs canons à électrons produisent moins de courant et l'efficacité de conversion de leurs luminophores peut diminuer. L'affichage cohérent des couleurs nécessite, par conséquent, qu'un dispositif d'affichage soit caractérisé périodiquement pour réévaluer son comportement pour diverses valeurs d'entrée.

      Caractérisation est le processus de détermination de la manière dont un appareil rend les couleurs connues. Il faut le distinguer de étalonnage, qui consiste à s'assurer qu'un appareil fonctionne conformément aux spécifications a priori généralement fournies par le fabricant. Un affichage peut être caractérisé en mesurant ses couleurs de sortie à l'aide d'un colorimètre ou d'un spectrophotomètre pour diverses valeurs d'entrée numériques. La caractérisation détecte l'espace colorimétrique et la gamme de couleurs d'un appareil (c'est-à-dire sa gamme de couleurs affichables). Alternativement, un affichage peut être caractérisé plus grossièrement par un processus manuel interactif dans lequel les couleurs affichées sont comparées les unes aux autres et avec les couleurs sur une feuille imprimée de papier.

      La caractérisation d'un appareil et le développement d'un fichier informatique, ou profil, qui contient une description précise des réponses de l'appareil aux couleurs connues est souvent appelé profilage. La section 5 de ce guide fournit de plus amples informations sur le processus de profilage.

      3.5.5 L'environnement de visualisation

      L'environnement de visualisation peut avoir un effet étonnamment important sur les couleurs perçues. Pour une imagerie de haute qualité, il est essentiel de maintenir un environnement de visualisation cohérent. L'éclairage ambiant peut affecter les couleurs d'un écran car une partie de la lumière incidente est réfléchie par la surface du tube cathodique et par sa matrice de phosphore. Notre perception de la couleur est également affectée par les couleurs des matériaux entourant l'écran. Il peut être très difficile de comparer les couleurs d'un appareil auto-lumineux, tel qu'un tube cathodique, avec celles d'une surface réfléchissante, telle qu'une peinture. Des environnements de visualisation ayant un éclairage standardisé et un environnement neutre sont essentiels pour de telles comparaisons.

      3.6 Impression

      Contrairement aux écrans auto-lumineux qui restituent les couleurs à travers un additif processus, l'impression de la couleur utilise un soustractif mélange de colorants ou de pigments. Les trois primaires soustractives - cyan, magenta et jaune - sont couramment utilisées. Cependant, si ces primaires étaient présentes en quantités égales, seules huit couleurs pourraient être produites. Pour étendre la gamme des nuances imprimables, il faut que le système d'impression module la quantité d'encre déposée. Les systèmes d'impression peuvent être classés en deux types : (1) ceux qui sont capables de contrôler soit la densité de l'encre déposée à chaque point d'encre et (2) ceux qui peuvent produire des points d'encre uniquement d'une taille et d'une densité cohérentes mais qui peuvent changer la fréquence d'apparition des points. La première catégorie peut être qualifiée d'imprimantes à tons continus, la seconde d'imprimantes à demi-teintes.

      La détermination d'utiliser une imprimante à tons continus ou à demi-teintes pour une application n'est pas aussi évidente qu'elle aurait pu l'être autrefois. Les imprimantes disponibles dans le commerce dans les deux catégories se sont considérablement améliorées. Notamment, pour de nombreuses applications, les imprimantes à jet d'encre, qui utilisent des méthodes de demi-teintes sophistiquées, sont désormais en concurrence avec les imprimantes à sublimation thermique et photographiques, qui utilisent des méthodes à tons continus.

      3.6.1 Imprimantes à tons continus

      Les imprimantes à tons continus sont capables de contrôler la densité de l'encre ou la taille de point résultante grâce à une modulation du mécanisme de dépôt d'encre. Par exemple, dans les imprimantes à sublimation thermique, la température de chacun des éléments de la taille d'un pixel dans un réseau d'éléments chauffants contrôle la quantité de colorant transférée d'un film donneur au papier. Lorsque le film donneur est changé et le papier repositionné, le dépôt successif de colorants cyan, magenta et jaune produit une impression en couleur. Un rendu précis des couleurs nécessite que la température de chacun des éléments soit soigneusement contrôlée.

      3.6.2 Imprimantes demi-teintes

      Conventionnel l'impression en demi-teintes utilise un écran photographique avec des trous qui ont une densité variant radialement. Une impression est créée lorsqu'un négatif photographique conventionnel est masqué avec l'écran lors de l'impression d'un positif à contraste élevé. L'image résultante contient le motif de l'écran avec la taille de chacun des points variant proportionnellement à la quantité de lumière transmise par le négatif. L'impression en demi-teinte peut ensuite être utilisée pour créer une plaque d'impression.

      Dans numérique demi-teintes, la taille des points reste constante tandis que la fréquence d'apparition des points varie dans de nombreuses petites cellules de demi-teintes. La figure 3 présente un schéma de demi-teinte simple avec des cellules de demi-teintes constituées de 3 x 3 points, fournissant ainsi 10 niveaux de densité par cellule. Dans ce cas, chaque pixel est représenté par une cellule en demi-teinte. Les appareils commerciaux utilisent des algorithmes considérablement plus sophistiqués pour s'assurer que leurs motifs de points ne sont pas proéminents et que les transitions entre les régions avec des niveaux différents ne sont pas évidentes.

      Figure 3. Représentation d'un algorithme d'impression simple utilisant 3 x 3 cellules de demi-teintes

      3.6.3 Terminologie confuse : ppi, dpi, lpi

      Il existe une confusion considérable dans le domaine de l'imagerie numérique au sujet des termes relatifs à la fréquence des trames, à la fréquence des points imprimables et à la fréquence d'échantillonnage spatial. Trop souvent, le terme points par pouce (ppp) est utilisé au lieu de pixels par pouce (ppp). Le terme dpi devrait probablement être réservé à la fréquence des points dans une imprimante à demi-teintes, tandis que le terme ppi devrait être utilisé pour désigner la fréquence d'échantillonnage d'un scanner ou d'un appareil photo. Un terme moins fréquemment utilisé est le nombre de lignes par pouce (lpi), qui doit être utilisé en référence à la fréquence de ligne ou de cellule de demi-teinte d'une imprimante de demi-teintes ou à la fréquence d'apparition de lignes dans un motif à barres.

      3.6.4 Caractérisation de l'imprimante

      Une imprimante à tons continus ou à demi-teintes peut être caractérisée, ou profilée, en imprimant un motif de test numérique contenant une série de patchs de couleur connus. Les couleurs des patchs sur l'impression de sortie sont mesurées à l'aide d'un colorimètre ou d'un spectrophotomètre. Un logiciel de création de profil, qui lit chacun des patchs et compare leurs couleurs avec celles attendues, est utilisé pour construire le profil qui décrit précisément les caractéristiques de l'imprimante.

      4.0 Spécification et mesure de la qualité d'image

      La conception d'un système d'imagerie doit commencer par une analyse des caractéristiques physiques des originaux et des moyens par lesquels les images peuvent être générées. Par exemple, on peut examiner un échantillon représentatif des originaux et déterminer le niveau de détail qui doit être préservé, la profondeur de champ qui doit être capturée, s'ils peuvent être placés sur une plaque de verre ou nécessitent un scanner de bord de livre personnalisé, s'ils peuvent tolérer une exposition à une intensité lumineuse élevée et si les réflexions spéculaires doivent être capturées ou minimisées. Un examen détaillé de certains des originaux, peut-être avec une loupe ou un microscope, peut être nécessaire pour déterminer le niveau de détail de l'original qui pourrait être significatif pour un chercheur ou un universitaire. Par exemple, dans les dessins ou les peintures, il peut être important de conserver le pointillé ou d'autres techniques caractéristiques de l'artiste.

      L'analyse doit également inclure une évaluation de la qualité requise par les applications pour lesquelles les images seront utilisées. Le résultat de cette évaluation guidera la sélection des algorithmes et des composants utilisés dans les sous-systèmes de numérisation, de compression, de stockage, d'affichage et d'impression. Les jugements de qualité peuvent être très subjectifs. Inévitablement, des compromis doivent être faits entre de nombreux paramètres et coûts des divers composants.

      Bien qu'il ne semble pas exister de métrique unique, indépendante du contenu, étroitement liée à notre perception de la qualité, il existe de nombreuses métriques qui, en combinaison, peuvent être utilisées pour spécifier un niveau souhaité de qualité d'image, du moins si les images de test les cibles peuvent être capturées et analysées. Ainsi, si les documents ou objets originaux à numériser sont d'abord caractérisés par des mesures de la gamme de leurs réflectances, de leurs couleurs et de leurs niveaux de détail, il est alors possible de sélectionner des cibles de test de qualité d'image et des procédures de test pour s'assurer que ces caractéristiques sont fidèlement capturé dans les images.

      Il existe une confusion considérable dans le domaine de l'imagerie numérique, peut-être causée par la concurrence commerciale, au sujet de la spécification de la qualité de l'image. Par exemple, les fabricants de scanners mettent souvent l'accent sur la « vraie résolution optique » de leurs systèmes lorsqu'ils se réfèrent au nombre maximum de pixels pouvant être acquis (sans interpolation) par unité de longueur le long de chaque axe. Ce nombre est généralement exprimé en dpi ou en ppi. Les fabricants de scanners mettent également souvent l'accent sur la "profondeur de bits", qui est le nombre de bits par pixel (bpp) que leurs systèmes sont capables de capturer. Cependant, la plupart des acheteurs ne réalisent pas que les scanners ayant une « vraie résolution optique » et une « profondeur de bits » identiques peuvent capturer des images de qualité assez différente. Autre exemple, les fabricants d'appareils photo numériques décrivent souvent la "résolution" de leurs appareils en termes de nombre total de pixels dans le capteur d'image. A nouveau, la qualité des images produites par des caméras numériques ayant des nombres égaux de pixels totaux peut varier sensiblement, même si le nombre de niveaux de couleurs produits est identique.

      Les sous-sections suivantes définissent de nombreux termes associés à la qualité d'image et décrivent comment la qualité peut être spécifiée et mesurée à l'aide de modèles de test et de métriques associées.

      4.1 Fréquence d'échantillonnage spatial et distorsion géométrique

      La fréquence d'échantillonnage spatiale, ou taux d'échantillonnage, est le nombre de pixels capturés par unité de longueur, mesuré dans le plan du document ou d'un autre objet. Les fabricants se réfèrent souvent (à tort) à la fréquence d'échantillonnage spatiale maximale d'un scanner comme à sa « vraie résolution optique ». La fréquence d'échantillonnage peut être mesurée facilement et précisément à l'aide d'un motif de test contenant des linéatures horizontales et verticales. Pour un champ de vision plat, la fréquence d'échantillonnage doit être uniforme partout. Toute variation de la fréquence d'échantillonnage entraînerait une distorsion géométrique.

      Toutes choses égales par ailleurs, le stockage nécessaire pour une image non compressée est proportionnel au produit des fréquences d'échantillonnage pour chaque axe. Il existe donc une motivation considérable pour utiliser la fréquence d'échantillonnage minimale qui produira des images avec un niveau de qualité approprié pour les applications envisagées.

      4.2 Quantification et réponse tonale

      La mémoire nécessaire à une image non compressée est proportionnelle au logarithme du nombre de niveaux de quantification. Une image en niveaux de gris utilisant 256 (c'est-à-dire 28) niveaux par pixel nécessiterait la moitié du stockage requis pour la même image si 65 536 (c'est-à-dire 216) niveaux par pixel étaient utilisés. Le nombre de niveaux de quantification par pixel est généralement choisi pour être le nombre maximum de valeurs pouvant être représentées par des multiples entiers d'un octet.

      Bien que l'œil humain n'ait pas de réponse linéaire à l'intensité lumineuse et que la plupart des écrans d'ordinateur ne produisent pas de lumière avec une intensité linéaire avec l'entrée, les niveaux de quantification des périphériques d'entrée sont le plus souvent choisis pour être espacés uniformément par rapport à l'amplitude de la lumière d'entrée. . C'est-à-dire que la réponse tonale est sélectionnée pour être linéaire avec la réflectance ou la transmittance.

      La mesure des valeurs à partir de modèles de pas en niveaux de gris (souvent appelés coins de pas) permet de déterminer les courbes de réponse tonale d'un scanner ou d'une caméra. La figure 4 affiche un motif de coin en échelle de gris de 20 étapes et les valeurs de densité optique pour chaque étape.

      Figure 4. Coin d'échelle de gris à 20 niveaux avec les valeurs correspondantes de la densité optique (absolue)

      La densité optique d'un milieu réfléchissant est généralement fournie par rapport à celle d'un réflecteur diffus parfait. (Une surface à réflexion diffuse parfaite est définie comme ayant une densité optique de zéro.) La réflectance absolue est égale au nombre 10 élevé au négatif de la densité optique

      et est généralement exprimé en pourcentage. (Une surface à réflexion diffuse parfaite aurait une réflectance absolue de 100 pour cent.) La réflectance relative de l'une des étapes du motif (par rapport à celle du papier lui-même) peut être trouvée en soustrayant la densité optique du papier de l'optique densité du pas et élever le nombre 10 à la valeur négative de cette valeur

      La mesure des courbes de réponse couleur pour un scanner couleur à faible coût est illustrée à la fig. 5. Comme on peut le voir, les courbes de réponse pour cette unité particulière sont assez non linéaires, avec une forme nettement convexe vers le haut. Ceci est souvent désigné comme ayant un gamma, ou exposant, inférieur à un. Notez que la ligne noire droite correspond aux moindres carrés ajustés à la réponse rouge. L'équation linéaire et le coefficient de corrélation pour cet ajustement sont également indiqués.

      Figure 5. Courbes de réponse tonale pour un scanner de table à faible coût

      4.3 Résolution spatiale

      La résolution spatiale est une mesure de la capacité à discerner les détails fins d'une image. Une image à haute résolution semblera nette et nette. Bien que la résolution spatiale d'un système de balayage soit souvent considérée comme équivalente à sa fréquence d'échantillonnage, il s'agit d'une métrique distincte et doit être mesurée avec une mire appropriée.

      Les systèmes de numérisation ayant la même fréquence d'échantillonnage et la même quantification peuvent présenter des résolutions spatiales assez différentes, en fonction de la précision de la mise au point, de la contamination du capteur ou des éléments optiques, des vibrations dans le mécanisme de transport des documents, du bruit électronique introduit avant la conversion analogique-numérique et d'autres facteurs.

      4.3.1 Évaluation visuelle de la résolution spatiale

      Pour de nombreux systèmes, la résolution spatiale peut être évaluée visuellement à l'aide de modèles de lisibilité simples tels que ceux illustrés à la fig. 6.

      Figure 6. Trois mires de test de lisibilité

      Dans ces motifs de test, soit une série de paires de lignes parallèles noir-blanc d'espacement décroissant (et, par conséquent, une fréquence spatiale croissante) soit de lignes convergentes noir-blanc est imprimée. Les nombres imprimés à côté des divers éléments du motif sont les fréquences spatiales, exprimées en paires de lignes par millimètre ou par pouce. Les cassures circulaires du motif en étoile se situent à des fréquences spatiales de 50, 100 et 200 paires de lignes par pouce. En utilisant ces motifs de test, on peut faire une évaluation approximative de la résolution spatiale en déterminant le point auquel les lignes noires semblent fusionner ou devenir pratiquement indiscernables les unes des autres.

      Plusieurs mises en garde doivent être émises concernant l'utilisation de tels modèles. Premièrement, il est facile de mal interpréter les images résultantes en raison d'un phénomène connu sous le nom de alias, dans laquelle des motifs trompeurs sont causés par l'interférence de la grille d'échantillonnage et du motif. Deuxièmement, la forme de la fonction de réponse tonale affecte l'apparence des motifs de barres.Plus précisément, un contraste élevé fera apparaître les paires de barres en noir et blanc plus nettes qu'elles ne le sont réellement et l'image semblera avoir une résolution plus élevée. Avant de tenter une comparaison visuelle entre deux systèmes, il faut s'assurer qu'ils ont la même gamme tonale et la même fonction de réponse. Une troisième mise en garde est que les motifs de barres dont les fréquences sont supérieures à la limite de Nyquist, c'est-à-dire la moitié de la fréquence d'échantillonnage, ne doivent pas être utilisés.

      4.3.2 Techniques de mesure de la résolution spatiale

      Une mesure de la résolution spatiale est la réponse en fréquence spatiale, également connue sous le nom de fonction de transfert de modulation (MTF). La MTF est l'amplitude de la sortie d'un système linéaire en réponse à un signal d'entrée variant de manière sinusoïdale d'amplitude unitaire. De manière équivalente, c'est l'amplitude de la transformée de Fourier de la réponse d'un système à un signal d'entrée qui est un point de lumière unique parfaitement net - la fonction de propagation ponctuelle du système.

      La MTF décrit la réponse d'un système linéaire à toutes les fréquences (jusqu'à la limite de Nyquist de la moitié de la fréquence d'échantillonnage). Elle peut être mesurée directement, en utilisant des modèles modulés en onde sinusoïdale, ou avec une image de fonction échelonnée (c'est-à-dire une transition de « bord de couteau »), par le biais de la transformée de Fourier de la fonction de différence.

      Étant donné que la MTF est fonction de la fréquence spatiale, des tentatives ont été faites pour réduire les courbes MTF à un seul nombre, comme la zone de fonction de transfert de modulation (MTFA), qui est la zone sous la courbe MTF, compensée pour les caractéristiques de la vision humaine. système.

      Une autre mesure de résolution, et qui est généralement plus simple à mesurer car elle ne nécessite qu'une mesure directe avec un graphique à barres à contraste élevé, est la fonction de transfert de contraste (CTF). Le CTF est jugé plus susceptible aux erreurs de crénelage et à d'autres interprétations erronées que le MTF, bien que des méthodes de détection de ce crénelage et de détermination du MTF en utilisant le CTF aient été développées.

      Voir également, Guide 2, Fonction de transfert de résolution ou de modulation.

      4.4 Uniformité spatiale et temporelle

      Idéalement, la réponse d'un système d'acquisition d'images à un objet ayant une réflectance uniforme sera uniforme dans tout le champ de vision du système (dans l'espace) et dans le temps (dans le temps). Cependant, la réponse d'un système d'imagerie réel varie sur son champ de vision en raison d'un éclairage inégal, d'aberrations optiques et de niveaux non uniformes parmi les éléments du capteur d'image pour la même intensité lumineuse d'entrée. La réponse d'un système peut varier dans le temps en raison des niveaux d'éclairage variables, du bruit électronique lors de la numérisation ou des variations statistiques du nombre de porteurs de charge (électrons ou trous) collectés.

      L'uniformité spatiale et temporelle peut être mesurée en utilisant des motifs de test de réflectance uniforme. Une moyenne appropriée sur plusieurs images peut séparer les composants variant dans le temps et dans l'espace.

      Une technique utile pour évaluer la réponse et la variabilité d'éclairage sur le champ de vision consiste à acquérir une image d'une cible uniforme et à effectuer une égalisation d'histogramme sur l'image. Dans l'égalisation d'histogramme, les niveaux de pixels de l'image d'origine sont redistribués pour obtenir une distribution uniforme dans l'image de sortie. L'histogramme d'une image est un graphique de la fréquence d'occurrence de ses niveaux de pixels. Les variations spatiales qui ne sont pas apparentes dans l'image d'origine deviennent souvent apparentes dans l'image égalisée par histogramme. Cette technique est illustrée à la fig. 7. Dans ce cas, bien que l'image non égalisée semble uniforme, l'irrégularité de l'éclairage est tout à fait apparente dans l'image égalisée par histogramme. Le dessus est sensiblement plus sombre, il y a des traces de taches ou d'empreintes digitales sur le verre, et il peut y avoir un léger assombrissement de plusieurs colonnes de pixels (c'est-à-dire dans le sens de balayage lent) sur le côté droit.

      Figure 7 Exemple d'utilisation de l'égalisation d'histogramme pour localiser les non-uniformités dans une image numérisée

      4.5 Précision des couleurs

      Les humains perçoivent la couleur lorsque des combinaisons de longueurs d'onde de lumière visible frappent la rétine de leurs yeux. Cependant, beaucoup de gens ne réalisent pas que différentes combinaisons de longueurs d'onde peuvent produire la même sensation de couleur.

      Il existe trois types de récepteurs de couleur dans l'œil humain par conséquent, nous pouvons décrire la sensation de couleur par trois valeurs. Un modèle de couleur permet d'attribuer un code unique ou un ensemble de coordonnées, généralement trois, à chaque couleur perceptible. On peut imaginer que chacune de ces coordonnées est un axe dans un espace à trois dimensions, et que la gamme de toutes les couleurs perceptibles remplit cet espace. Par exemple, nous pouvons imaginer qu'un espace rouge, vert et bleu (RVB), tel qu'il est utilisé par les écrans de télévision, soit un cube avec des côtés de longueur unitaire, avec l'origine (0,0,0) représentant le noir et le sommet opposé (1,1,1) représentant le blanc.

      Les écrans qui produisent des couleurs par émission de lumière sont basés sur un modèle de couleur additif, généralement avec des primaires rouges, verts et bleus, bien que les combinaisons réelles de longueurs d'onde émises par les primaires RVB dépendent du système. Les systèmes qui produisent de la couleur par absorption de la lumière (par exemple, les pigments d'impression) sont basés sur un modèle de couleur soustractif, comprenant généralement le noir et les trois couleurs cyan, magenta et jaune (CMJN). Encore une fois, les combinaisons particulières de longueurs d'onde absorbées dépendent du système.

      La couleur des systèmes émissifs et absorbants peut être mesurée à l'aide d'un appareil appelé colorimètre, qui imite la réponse chromatique humaine. Un colorimètre est un spectrophotomètre (un appareil qui mesure l'intensité lumineuse en fonction de la longueur d'onde) avec des fonctions de pondération spectrale qui simulent la sensibilité des récepteurs de couleur de l'œil.

      4.5.1 Couleur dépendante du périphérique

      Les systèmes de coordonnées RVB de couleur additive couramment utilisés des moniteurs et des scanners dépendent du périphérique, c'est-à-dire que la couleur produite ou détectée par une combinaison particulière de coordonnées RVB varie d'un système à l'autre. Les systèmes RVB additifs ne peuvent pas englober toutes les couleurs perceptibles. De même, les systèmes de coordonnées CMJN soustractifs, tels qu'utilisés dans la plupart des périphériques d'impression couleur, dépendent du périphérique et ne peuvent restituer qu'une gamme limitée de couleurs. La gamme de couleurs qu'un appareil est capable de restituer est connue sous le nom de gamme.

      4.5.2 Couleur indépendante du périphérique

      En 1931, la Commission Internationale de l'Éclairage (CIE), ou Commission Internationale de l'Illumination, a produit une fonction de réponse standard (connue sous le nom d'Observateur Standard) pour la correspondance des couleurs basée sur l'expérimentation avec des sujets normaux observant des sources lumineuses colorées dans des conditions soigneusement contrôlées. . Le CIE a développé un système de coordonnées artificiel dans lequel les valeurs tristimulus requises pour correspondre à toutes les couleurs perceptibles sont rendues positives et a désigné ces coordonnées X, Y et Z, qui sont souvent normalisées à x, y et z.

      Depuis lors, des améliorations ont été apportées à l'observateur standard, bien que les valeurs x, y et z restent la base de nombreuses représentations de la couleur indépendantes du périphérique.

      La figure 8 affiche trois courbes dans l'espace xy de 1931 CIE. (La troisième dimension, z, peut être omise car x + y + z = 1.) Un tel tracé est connu sous le nom de diagramme de chromaticité. Toute couleur, sans sa composante de luminance, est représentée par un point dans cet espace.

      Figure 8. Les gammes de couleurs d'un écran d'ordinateur (triangle noir) et d'une imprimante à sublimation thermique (hexagone irrégulier rouge), superposées à la courbe Standard Observer (bleu) dans l'espace CIE 1931 xy

      La courbe la plus externe de ce graphique est le lieu de toutes les longueurs d'onde monochromatiques de la lumière visible (connue sous le nom de courbe d'observation standard CIE), toutes les couleurs perceptibles s'y trouvent.

      Les sommets du triangle représentent les coordonnées des couleurs primaires d'un dispositif de couleur additive, en particulier les couleurs des trois phosphores d'un moniteur RVB. La région à l'intérieur du triangle représente la gamme du moniteur (c'est-à-dire la gamme de toutes les couleurs possibles qui peuvent être affichées par le moniteur.) De toute évidence, de nombreuses couleurs perceptibles sont en dehors du triangle et ne peuvent pas être rendues par cet appareil.

      L'hexagone irrégulier représente la gamme d'un appareil couleur soustractif, en particulier une imprimante à sublimation thermique. Toutes les couleurs imprimables par cet appareil se trouvent dans l'hexagone. Encore une fois, une large gamme de couleurs perceptibles ne peut pas être rendue par l'appareil. La zone d'intersection du triangle et de l'hexagone représente la gamme de couleurs qui sont visibles à la fois sur le moniteur et sur l'imprimante.

      4.5.3 Espace colorimétrique perceptiblement uniforme

      Alors que l'espace colorimétrique CIEXYZ est indépendant du périphérique et peut représenter toutes les couleurs perceptibles, il est très non uniforme en termes de changements de couleur perceptibles. Un léger changement dans les valeurs dans une partie de l'espace peut ne représenter qu'un léger changement de couleur. Ce même changement numérique dans une autre partie de l'espace peut représenter un changement de couleur considérablement plus important. C'est une situation problématique si l'on souhaite spécifier les tolérances avec lesquelles les couleurs peuvent être rendues.

      Un espace colorimétrique a été spécifié par la CIE qui comprend toutes les couleurs physiquement réalisables et est proche d'être perceptuellement uniforme, c'est-à-dire qu'une variation de couleur juste perceptible est approximativement de la même taille dans tout l'espace. Ses coordonnées de couleur, désignées L*, a* et b*, sont décrites en termes de coordonnées CIE X, Y et Z. L'espace colorimétrique est souvent appelé CIELAB. L est la composante de luminosité, et a (vert à magenta) et b (bleu à jaune) sont les composantes chromatiques. Une définition de l'espace colorimétrique CIELAB est fournie en Annexe A.

      Une mesure de la différence de couleur dans CIELAB, connue sous le nom de Delta E, est la simple distance euclidienne entre les couleurs. Une valeur Delta E de 1,0 est généralement considérée comme représentant un changement de couleur juste perceptible.

      Voir également, Guide 2, Reproduction des couleurs.

      4.5.4 Texture de surface et réflexion spéculaire

      Lorsque nous voyons des objets de couleur uniforme dans des conditions d'éclairage normal ou de lumière du jour, nous les percevons comme étant uniformément illuminés et réfléchissant une quantité uniforme de lumière. En réalité, peu d'objets dans notre environnement sont soit uniformément éclairés, soit ont des surfaces qui ne reflètent que la lumière entrante de manière diffuse. La plupart des surfaces réfléchissent la lumière à la fois de manière diffuse et spéculaire. La réflexion spéculaire (ou semblable à un miroir) se produit sur des surfaces lisses lorsque l'angle d'éclairage incident est proche de l'angle de réflexion.

      Les caractéristiques de surface telles que la texture et la brillance produisent une apparence qui dépend de l'angle de vue. Un scanner ou une caméra ayant un éclairage uniforme et un seul point de vue ne peut pas capturer les caractéristiques dépendant de l'angle de vue. Ainsi, si l'on ne considère que des images bidimensionnelles, il doit nécessairement y avoir des différences entre l'original et la reproduction pour de nombreuses œuvres, et ces différences seront probablement difficiles à quantifier. Certaines de ces différences peuvent intéresser les chercheurs, par exemple, un historien de l'art peut souhaiter examiner les coups de pinceau sur une peinture à l'huile. Pour caractériser au moins certains des effets de surface, il peut être possible d'examiner les différences entre une image obtenue avec des sources ponctuelles multiples soigneusement placées et une image avec un éclairage uniforme.

      5.0 Gestion des couleurs et profils ICC

      La gestion de bout en bout de la couleur dans l'industrie de l'imprimerie a toujours été autant un art que la technologie. Cela a nécessité une coordination entre le concepteur et l'imprimeur d'un document couleur et une boucle de rétroaction qui permet à un concepteur d'inspecter et de modifier, si nécessaire, les couleurs du produit final. Au fil du temps, un concepteur deviendrait plus familier avec les caractéristiques de systèmes d'impression particuliers et apprendrait à modifier les couleurs de son écran pour s'adapter à ces caractéristiques. À mesure que les réseaux informatiques évoluaient et que l'affichage ou l'impression d'une image de document s'éloignait de sa production, le besoin s'est fait sentir d'une gestion des couleurs indépendante du périphérique dans laquelle les couleurs sont spécifiées de manière absolue.

      5.1 Consortium international des couleurs

      L'ICC a été formé pour développer une spécification pour un format de profil de couleur. L'hypothèse sous-jacente à la spécification est que tout périphérique d'entrée ou de sortie pourrait être profilé (caractérisé) pour décrire les transformations requises pour convertir toute image d'un espace colorimétrique indépendant du périphérique à celui du périphérique lui-même et de l'espace colorimétrique du périphérique au périphérique. espace indépendant.

      L'ICC a été créé dans le but de « créer, promouvoir et encourager la normalisation et l'évolution d'une architecture et de composants de système de gestion des couleurs ouverts, indépendants des fournisseurs et multiplateformes » (ICC 1999). L'ICC se compose désormais d'un groupe de plus de 50 entreprises qui comprennent à la fois des fabricants et des utilisateurs d'appareils d'imagerie couleur.

      5.2 Espace de connexion de profil

      La conversion (dans les deux sens) entre les espaces colorimétriques d'entrée I et les espaces colorimétriques de sortie O semblerait nécessiter 2 x I x O différentes fonctions de conversion. Cependant, en utilisant un espace colorimétrique intermédiaire, dans lequel toutes les couleurs perceptibles peuvent être représentées, seules 2 x (I + O) fonctions de conversion différentes sont nécessaires - une réduction substantielle du nombre de fonctions si la conversion entre plusieurs espaces doit être effectuée. Cet espace intermédiaire peut être considéré comme une langue commune, avec des interprètes nécessaires uniquement pour traduire la langue commune vers et depuis les langues de chacun des espaces d'entrée et de sortie.

      En utilisant un tel espace colorimétrique intermédiaire indépendant du périphérique, connu sous le nom d'espace de connexion de profil (PCS), l'ICC a développé une spécification pour la conversion sans ambiguïté parmi les nombreux espaces colorimétriques dépendants du périphérique (ICC 1998). L'ICC a choisi deux PCS, à savoir CIEXYZ et CIELAB.

      La figure 9 illustre ce concept pour deux dispositifs d'entrée et deux dispositifs de sortie. Un système de gestion des couleurs utilise les informations contenues dans les profils, qui contiennent des informations explicites sur les caractéristiques de réponse des couleurs de chacun des périphériques, pour effectuer une conversion entre les espaces colorimétriques natifs pour toute combinaison des périphériques d'entrée et de sortie.

      Figure 9. Schéma de l'utilisation d'un espace de connexion de profil pour effectuer une conversion entre différents espaces colorimétriques dépendant du périphérique

      Bien que la fig. 9 montre une entrée uniquement via un scanner ou un appareil photo à numérisation directe, il est également applicable pour une entrée utilisant un processus photographique intermédiaire. Si des tirages photographiques ou des transparents sont utilisés avant la numérisation, un profil pourrait être préparé comprenant un tel traitement photographique. Dans ce cas, la mire couleur pour la préparation du profil doit être photographiée et traitée de manière identique à celle utilisée pour les objets de la collection.

      5.3 Format de profil ICC

      Les profils de périphérique sont des structures de données explicitement définies qui décrivent les fonctions de réponse des couleurs et d'autres caractéristiques d'un périphérique d'entrée ou de sortie et fournissent aux systèmes de gestion des couleurs les informations nécessaires pour convertir les données de couleur entre l'espace colorimétrique natif d'un périphérique (c'est-à-dire dépendant du périphérique) et le PCS. La spécification ICC divise les périphériques en trois grandes classifications : périphériques d'entrée, périphériques d'affichage et périphériques de sortie. L'ICC définit également quatre classes de profils de traitement des couleurs supplémentaires : lien de périphérique, conversion d'espace colorimétrique, profils de couleurs abstraits et nommés.

      Les profils de couleurs conformes ICC sont des fichiers de données ASCII et binaires combinés qui contiennent un en-tête de longueur fixe, suivi d'un tableau de balises, suivi d'une série d'éléments balisés. L'en-tête fournit des informations telles que la taille du profil, la date et l'heure de sa création, le numéro de version, le fabricant et le numéro de modèle de l'appareil, la plate-forme principale sur laquelle le profil a été créé, l'espace de connexion du profil sélectionné, les données d'entrée ou de sortie l'espace colorimétrique et l'intention de rendu. La table des balises est une table des matières pour les balises et les données des éléments de balise dans les profils. Les balises dans le tableau peuvent être dans n'importe quel ordre, tout comme les éléments balisés. Les éléments de calcul de multiplication matricielle et de table de consultation peuvent être utilisés pour la conversion entre les espaces chromatiques natifs et le PCS.

      Les profils de couleurs peuvent exister sous forme de fichiers séparés et peuvent être invoqués selon les besoins par un système de gestion des couleurs, auquel cas ils sont généralement placés dans des dossiers spécifiques dépendant du système. Ils peuvent également être intégrés dans plusieurs types de fichiers image, notamment au format Tag(ged) Image File Format (TIFF), JPEG File Interchange Format (JFIF) et Encapsulated Postscript (EPS). L'intention des profils intégrés est de permettre à un utilisateur d'afficher ou d'imprimer les données couleur d'un fichier sans avoir le profil du système qui a créé l'image stocké sur le système de destination.

      5.4 Création et modification de profils d'appareils

      Les profils d'appareil peuvent être obtenus auprès du fabricant d'un appareil ou, à l'aide d'un logiciel de création de profils, ils peuvent être créés par l'utilisateur de l'appareil. Les profils du fabricant sont généralement génériques pour un modèle spécifique et ne tiennent pas compte de la variabilité d'une unité à l'autre. La gestion précise des couleurs nécessite que l'utilisateur d'un système crée un profil personnalisé et vérifie sa précision périodiquement, car la réponse des couleurs d'un système peut différer de la réponse nominale du fabricant et peut changer avec le temps en raison du vieillissement de la lampe, du changement de gain de l'amplificateur, du vieillissement du phosphore et facteurs similaires. Plusieurs progiciels disponibles dans le commerce permettent aux utilisateurs de créer et de modifier des profils pour les scanners, les appareils photo numériques, les moniteurs et les imprimantes.

      5.4.1 Profilage du scanner

      Pour les scanners, la création d'un profil nécessite la numérisation d'une mire de test couleur calibrée. La cible de test la plus souvent utilisée est l'IT8.7, qui est disponible sous forme d'impression réfléchissante 5" x 7" (IT8.7/2), d'un transparent de diapositive de 35 mm (IT8.7/1) et d'un 3" x 4" transparent (IT8.7/3). L'IT8.7 contient environ 250 échantillons de couleurs. Chaque cible physique doit être accompagnée de l'ensemble de ses valeurs de couleurs calibrées dans un fichier informatique appelé fichier de description de cible. Le logiciel de génération de profil compare les valeurs spécifiées pour chacun des échantillons avec les valeurs d'entrée du scanner pour créer le profil du scanner. La figure 10 affiche une image de taille réduite de la version Kodak de l'IT8.7/2, connue sous le nom de Q-60R1.

      Figure 10. Une image de taille réduite de la version Kodak de l'IT8.7/2

      5.4.2 Profilage de l'imprimante

      Pour les imprimeurs, la création de profils nécessite l'impression d'une image numérique connue, contenant des échantillons de différentes couleurs. L'impression de sortie résultante doit ensuite être mesurée avec un colorimètre. Le logiciel de génération de profil compare les lectures du colorimètre avec les valeurs de l'image numérique pour créer le profil de l'imprimante. La précision du profil généré augmente à mesure que le nombre de nuances utilisées augmente. La figure 11 affiche une image d'un ensemble de 226 échantillons de couleurs générés par un logiciel de profilage d'imprimante.

      Figure 11. Image de taille réduite d'un ensemble de nuanciers imprimés à l'aide d'un logiciel de profilage d'imprimante

      5.4.3 Profilage du moniteur

      Les fabricants de moniteurs fournissent généralement soit un profil générique, soit un profil spécifique au modèle.De tels profils, qui fournissent généralement un niveau adéquat de correction des couleurs, peuvent être disponibles sur le site Web du fabricant.

      Alternativement, des profils simples pour les moniteurs peuvent être personnalisés à l'aide de l'un des nombreux programmes disponibles dans le commerce qui mesurent les caractéristiques d'un moniteur. Les utilisateurs de ces programmes doivent faire correspondre de manière interactive les échantillons de test avec des modèles soigneusement choisis. Un modèle de carte de couleur imprimée peut être fourni qui permet à un utilisateur de comparer la couleur du moniteur côte à côte avec celle vue sur la carte sous un éclairage ambiant. De tels programmes sont souvent fournis avec des moniteurs graphiques haut de gamme.

      La création d'un profil plus précis pour un moniteur nécessite que les couleurs générées par le moniteur soient mesurées à l'aide d'un colorimètre ou d'un spectrophotomètre à pince. Un logiciel de création de profils modifie les valeurs numériques de la couleur affichée dans une partie de l'écran, mesure la couleur de cette partie avec le colorimètre et crée le profil en comparant les valeurs mesurées avec les valeurs envoyées.

      6.0 Gestion d'un système d'imagerie

      Cette section traite de certaines des questions associées à la spécification, à l'évaluation et à la gestion d'un système d'imagerie, en mettant l'accent sur les questions concernant la description et le maintien de la qualité d'image.

      6.1 Détermination des exigences

      La préparation au développement d'un système d'imagerie pour tout effort de conversion important devrait commencer par une évaluation des caractéristiques des objets originaux et une détermination de la fidélité avec laquelle ils doivent être conservés. Les conservateurs, les conservateurs, les experts en imagerie et les utilisateurs potentiels des images peuvent être consultés sur ce qu'ils considèrent comme un niveau de détail et de fidélité des couleurs adéquat pour leurs besoins.

      Voir également, Guide 1, Développement de spécifications et de processus de capture appropriés.

      6.1.1 Préservation des détails fins

      Un examen visuel détaillé des objets représentatifs doit être effectué, aidé par des dispositifs de grossissement, le cas échéant. Si les objets sont dessinés ou peints, l'enquête peut inclure des mesures des largeurs des lignes les plus fines. Si les objets sont des photographies ou des négatifs aux halogénures d'argent, l'enquête peut inclure des mesures de la taille des grains du film. (Vraisemblablement, les détails du grain du film n'auraient pas besoin d'être préservés.)

      Une fréquence d'échantillonnage spatiale doit être sélectionnée de manière à préserver de manière adéquate tous les détails pertinents dans les images maîtresses, cette fréquence étant normalement au moins deux fois l'inverse de la largeur du plus petit détail. Cependant, étant donné que le volume de stockage des images non compressées et, très probablement, le temps d'acquisition seront proportionnels au carré de la fréquence d'échantillonnage, un compromis doit être sélectionné entre le niveau de détail préservé et le stockage, la transmission et l'acquisition. frais.

      6.1.2 Sélection du nombre de niveaux de gris ou de couleur

      L'examen doit inclure l'utilisation d'un densitomètre et d'un colorimètre pour mesurer la gamme des densités optiques et des couleurs des objets. La conversion de précision nécessite que le scanner ou l'appareil photo ait une plage dynamique et une gamme de couleurs qui préservent la gamme complète des densités et des couleurs des objets. La plage dynamique d'un scanner ou d'une caméra sera limitée non seulement par le nombre de niveaux de quantification, mais également par le bruit électronique interne, le courant d'obscurité et, pour des temps d'exposition plus courts, les fluctuations statistiques de la charge collectée. Par exemple, 8 bits par pixel sembleraient fournir une plage dynamique de 256:1. En réalité, la plage dynamique est souvent considérablement moindre car les niveaux proches du noir pur (à 0) et du blanc pur (à 255) ne sont pas disponibles. Le courant d'obscurité et le bruit peuvent empêcher tout niveau inférieur à environ 5 d'être significatif. Une saturation à un niveau de 255 signifie que le blanc pur doit être réglé un peu plus bas (c'est-à-dire à environ 250). Ainsi, la plage dynamique serait d'environ 50:1 (250,5) pour cet exemple.

      La gamme de couleurs d'un scanner ou d'un appareil photo triangulaire est intrinsèquement triangulaire (dans l'espace CIE xy), et la plupart des scanners ne peuvent pas englober toute la gamme de couleurs pouvant être créées par divers pigments et colorants. Le tracé des couleurs mesurées des objets et de la gamme d'un scanner considéré dans l'espace CIE xy fournira une indication des couleurs qui seront conservées et de celles qui ne le seront pas. La distance entre le bord de la gamme et les couleurs en dehors de la gamme fournit une indication du degré de perte de couleur. La distance par rapport à la gamme pourrait être calculée à l'aide de Delta E dans l'espace CIELAB pour fournir une métrique de distance plus intuitive.

      Le nombre de bits alloués par couleur déterminera la finesse avec laquelle les changements de couleur peuvent être préservés. Si des régions étendues de couleur variant lentement sont présentes dans les images, il peut être avantageux d'utiliser un nombre supérieur à la normale de bits par couleur. Dans la plupart des cas, 8 bits par couleur (24 bits par pixel) fournissent des transitions suffisamment fluides. Sinon, 12 bits par couleur (36 points par pixel) peuvent être requis.

      6.2 Préparation des spécifications

      Si un achat d'équipement d'imagerie numérique doit être effectué de manière concurrentielle, il est important que des spécifications détaillées et sans ambiguïté soient préparées. Dans la mesure du possible, les spécifications devraient faire référence à des normes acceptées et ouvertes, telles que celles élaborées par les comités techniques de l'ISO. Un ou plusieurs ensembles de modèles de test doivent être préparés. Les responsables de l'acquisition devraient envisager de divulguer aux fournisseurs concurrents les conceptions des modèles de test qui seront utilisés pour l'analyse du système. Si des chartes de test de taille appropriée et adaptées à l'effort de conversion ne sont pas disponibles dans le commerce, des chartes personnalisées peuvent être préparées. Certains graphiques combinent tous les modèles requis sur un seul graphique.

      6.3 Évaluation comparative des systèmes

      Dans la mesure du possible, les systèmes d'acquisition d'images envisagés devraient être testés avant l'achat et, de préférence, avant l'élaboration des spécifications, en utilisant à la fois les modèles de test décrits précédemment et des objets représentatifs de la collection.

      En préparation d'un marché concurrentiel, un ensemble de facteurs d'évaluation, ainsi que des pondérations relatives pour les facteurs, est généralement préparé. La pondération doit tenir compte de la qualité de l'image, bien qu'il soit assez difficile de déterminer avec précision les poids relatifs des contributions à la qualité globale de l'image de facteurs tels que la résolution spatiale, la fidélité des couleurs et la plage dynamique. Les poids seraient sans aucun doute dépendants du contenu, et seules des expériences psychophysiques détaillées avec des sujets typiques des utilisateurs finaux pourraient fournir une base quantitative pour leur détermination. Néanmoins, un ensemble de pondérations pourrait être préparé, basé sur les opinions d'utilisateurs potentiels et d'experts en imagerie.

      6.4 Contrôle de la qualité pendant la production d'images

      Un contrôle de qualité continu devrait faire partie de tout effort de conversion important. Les caractéristiques de la plupart des systèmes d'acquisition d'images changent au fil du temps et des tests périodiques sont nécessaires pour s'assurer que les caractéristiques restent conformes aux spécifications. Un tel processus de contrôle de qualité devrait être distinct du processus de mise à jour des profils de couleurs, par lequel le vieillissement normal des lampes d'éclairage et le gain d'amplificateur à variation lente peuvent être pris en compte. Les caractéristiques des scanners et des caméras qui peuvent changer au fil du temps et qui ne peuvent pas être prises en compte par le processus de profilage comprennent la résolution spatiale, l'uniformité spatiale et la plage de niveaux de gris. À mesure que la saleté et les corps étrangers s'accumulent sur une plaque de verre et sur les éléments optiques et le capteur, la qualité de l'image est dégradée. Si plusieurs sources d'éclairage sont utilisées, l'équilibre entre elles peut changer d'une manière que le profilage ne peut pas compenser. De plus, de nombreux facteurs sont sous le contrôle de l'opérateur et peuvent changer en raison de priorités changeantes ou d'un manque d'attention aux détails.

      Par conséquent, un système d'imagerie doit être testé selon un calendrier déterminé par l'expérience, fréquemment au début et décroissant par la suite, jusqu'à ce que des variations dans les caractéristiques du système soient détectées occasionnellement. Il est souvent possible de scanner des modèles de test lors des changements d'équipe pour les opérateurs ou lors de la maintenance préventive périodique. Dans la mesure du possible, l'analyse des modèles de test devrait être effectuée automatiquement par le biais d'un logiciel. Le logiciel d'analyse doit produire un rapport qui affiche les valeurs actuelles des divers facteurs de qualité d'image, ainsi que leurs limites de tolérance spécifiées.

      7.0 Le point de vue de l'utilisateur

      Pour l'utilisateur final des images, une question importante est de savoir si les images numériques récupérées sont représentées aussi fidèlement que possible lorsqu'elles sont affichées ou imprimées. Pour s'en assurer, l'écran ou le système d'impression de l'utilisateur doit être correctement calibré et profilé et le logiciel du pilote doit transmettre les images à l'écran ou à l'imprimante dans le format approprié au profil.

      7.1 Mesure de la qualité d'image pour les écrans

      La qualité d'image d'un écran d'ordinateur peut être évaluée visuellement à l'aide de motifs de test générés numériquement similaires à ceux décrits précédemment pour les scanners et les appareils photo. Des modèles de test pour mesurer la résolution spatiale, le nombre de niveaux de gris et de couleur discernables et la précision géométrique peuvent être facilement conçus à l'aide de graphiques ou de logiciels d'édition d'images. Bien que des images numérisées de motifs de test imprimés puissent être utilisées à la place de motifs de test générés par ordinateur, il ne faut pas oublier que la dégradation associée au processus de numérisation peut être difficile à séparer de celle associée à l'affichage.

      En particulier pour les tubes cathodiques, la qualité de l'image varie en fonction de la position sur l'écran. L'obtention d'une image uniformément haute résolution pour toutes les régions de l'écran nécessite un contrôle précis des faisceaux d'électrons du tube cathodique. Des techniques avancées de formation et de déviation de faisceaux d'électrons sont utilisées dans les moniteurs couleur haut de gamme pour assurer une taille et une intensité de spot uniformes.

      La carte d'adaptateur d'affichage doit être configurée pour tirer le meilleur parti des capacités du moniteur. Même lorsque le meilleur moniteur disponible est obtenu, que les images sont au format correct et que le profil est optimal, les paramètres de la carte graphique ne sont souvent pas sélectionnés pour tirer le meilleur parti des capacités du moniteur. De nombreux utilisateurs semblent ignorer les capacités de leur carte graphique et ont choisi une valeur par défaut pour la zone active (adressabilité) ou la palette de couleurs (nombre de bits par pixel), limitant ainsi la qualité des images affichées.

      De nombreux utilisateurs ne savent pas que la température de couleur (c'est-à-dire l'équilibre entre les sorties rouge, verte et bleue) d'un moniteur peut être modifiée. La plupart des moniteurs sont configurés pour une température de couleur de 9 300 K, ce qui donne une sortie très lumineuse mais assez bleue. À la place, une température de couleur de 6 500 K (ou 5 000 K) peut être choisie. Ce paramètre devrait fournir des images de sortie avec des couleurs plus proches de celles vues à la lumière du jour ou sous un éclairage ambiant.

      Si possible, la combinaison moniteur et adaptateur d'affichage doit être profilée. Cela peut être fait à l'aide d'un logiciel de création de profil disponible dans le commerce et d'un colorimètre à pince. Cela peut également être fait, bien qu'avec un peu moins de précision, avec l'un des nombreux logiciels simples et peu coûteux qui génèrent des motifs de barres rouges, vertes et bleues et obligent le spectateur à sélectionner la meilleure correspondance avec le motif à partir d'un ensemble de couleurs uniformes. . Un tel logiciel de profilage détermine ainsi efficacement le gamma de l'affichage pour chacune des couleurs. En combinaison avec les coordonnées de couleur connues pour les luminophores de l'affichage, un profil d'affichage simple peut alors être généré. Alternativement, des profils génériques adaptés à la plupart des applications non critiques sont généralement disponibles auprès des fabricants des écrans les plus couramment utilisés.

      7.2 Mesure de la qualité d'image pour les imprimantes

      La qualité des images imprimées peut être mesurée d'une manière similaire à celle décrite pour les scanners et les appareils photo, sauf que les motifs de test d'entrée seront des images numériques générées avec précision plutôt que des impressions papier ou des transparents, et les mesures seront effectuées visuellement ou avec instruments d'optique. Les motifs de test peuvent être facilement générés à l'aide de logiciels d'édition de graphiques ou d'images. L'utilisateur souhaitera probablement concevoir des modèles pour la résolution spatiale, les niveaux et la plage d'échelle de gris et de couleur, l'uniformité spatiale et la fidélité des couleurs.

      Le format dans lequel une image est transmise à une imprimante et les capacités du logiciel du pilote d'imprimante peuvent avoir un effet important sur la qualité des images imprimées. Les utilisateurs doivent s'assurer que le pilote le meilleur et le plus à jour (généralement du fabricant de l'imprimante) est utilisé, plutôt qu'un pilote conçu pour s'adapter à plusieurs types d'imprimantes. Les utilisateurs doivent également essayer de s'assurer que le pilote utilise le bon profil de couleur compatible ICC, que les images sont transmises de l'application au pilote d'imprimante dans un espace couleur approprié au profil, et que tous les autres paramètres sélectionnés pendant l'image l'impression sont les mêmes que celles utilisées lors du profilage des couleurs.


      Passer d'un système de coordonnées artificiel à un système réel - Systèmes d'Information Géographique

      Les petits caractères : Les commentaires suivants appartiennent à celui qui les a publiés. Nous ne sommes en aucun cas responsables d'eux.

      Zones de danger (Note : 2)

      Re : Ce serait mieux si. (Note : 1)

      Vous demandez combien de ces points il y a ? Vous n'avez pas si bien réussi la partie mathématique du SAT, n'est-ce pas ?

      (BTW. vous avez 360 * 89 + 1 à la fois dans l'hémisphère nord et sud, car à 90 degrés de latitude. vous n'avez qu'un point, plus un autre 360 ​​sur l'équateur. C'est 64 442 pyramides. Bien sûr, je n'ai aucune idée de combien d'entre eux se trouvent soit sur les plateaux continentaux, et combien sont trop profonds pour construire une pyramide avec la technologie actuelle.)

      Re : A quoi ça sert ? (Note : 2)

      Parce que des choses comme celles que vous avez mentionnées ne sont pas aussi intéressantes.

      Vous pourriez aussi vous demander pourquoi les gens gaspillent^H^H^H^H^H passent du temps à installer Linux à partir du code source [linuxfromscratch.org] alors qu'ils pouvaient obtenir une distribution parfaitement bonne de Redhat, Slackware, Debian, Mandrake, etc. Il n'y a rien de tel que la satisfaction de savoir que vous avez compilé chaque programme sur une partition nue et que cela fonctionne réellement.

      Même si contrairement à Linux From Scratch, le projet Degree Confluence ne produit rien d'utile. euh. Je ne sais pas quel est le but, mais je suis sûr que vous l'avez compris.

      Re:Les maths (Note : 4)

      360 degrés de longitude, 179 degrés uniques de latitude (comptez 0 et omettez 90 N et 90 S).

      360 * 179 + 2 (pôles N et S) = 64442

      Pas tant que ça du tout. Et vous pouvez réduire cela à environ 35% environ, étant donné la quantité d'eau qui recouvre la surface de la terre.

      Projet Terre visible (Note : 2)

      Re:site a toutes les informations ( Score : 2)

      Je me porte volontaire pour tous les 720 points à 89N et 89S ! (Woohoo, regarde mes statistiques augmenter ! :-)

      Pour être juste, je me suis également porté volontaire pour la plupart de ces points dans les parties bleues de la planète près de l'équateur, où les points de longitude sont très éloignés. (Que veux tu prouver je n'étais pas là ? Amende! Allez-y et cherchez par vous-même ! Je parie que tes photos ressemblent aux miennes !)

      Re: géocaching un sport ? (Note : 2)

      Bien sûr, mais lisez-le. Ce n'est pas aussi difficile qu'avec, par exemple, un sextant, mais c'est quand même assez difficile dans de nombreux cas.

      Par exemple, dans Manhattan NY NY, trouvez le trottoir AUTOUR du bâtiment qui abrite ces coordonnées. Trouvez un moyen d'accéder au jardin sur le toit pour le prix. Oh, mais l'unité GPS que vous avez a une EPE (erreur de position estimée) d'environ cinquante pieds. Merde, c'était dans cette boîte aux lettres au coin de la rue ou pas ?

      Ou, vous êtes dans une forêt, dans une vallée fluviale. Vous avez réduit la position à un dixième d'acre, mais la couverture d'arbres et de rochers vous donne une réception de merde. Vous pensez que c'est juste là, mais un affleurement signifie que vous devrez parcourir un long chemin pour trouver un moyen de traverser le ruisseau.

      Projet Re:Visible Earth ( Note : 1)

      Projet Re:Visible Earth ( Note : 2)

      C'est une sorte d'après-midi amusant à faire une petite randonnée. Mes contributions peuvent être consultées ici [confluence.org] et ici [confluence.org]. J'espère que j'aurai la chance de visiter quelques autres endroits au hasard lorsque je pars en vacances cet été.
      _____________

      Re : Peut-être que c'est juste moi, mais. (Note : 2)

      Je gagne ( Score : 1)

      (Oui, j'ai inventé le nombre. C'est trop bête pour que je perde du temps sur un vrai calcul.)

      Je peux obtenir le plus de points ! (Note : 1)

      Re : A quoi ça sert ? (Note : 1)

      Vous avez tout à fait raison et vous avez été noté injustement.

      Qui s'en fout vraiment ? Ce n'est qu'un accident si les lignes traversent n'importe quel point par opposition à n'importe quel autre de toute façon.

      La loi de Sod. (Note : 1)

      Jockeys de bureau ? (Note : 2)

      Re : Je peux obtenir le plus de points ! (Note : 1)

      Il est possible de résister. (Note : 2)

      Il est possible de voir une histoire Slashdot vierge, sans réponses, et de résister à la tentation d'atteindre le bouton "Répondre". Je l'ai fait. C'est possible.

      Juste *putain* dur ! Mais jusqu'à présent, j'ai résisté à l'envie de FP.
      --

      Re : Ce serait mieux si. (Note : 1)

      Une partie de la tectonique des plaques est qu'une plaque peut glisser sous une autre plaque et être fondue.

      Qu'arriverait-il à une pyramide dans cette situation difficile, et combien de temps cela prendrait-il avant que cela se produise ?

      GPS (Note : 1)

      J'ai récemment commencé à envisager une unité GPS car j'ai lu via le Network Time Protocol. En utilisant une unité GPS, je peux obtenir une précision de temps supérieure à la milliseconde. Il est intéressant de voir que si j'en ai un, je peux le mettre à d'autres usages.

      Je pense donc ken_i_m

      Re:panorama (Note : 2)

      de la faq sur la résolution du problème des pôles [confluence.org]

      "À 89 degrés de latitude, à un degré du pôle nord ou sud, la ligne est distante de 1,2 mille. Cela fausse fortement l'échantillon vers les pôles et néglige les régions équitoriales. Une solution au problème consiste à ignorer les confluences lorsque la distance entre elles tombe en dessous des 2/3 de la distance à l'équateur. [ils] sont toujours des confluences valides, et seront affichés s'ils sont visités, mais ne font pas partie des objectifs officiels du projet. »

      Re:Les maths (Note : 2)

      1.3 Combien y a-t-il de confluents ? [confluence.org]
      Il y a 64 442 intersections de degrés de latitude et de longitude dans le monde (en comptant chaque pôle comme une intersection). Parmi ceux-ci, 47 650 atteignent les objectifs du projet après avoir supprimé de nombreuses confluences à proximité des pôles [confluence.org]. Parmi ceux-ci, environ 12 000 sont réellement sur le terrain. Comme vous pouvez le deviner, nous ne craignons pas de manquer de confluences.

      Re : Loisirs géographiques ( Score : 1)

      Cette sculpture était l'un des personnages du roman de David Brin Terre.

      Re : Les maths ( Score : 1)

      Vous semblez avoir cette idée que les maths sont difficiles. Adoptez une approche dans le pire des cas, une image pour chaque intersection. Il y a 360 lignes de longitude et 179 lignes de latitude, plus deux points pour les pôles. Un total de 360*179+2 = 64442 images, dans le pire des cas.Supposons maintenant que les 3/4 de ces points sont inintéressants car ils sont recouverts d'eau, vous obtenez donc environ 16 110 images.

      Compte tenu du nombre d'images pornographiques sur le disque dur de l'utilisateur moyen du réseau, je ne pense pas que la fin du stockage soit si peu pratique. Même avec un mégaoctet par site, cela ne représente que 16 Go, soit environ le coût de stockage d'un repas McDonald's. La partie difficile est de se rendre dans ces endroits avec une caméra.

      Nombre total de confluences ( Score : 1)

      Pas bien. La dérive de contenu déplacerait les marqueurs ( Score : 2)

      Re:ancien GPS (Note : 1)

      Je me demande aussi comment ils vont se rendre aux intersections les plus difficiles (Sibérie centrale, mers polaires du sud, etc.) - je veux dire que ce serait assez difficile avec certaines des technologies d'aujourd'hui (sans parler de la bureaucratie), mais avec les technologies médiévales/renaissance ? Ce serait vraiment dur.

      Obtenez un récepteur GPS et allez-y ! (Note : 2)

      Et NON, je ne travaille pas pour Office Depot. Même si je le faisais, je ne verrais jamais aucun des $.

      Re : Pas bon. La dérive du contenu déplacerait la marque ( Score : 1)

      > Comment exactement les coordonnées longitudinales sont-elles ajustées
      > pour le lecteur de contenu, je veux dire, Greenwich est
      > s'éloigne lentement de la France. Même les pôles
      > déplacez-vous lentement.

      Pas de problème pour les appareils GPS portables. Considérez que l'unité moyenne n'a qu'une précision de 100 mètres et que le continent moyen se déplace à environ 10 cm/an, il faudrait plusieurs siècles avant qu'un observateur occasionnel ne le remarque.

      Re : Obtenez un récepteur GPS et allez-y ! (Note : 2)

      ACK ! Je viens de dépenser le prix normal pour un Garmin GPS III+ !

      Le site contient toutes les informations ( Score : 2)

      Le site Web contient toutes ces informations. Comme d'autres réponses l'ont mentionné, le calcul n'est pas difficile, mais il y a le problème des pôles [confluence.org]. Fondamentalement, lorsque vous vous approchez des pôles, les lignes de longitude se rapprochent. Près d'un pôle, il ne vaut pas la peine d'essayer d'atteindre un confluent à quelques kilomètres d'un autre. Donc, ils suppriment ne comptent pas certaines intersections.

      Dans l'ensemble, une autre raison stupide, sans valeur, mais totalement intéressante pour les geeks de sortir.

      Hrmph. (Note : 1)

      Je connais bien la région. (Note : 2)

      La première photo sur son site Web, montrant une sculpture de blaireau monstrueux et une bûche derrière elle, est située sur l'autoroute 45. C'était à une époque une station-service et une boutique de cadeaux à vocation touristique, si je me souviens bien. Bien que dans un passé récent, il a été converti en club pour hommes.
      *MDR*


      Quidquid latin dictum sit, altum viditur.

      J'aime la poésie qu'il contient ( Note : 2)

      Ma première pensée a été que cela semblait ennuyeux et artificiel. C'est une quête pour visiter des coordonnées arbitraires. Ensuite, vous arrivez à la dernière de ses anecdotes, où ils se sont présentés à un agriculteur qui possédait la terre qu'ils devaient traverser et a emmené l'un de ses enfants à la chasse.

      Une autre randonnée les a conduits à un demi-mile sur un sentier de motoneige, à pied.

      Cela compte pour quelque chose.

      Re : Ce serait mieux si. (Note : 2)

      Que diriez-vous de Mono [slashdot.org]-liths [slashdot.org] ?

      Projet Re:Visible Earth ( Note : 1)

      Bien que ce serait cool, quelque chose de même nature (mais encore plus cool) existe depuis un certain temps, et a déjà à peu près tous les États-Unis - voyez si vous pouvez trouver votre maison :

      Re : Pas bon. La dérive du contenu déplacerait la marque ( Score : 1)

      Confluences (Note : 1)

      Re : Obtenez un récepteur GPS et allez-y ! (Note : 1)

      Re:GPS (Note : 1)

      Re:Je gagne ( Score : 1)

      Nous allons :) Vous devez prendre une photo de votre
      Unité GPS affichant les coordonnées lorsque vous le soumettez à
      les gens de la confluence.

      Ouais ouais, vous *pourriez* modifier la photo de votre GPS dans Gimp ou autre, mais à quoi ça sert.

      Ils sont un peu courts (Note : 2)

      Concours de point le plus élevé ( Score: 2)

      Dans le Colorado, il y a des objectifs d'escalade de pointe
      tels que tous les sommets au-dessus de 14 000' (55) ou 4000m (98)
      ou le plus haut sommet de chaque comté.
      Non, vous pouvez essayer de trouver le point le plus élevé dans chaque
      degré carré via GPS.

      Wow, quatre confluences non tentées autour de moi. (Note : 2)

      45N 74W Rockburn, QC, CA (presque à la frontière CA, US)
      45N 75W W de Cornwall, ON, CA (en face de Massena, NY, US)
      46N 74W E de St-Adele, QC, CA (apportez des skis de fond!)
      46N 75W SE de Duhamel, QC, CA (pas de routes à moins de 20 km!)

      Loisirs géographiques ( Score : 2)

      C'est bien! (Note : 2)

      J'adore l'idée d'un effort d'échantillonnage planétaire comme celui-ci, ça va très bien sur un CD à expédier avec le prochain vaisseau de style Voyager.

      Voir! Belle Terre Immobilier!

      Ravir! Des milliers de photos de petits appareils électroniques avec des 00 dessus !

      Merveille! Aux passionnés de GPS qui marchent sur l'eau en pleine mer ou qui font du trekking à travers l'Antarctique !

      Géocachine ( Note : 2)

      Si j'avais eu un GPS, je me serais lancé dans le géocaching. J'ai été tenté de mettre une sorte de prix dans un seau et de le laisser tomber dans l'un des nombreux puits de ventilation de mine abandonnés dans ma région. :) Vous pourriez être à moins de cinq pieds de l'emplacement et ne jamais le trouver. :) Je suppose ça a l'air stupide quand je le dis aux autres.

      Ancien GPS ( Note : 4)

      La technologie pré-GPS peut théoriquement être tout aussi précise, n'est-ce pas ? Je suppose que cela dépend de la personne. Pour ma part, j'ai un sens de l'orientation si horrible (j'ai fait de l'auto-stop à travers le Canada avec un ami cet été et nous a emmenés dans une mauvaise direction "raccourci". presque, heureusement que mon ami est plus intelligent que moi)

      Re:ancien GPS (Note : 2)

      Non, c'est du sexe de chèvre. (Note : 1)

      hourra pour les lâches anonymes qui restent réels.

      Cela a l'air amusant (Note : 1)

      Il devrait y avoir des prix pour les personnes qui peuvent obtenir le plus de points en premier et le plus tôt.

      Je cherchais une excuse pour me procurer un GPS et un appareil photo numérique, je pense que je viens de la trouver. Maintenant, j'ai juste besoin de prendre 1 mois de vacances avec ma Jeep et de voir combien de points je peux accumuler.

      (points. l'obtenir? l'obtenir? Ha ha ha ha. désolé.)

      30x90. (Note : 2)

      Super objectif, allez visiter nulle part! Essayez plutôt de visiter des endroits où les gens se croisent.

      Re:30x90. (Note : 1)

      Si vous pensiez apporter un petit bateau (même un jet ski ferait l'affaire, ou un bateau plat de 12 pieds avec un petit hors-bord) et le mettre à l'eau depuis la rampe de mise à l'eau de Paris Rd, vous pouvez naviguer et vous tenir juste à l'endroit.

      Mapquest le montre ici [mapquest.com].

      Géocaching un sport ? (Note : 2)

      Je trouve ce "sport" assez amusant. cela implique de regarder un ordinateur de poche et de marcher/nager/conduire dans n'importe quelle direction.

      "à mon époque" (à l'âge de 21 ans), nous avons utilisé des cartes topographiques, des marqueurs, des boussoles et des masses terrestres naturelles pour calculer où nous étions et où nous devions faire des randonnées et des voyages de camping.

      cela semble juste en retirer tout le plaisir. un peu comme chasser dans ces zones clôturées spéciales avec des animaux qui ont passé toute leur vie élevés par les hommes (il n'y a donc pas de peur). vous pouvez simplement marcher et leur tirer dans la tête avec votre BFG.

      Re:ancien GPS (Note : 1)

      La différence entre le GPS et les anciennes technologies est plus méthodique.

      De plus, maintenant que vous mentionnez les endroits difficiles d'accès, je me demande combien de photos ne seront que des "coups d'eau" sans véritable terrain. Je suppose que ce serait approximativement égal au pourcentage de la terre recouverte d'eau (qu'est-ce que c'est ? 2/3 ? 3/4 ?)

      Re:zones de danger (Note : 1)

      un claquement au milieu d'un volcan actif.

      Re:zones de danger (Note : 1)

      Vous avez oublié les poteaux (Note : 1)

      En fait, ce n'est pas correct, car aux pôles nord et sud, tous les 360 degrés de longitude convergent vers le même point. Le bon numéro est

      Re : Pas bon. La dérive du contenu déplacerait la marque ( Score : 1)

      Re : Pas bon. La dérive du contenu déplacerait la marque ( Score : 1)

      100 mètres ? Cela devait être avant le 1er mai 2000, lorsque le DoD a levé le brouillage des signaux GPS.

      Re : Ce serait mieux si. (Note : 1)

      Zones rurales ( Score : 2)

      Cela m'étonne combien de confluents aux États-Unis sont dans les zones rurales. Parfois, le terrain rend très difficile l'accès. Ce sera intéressant quand ils auront terminé le projet (ou quand ils auront au moins fini les États-Unis). Nous remarquerons probablement qu'il y a beaucoup plus d'espace que nous ne le pensons.

      Et puis quelqu'un décidera que la prochaine étape logique est de commencer à fonder de nouvelles villes aux confluents inhabités.
      --

      Quelque chose comme la boîte aux lettres (Note : 2)

      La boîte aux lettres est un passe-temps qui existe depuis toujours, je suppose. C'est un peu comme le géocaching, mais utilise généralement juste une boussole et vos pieds. Vous suivez des « indices », essentiellement des instructions, contenant des relèvements et des nombres de pas pour vos virages jusqu'à ce que vous trouviez le but.

      Jetez un œil au site Web de Letterboxing [letterboxing.org].

      Re : Ce serait mieux si. (Note : 2)

      Offtopic : qu'en est-il de ces salauds tristes qui n'ont rien de mieux à faire que de recharger slashdot toutes les 10 secondes juste pour qu'ils puissent poster un message insensé sur la façon dont ils ont été les premiers à poster. À ces gens, obtenez une vie!

      Vous réalisez qu'il est possible d'être la première personne à publier un article sans recharger constamment la page, n'est-ce pas ? Et à un tel moment, vous réalisez qu'il est presque impossible de nier votre envie primordiale de poster un message rapide et stupide le disant.

      Re:Les maths (Note : 2)

      Et vous pouvez réduire cela à environ 35% environ, étant donné la quantité d'eau qui recouvre la surface de la terre.

      Oh, alors ils vont mettre à moitié ce projet, hein ?

      Faites-en six (Note : 2)

      Nous sommes une triste minorité ( Score : 1)

      Re:30x90. (Note : 1)

      J'ai grandi à environ 3 miles NE de 30x90. C'est bien dans les limites de la ville, juste à l'extérieur du centre-ville. Et c'est sans doute la partie la plus moche de la ville. Ça a pris des couilles, pour que le gars y aille sans savoir ce qu'il allait trouver. Je sais comment m'y rendre sans trop de problèmes, je connais Old Gentilly Rd. et Almonaster mieux que je ne devrais. Vous pouvez trouver des trucs étranges là-bas. (tout ce qui va des fossiles dans le gravier bordant le canal aux déchets industriels en passant par les meutes de chiens sauvages et les meutes d'humains sauvages)

      Ouais, ce ne serait pas loin de Paris Rd. rampe de mise à l'eau. Hmm. Je serai de retour à la maison dans quelques mois, mon père a toujours son flatboat, sa remorque et son attelage. Il ne me reste plus qu'à emprunter un GPS et je suis prêt. Ils ont dit qu'ils publieraient deux visites à un confluent.

      Ré. et le problème des pôles (Note : 1)

      Chaque point est distant de 1,04 nm à 89 degrés N/S.
      60nm*2*pi/360=1.04
      Cela ne tient pas compte de l'aplatissement de la terre au 1/f ou au 1/298 de l'équateur aux pôles.

      Dr Doolittle (Note : 2)

      Quelqu'un se souvient des vieux livres du Dr Doolittle, où le Docteur ouvrait un atlas (ou était-ce un globe ?), fermait les yeux, pointait la page du doigt et allait là où son doigt pointait ? C'est ce que cela me rappelle.

      Bien sûr, il arrivait toujours au Docteur de choisir un endroit éloigné et tropical, mais incroyablement intéressant.

      Points de cheminement en pointillés (Score : 2)

      J'avais retardé un voyage vers un point de passage dans l'est de la Caroline du Nord [confluence.org] depuis un certain temps maintenant, mais maintenant que cette histoire est sortie, je m'attends à y arriver seulement pour trouver soixante-quinze geeks qui s'affairent avec leurs ensembles Magellan en attente patiemment de se tenir à un Barre oblique situation géographique pour se faire prendre en photo. Crud !

      Re : Pas bon. La dérive du contenu déplacerait la marque ( Score : 1)

      6.02E23 mod 180 est. (roulement de tambour) (Note : 1)

      6.02E23 mod 180 = zéro.

      eh bien, d'après ma TI-83+ :
      6.02E11 / 180 = 3344444444.0
      multiplier cela par 1E12 n'introduirait guère plus de nombres inférieurs à un.

      Amusez-vous au pôle nord! [matthewhenson.com] N'oubliez pas d'isoler et de chauffer votre yacht, cependant - j'imagine qu'il ferait plutôt froid au-dessus de l'eau là-bas. assez profond [matthewhenson.com] aussi.

      Re : Cela a l'air amusant (Note : 1)

      Précision GPS et instruments anciens ( Note : 1)

      Bien sûr, l'arpentage par d'autres moyens peut être plus précis qu'un GPS.

      Le GPS est limité du fait de la dégradation des signaux des satellites par l'atmosphère et de la précision de l'électronique embarquée. Les fabricants citent une précision de 100 m, bien qu'en général elle soit bien meilleure que cela. Un GPS portable à bas prix typique listera souvent horizontal des erreurs de l'ordre de 5 mètres, mais c'est une estimation de 1 écart type. le verticale l'erreur est souvent deux ou trois fois plus grande. L'erreur n'est également qu'une estimation et peut facilement être le double de celle signalée. Vous pouvez améliorer le GPS avec un DGPS (GPS Différentiel), puisque les erreurs atmosphériques sont en grande partie les mêmes à proximité. Vous pouvez vous abonner à un chapeau de correction de diffusion par satellite pouvant vous amener à +/- 1 mètre, ou opter pour un véritable équipement GPS d'arpentage (10 000 $ +) et obtenir +/- 0,01 mètre ou mieux.

      Les équipements d'arpentage traditionnels (tels qu'un théodolite ou un télémètre laser) peuvent facilement obtenir une précision millimétrique si vous mesurez à partir d'un emplacement connu. Les levés astronomiques peuvent obtenir des emplacements précis sans points connus. La latitude est facile, mais la longitude nécessite un ensemble de tableaux correctement calibrés, des mathématiques sérieuses et une bonne montre.

      Toutes les méthodes GPS vous donnent des coordonnées qui sont dans le système de coordonnées WGS 84 (World Geodetic System) ou une simple modification de celui-ci. La plupart des cartes topographiques ne sont pas dans ce système de coordonnées et, tout au plus, ont quelques réticules imprimés dessus. pour aider l'utilisateur à s'adapter. Les cartes topographiques américaines sont presque exclusivement dans le système de coordonnées NAD 27. L'utilisation du décalage de référence boiteux du GPS pour convertir entre NAD 27 et WGS 84 peut donner de graves erreurs (environ 11 mètres là où je vis, jusqu'à 60 dans certaines parties des États-Unis, et plus à TROTW). Il en résulte la question de lequel confluence que vous souhaitez mesurer. Les différences sont énormes.

      Le projet Degree Confluence utilise le système de coordonnées WGS 84, et donc un GPS donne facilement l'emplacement dans le bon système. À l'aide d'une carte et d'une boussole ou d'un théodolite et d'une chaîne ou d'un télescope et d'une table lunaire, vous devez non seulement localiser le bon point, mais vous devez également déterminer où se trouve le bon point.


      Ajustement de l'alignement des bords et du positionnement du nœud ajusté

      A savoir un nœud en haut à gauche, un nœud en bas à gauche de même largeur que le nœud en haut à gauche (avec éventuellement une hauteur différente), et un nœud à droite avec la hauteur totale de deux nœuds de gauche. Le bon nœud doit contenir plusieurs choses, éventuellement des images.

      Le code suivant résout ce problème :

      Il y a beaucoup de choses laides à propos de cette solution que je n'aime pas :

      1. La largeur des deux nœuds gauches est contrôlée manuellement, avec une largeur minimale , mais j'aimerais que le nœud le plus large ait juste une séparation intérieure et que le nœud le plus étroit s'étire en largeur pour le suivre.
      2. Contrôler le nord, le sud, l'est et l'ouest du nœud droit ajusté avec quatre coordonnées calculées manuellement semble exagéré et ne semble pas correct.
      3. Les coordonnées artificielles nord et sud du nœud droit ajusté nécessitent que l'épaisseur de la ligne dessinée soit soustraite. Ce n'est même pas calculé manuellement mais codé en dur à la moitié de l'épaisseur d'étirage dès que l'épaisseur d'étirage des nœuds change, cela doit être ajusté à la main.
      4. Le pire problème : les blocs internes du bloc de droite (block_right_label et block_right_text) sont positionnés manuellement. Il serait préférable de contrôler d'une manière ou d'une autre les bords des nœuds ajustés et de dessiner les nœuds internes une fois que le nœud ajusté a été positionné. De cette façon, je pouvais contrôler avec précision l'espacement entre le nœud ajusté droit et les nœuds gauche, peut-être même le définir égal à l'espacement entre les nœuds gauche. Sans oublier que le positionnement manuel des nœuds intérieurs n'obtiendra pas une séparation intérieure supérieure et inférieure parfaitement égale comme celle-ci.

      Est-ce que j'aborde ce problème complètement faux ? Fit semble être la mauvaise solution ici. Dans tous les cas, pouvez-vous me proposer des solutions pour un certain nombre des problèmes ci-dessus ?


      Passer d'un système de coordonnées artificiel à un système réel - Systèmes d'Information Géographique

      commande intègre l'analyse d'ordination et la visualisation biplot dans bien rangé flux de travail.

      Partout où il y a un SVD, il y a un biplot.[1]

      Ordination est un terme fourre-tout pour une variété de techniques statistiques qui introduisent un système de coordonnées artificiel pour un ensemble de données de telle sorte que quelques coordonnées capturent une grande partie de la structure de données [2]. La branche des statistiques mathématiques appelée analyse géométrique des données (GDA) fournit la base théorique de (la plupart de) ces techniques. L'ordination chevauche la régression et la réduction de dimension, qui peuvent être contrastées avec le regroupement et la classification en ce qu'elles attribuent des valeurs continues plutôt que discrètes aux éléments de données [3].

      La plupart des techniques d'ordination décomposent un ensemble de données rectangulaires numériques en le produit de deux matrices, souvent en utilisant la décomposition en valeurs singulières (SVD). Les coordonnées des dimensions partagées de ces matrices (sur lesquelles elles sont multipliées) sont les coordonnées artificielles. Dans certains cas, comme l'analyse en composantes principales, la décomposition est exacte dans d'autres, comme la factorisation matricielle non négative, elle est approximative. Certaines techniques, telles que l'analyse des correspondances, transforment les données avant la décomposition. Les techniques d'ordination peuvent être supervisées, comme l'analyse discriminante linéaire, ou non supervisées, comme la mise à l'échelle multidimensionnelle.

      Les pipelines d'analyse qui utilisent ces techniques peuvent utiliser les coordonnées artificielles directement, à la place des coordonnées naturelles, pour organiser et comparer des éléments de données ou pour prédire des réponses. Ceci est possible car les lignes et les colonnes de la table d'origine peuvent être localisées ou positionnées le long de ces coordonnées partagées. Le nombre de coordonnées artificielles utilisées dans une application, comme la régression ou la visualisation, est appelé le rang de l'ordination [4]. Une application courante est la biplot, qui positionne les lignes et les colonnes du tableau d'origine dans un nuage de points en 1, 2 ou 3 coordonnées artificielles, généralement celles qui expliquent le plus de variation dans les données.

      Une gamme étendue de techniques d'ordination est implémentée dans R, de la mise à l'échelle multidimensionnelle classique ( stats::cmdscale() ) à l'analyse des composants principaux ( stats::prcomp() et stats::princomp() ) dans le Statistiques progiciel distribué avec la base R, à travers des implémentations largement utilisées d'analyse discriminante linéaire ( MASS::lda() ) et d'analyse de correspondance ( ca::ca() ) dans des progiciels statistiques d'usage général, à des progiciels hautement spécialisés qui implémentent des techniques ou adapter des techniques conventionnelles à des environnements difficiles. Ces implémentations sont livrées avec leurs propres conventions, adaptées aux communautés de recherche qui les ont produites, et il serait peu pratique (et probablement inutile) d'essayer de les consolider.

      Au lieu, commande fournit un processus rationalisé par lequel les modèles générés par ces méthodes, en particulier les facteurs matriciels dans lesquels les données d'origine sont approximativement décomposées et les coordonnées artificielles qu'elles partagent, peuvent être inspectés, annotés, tabulés, résumés et visualisés.Sur ce dernier point, la plupart des implémentations biplot dans R offrent une personnalisation limitée. commande adopte la grammaire du paradigme graphique de ggplot2 pour modulariser et standardiser les éléments de biplot [5]. Dans l'ensemble, le package est conçu pour suivre les conventions syntaxiques plus larges du bien rangé, afin que les utilisateurs familiarisés avec ce workflow puissent intégrer plus facilement et plus rapidement des modèles d'ordination dans la pratique.

      commande reste en cours de développement et n'est pas prévu pour une version CRAN. Pour l'instant, il peut être installé à partir de la branche principale (par défaut) en utilisant télécommandes:

      Morphologiquement, Iris versicolor est beaucoup plus proche de Iris virginica que de Iris sétosa, bien que dans chaque caractère par lequel il diffère de Iris virginica il part en direction de Iris sétosa.[6]

      Une illustration très courante de l'ordination dans R applique l'analyse en composantes principales (ACP) aux mesures de l'iris d'Anderson. Ces données consistent en la longueur et la largeur des pétales et des sépales environnants de 50 de chacune des trois espèces d'iris :

      commande fournit une fonction pratique pour envoyer un sous-ensemble de colonnes à une fonction d'ordination, envelopper le modèle résultant dans le chatouiller-classe 'tbl_ord' dérivée, et ajoute à la fois les diagnostics de modèle et d'autres colonnes de données d'origine en tant qu'annotations aux facteurs de matrice appropriés :[7]

      Des annotations supplémentaires peuvent être ajoutées à l'aide de plusieurs lignes et colonnes spécifiques dépliant-les verbes de style :

      Suivant le balais package, la méthode tidy() produit un tibble décrivant les composants du modèle, en l'occurrence les coordonnées principales, qui convient au scree plot :

      Suivant ggplot2, la méthode fortify() lie les lignes du facteur tibbles avec une colonne .matrix supplémentaire. Ceci est utilisé par ggdiplot() pour rediriger les couches de tracé spécifiques aux lignes et aux colonnes vers les sous-ensembles appropriés :[8]

      Lorsque les variables sont représentées en coordonnées standard, comme généralement dans l'ACP, leurs règles peuvent être redimensionnées pour produire un biplot de prédiction :

      Tout commentaire sur le paquet est le bienvenu ! Si vous rencontrez une confusion ou des erreurs, créez un problème, avec un exemple reproductible minimal si possible. Si vous avez des demandes, des suggestions ou vos propres implémentations de nouvelles fonctionnalités, n'hésitez pas à créer un problème ou à soumettre une pull request. Les méthodes pour les classes d'ordination supplémentaires (voir les scripts method-*.r dans le dossier R) sont particulièrement bienvenues, tout comme les nouvelles couches de tracé. Veuillez essayer de suivre les directives de contribution et de respecter le Code de conduite.

      Ce paquet a été à l'origine inspiré par le ggbiplot extension développée par Vincent Q. Vu, Richard J Telford et Vilmantas Gegzna, entre autres. Pour autant que je sache, il a d'abord introduit des biparcelles dans le bien rangé cadre. La motivation pour unifier une variété de méthodes d'ordination est venue de plusieurs livres et articles de Michael Greenacre, en particulier Biplots en pratique. Thomas Lin Pedersen tidygraph préquelle à graphique a finalement induit le passage de la génération en aval des nuages ​​de points à la gestion et la manipulation en amont des modèles d'ordination. Des éléments de conception et des caractéristiques supplémentaires ont été informés par la monographie Biparcelles et le manuel Comprendre les tracés bidimensionnels par John C. Gower, David J. Hand, Sugnet Gardner Lubbe et Niel J. Le Roux.

      [2] Le terme ordination est le plus répandu parmi les écologistes à ma connaissance, aucun terme fourre-tout n'est d'usage courant en dehors de l'écologie.

      [3] Ce n'est pas une règle stricte : la PCA est souvent utilisée pour compresser les données avant le clustering, et LDA utilise la réduction de dimension pour effectuer des tâches de classification.

      [4] Les modèles de régression et de clustering, comme la régression linéaire classique et k-means, peuvent également être compris comme des approximations de décomposition matricielle et même visualisés en biplots. Leurs coordonnées partagées, qui sont prédéfinies plutôt qu'artificielles, sont respectivement les coefficients de prédicteur et les affectations de cluster. Les méthodes pour stats::lm() et stats::kmeans() , par exemple, sont implémentées dans un souci de nouveauté et d'instruction, mais ne sont pas largement utilisées dans la pratique.

      [5] Les éléments de biplot doivent être choisis avec soin, et il est utile et approprié que de nombreuses méthodes de biplot spécifiques au modèle aient une flexibilité limitée. Ce paquet adopte le compromis articulé dans Wilkinson La grammaire du graphisme (p. 15) : « Ce système est capable de produire des graphismes hideux. Rien dans sa conception n'empêche son utilisation abusive. … Ce système ne peut cependant pas produire un graphique dénué de sens.

      [6] Anderson E (1936) "Le problème des espèces dans l'iris". Annales du jardin botanique du Missouri 23(3), 457-469+471-483+485-501+503-509. https://doi.org/10.2307/2394164

      [7] Les données doivent se présenter sous la forme d'une trame de données compréhensible par la fonction de modélisation. Des méthodes pas à pas existent également pour créer et annoter un « tbl_ord » à partir d'un modèle d'ordination ajusté.

      [8] La géométrie de texte rayonnant, comme plusieurs autres caractéristiques, est adaptée de la ggbiplot paquet.


      Figure 1

      Figure 1. (Schéma) La théorie de la nucléation classique (en haut), la théorie de l'état de transition harmonique (au milieu) et la théorie de Marcus (en bas) sont « théoriquement réversibles » car elles peuvent être utilisées pour des prédictions et pour l'interprétation des données expérimentales. Ces théories ont une capacité unique à extraire des informations microscopiques directement à partir de la cinétique expérimentale. Dans chaque cas, ces capacités découlent de leur utilisation d'une seule coordonnée de réaction physiquement significative.

      Coordonnées de réaction unidimensionnelles et physiquement significatives : Les théories classiques sont chacune construites autour d'une seule coordonnée de réaction physiquement significative : un mode vibrationnel instable, une coordonnée de taille de cluster et un écart énergétique vertical, comme le montre la figure 1. Les coordonnées de réaction sont des caractéristiques spécifiques et physiquement significatives des configurations moléculaires. Dans le même temps, ces coordonnées de réaction sont largement applicables à de nombreuses réactions, processus de nucléation et processus de transfert d'électrons.


      Voir la vidéo: LASTICOT POUR NOURRIR LES POISSONS (Octobre 2021).