Suite

Supprimer des entités d'une classe d'entités qui participe à une topologie


J'ai une géodatabase d'entreprise et j'aimerais supprimer des entités à l'aide de l'outil d'une classe d'entités qui réside dans l'un des jeux de classes d'entités et participe à une topologie. J'ai essayé d'utiliser l'outil, mais il ne fait que tourner, ArcCatalog se bloque et cesse de répondre. Est-il possible de supprimer toutes les entités, pas la classe d'entités si elle fait partie d'une topologie ? Il fait partie d'une réplication. Nous obtenons des données d'ailleurs et nous chargeons simplement les nouvelles données pour conserver notre schéma. Le schéma est le même pour les nouvelles données. J'ai essayé de le faire à partir d'une version et également dans ArcMap avec des verrous et ne répond pas.


Le problème ici est que pour les entités qui participent à une topologie de géodatabase ou à un réseau géométrique, toutes les modifications doit être enfermé dans une opération d'édition… citation directe :

Situations nécessitant des sessions de mise à jour Les éléments suivants incluent certains types de jeux de données qui ne peuvent être modifiés que dans une session de mise à jour : Classes d'entités participant à une topologie Classes d'entités participant à un réseau géométrique Jeux de données versionnés dans les géodatabases ArcSDE Certaines classes d'objets et d'entités avec des extensions de classe

Si vous faites cela en python, vous devrez utiliser StartEditing et StopEditing (voir arcpy.da.Editor pour plus d'informations) ou utiliser DeleteFeatures dans ArcMap lors de l'édition.


Je charge le modèle pré-entraîné VGG19 avec le paramètre include_top = False sur la méthode de chargement.

Je charge le modèle pré-entraîné VGG19 jusqu'à la même couche avec le modèle précédent chargé avec Keras.

Une fois les modèles chargés, les images suivantes en montrent un résumé. (Pytorch, Keras)

Jusqu'à présent, il n'y a pas de problème. Après cela, je souhaite ajouter une couche Aplatir et une couche Entièrement connectée sur ces modèles pré-entraînés. Je l'ai fait avec Keras mais je n'ai pas pu avec PyTorch.

La sortie de new_model.summary() est la suivante :

Ma question est, comment puis-je ajouter une nouvelle couche dans PyTorch ?


15 réponses 15

Lorsque plusieurs versions du .NET Framework s'exécutent côte à côte sur un seul ordinateur, la version ASP.NET ISAPI mappée à une application ASP.NET détermine quelle version du Common Language Runtime (CLR) est utilisée pour l'application.

La commande ci-dessus installe la version d'ASP.NET associée à Aspnet_regiis.exe et enregistre uniquement ASP.NET dans IIS.

J'ai installé Windows 8 sur ma machine et l'outil aspnet_regiis.exe n'a pas fonctionné pour moi non plus.

La solution qui a fonctionné pour moi est publiée sur ce lien, sur la réponse de Neha : Erreur System.ServiceModel.Activation.HttpModule

Partout, le problème de cette solution a été mentionné comme ré-enregistrement d'aspNet en utilisant aspnet_regiis.exe. Mais cela n'a pas fonctionné pour moi.

Bien que ce soit une solution valable (comme expliqué magnifiquement ici)

mais cela ne fonctionnait pas avec Windows 8.

Pour Windows 8, vous devez activer les fonctionnalités Windows et tout activer sous ".Net Framework 3.5" et ".Net Framework 4.5 Advanced Services".

Merci Neha

Bonjour Merci pour la question à résoudre : "Impossible de charger le type 'System.ServiceModel.Activation.HttpModule' de l'assembly 'System.ServiceModel, Version=3.0.0.0, Culture=neutral, PublicKeyToken=b77a5c561934e089'"

Dans les fonctionnalités Windows, vérifiez tous les services avancés .NET 4 et amp .NET 3.5

Tout comme Nicolas Gago, j'ai essayé aspnet_regiis.exe -iru mais cela n'a pas fonctionné. Une fois les fonctionnalités activées, l'erreur d'écran jaune a disparu. Merci

Vous pouvez installer ces fonctionnalités sur Windows Server 2012 avec powershell à l'aide des commandes suivantes :

Vous pouvez obtenir une liste de fonctionnalités avec la commande suivante :

Modifiez cette ligne dans %windir%System32inetsrvConfigApplicationHost.config

Ajoutez cette ligne suivante au Web.config

À partir du nœud Fonctionnalités du gestionnaire de serveur, vous pouvez également supprimer certains des sous-éléments sous les fonctionnalités .NET Framework 3.5.1 qui sont installés par l'activation de certains des autres rôles.

Par exemple, supprimé les fonctionnalités d'activation WCF comme suit et nos sites Web sont revenus :

  • [x] .NET Framework 3.5.1 Fonctionnalités
    • [x] .NET Framework 3.5.1
    • [ ] Activation WCF
      • [ ] Activation HTTP
      • [ ] Activation non HTTP

      Remarque : cela n'a pas nécessité de redémarrage pour nous.

      Dans le serveur Windows 2012. Accédez à ISS -> Modules -> Supprimez le ServiceModel3-0.

      « Cette erreur peut se produire lorsqu'il existe plusieurs versions de .NET Framework sur l'ordinateur qui exécute IIS. »

      J'ai eu cette erreur après avoir accidentellement publié un site Web dans le répertoire d'un autre site Web. Les deux sites Web avaient des versions différentes de .net. Ce qui a résolu le problème pour moi, c'était de changer le pool d'applications. Pour cela, dans le gestionnaire IIS :

      cliquez sur le site Web => Paramètres avancés. (à droite) => cliquez à droite de Application Pool => un bouton avec ". " devrait apparaître => sélectionnez ".NET v4.5 Classic"

      Si ce pool d'applications ne fonctionne pas, essayez-en d'autres.

      Nous utilisons un service Web à côté d'un site Web et lorsque nous publions le site Web, il renvoie la même erreur. Nous avons découvert qu'en entrant dans IIS et en supprimant le ServiceModel des modules et le svc-Integrated des mappages du gestionnaire, l'erreur a disparu.

      Je suis en retard, j'espère que cela aidera quelqu'un. Il s'agit d'un problème connu avec IIS 8.0


      Network+ Exam Cram : Réseaux sans fil

      802.11 représente la désignation IEEE pour les réseaux sans fil. Plusieurs spécifications de réseau sans fil existent sous la bannière 802.11. Les objectifs Network+ se concentrent sur 802.11, 802.11a, 802.11b, 802.11g et 802.11n. Toutes ces normes utilisent le protocole Ethernet et la méthode d'accès CSMA/CA.

      L'examen Network+ comportera des questions sur les caractéristiques des normes sans fil. N'oubliez pas que les normes sans fil 802.11 utilisent la méthode d'accès CSMA/CA.

      Les normes sans fil 802.11 peuvent différer en termes de vitesse, de portée de transmission et de fréquence utilisée, mais en termes de mise en œuvre réelle, elles sont similaires. Toutes les normes peuvent utiliser une infrastructure ou une conception de réseau ad hoc, et chacune peut utiliser les mêmes protocoles de sécurité. Les topologies sans fil ad hoc et d'infrastructure ont été abordées au chapitre 1.

      • IEEE 802.11 : Il y avait en fait deux variantes de la norme sans fil 802.11 initiale. Les deux offraient des vitesses de transmission de 1 ou 2 Mbps et le même RF de 2,4 GHz. La différence entre les deux résidait dans la façon dont les données transitaient par le support RF. L'un utilisait le FHSS et l'autre le DSSS. Les normes 802.11 d'origine sont beaucoup trop lentes pour les besoins de mise en réseau modernes et ne sont désormais plus déployées.
      • IEEE 802.11a : En termes de vitesse, la norme 802.11a était bien en avance sur les normes 802.11 d'origine. 802.11a spécifié des vitesses allant jusqu'à 54 Mbps dans la bande 5 GHz, mais le plus souvent, la communication a lieu à 6 Mbps, 12 Mbps ou 24 Mbps. 802.11a est incompatible avec les normes sans fil 802.11b et 802.11g.
      • IEEE 802.11b : La norme 802.11b prévoit une vitesse de transmission maximale de 11 Mbps. Cependant, les appareils sont conçus pour être rétrocompatibles avec les normes 802.11 précédentes qui prévoyaient des vitesses de 1, 2 et 5,5 Mbps. 802.11b utilise une plage RF de 2,4 GHz et est compatible avec 802.11g.
      • IEEE 802.11g : 802.11g est une norme sans fil populaire aujourd'hui. 802.11g offre une transmission sans fil sur des distances de 150 pieds et des vitesses allant jusqu'à 54 Mbps par rapport aux 11 Mbps de la norme 802.11b. Comme le 802.11b, le 802.11g fonctionne dans la gamme 2,4 GHz et est donc compatible avec celui-ci.
      • IEEE 802.11n : La plus récente des normes sans fil répertoriées dans les objectifs Network+ est 802.11n. L'objectif de la norme 802.11n est d'augmenter considérablement le débit dans les gammes de fréquences 2,4 GHz et 5 GHz. L'objectif de base de la norme était d'atteindre des vitesses de 100 Mbps, mais dans les bonnes conditions, on estime que les vitesses 802.11n pourraient atteindre 600 Mbps. Dans la pratique, les vitesses 802.11n seront beaucoup plus lentes.

      Alerte d'examen : normes sans fil

      Soyez prêt à répondre aux questions sur les caractéristiques spécifiques des normes sans fil lors de l'examen Network+.

      La magie derrière 802.11n

      802.11n est sur le point d'apporter le prochain grand changement dans les réseaux sans fil, promettant de plus grandes distances et des vitesses stupéfiantes. Mais comment est-ce que c'est fait? Le 802.11n tire le meilleur des normes 802.11 et y ajoute de nouvelles fonctionnalités pour faire passer le sans fil au niveau supérieur. La première de ces nouvelles technologies est la technologie d'antenne à entrées multiples et sorties multiples (MIMO).

      MIMO est sans aucun doute le plus grand développement pour 802.11n et la clé des nouvelles vitesses. Essentiellement, MIMO utilise le multiplexage pour augmenter la portée et la vitesse du réseau sans fil. Le multiplexage est une technique qui combine plusieurs signaux pour une transmission sur une seule ligne ou un seul support. MIMO permet la transmission de plusieurs flux de données voyageant sur différentes antennes dans le même canal en même temps. Un récepteur reconstruit les flux, qui ont également plusieurs antennes. En utilisant plusieurs chemins, MIMO offre un gain de capacité significatif par rapport aux systèmes conventionnels à antenne unique, ainsi qu'une communication plus fiable.

      En plus de toutes ces améliorations, 802.11n permet une liaison de canaux qui double à nouveau essentiellement le débit de données. Qu'est-ce que la liaison de canaux ? Les normes sans fil 802.11b et 802.11g utilisent un seul canal pour envoyer et recevoir des informations. Avec la liaison de canaux, vous pouvez utiliser deux canaux en même temps. Comme vous pouvez le deviner, la possibilité d'utiliser deux canaux à la fois augmente les performances. On s'attend à ce que la liaison aide à augmenter les taux de transmission sans fil des 54 Mbps offerts avec les normes 802.11g à un maximum théorique de 600 Mbps. 802.11n utilise la stratégie de transmission OFDM.

      Dans les réseaux sans fil, un seul canal a une largeur de 20 MHz. Lorsque deux canaux sont liés, ils représentent un total de 40 MHz. Les systèmes 802.11n peuvent utiliser soit les canaux 20 MHz, soit le canal 40 MHz.

      Résumé des normes sans fil 802.11

      Le tableau 7.5 met en évidence les caractéristiques des différentes normes sans fil 802.11.


      Évaluation de carte à l'aide de graphiques de topologie apparié

      La cartographie est une tâche importante pour les robots mobiles. L'évaluation de la qualité des cartes de manière simple, efficace et automatisée n'est pas anodine et constitue un sujet de recherche permanent. Ici, une nouvelle approche pour l'évaluation des cartes maillées 2D est présentée. Cette méthode basée sur la structure utilise un graphe de topologie, c'est-à-dire une représentation topologique qui inclut des informations métriques locales abstraites. Il est montré comment le graphe de topologie est construit à partir d'un diagramme de Voronoi qui est élagué et simplifié de telle sorte que seules les informations topologiques de haut niveau restent pour se concentrer sur des endroits plus grands et topologiquement distincts. Plusieurs méthodes pour calculer la similarité des sommets dans deux graphes de topologie, c'est-à-dire pour effectuer une reconnaissance de lieu, sont présentées. Sur la base des similitudes, il est montré comment les isomorphismes de sous-graphes peuvent être calculés efficacement et deux graphes de topologie peuvent être mis en correspondance. La correspondance entre les graphiques est ensuite utilisée pour calculer un certain nombre d'attributs d'évaluation de carte standard tels que la couverture, la précision globale, la précision relative, la cohérence et la rupture. Des expériences avec des cartes générées par des robots sont utilisées pour mettre en évidence les capacités de l'approche proposée et pour évaluer les performances des algorithmes sous-jacents.

      Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


      Étudier la topologie des systèmes de transport à travers des réseaux complexes : à manipuler avec précaution

      L'introduction de concepts de réseaux complexes dans l'étude des systèmes de transport a supposé un changement de paradigme et a permis de comprendre différents phénomènes de transport comme le résultat émergent des interactions entre les éléments qui les composent. Malgré plusieurs réalisations notables, des écueils cachés minent notre compréhension des caractéristiques topologiques des systèmes de transport. Dans cette étude, nous analysons quatre des plus courantes, spécifiquement liées à l'évaluation de l'absence d'échelle des réseaux, à l'interprétation et à la comparaison de métriques topologiques, à la définition d'un classement des nœuds et à l'analyse de la résilience face aux défaillances aléatoires. et des attaques ciblées. Pour chaque thème, nous présentons le problème d'un point de vue à la fois théorique et opérationnel, pour ensuite passer en revue la manière dont il a été abordé dans la littérature et enfin proposer un ensemble de solutions. Nous utilisons en outre six réseaux de transport réels comme études de cas et discutons des implications de ces quatre pièges dans leur analyse. Nous présentons quelques pistes de travail futures qui découlent de ces écueils et qui permettront une meilleure compréhension des systèmes de transport dans une perspective de réseau complexe.

      1. Introduction

      Ces dernières années, la structure topologique des différents systèmes de transport est devenue un sujet de recherche important. C'est le résultat de la convergence de deux axes de travail différents. D'une part, l'amélioration des ressources de calcul et de stockage de données a permis à la communauté des chercheurs en transport d'accéder à une grande quantité de données réelles, permettant la description détaillée de ces systèmes à différentes échelles temporelles et spatiales. D'autre part, il y a eu un grand effort de la communauté de la physique statistique dans l'analyse de la structure et de la dynamique des réseaux complexes à la fois théoriques et réels [1–3]. Il est alors devenu évident que la plupart complexe systèmes, c'est-à-dire, ceux composés de multiples éléments en interaction, ne peuvent pas être pleinement compris par une approche réductionniste, dans laquelle les éléments constitutifs sont étudiés de manière indépendante. Afin de comprendre et de prévoir le collectif (ou émergent), il est plutôt nécessaire d'inclure des informations sur la manière dont ces éléments interagissent entre eux et sur la manière dont différents modèles de connectivité influencent cette dynamique.

      La convergence des deux domaines de recherche a entraîné un changement de paradigme dans la façon dont les systèmes de transport sont conceptualisés et analysés. Il est devenu clair qu'il s'agit de systèmes complexes et que l'accent doit être déplacé d'une unité de transport (par ex., un avion, une voiture ou un bus) à la structure globale des interconnexions que ces unités génèrent. Par conséquent, la génération et l'absorption des retards cessent d'être des phénomènes locaux, c'est-à-dire, le résultat de la dynamique d'un seul avion, pour devenir un processus de propagation conceptuellement similaire à la propagation d'une maladie. De même, l'annulation d'un vol ou la fermeture d'un aéroport peuvent être étudiées pour leurs conséquences globales, c'est-à-dire, les changements dans les modèles de mobilité dans l'ensemble du système, au lieu d'inclure simplement une quantification du nombre de passagers directement touchés.

      Bien que fructueuse, cette convergence cache aussi des écueils et des difficultés. Ceux-ci viennent de deux fronts. Premièrement, la théorie des réseaux complexes n'a pas été développée avec une application spécifique à l'esprit, mais il s'agit plutôt d'un cadre général pour comprendre les systèmes en interaction. Un physicien statisticien doit alors tenir compte du fait que tous les concepts de réseaux complexes ne sont pas applicables au contexte des transports et qu'une certaine adaptation peut être nécessaire. Deuxièmement, même si à première vue la théorie des réseaux simple et complexe est basée sur un solide échafaudage mathématique qui ne peut être contourné. Le scientifique des transports doit alors connaître de nombreuses exigences théoriques, telles que l'application de tests statistiques appropriés, pour assurer l'obtention de résultats significatifs.

      Parmi les centaines de contributions apparues au cours de la dernière décennie sur l'utilisation des réseaux complexes pour comprendre les systèmes de transport, un nombre important d'entre elles présentent un ou plusieurs problèmes qui rendent difficile l'interprétation de leurs résultats. Ces problèmes ne se limitent pas à des travaux de recherche triviaux : au contraire, ils peuvent être trouvés dans des publications récentes et dans des revues très respectées. Dans ce travail, nous visons à favoriser un débat autour d'eux, en sensibilisant la communauté scientifique et éventuellement en aidant à développer de nouvelles solutions. Par souci de compacité, ce débat s'est concentré sur les propriétés topologiques des systèmes de transport, car il s'agit de l'application la plus basique et la plus facilement compréhensible de la théorie des réseaux complexes. Ces problèmes ont été organisés autour de deux grands thèmes : (je) l'évaluation des propriétés topologiques des réseaux, y compris l'absence d'échelle (section 2) et d'autres caractéristiques de base (section 3), et (ii) l'étude de la robustesse et de la résilience des systèmes de transport, tant au niveau des métriques utilisées (Section 4) que de la terminologie (Section 5). Six ensembles de données du monde réel sont également utilisés pour illustrer ces pièges. Nous tirons enfin des conclusions dans la section 6.

      2. Évaluer l'absence d'échelle des réseaux de transport

      2.1. Pièges courants et interprétations trompeuses

      A l'origine, deux types de graphes ont été largement étudiés : les graphes réguliers, dans lesquels tous les nœuds ont le même degré (i.e., nombre de connexions) et des graphes aléatoires, dont la connectivité est complètement aléatoire et donc dans lesquels les degrés des nœuds suivent une distribution de Poisson. L'une des découvertes les plus importantes de la théorie des réseaux complexes et celle qui la distingue de la théorie mathématique des graphes est la prise de conscience que les nœuds des réseaux du monde réel ne sont pas homogènes : au contraire, ils affichent généralement des modèles de connectivité plus riches. Plus précisément, il a été constaté que de nombreux nœuds n'ont qu'une poignée de connexions, tandis que quelques-uns d'entre eux (appelés hubs) peuvent être liés à la majorité de leurs pairs. Le résultat est un sans échelle distribution du degré des nœuds, qui peut être approchée par une loi de puissance

      Une telle hétérogénéité dans l'importance des nœuds est également présente dans les réseaux de transport. Les nœuds ne sont pas tous les mêmes, certains d'entre eux étant beaucoup plus importants que d'autres. D'une part, cela peut être dû à la façon dont le réseau est construit, avec certains nœuds conçus pour connecter différentes parties du système. Mais cela peut aussi être le résultat de raisons économiques, comme, par ex., dans le cas d'aéroports desservant de grandes villes et captant ainsi une demande plus importante et des raisons historiques, comme le cas des ports ou des routes maritimes spécifiques, étant importantes en raison de leur passé [5]. Il est donc naturel de se poser la question de savoir si les réseaux de transport sont aussi sans échelle.

      Un sujet de discussion ouvert au sein de la physique statistique est de savoir quand nous pouvons définir avec confiance un réseau sans échelle (voir, par exemple, [6, 7]) et comment cela peut être traduit dans des domaines comme, par exemple, la biologie [8- dix]. Historiquement, une telle analyse a été effectuée en traçant la distribution des degrés sur une échelle log-log et en vérifiant que cette distribution suit approximativement une ligne droite. Cela peut néanmoins être trompeur, car une échelle log-log aplatit la plupart des perturbations, de sorte que de nombreuses distributions différentes peuvent donc sembler lois de puissance.D'un autre côté, une analyse statistiquement plus solide nécessite deux conditions : une taille de réseau suffisamment grande pour couvrir plusieurs ordres de grandeur dans les degrés de nœud et l'exécution d'un test statistique, comme nous le verrons dans la section 2.2.

      En ce qui concerne l'exigence de taille, il est facile de voir que la plupart des réseaux de transport aérien ne la remplissent pas, car le nombre d'aéroports dans un pays ou même dans une région supranationale atteint rarement les milliers. Malgré cela, l'absence d'échelle a été revendiquée pour l'italien [11] (

      aéroports), ou le réseau chinois [14] (

      aéroports). La situation est encore pire dans le cas des réseaux routiers, dans lesquels la nature physique du graphe implique que le degré de chaque nœud est limité, car, par exemple, il est difficile de planifier un carrefour où convergent plus de six rues. Malgré cela, [15] compare deux ajustements pour la distribution des degrés, selon, respectivement, une loi de puissance et une fonction exponentielle, même si le degré maximum dans le réseau est

      Afin de confirmer la présence d'une distribution sans échelle des degrés, l'approche la plus courante a été de recourir à une représentation graphique. De nombreux exemples peuvent être trouvés dans la littérature, pour les réseaux maritimes [16-18], routiers [19-21] et ferroviaires [8, 22-29]. Au-delà d'un tel ajustement graphique, quelques exemples intéressants peuvent également être mis en évidence. Plus précisément, [30], tout en analysant l'évolution des réseaux mondiaux de transport maritime de ligne entre 1996 et 2006, rapporte un exposant

      sans décrire comment ces valeurs ont été obtenues. La référence [31] conclut que le réseau maritime est sans échelle sans aucun calcul : «presque

      des nœuds représentent moins de des valeurs cumulatives respectives du degré des nœuds, tout comme les propriétés sans échelle”. Dans l'analyse des réseaux de voirie urbains, [32] affirme que «l'étude de la mesure dans laquelle la distribution à queue épaisse peut s'adapter à la loi de puissance par rapport à d'autres distributions (par exemple, log-normale et exponentielle) montre qu'aucune preuve significative n'est trouvée pour une caractéristique sans échelle dans l'espace dual» Néanmoins, aucune preuve statistique d'aucune sorte n'est fournie. Enfin, [33] identifie plusieurs réseaux de voirie comme sans échelle et rapporte une qualité d'ajustement : pourtant, il n'y a aucune explication sur la façon dont cette dernière métrique est calculée, rendant ainsi impossible la reproduction de ces résultats.

      Tous les travaux de recherche ne souffrent pas de ce biais en faveur de l'absence d'échelle, et certains exemples notables peuvent être trouvés. Par exemple, [34] rejette correctement la structure sans échelle en faveur d'une distribution exponentielle des degrés pour le réseau de transport aérien. La référence [35], lors de l'analyse de l'évolution temporelle du réseau aérien brésilien, indique que «un ajustement raisonnable est obtenu en utilisant une exponentielle étirée», bien qu'aucune analyse statistique ne soit fournie. Enfin, [36] reconnaît à juste titre que, même s'il existe un «comportement de mise à l'échelle suggestif" dans la distribution des degrés de nœuds dans les réseaux maritimes, "des modèles simples pour générer des statistiques sans échelle ne sont pas suffisants pour décrire ces réseaux empiriques« Des observations soigneuses similaires ont été faites pour les réseaux de demande de déplacements à l'échelle urbaine [37-40] et l'analyse géolocalisée des données des médias sociaux [41].

      Il est clair que l'affirmation de la nature sans échelle de nombreux réseaux de transport n'a pas été étayée par des tests statistiques appropriés. Il est néanmoins indéniable que les nœuds ne sont pas homogènes et que certains d'entre eux attirent l'essentiel des connexions et du trafic. Ainsi, même si ces réseaux ne sont pas sans échelle, ils présentent tout de même un sans échelle comme structure et afficher une distribution des degrés à longue queue. Comment cela impacte-t-il l'analyse opérationnelle du système ? En d'autres termes, comment les conclusions des articles mentionnés précédemment doivent-elles être modifiées, si les réseaux sont à longue traîne au lieu d'être sans échelle ? En termes simples, aucun effet n'est à attendre.

      Pour comprendre ce point, il faut prendre en compte le fait que les réseaux sans échelle sont une simplification mathématique, ou un modèle, des réseaux du monde réel. Définir une loi exacte pour la distribution des degrés permet de trouver des solutions analytiques à des problèmes comme la dynamique des maladies [42] ou des électeurs [43], à travers une approximation de champ moyen hétérogène. Ces problèmes peuvent néanmoins encore être analysés lorsque les réseaux ne sont pas exactement sans échelle au moyen de simulations numériques. De plus, comme les degrés de nœuds sont en effet hétérogènes et suivent une distribution à longue traîne, toutes les conclusions ultérieures resteront valables, comme l'importance des aéroports centraux pour la propagation du retard ou pour la robustesse du système.

      En synthèse, évaluer l'absence d'échelle d'un réseau de transport nécessite une solide validation statistique. Si une telle validation ne peut pas être effectuée, par exemple, en raison de la taille limitée du réseau, il est préférable d'éviter toute mention d'une topologie sans échelle, car cela serait largement hors de propos. En termes simples, et malgré son attrait, il y a plus de vie au-delà de l'absence d'échelle.

      2.2. Solution recommandée

      Comme présenté précédemment, deux problèmes empêchent une évaluation facile de l'absence d'échelle des réseaux du monde réel : leur taille limitée et le fait que les validations statistiques des ajustements sont rarement effectuées.

      En ce qui concerne le premier problème, il a été constaté que même des ajustements parfaits ne peuvent pas être acceptés comme statistiquement significatifs lorsque le nombre d'échantillons (dans ce cas, de nœuds) est inférieur à [44] et, en règle générale, l'absence d'échelle devrait être acceptée que lorsque les degrés s'étendent sur plusieurs ordres de grandeur. Par conséquent, même la meilleure analyse statistique ne peut soutenir l'hypothèse sans échelle pour le réseau de transport aérien italien, composé de nœuds [11] ni pour un réseau dont le degré maximum est [15].

      Concernant le deuxième problème, c'est-à-dire, la conception d'un test statistique, nous l'abordons ici à travers trois techniques différentes. A titre d'illustration, ces techniques sont appliquées aux réseaux d'aéroports et de bus décrits en annexe. La loi de puissance et les ajustements exponentiels de la distribution des degrés des deux réseaux sont présentés dans la figure 1, tandis que les valeurs des tests statistiques sont présentées dans le tableau 1.

      Tout d'abord, on peut être tenté d'utiliser la qualité d'ajustement

      , une métrique conceptuellement simple, facile à calculer et bien comprise dans le cas des modèles linéaires. On sait néanmoins que la métrique n'est pas fiable pour les modèles non linéaires, car ici elle ne soutient pas que la somme des carrés totale est égale à la somme des carrés de la régression plus la somme des carrés résiduelle. Des résultats négatifs peuvent alors apparaître, indiquant que l'ajustement non linéaire est pire qu'une simple moyenne [45], comme c'est le cas dans le tableau 1 pour le réseau de bus. De plus, la linéarisation du modèle avant son évaluation, par exemple, en prenant le logarithme du degré du nœud, n'est pas une bonne solution : le résultat représenterait la qualité du modèle linéarisé et non celui d'origine (non linéaire) [ 46].

      Une deuxième option consiste à recourir au critère d'information d'Akaike (AIC), une métrique estimant la qualité relative d'un modèle statistique compte tenu de certaines données empiriques [47]. L'AIC est basé sur le calcul de la divergence Kullback-Leibler (KLD) entre les valeurs fournies par le modèle et les données réelles disponibles, pour ensuite ajuster la valeur pour compenser le nombre de paramètres libres, afin d'éviter le surapprentissage. Il est important de noter que, bien qu'efficace, l'AIC renvoie un relatif valeur, c'est-à-dire, une valeur qui peut être utilisée pour comparer différents modèles (et décider lequel est préférable) mais pas pour évaluer la qualité d'un seul modèle. Ainsi, l'AIC peut être utilisé pour choisir entre différents types d'ajustements non linéaires, mais pas pour évaluer la signification statistique de l'un d'entre eux.

      La troisième et meilleure solution consiste à effectuer un test statistique complet sur le modèle, afin d'obtenir un

      valeur, qui est ensuite utilisée pour accepter ou rejeter l'ajustement. Supposons qu'un modèle ait déjà été ajusté, tel qu'une fonction (donnant la probabilité de trouver un nœud de degré ) soit disponible. Dans un premier temps, il faut définir un distance entre le modèle ajusté et les données réelles, c'est-à-dire, à quel point ils sont différents, cela peut être facilement fait grâce à une statistique de Kolmogorov-Smirnov (KS). Ensuite, il est nécessaire de générer un grand nombre d'ensembles de données synthétiques à l'aide du modèle ajusté et pour chacun d'eux, de calculer la statistique KS correspondante. Enfin, il faut compter la fraction de temps pendant laquelle la statistique synthétique est supérieure à la valeur obtenue pour l'ensemble de données réel : cette fraction sera la valeur finale. Comme le montre le tableau 1, aucun ajustement considéré, qu'il s'agisse d'une loi de puissance ou d'une exponentielle, ne réussit à passer ce test statistique, les valeurs obtenues étant dans tous les cas très proches de .

      Une dernière note doit être ajoutée. Dans l'analyse précédente, la valeur a été obtenue en supposant que le modèle décrit la distribution complète des degrés possibles. Ce n'est néanmoins pas toujours le cas, car, par exemple, l'absence d'échelle peut être détectée dans une plage de degrés spécifique, ou le meilleur modèle peut être une loi de puissance tronquée. La création des jeux de données synthétiques devra ensuite être adaptée pour en tenir compte. Par exemple, considérons le cas d'une loi de puissance tronquée, dans laquelle la nature sans échelle n'est observée qu'au-dessus

      . Les ensembles de données synthétiques doivent tenir compte de ce fait : en dessous, ils doivent imiter l'ensemble de données réel, tandis qu'au-dessus, ils peuvent être créés à l'aide de l'ajustement .

      Le lecteur intéressé pourra trouver une excellente revue de cette troisième solution, ainsi que quelques exemples pratiques, dans [44].

      3. Interprétation et comparaison des métriques topologiques

      3.1. Pièges courants et interprétations trompeuses

      Une fois qu'un réseau est obtenu, l'étape logique suivante consiste à calculer un ensemble de métriques topologiques pour évaluer des aspects spécifiques de la structure, y compris la présence de triangles (c'est-à-dire, transitivité ou coefficient de clustering), connectivité, etc. Il est néanmoins important de comprendre comment ces valeurs sont affectées par la taille du réseau, en particulier lorsque l'on doit comparer plusieurs systèmes.

      Explorons cette question à travers un exemple simple. Une mesure importante pour un système de transport est la Efficacité, défini comme l'inverse de la moyenne harmonique de la distance géodésique entre les nœuds [48] :

      étant la distance entre les nœuds

      et le nombre total de nœuds dans le réseau. L'efficacité mesure à quelle vitesse les informations (ou tout autre élément) peuvent être transmises dans un réseau. Ainsi, une valeur proche de un indique que la plupart des passagers peuvent se déplacer entre deux nœuds au moyen de connexions directes.

      Il est facile de voir comment cette métrique est influencée par le nombre de liens présents dans le réseau. Augmenter le nombre de vols dans un réseau de transport aérien augmenterait également le nombre de passagers capables d'atteindre directement leur destination. Dans la limite de tous les aéroports étant connectés avec tous les autres, deviendra un, indiquant une efficacité de transport parfaite. Il est important de noter qu'une valeur donnée de est le résultat de l'interaction entre deux aspects : la structure interne du réseau et sa densité de liens. Par conséquent, une valeur élevée de n'implique pas une conception de réseau efficace.

      Si la plupart des métriques topologiques souffrent de cette dépendance au nombre de liens composant le réseau, certaines d'entre elles sont également définies en fonction du nombre de nœuds. C'est le cas, par exemple, du diamètre, défini comme la distance la plus courte entre les deux nœuds les plus éloignés du réseau, et de la longueur moyenne du chemin [49]. De toute évidence, les réseaux plus grands auront, en principe, des diamètres et des longueurs de trajet plus grands que les plus petits.

      Comment cela s'articule-t-il avec le problème de l'analyse d'un réseau de transport ? Tout d'abord, on ne peut tirer des conclusions des valeurs des métriques topologiques que si celles-ci sont correctement normalisées, c'est-à-dire, transformation pour tenir compte du nombre de nœuds et de liens dans le réseau. Deuxièmement, les comparaisons ne peuvent être faites que sur des valeurs normalisées. Pour illustrer ce point, nous nous appuyons à nouveau sur trois des réseaux décrits en annexe, à savoir les réseaux de tramway, de métro et de tramway. Notez que ceux-ci ont été choisis en raison de leurs caractéristiques et de leurs tailles comparables. Le tableau 2 rapporte les valeurs de plusieurs caractéristiques topologiques, à la fois avant et après une normalisation utilisant des réseaux équivalents aléatoires (c., composé du même nombre de nœuds et de liens, comme décrit plus en détail à la section 3.2).

      Plusieurs observations intéressantes peuvent être obtenues. Tout d'abord, l'efficacité semble être sensiblement plus élevée (pour être précis, plus élevée) dans le métro léger (0,0979) que dans le réseau de tramway (0,0659). Ceci n'explique cependant pas la densité de liens plus élevée du premier : une fois normalisé, ce dernier réseau apparaît comme plus performant que le premier ( versus ). A noter que les valeurs très négatives de la métrique normalisée indiquent que ces réseaux n'ont pas été optimisés pour les connexions directes, un message difficile à extraire des valeurs brutes. La situation inverse se retrouve dans la modularité, c'est-à-dire, une métrique caractérisant la présence de collectivités : si le réseau de tramway semble être plus modulaire que le tramway, la situation s'inverse une fois les valeurs correctement normalisées.

      En synthèse, les valeurs des métriques topologiques sont rarement pertinentes en soi au contraire, ils doivent être normalisés, à la fois pour simplifier leur interprétation et pour permettre des comparaisons entre différents réseaux. Il est à noter que de nombreux travaux publiés dans le contexte des transports ont omis cette étape et ont ainsi encouru d'importantes erreurs d'interprétation.

      Par exemple, [34] déclare que «la longueur de trajet moyenne de 2,23 dans le [réseau de transport aérien de Chine] est très similaire à celle du système de transport aérien de l'Inde (2,26) et légèrement supérieure à celle de l'Italie (1,98-2,14), mais plus grande que celle des États-Unis (allant de 1,84 à 1,93)”. Pourtant, ces quatre réseaux sont totalement hétérogènes, tant en termes de nombre de nœuds (de l'Italie vers les États-Unis) que de densité de liaisons (de l'Italie vers l'Inde). L'obtention de longueurs de chemin moyennes similaires pour la Chine et l'Inde, alors que cette dernière a presque la double densité de liaison, indique en fait que leur structure est sensiblement différente. D'autres comparaisons non normalisées ont été rapportées dans [50–52]. Une synthèse de ce problème dans le cas du transport aérien peut être trouvée dans le tableau 1 de [53] : parmi les articles interrogés, seuls six ont normalisé la longueur moyenne du trajet, et neuf le coefficient de clustering. Il est également à noter que deux travaux ont normalisé la première métrique, mais pas la seconde, même si le problème décrit ici s'applique aux deux [54, 55].

      Passant aux réseaux routiers, [33] compare deux métriques topologiques (coefficient de regroupement et longueur moyenne du chemin) pour six villes et trois autres réseaux, malgré des densités de liens très hétérogènes (de

      ) et même en dépit d'être des réseaux conceptuellement différents (représentant les rues, les protéines ou Internet). Un problème similaire peut être trouvé dans [56].

      La référence [36] compare le réseau mondial de cargos au réseau mondial de transport aérien, en considérant la version non normalisée de métriques comme le diamètre ou le coefficient de regroupement. Les valeurs similaires obtenues dans le dernier cas ( versus ) conduisent les auteurs à souligner «un degré surprenant de similitude des deux réseaux», bien que ce dernier ait une densité de liens supérieure d'un ordre de grandeur au premier. Des travaux ultérieurs basés sur des données similaires, comme, par exemple, [57, 58], n'ont pas résolu le problème.

      3.2. Solution recommandée

      En première approximation, la normalisation d'une métrique topologique n'est pas une tâche complexe. En synthèse, il faut générer un grand ensemble de réseaux (appelé le modèle nul) qui n'ont pas la structure topologique à tester, pour ensuite voir comment le réseau réel s'écarte de cet ensemble. Supposons que nous ayons calculé une métrique topologique

      liens, obtention de la valeur

      . Une simple normalisation peut être obtenue grâce à un Z-Score, défini comme

      représente les valeurs fournies par la métrique sur un grand ensemble de réseaux de modèles nuls et

      et sont les opérateurs de moyenne et d'écart type.

      Comment définir alors ce modèle nul ? Comme l'objectif standard est de comparer le réseau réel à quelque chose qui n'a pas de structure claire, la solution la plus simple consiste à utiliser des réseaux Erdős-Rényi aléatoires, avec le même nombre de nœuds et de liens. Cela peut néanmoins donner des résultats biaisés. Pour illustrer, supposons que l'on étudie un réseau routier, qui est par définition planaire, c'est-à-dire que lorsque deux rues se croisent, un lien entre elles est nécessairement créé. Supposons en outre que les rues soient construites au hasard. Cela se traduirait-il par un manque de structure ? Étonnamment, non : les triangles seraient très courants, car tout triplet de longues rues, non parallèles entre elles, se croiserait tôt ou tard et formerait un triangle. Si des réseaux aléatoires sont ensuite utilisés pour normaliser la métrique de transitivité, le résultat serait un Z-Score très élevé. En outre, considérons les réseaux aéroportuaires. Bien qu'ils n'aient pas la propriété planaire, leur construction est néanmoins guidée par certains principes qui devraient être inclus dans le modèle nul : par exemple, le fait que les aéroports à moins de 300 km sont rarement reliés par un vol direct. Encore une fois, l'utilisation d'un ensemble de réseaux complètement aléatoires peut donner des résultats biaisés.

      Malgré les lacunes évidentes associées à l'utilisation d'un modèle Erdős-Rényi, aucune alternative acceptée n'est disponible pour les systèmes de transport, et le sujet est toujours un sujet de débat dans d'autres disciplines scientifiques [59, 60].

      4. Identification de l'importance des nœuds par des métriques de réseau choisies arbitrairement

      4.1. Pièges courants et interprétations trompeuses

      Depuis la publication des études novatrices sur les réseaux complexes et leurs propriétés, il a souvent été constaté que la défaillance d'une petite fraction d'éléments de ces réseaux pouvait entraîner un effet de cascade qui, lorsqu'il est lié à des infrastructures critiques, entraînerait bouleversements majeurs dans notre société. Quelques exemples de pannes de réseau aussi étendues et étendues incluent des pannes de courant à grande échelle aux États-Unis [61], des pénuries de chaînes d'approvisionnement transcontinentales à la suite du tsunami japonais de 2011 [62], ou la perturbation de l'espace aérien européen. après des pannes informatiques à Eurocontrol en avril 2018. Dans tous ces événements, les régions touchées ont subi des coûts économiques extrêmement élevés [50, 63, 64]. De plus, à mesure que les systèmes d'infrastructure deviennent densément connectés et dépendants, l'impact potentiel des défaillances augmente à un niveau sans précédent. Par conséquent, l'analyse de la robustesse des réseaux et de leurs interactions est d'une importance capitale.

      La robustesse d'un réseau est généralement estimée sur la base de la fraction critique de tous les nœuds qui, une fois supprimés, provoqueront une désintégration soudaine [65]. Du point de vue de la physique statistique, ce processus est plutôt bien étudié pour les modèles de réseaux aléatoires [66-70]. Pourtant, lorsqu'il s'agit d'analyser des instances de réseau du monde réel, cela devient plus compliqué. La principale raison est que, pour les réseaux du monde réel, tous les nœuds et liens ne s'intègrent pas parfaitement dans un modèle de réseau prédéfini. Par conséquent, lors de l'estimation de l'importance des nœuds pour la robustesse, les mesures statistiques peuvent se tromper. Au fil des ans, plusieurs méthodes ont été proposées pour mesurer la désintégration d'un réseau au fil du temps. La méthode la plus fréquemment utilisée consiste peut-être à mesurer la réduction relative de la taille du composant géant (ou du plus grand composant connecté) du réseau, la raison étant que la fonctionnalité d'un réseau est fortement corrélée au nombre de nœuds connectés. Nous mettons en évidence un exemple sur la figure 2. Comme on s'intéresse souvent à une seule mesure de quantification de la robustesse d'un réseau, la plupart des travaux connexes utilisent la mesure de robustesse R [71]. Étant donné un réseau composé de nœuds, la valeur de est définie comme

      où est la taille du composant géant après suppression des nœuds. Essentiellement, cette procédure évalue le nombre de nœuds contenus dans le composant géant une fois qu'un nœud est supprimé du réseau, tout en itérant sur tous les nœuds du réseau.

      et réduit la taille du GC de à . En (c) nous montrons une perturbation induite par des défaillances de nœuds de et . En (d) nous montrons une perturbation induite par des défaillances de nœuds de

      et la majorité du réseau est toujours fonctionnelle, car la taille du GC est réduite de 13 à 11 seulement.

      En essayant de quantifier les robustesse d'un réseau, il est essentiel de comprendre qu'il n'existe pas de valeur de robustesse unique R. Pour le calcul de R, nous avons besoin d'un classement des nœuds en entrée, définissant la séquence dans laquelle les nœuds sont retirés du réseau. Différentes séquences, en général, induisent différents modèles de désintégration de réseau. Ainsi, un choix inapproprié de séquence de nœuds conduit à des conclusions non fondées concernant la robustesse réelle d'un réseau. La conception d'un tel ordre est loin d'être triviale, étant donné le grand nombre d'ordres de nœuds possibles dans les réseaux du monde réel, c'est-à-dire un réseau avec

      différents ordres de nœuds. Par conséquent, les études existantes choisissent souvent des séquences de nœuds basées sur des heuristiques. Les métriques de réseau, qui attribuent des scores aux nœuds, en fonction des propriétés dérivées à l'échelle micro/méso/macro, sont peut-être les plus connues en dehors du domaine de recherche des réseaux complexes. Tous les nœuds sont classés par ordre de valeurs métriques (généralement par ordre décroissant d'importance). Nous discutons de quelques-unes de ces métriques de réseau.

      DEG attaque les nœuds dans l'ordre de leur degré décroissant, c'est-à-dire le nombre de voisins directs. Le diplôme n'est enregistré qu'une seule fois au début et n'est pas mis à jour pendant le processus de perturbation.

      ENTRE (centralité intermédiaire [72]) mesure le nombre de fois où un nœud apparaît sur le chemin le plus court entre toutes les paires de nœuds du réseau. Les nœuds sont supprimés avec des scores de centralité décroissants.

      FERMETURE (centralité de proximité) mesure la distance de chemin la plus courte moyenne d'un nœud à tous les autres nœuds du réseau. Les nœuds sont supprimés avec des scores de centralité croissants, étant donné qu'une valeur de proximité plus petite indique une relation plus étroite avec tous les nœuds du réseau.

      GIE (centralité du vecteur propre) mesure la centralité d'un nœud en fonction de la centralité de ses voisins (voir [73] pour une discussion sur le concept). Les nœuds sont supprimés avec des scores de centralité décroissants.

      RP (Pagerank [74]) a été conçu à l'origine comme un algorithme pour classer les sites Web en fonction de la structure des liens. Dans nos expérimentations, nous utilisons une variante sur les réseaux non orientés. Les nœuds sont supprimés avec des scores de centralité croissants.

      KATZ (Katz centrality [75]) mesure la centralité d'un nœud en fonction de l'influence relative des nœuds vis-à-vis des voisins directs et également de tous les autres nœuds du réseau qui se connectent au nœud via ces voisins directs. Les nœuds sont supprimés avec des scores de centralité croissants.

      Ces métriques (et d'autres similaires) ont été utilisées dans de nombreuses études existantes afin d'analyser la robustesse des réseaux de transport. Dans la figure 3, nous montrons un exemple d'attaque basée sur DEG contre un réseau. Certaines des études [76, 77] n'évaluent que le DEG des nœuds pour concevoir une attaque ciblée, par exemple, en déclarant que «pour la stratégie d'attaque sélective, nous supprimons certains nœuds avec des degrés plus élevés en fonction de leur ordre de degré de haut en bas» [77]. D'autres comparent un ensemble de quelques métriques de réseau statiques, mais sans considérer suffisamment les métriques interactives/itératives/dynamiques pour des attaques beaucoup plus fortes [26, 78–82] (voir la section 4.2 pour une discussion plus approfondie). Pour quelques études, les auteurs ne révèlent pas quel type d'attaque ciblée ils utilisent : «Nous avons simulé une attaque sur chaque réseau de notre base de données en bloquant les déplacements à travers les stations ciblées» [83]. Il n'y a que quelques exceptions notables, qui utilisent correctement l'interactivité interactive comme référence pour la simulation de perturbation du réseau, par exemple, [84-87]. Les articles publiés dans des revues de transport considèrent rarement les méthodes avancées de démantèlement des réseaux, apparues au cours des 2 à 3 dernières années. Il est intéressant, cependant, que ces articles introduisant de nouvelles méthodes de démantèlement de réseau, qui apparaissent plutôt dans la communauté des réseaux complexes, prennent souvent le réseau aéroportuaire mondial comme une étude de cas réelle [88, 89].

      4.2. Solution recommandée

      Les métriques précédentes sont basées sur une estimation initiale de l'importance des nœuds dans le réseau d'origine. Pourtant, tout au long du processus de démantèlement, les rôles des nœuds dans un réseau peuvent changer de manière significative. Avec l'élimination d'un nœud (critique) du réseau, les chemins les plus courts entre les autres nœuds changent souvent complètement. Par conséquent, il est recommandé de recalculer une métrique de réseau tout au long du processus de démantèlement. Dans la littérature, ce processus est appelé génération d'attaque interactive/dynamique. Sur la figure 4, nous visualisons le processus d'attaque du réseau de tramway basé sur BETW interactif, c'est-à-dire que les valeurs de BETW sont recalculées après chaque suppression de nœud. BETWI attaque toujours le plus grand GC restant et choisit également des nœuds très vulnérables à chaque étape, ce qui rend l'attaque plutôt perturbatrice pour le réseau. Afin d'aborder davantage le problème du démantèlement des réseaux, la communauté des réseaux complexes a récemment commencé à résoudre ce problème de manière plus rigoureuse, en concevant des méthodes de démantèlement spécifiques. Nous présentons ci-dessous quelques-unes des méthodes pertinentes.

      CI (influence collective [90]) peut être considérée comme une extension de l'attaque basée sur les degrés, prenant en compte ce qu'on appelle la balle, c'est-à-dire les voisins qui sont à k pas. Conçu à l'origine pour attaquer efficacement les réseaux hiérarchiques, CI a maintenant été utilisé dans plusieurs études de recherche sur les graphes généraux.

      KSHELL (Facteur d'itération K-shell [91]) est basé sur le noyau des nœuds dans un réseau [92]. Une valeur élevée indique que le nœud a une forte capacité à diffuser des informations. L'algorithme combine la décomposition du shell et la suppression itérative des nœuds.

      CHD (attaques CoreHD [93]) combinent degré interactif et k-core [92] pour réaliser un décyclage des réseaux. Il supprime de manière itérative le nœud de degré le plus élevé parmi les graphes à 2 cœurs du réseau, jusqu'à ce qu'il ne reste plus de graphe à 2 cœurs, pour ensuite traiter la partie restante par arborescence.

      APTA [88] trouve des points d'articulation (ou sommets coupés) dans un réseau. À chaque étape, les points d'articulation avec l'impact estimé le plus élevé sont attaqués en premier, sur la base d'une estimation de la plus grande taille du composant géant après une attaque. Ce processus est répété jusqu'à ce que l'ensemble du réseau soit démantelé. Au cours de ce processus, si un réseau n'a pas de point d'articulation, le nœud avec le degré le plus élevé est supprimé.

      GND (démantèlement généralisé du réseau [89]) calcule une séquence de nœuds basée sur les propriétés spectrales d'un nouvel opérateur laplacien pondéré par les nœuds. Il prend également en charge les coûts non unitaires pour les poids de nœud.

      Dans la figure 5, nous comparons les courbes de robustesse des métriques de réseau introduites et des méthodes de démantèlement, regroupées par jeu de données. Les courbes présentent un écart assez important, notamment pour le réseau de tram et de bus. Dans tous les cas, BETWI identifie la meilleure attaque, tandis qu'EIG est généralement la pire stratégie. Afin de comparer davantage la qualité et l'applicabilité des méthodes, la figure 6 rapporte les valeurs R obtenues et le temps d'exécution pour toutes les métriques de réseau et les méthodes de démantèlement de cette étude, regroupées par ensemble de données. Nous constatons que BETWI est toujours la méthode avec la plus petite valeur R mais prend également le plus de temps à calculer (notez que l'axe des y est représenté à l'échelle logarithmique). Fait intéressant, la méthode APTA est souvent 2 à 3 ordres de grandeur plus rapide que BETWI mais identifie toujours les attaques avec des valeurs R assez bonnes. GND est souvent beaucoup plus lent que APTA mais a une valeur R plus petite à l'exception apparente sur le réseau logistique. Cet exemple met en évidence qu'aucune méthode n'est la meilleure, à l'exception de BETWI. Par conséquent, il faut comprendre que la conception d'une attaque efficace pour un réseau est un compromis entre la qualité attendue et le temps de calcul. Si le réseau est petit, BETWI est toujours le meilleur que l'on puisse obtenir. Avec une taille croissante du réseau, il convient de préférence de sélectionner des méthodes de démantèlement spécifiques, telles que APTA et GND.

      5. Les réseaux sont robustes contre les pannes aléatoires mais vulnérables aux attaques ciblées

      5.1. Pièges courants et interprétations trompeuses

      Puisque le choix d'une séquence de nœuds affecte de manière significative le niveau de perturbation d'un réseau, il est courant de distinguer deux classes de perturbations : les pannes aléatoires et les attaques ciblées. Alors que les premiers n'ont pas de force motrice contrôlant la séquence de nœuds (qui est donc complètement aléatoire), le second est spécifiquement réglé pour créer le maximum de dommages à un réseau.

      Les études existantes concluent souvent avec des déclarations selon lesquelles le réseau est plutôt résistant aux défaillances aléatoires, mais plus vulnérable aux attaques ciblées. Ces revendications peuvent être trouvées sur toutes sortes de réseaux de transport, y compris le transport aérien [94-96], les systèmes ferroviaires [26, 79, 83, 85, 97] et autres [98-100]. Nous ne soulignons ici que deux déclarations représentatives, d'autres suivent des structures très similaires : »Cette structure sans échelle s'est avérée robuste aux défaillances aléatoires mais vulnérable aux attaques ciblées” [94]. “Cette étude indique que le réseau de métro est robuste contre les attaques aléatoires mais fragile pour les attaques malveillantes” [79].

      La conclusion générale selon laquelle les défaillances aléatoires sont moins dangereuses que les attaques ciblées est inhérente à la définition des deux ordres de nœuds, étant donné que les attaques ciblées sont spécifiquement conçues pour un réseau à portée de main. Sinon, si une attaque ciblée, par exemple, induite par une métrique de réseau spécifique, est pire qu'une stratégie de défaillance aléatoire, cela signifie simplement que cette métrique ne représente pas très bien l'importance du nœud pour le réseau spécifique.

      5.2. Solution recommandée

      L'affirmation pure selon laquelle un réseau est plus vulnérable aux attaques ciblées ne fournit pas de véritables informations nouvelles. Une question plus intéressante est combien en plus vulnérable un réseau est à une attaque ciblée, par rapport à un ensemble d'échecs aléatoires. Une façon de mesurer cette différence de vulnérabilité est de considérer des attaques représentatives obtenues à partir d'une enveloppe d'attaques aléatoires [101]. Essentiellement, l'idée n'est pas d'identifier le fait (plutôt évident) mais de quantifier la différence d'efficacité d'attaque. En général, on peut commencer par la valeur R

      de la meilleure attaque ciblée et la comparer à la valeur R

      de l'attaque aléatoire représentative. Plus la valeur est élevée par rapport à , plus l'effet de l'utilisation d'attaques ciblées est fort. Formellement, on peut introduire une mesure définie comme

      . De plus, il peut être intéressant de prendre en compte la largeur d'une enveloppe d'attaque aléatoire, car les attaques aléatoires en elles-mêmes peuvent encore avoir une assez grande variation dans leurs valeurs R induites.

      Dans la figure 7, nous visualisons un ensemble d'attaques aléatoires pour les six réseaux de transport de notre étude, comme décrit dans l'annexe. Pour chaque réseau, nous avons généré 50 attaques aléatoirement. Compte tenu de ces attaques aléatoires et de leurs courbes de robustesse, nous calculons l'enveloppe de robustesse comme suit : une courbe minimale, maximale et médiane est dérivée en fonction du calcul de la fonction d'agrégation correspondante pour toutes les tailles de GC à une fraction donnée de nœuds perturbés. De plus, nous traçons la courbe de robustesse telle qu'obtenue par BETWI, la stratégie d'attaque la plus connue. Dans la figure 8, nous montrons les résultats de la comparaison des réseaux du monde réel et de leurs réseaux aléatoires ER équivalents avec le même nombre de nœuds et de liens. La valeur obtenue de

      se trouve à gauche du pic du réseau aléatoire, ce qui peut s'expliquer par le fait que les instances de réseau aléatoires n'ont pas de propriétés (topologiques) pouvant être exploitées par des attaques ciblées et, par conséquent, les attaques ciblées dans le réseau réel sont généralement plus fortes. Pourtant, la distance par rapport aux valeurs de réseau réelles et aux valeurs de réseau aléatoires varie considérablement d'un type à l'autre. Le réseau logistique, par exemple, est beaucoup plus vulnérable aux attaques ciblées que son homologue aléatoire. Intuitivement, la présence de quelques hubs rend le réseau beaucoup plus vulnérable aux attaques ciblées par hub, par rapport aux instances réseau aléatoires. Pour le réseau de métro, en revanche, les attaques ciblées sont presque aussi puissantes que dans leurs homologues aléatoires. Cela signifie que le réseau de métro n'a pas de propriété structurelle inhérente qui peut être davantage exploitée par des attaques ciblées.

      6. Discussion et conclusions

      Dans ce travail, nous avons revisité certains problèmes communs qui peuvent être trouvés dans des articles qui appliquent la théorie des réseaux complexes à l'étude de la topologie des systèmes de transport, analysé leur impact, en termes de comment notre compréhension du système sous-jacent peut être trompeuse, et présenté un ensemble de solutions. Quatre sujets spécifiques ont été traités : (1) L'une des propriétés topologiques les plus importantes du réseau est l'absence d'échelle, c'est-à-dire l'absence d'échelle., le fait que la distribution des degrés des nœuds suit une loi de puissance. Un tel modèle théorique a été le fondement de nombreuses études sur la théorie des réseaux complexes, et il y a eu beaucoup d'intérêt pour évaluer si les réseaux du monde réel, y compris ceux de transport, le suivent réellement. Pourtant, évaluer l'absence d'échelle n'est pas une tâche triviale, car elle nécessite à la fois des réseaux suffisamment grands et l'application de tests statistiques appropriés. Nous avons présenté un examen de certaines erreurs courantes et de certaines solutions potentielles, y compris une analyse des tests statistiques réellement adaptés à ce problème (2) Au-delà de l'absence d'échelle, la première étape de l'analyse d'un réseau complexe est généralement sa description à travers un série de métriques topologiques, c'est-à-dire, métriques évaluant certains aspects de sa structure. Un problème important provient du fait que de telles métriques topologiques sont généralement influencées par le nombre de nœuds et de liens dans le réseau si ceux-ci ne sont pas pris en compte, la comparaison de différents réseaux peut donner des résultats peu fiables. Nous avons présenté quelques exemples d'interprétations erronées de métriques de réseau et proposé une solution simple basée sur la création de modèles nuls (3) Nous souhaitons sensibiliser au fait que les métriques de réseau ne conduisent pas à des attaques optimales. En fait, il n'y a pas une seule métrique qui surpasse toujours toutes les autres métriques. Empiriquement, la variante interactive de l'intermédiation est la meilleure approche pour analyser la robustesse d'un réseau complexe. Cette haute qualité de séquence d'attaque a cependant un prix : le calcul de l'intermédiarité nécessite un temps de calcul cubique en nombre de nœuds. Pour les grands réseaux, le temps d'exécution devient inacceptable. Par conséquent, nous soulignons les développements récents dans le démantèlement des réseaux, une nouvelle direction de recherche ciblant spécifiquement l'analyse de la robustesse des réseaux. Plusieurs de ces méthodes offrent un compromis intéressant entre la qualité et le temps d'exécution (4) Les comparaisons entre les attaques aléatoires et ciblées doivent être effectuées avec précaution. Par définition, une attaque ciblée est plus perturbatrice qu'une attaque aléatoire. Le cas intéressant, cependant, est d'explorer ce problème par rapport à un réseau aléatoire de référence avec le même nombre de nœuds et de liens. L'analyse des résultats obtenus donne une indication sur le degré de vulnérabilité d'un réseau réel spécifique par rapport à son homologue aléatoire. En utilisant cette mesure, une classification de la vulnérabilité avec des valeurs de référence pourrait être dérivée

      Les auteurs pensent que ces problèmes doivent être pris au sérieux par la communauté scientifique pour deux raisons principales. Tout d'abord, ils introduisent le risque d'obtenir des résultats biaisés (voire totalement faux) qui peuvent, à long terme, réduire la crédibilité associée à une analyse de réseau complexe et donc alourdir les idées futures. Deuxièmement, les problèmes discutés ici ne sont ni anciens ni limités aux revues de second rang. Au contraire, il est facile de trouver des exemples d'articles publiés cette même année [29, 31] ou dans des revues très prestigieuses, tant dans la physique statistique que dans les communautés des transports.

      Malgré cela, ce travail a aussi un côté positif important, car il y a beaucoup de raisons d'espérer. Bien que le nombre d'articles tombés dans ces pièges soit effectivement important, on peut également trouver de nombreux exemples d'analyses techniquement solides et statistiquement robustes, voir, par exemple, [20, 36, 102]. Ces écueils peuvent également constituer une motivation pour ouvrir de nouvelles pistes de recherche et ainsi améliorer notre compréhension des systèmes de transport. Entre autres, les points suivants méritent d'être explorés : (1) Il a été suggéré qu'une absence d'échelle exacte n'est pas une exigence essentielle pour les analyses ultérieures, car le point fondamental est la présence d'une longue queue dans la distribution des degrés. Dans le même temps, nous avons signalé que les stratégies de démantèlement théoriques, développées sur le modèle sans échelle, peuvent ne pas fonctionner efficacement sur des réseaux réels. On peut donc se demander quel est l'effet de ne pas suivre une distribution sans échelle parfaite, ou, en d'autres termes, quelles sont les conséquences d'avoir des réseaux réels, par opposition aux réseaux théoriques (2) La normalisation des métriques a nécessité le développement de modèles nuls appropriés , capables de créer des réseaux sans structure particulière, mais toujours contraints par les caractéristiques du système à l'étude. Un réseau complètement aléatoire peut ne pas être un bon modèle nul pour le réseau aéroportuaire, car les vols très courts n'ont aucune signification économique. Ceci a été partiellement résolu dans d'autres domaines scientifiques, par exemple, sur les réseaux de protéines [103], et devrait probablement être abordé également pour les systèmes de transport (3) La plupart des études de transport sur la robustesse des réseaux complexes sont réalisées sur des réseaux non orientés et non pondérés avec des coûts unitaires démantèlement des nœuds/liens.Clairement, toutes ces hypothèses sont des simplifications afin de rendre le calcul faisable et face à une quantité limitée de données disponibles. Nous prévoyons le besoin d'un cadre généralisé de robustesse du réseau de transport, qui, étant donné un ensemble variable de données (données sur les passagers, horaires, etc.), calcule une mesure réaliste de la robustesse d'un système de transport. Bien qu'il existe un certain nombre d'études conçues spécifiquement pour le système de transport régional à un niveau de détail élevé, il n'y a pas d'accord sur un modèle commun pour la robustesse du réseau de transport. Un tel modèle de référence aiderait à approfondir notre compréhension de la robustesse du réseau et, à terme, à améliorer notre infrastructure de transport critique.

      Pour terminer, nous voudrions souligner que la même prudence, qu'il convient de prêter aux pièges évoqués précédemment, doit également être appliquée pour éviter des généralisations trompeuses. Toute méthode de réseau appliquée à un problème de transport dépend beaucoup des données disponibles et du problème à résoudre. Si l'on doit examiner attentivement l'applicabilité des méthodes précédemment publiées, plutôt que de simplement les emprunter à d'autres disciplines, les solutions proposées ici doivent également être jugées en fonction du contexte. Pour illustrer, certains modèles théoriques peuvent nécessiter une distribution exacte sans échelle pour produire des résultats significatifs, et les caractéristiques d'un modèle nul doivent être cohérentes avec (et adaptées au) système analysé. En synthèse, il est important de garder à l'esprit qu'une « taille unique ne convient pas à tous ».

      Annexe

      Afin de mieux introduire et illustrer les pièges de l'analyse des réseaux de transport discutés dans ce travail, un ensemble de réseaux de transport exemplaires sont utilisés comme études de cas. Ces réseaux couvrent un large éventail de modes de transport, notamment l'avion, le bus, le métro léger, le métro et le tramway. Les réseaux et leur configuration sont décrits ci-dessous.


      Problèmes et problèmes liés à l'utilisation des wikis

      L'introduction de la technologie, même des plates-formes plus anciennes comme les wikis, peut affecter la culture et les opérations de travail. Vous trouverez ci-dessous quelques-uns des problèmes les plus importants.

      • Manque de familiarité. Les employés peuvent hésiter à contribuer à un wiki et peuvent avoir besoin d'un certain type d'incitation jusqu'à ce qu'ils voient sa valeur. De plus, les contributeurs doivent apprendre à utiliser le logiciel.
      • Du temps et des efforts. Un wiki a besoin d'un propriétaire ou d'une équipe qui se charge de sa gestion. Cela signifie qu'une ou plusieurs personnes devront consacrer du temps. Au final, les outils collaboratifs permettent de gagner du temps en améliorant la communication et l'accès au contenu/à l'information.
      • Gestion décentralisée. Si diverses équipes utilisent différents logiciels wiki, cela peut devenir un problème pour le service informatique. La gestion centralisée du wiki est la meilleure.
      • Problèmes de confidentialité. Dans certaines organisations, les dirigeants peuvent craindre que des informations propriétaires soient partagées dans le wiki et peuvent décourager leur utilisation.
      • Interface utilisateur datée. Certaines plates-formes wiki semblent datées et n'ont pas l'interface utilisateur moderne à laquelle les gens se sont habitués. Lorsque vous recherchez une plate-forme, vous trouverez un logiciel wiki mis à jour.

      6 réponses 6

      Tout ce que je porte est une sphère topologique, avec des trous (les t-shirts en ont 4, les pantalons 3, les chaussures et les chaussettes 1) auquel cas n'importe quel trou fonctionne.

      Au lieu d'une chemise à manches longues avec les bras cousus ensemble, envisagez une paire de pantalons avec les jambes cousues ensemble pour former un tore topologique avec un trou (donc si vous deviez les porter vos pieds se toucheraient et il serait impossible de mettre vos chaussures). Ce pantalon a deux paramètres à peu près constants, la circonférence de la jambe et la longueur totale des deux jambes.

      Lorsqu'il est retourné à travers la taille, ces paramètres changent de rôle, vous aurez donc un tube de la longueur d'une jambe de pantalon avec une ouverture à chaque extrémité, comme si vous aviez retourné une jambe et poussé le l'autre jambe à travers avant de coudre.

      Je pense que cela serait possible avec de vrais vêtements toroïdaux (par exemple une jupe) à condition qu'ils soient suffisamment fins, car le processus ne nécessite aucun étirement.

      Tout d'abord, un avertissement. Je soupçonne que cette réponse ne sera probablement pas immédiatement compréhensible. Il existe une configuration formelle pour votre question, il existe des outils disponibles pour comprendre ce qui se passe. Ce ne sont pas des outils particulièrement légers, mais ils existent et ils méritent d'être mentionnés. Avant d'écrire le théorème principal, permettez-moi de mettre en place une terminologie. Les outils appartiennent à un sujet appelé théorie des variétés et topologie algébrique. Les noms des outils que je vais utiliser s'appellent des choses comme : le théorème d'extension d'isotopie, les faisceaux de fibres, les fibrations et les groupes d'homotopie.

      Vous avez une surface $Sigma$ , c'est votre chemise ou tout ce qui vous intéresse, une surface dans un espace tridimensionnel. Les surfaces ont des groupes d'automorphisme, permettez-moi de l'appeler $operatorname(Sigma)$ . Ce sont, disons, tous les auto-homéomorphismes ou difféomorphismes de la surface. Et les surfaces peuvent s'asseoir dans l'espace. Une façon de placer une surface dans l'espace s'appelle un plongement. Appelons tous les plongements de la surface $operatorname(Sigma, mathbb R^3)$ . $ om_opérateur(Sigma, mathbb R^3)$ est un ensemble, mais dans le domaine de la topologie, ces ensembles ont également une topologie naturelle. Nous les considérons comme un espace où les incrustations « à proximité » sont presque les mêmes, à l'exception peut-être d'un petit mouvement ici ou là. La topologie sur l'ensemble des plongements est appelée la topologie compacte-ouverte (voir Wikipedia, pour plus de détails sur la plupart de ces définitions).

      Bon, maintenant il y a des bêtises formelles. Regardez l'espace quotient $operatorname(Sigma, mathbb R^3)/ omopérateur(Sigma)$ . Vous pouvez considérer cela comme toutes les façons dont $Sigma$ peut s'asseoir dans l'espace, mais sans aucun étiquetage -- la surface n'a pas de paramétrage. C'est donc l'espace de tous les sous-espaces de $mathbb R^3$ qui se trouve être homéomorphe à votre surface.

      Richard Palais a un très bon théorème qui met tout cela dans un contexte agréable. Le préambule est que nous devons penser à tout comme vivant dans le monde des variétés lisses -- des plongements lisses, $operatorname(Sigma)$ est le groupe de difféomorphisme de la surface, etc.

      Il existe deux faisceaux de fibres localement triviaux (ou quelque chose de plus facile à prouver - les fibrations de Serre), c'est le théorème "global" d'isotopie-extension :

      $ om_opérateur(mathbb R^3, Sigma) o operatorname(mathbb R^3) o operatorname(Sigma, mathbb R^3)/ omopérateur(Sigma)$

      $ om_opérateur(mathbb R^3 omopérateur Sigma) à omopérateur(mathbb R^3, Sigma) o operatorname(Sigma)$ ici $operatorname(mathbb R^3)$ indique des difféomorphismes de $mathbb R^3$ qui sont l'identité en dehors d'une boule suffisamment grande, disons.

      Ainsi, le théorème de Palais, avec la longue séquence exacte d'homotopie d'une fibration, vous donne un langage qui vous permet de traduire entre les automorphismes de votre surface et les mouvements de la surface dans l'espace.

      C'est un théorème de Jean Cerf que $operatorname(mathbb R^3)$ est connecté. Une petite poursuite de diagramme dit qu'un automorphisme d'une surface peut être réalisé par un mouvement de cette surface dans l'espace 3-si et seulement si cet automorphisme de la surface s'étend à un automorphisme de l'espace 3-. Pour les surfaces fermées, le théorème de séparation de Jordan-Brouwer vous empêche de retourner votre surface à l'envers. Mais pour les surfaces non fermées, vous n'avez plus d'outils.

      Pour savoir si vous pouvez réaliser un automorphisme en tant que mouvement, vous devez littéralement essayer de l'étendre "à la main". C'est un phénomène très général -- vous avez une variété assise dans une autre, mais rarement un automorphisme de la sous-variété s'étend à la variété ambiante. Vous voyez également ce phénomène se produire dans diverses autres branches des mathématiques -- un automorphisme d'un sous-groupe ne s'étend pas toujours au groupe ambiant, etc.

      Alors vous tentez votre chance et essayez de construire l'extension vous-même. Dans un sens vague, c'est une analogie formelle entre le mystère viscéral de retourner la surface à l'envers et une sorte de problème mathématique formalisé, mais d'une sensation fondamentalement analogue.

      Nous recherchons des automorphismes qui inversent l'orientation. Pour une surface arbitraire avec une limite dans l'espace 3, il n'est pas clair si vous pouvez retourner la surface à l'envers. C'est parce que la surface peut être nouée. Les surfaces non nouées sont des exemples comme votre t-shirt. Essayons de concocter quelque chose qui ne peut pas être retourné.

      Le groupe d'automorphisme d'une sphère 3 fois perforée a 12 composantes de chemin (12 éléments jusqu'à l'isotopie). Il y a 6 éléments qui préservent l'orientation et 6 qui s'inversent. En particulier, les automorphismes d'inversion d'orientation inversent l'orientation de tous les cercles frontières. Donc, si vous pouviez proposer un pantalon noué (surface perforée 3 fois) de sorte que ses cercles limites n'admettent pas une symétrie qui inverse simultanément les orientations des trois cercles, vous auriez terminé.

      Peut-être que cela ne vous semble pas être une réduction, mais c'est le cas.

      Par exemple, il existe des choses appelées nœuds non inversibles :

      Alors comment concocter un pantalon noué à partir de ça ?

      Voici l'idée. Le nœud non inversible dans le lien ci-dessus est parfois appelé $8_<17>$ . Voici une autre photo de celui-ci :

      Voici une variante à ce sujet.

      Interprétez cette image comme un ruban de papier qui a trois cercles limites. Un cercle frontière est dénoué. L'un est $8_<17>$ . L'autre est un autre nœud.

      Il s'avère que l'autre nœud n'est pas trivial, ni $8_<17>$ .

      Alors pourquoi ce pantalon noué ne peut-il pas être retourné ? Eh bien, les trois nœuds sont distincts et $8_<17>$ ne peuvent pas être inversés.

      La raison pour laquelle je sais que l'autre nœud n'est pas $8_<17>$ ? C'est un nœud hyperbolique et il a un volume hyperbolique différent ( $4.40083. $ ) que $8_<17>$ (10.9859. $ ).

      Pour info : dans un certain sens, c'est l'une des surfaces les plus simples avec une limite non triviale qui ne peut pas être retournée. Tous les disques peuvent être retournés. De même, tous les anneaux (indépendamment de la façon dont ils sont noués) peuvent être retournés. Donc, pour les surfaces de genre zéro, 3 composants de frontière est le moins que vous puissiez avoir si vous recherchez une surface qui ne peut pas être retournée.

      édité pour corriger le commentaire de Jason.

      commentaire ajouté plus tard : Je suggère que si vous achetez un vêtement de cette forme vous le retournez au fabricant.

      Je vais essayer de donner une version plus légère de ma réponse précédente. Je préfère ne plus modifier le précédent, alors voici une autre réponse. Je tiens à préciser, cette réponse est de toi, pas votre neveu de 10 ans. La façon dont vous traduisez cette réponse à n'importe quelle personne dépend plus de vous et de cette personne qu'autre chose.

      Jetez un œil à la page Wikipedia pour le difféomorphisme. En particulier, l'image principale

      Quand je regarde cette image, je vois la grille de coordonnées cartésienne standard, mais un peu déformée.

      Il y a un "grand théorème" dans un sujet appelé Théorie des collecteurs et son nom est le "théorème d'extension d'isotopie". De plus, cela a beaucoup à voir avec ce genre de photos.

      Le théorème d'extension d'isotopie est à peu près cette construction : disons que vous avez du caoutchouc et qu'il repose dans un milieu d'époxy liquide qui est presque fixé. De plus, imaginez que l'époxy soit multicolore. Ainsi, lorsque vous déplacez le foret en caoutchouc dans l'époxyde, l'époxyde "suivra" l'objet en caoutchouc. Si votre époxy avait un visage heureux coloré à l'origine, après avoir déplacé le caoutchouc, vous verrez un visage heureux déformé.

      Vous obtenez donc des images qui ressemblent beaucoup à de la peinture mélangée. Mélangez diverses taches de peinture et la peinture se déforme. Plus vous remuez, plus cela se mélange et il devient de plus en plus difficile de voir l'image originale. L'important est que la peinture mélangée soit en quelque sorte un « enregistrement » de la façon dont vous avez déplacé votre objet en caoutchouc. Et si votre mouvement de l'objet en caoutchouc le ramène à sa position initiale, il y a une fonction

      où $X$ sont toutes les positions en dehors de votre objet en caoutchouc. Étant donné $x in X$, vous pouvez demander où la particule de peinture à la position $x$ est allée après le mélange et appeler cette position $f(x)$ .

      Tout mon discours sur les faisceaux de fibres et les groupes d'homotopie dans la réponse précédente était un codage "de haut niveau" de l'idée ci-dessus. Une étape intermédiaire dans la formalisation de cette idée est la solution d'une équation différentielle ordinaire, et cette équation différentielle est essentiellement "l'idée de mélange de peinture" ci-dessus, au cas où vous voudriez examiner ce sujet plus en détail plus tard.

      Qu'est-ce que cela signifie? Un mouvement d'un objet à partir d'une position initiale retour à la position initiale vous donne une idée de la façon de "mélanger la peinture" à l'extérieur de l'objet. Ou dit autrement, cela vous donne un automorphisme du complément, dans notre cas c'est une fonction bijective continue 1-1 entre l'espace tridimensionnel sans le vêtement et lui-même.

      Vous trouverez peut-être cela étrange, mais les mathématiciens étudient le "mélange de peinture" dans toutes sortes d'objets mathématiques, y compris "l'espace à l'extérieur des vêtements" et des objets bien plus bizarres depuis plus de 100 ans. C'est le sujet des systèmes dynamiques. Les "compléments de vêtement" sont un cas très particulier, car ce sont des sous-ensembles de l'espace euclidien en 3 dimensions et ce sont donc des variétés 3. Au cours des 40 dernières années, notre compréhension des 3-variétés a changé et a sérieusement altéré notre compréhension des choses. Pour vous donner une idée de ce qu'est cette compréhension, commençons par les bases. Les 3-variétés sont des choses qui, à petite échelle, ressemblent à l'espace euclidien tridimensionnel "standard". Les 3-variétés sont donc un exemple du "problème de la terre plate". Pensez à l'idée que la terre est peut-être comme une feuille de papier plate qui dure éternellement. Certaines personnes ont (apparemment) cru cela à un moment donné. Et superficiellement, en tant qu'idée, il y a des choses pour ça. La preuve que la terre n'est pas plate nécessite une certaine accumulation.

      Quoi qu'il en soit, les 3-collecteurs sont la prochaine étape. Peut-être tout espace n'est pas plat dans un certain sens. C'est un concept difficile à comprendre car l'espace n'est "dans" rien - fondamentalement, par définition, quel que soit l'espace dans lequel nous l'appellerions l'espace, non? Bizarrement, ce n'est pas si simple. Un gars nommé Gauss a découvert qu'il existe un moyen de donner un sens à l'espace qui n'est pas plat sans pour autant espace assis dans quelque chose de plus grand. La courbure signifiante est une chose relative, pas quelque chose jugée par une norme absolue extérieure. Cette idée a été une révélation et a engendré l'idée d'un collecteur abstrait. Pour résumer la notion, voici une petite expérience de pensée.

      Imaginez une fusée avec une corde attachée à sa queue, l'autre extrémité de la corde fixée à la terre. La fusée décolle et va droit loin de la terre. Des années plus tard, la fusée revient d'une autre direction, et nous saisissons les deux extrémités libres de la corde et tirons. Nous tirons et tirons, et bientôt la corde est tendue. Et la corde ne bouge pas, elle est tendue. comme si il était collé à quelque chose. Mais la corde ne touche rien à part tes mains. Bien sûr, vous ne pouvez pas voir toute la corde à la fois car la corde trace le (très long) trajet de la fusée. Mais si tu grimpes le long de la corde, après des années tu peux vérifier : c'est une longueur finie, ça ne touche rien sauf là où c'est cloué au sol. Et il ne peut pas être tiré.

      C'est ce qu'un topologue pourrait appeler un trou dans l'univers. Nous avons des conceptions abstraites de ces types d'objets ("trous dans l'univers") mais de par leur nature, ils ne sont pas très faciles à visualiser -- pas impossible non plus, mais cela demande de la pratique et un peu d'entraînement.

      Dans les années 1970, grâce au travail de nombreux mathématiciens, nous avons commencé à comprendre ce que nous attendions des 3-variétés. En particulier, nous avions des procédures pour les construire tous, et une idée approximative du nombre de variétés qu'il devrait y avoir. Leur description conjecturale s'appelait la conjecture de géométrisation. Ce fut une révélation en son temps, car cela impliquait que beaucoup de nos notions traditionnelles de géométrie issues de l'étude des surfaces dans l'espace tridimensionnel se traduisent par la description de toutes les variétés tridimensionnelles. La conjecture de géométrie a été récemment prouvée en 2002.

      Le résultat de cette théorie est que, dans un certain sens, les variétés tridimensionnelles "cristallisent" et se séparent de certaines manières standard. Cela force tout type de dynamique sur un 3-manifold (comme « mélange de peinture à l'extérieur d'un vêtement ») pour respecter cette cristallisation.

      Alors, comment trouver un vêtement que vous ne pouvez pas retourner à l'envers ? J'en fabrique un pour que son extérieur se cristallise d'une manière que je comprends. Je trouve notamment un complément qui ne permet pas ce genre de retournement. Le fait que ces choses existent est assez délicat et demande du travail à voir. Il n'est donc pas particulièrement facile d'expliquer la preuve. Mais c'est l'idée essentielle.

      Edit : Pour en dire un peu plus, il y a une certaine façon dont cette "cristallisation" peut être extrêmement belle. L'un des types de cristallisation les plus simples se produit lorsque vous avez affaire à une variété hyperbolique de volume fini. Cela se produit plus souvent que vous ne l'imaginez - et c'est l'idée clé qui fonctionne dans l'exemple de ma réponse précédente. La décomposition dans ce cas est très spéciale car il existe ce qu'on appelle la "décomposition d'Epstein-Pener" qui donne un moyen canonique de découper le complément en polytopes convexes. Des choses comme les tétraèdres, les octaèdres, les icosaèdres, etc., des objets très standard. Ainsi, la compréhension de la dynamique des "vêtements" se transforme souvent (c'est-à-dire que le problème "se réduit à") la compréhension de la géométrie des polytopes convexes - le genre de choses avec lesquelles Euclide était très à l'aise. En particulier, il existe un logiciel appelé "SnapPea" qui permet des calculs assez faciles de ces choses.

      Images tirées de la page Web de Morwen Thistlethwaite. Ce sont des images de la notion voisine de "domaine de Dirichlet".

      Voici une image du domaine Dirichlet pour le complément de $8_<17>$ , l'idée clé dans la construction de mon post précédent.

      Techniquement, cela dans le modèle de Poincaré pour l'espace hyperbolique, ce qui lui donne l'apparence déchiquetée/courbée.


      Région

      Clé de fonctionnalitéPoste(s)Description Actions Vue graphiqueLongueur
      <p>Cette sous-section de la section "Famille et domaines" décrit une région d'intérêt qui ne peut pas être décrite dans d'autres sous-sections.<p><a href='/help/region' target='_top'>Plus. </a></p> Région i 585 – 605 Analyse de séquence désordonnée

      <p>Informations générées par le système d'annotation automatique UniProtKB, sans validation manuelle.</p> <p><a href="/manual/evidences#ECO:0000256">En savoir plus. </a></p> Assertion automatique selon l'analyse de séquence i


      Auto-apprentissage CCNP : Adressage IP avancé

      À la suite de l'expansion et des fusions d'entreprises, le nombre de sous-réseaux et d'adresses réseau dans les tables de routage augmente rapidement. Cette croissance pèse sur les ressources CPU, la mémoire et la bande passante utilisées pour maintenir la table de routage.La récapitulation des routes et les techniques CIDR peuvent gérer cette croissance d'entreprise de la même manière que la croissance d'Internet a été gérée. Avec une compréhension approfondie de la récapitulation des routes et du CIDR, vous pouvez implémenter un réseau évolutif. Cette section décrit le résumé CIDR est couvert dans la section suivante "Classless Interdomain Routing." La relation entre le résumé et le VLSM est également examinée. Avec VLSM, vous divisez un bloc d'adresses en sous-réseaux plus petits dans la récapitulation des routes, un groupe de sous-réseaux est enroulé dans une entrée de table de routage résumée.

      Présentation de la synthèse d'itinéraire

      Dans les grands interréseaux, des centaines, voire des milliers d'adresses réseau peuvent exister. Il est souvent problématique pour les routeurs de maintenir ce volume de routes dans leurs tables de routage. Résumé d'itinéraire (également appelé agrégation d'itinéraires ou alors super-réseau) peut réduire le nombre de routes qu'un routeur doit maintenir, car il s'agit d'une méthode de représentation d'une série de numéros de réseau dans une seule adresse récapitulative.

      Par exemple, dans la Figure 1-16, le routeur D peut soit envoyer quatre entrées de mise à jour de routage, soit résumer les quatre adresses en un seul numéro de réseau. Si le routeur D résume les informations en une seule entrée de numéro de réseau, les événements suivants se produisent :

      La bande passante est sauvegardée sur le lien entre les routeurs D et E.

      Le routeur E n'a besoin de conserver qu'un seul itinéraire et économise donc de la mémoire.

      Le routeur E économise également des ressources CPU, car il évalue les paquets par rapport à moins d'entrées dans sa table de routage.

      Figure 1-16 Les routeurs peuvent résumer pour réduire le nombre de routes

      Point clé : Routes récapitulatives

      Une route récapitulative est annoncée par le routeur récapitulatif tant qu'au moins une route spécifique dans sa table de routage correspond à la route récapitulative.

      Le routeur D de la figure 1-16 annonce qu'il peut acheminer vers le réseau 172.16.12.0/22, y compris tous les sous-réseaux de ce réseau. Cependant, s'il y avait d'autres sous-réseaux de 172.16.12.0/22 ​​ailleurs dans le réseau (par exemple, si 172.16.12.0 n'étaient pas contigus), le résumé de cette manière pourrait ne pas être valide.

      Un autre avantage de l'utilisation de la récapitulation des routes dans un réseau vaste et complexe est qu'elle peut isoler les changements de topologie des autres routeurs. Par exemple, dans la Figure 1-16, si un lien spécifique (tel que 172.16.13.0/24) est battement (montées et descentes rapides), la route récapitulative (172.16.12.0/22) ne change pas. Par conséquent, le routeur E n'a pas besoin de modifier continuellement sa table de routage en raison de cette activité de battement.

      Le battement est un terme courant utilisé pour décrire des défaillances intermittentes d'interface ou de liaison.

      La récapitulation d'itinéraire n'est possible que lorsqu'un plan d'adressage approprié est en place. La récapitulation de route est plus efficace dans un environnement en sous-réseaux lorsque les adresses réseau sont en blocs contigus en puissances de 2. Par exemple, 4, 16 ou 512 adresses peuvent être représentées par une seule entrée de routage car les masques récapitulatifs sont des masques binaires, tout comme les sous-réseaux. masques&# 151 donc la récapitulation doit avoir lieu sur des frontières binaires (puissances de 2). Si le nombre d'adresses réseau n'est pas contigu ou n'est pas une puissance de 2, vous pouvez diviser les adresses en groupes et essayer de résumer les groupes séparément.

      Les protocoles de routage résument ou regroupent les routes en fonction des numéros de réseau partagés au sein du réseau. Les protocoles de routage sans classe (tels que RIPv2, OSPF, IS-IS et EIGRP) prennent en charge la récapitulation des routes basée sur les adresses de sous-réseau, y compris l'adressage VLSM. Les protocoles de routage par classe (RIPv1 et IGRP) résument automatiquement les routes sur la limite du réseau par classe et ne prennent pas en charge le résumé sur d'autres limites de bits. Les protocoles de routage sans classe prennent en charge la récapitulation sur n'importe quelle limite de bit.

      Le résumé est décrit dans la RFC 1518, Une architecture pour l'allocation d'adresses IP avec CIDR, disponible sur http://www.cis.ohio-state.edu/cgi-bin/rfc/rfc1518.html.

      À titre d'exemple de la puissance du résumé, imaginez une entreprise qui exploite une série de pizzerias, avec 200 magasins dans chacun des 50 États des États-Unis. Chaque magasin dispose d'un routeur avec Ethernet et d'un lien Frame Relay connecté au siège social. Sans récapitulation des routes, la table de routage sur l'un de ces routeurs aurait 200 * 50 = 10 000 réseaux.

      Au lieu de cela, si chaque état a un site central pour le connecter à tous les autres états, et que chacune de ces routes est résumée avant d'être annoncée aux autres états, chaque routeur voit ses 200 sous-réseaux d'état et 49 entrées résumées représentant les autres états. Cela se traduit par une utilisation moindre du processeur, de la mémoire et de la bande passante.

      Exemple de calcul de résumé d'itinéraire

      Le routeur D de la figure 1-16 a les réseaux suivants dans sa table de routage :

      Pour déterminer la route récapitulative sur le routeur D, déterminez le nombre de bits de poids fort (les plus à gauche) qui correspondent à toutes les adresses. Pour calculer l'itinéraire récapitulatif, procédez comme suit :

      Convertissez les adresses au format binaire et alignez-les dans une liste.

      Localisez le bit où se termine le modèle commun de chiffres. (Il peut être utile de tracer une ligne verticale marquant le dernier bit correspondant dans le modèle commun.)

      Comptez le nombre de bits communs. Le numéro de route récapitulative est représenté par la première adresse IP du bloc, suivie d'une barre oblique, suivie du nombre de bits communs. Comme l'illustre la Figure 1-17, les 22 premiers bits des adresses IP de 172.16.12.0 à 172.16.15.255 sont les mêmes. Par conséquent, la meilleure route récapitulative est 172.16.12.0/22.

      Figure 1-17 Récapitulation au sein d'un octet, pour le routeur D de la Figure 1-16

      Dans ce réseau, les quatre sous-réseaux sont contigus et la route récapitulative couvre toutes les adresses des quatre sous-réseaux et uniquement ces adresses. Considérez, par exemple, ce qui se passerait si 172.16.13.0/24 n'était pas derrière le routeur D, mais était utilisé ailleurs dans le réseau, et que seuls les trois autres sous-réseaux étaient derrière le routeur D. La route récapitulative 172.16.12.0/22 ​​devrait ne sera plus utilisé sur le routeur D, car il inclut 172.16.13.0/24 et peut entraîner des tables de routage confuses. (Cependant, cela dépend de la façon dont les autres routeurs du réseau résument. Si la route 172.16.13.0/24 est propagée à tous les routeurs, ils choisissent la route avec le plus de bits qui correspondent à l'adresse de destination et doivent acheminer correctement. Ceci est décrit plus en détail dans la section "Opération de récapitulation des routes dans les routeurs Cisco")

      Dans la Figure 1-17, les sous-réseaux avant et après les sous-réseaux à résumer sont également affichés. Notez qu'ils n'ont pas les mêmes 22 premiers bits en commun et ne sont donc pas couverts par la route récapitulative 172.16.12.0/22.

      Résumé des adresses dans un réseau conçu par VLSM

      Une conception VLSM permet une utilisation maximale des adresses IP ainsi qu'une communication de mise à jour de routage plus efficace lors de l'utilisation d'un adressage IP hiérarchique. Dans la Figure 1-18, la récapitulation des routes se produit aux deux niveaux suivants :

      Le routeur C résume deux mises à jour de routage des réseaux 10.1.32.64/26 et 10.1.32.128/26 en une seule mise à jour : 10.1.32.0/24.

      Le routeur A reçoit trois mises à jour de routage différentes. Cependant, le routeur A les résume en une seule mise à jour de routage, 10.1.0.0/16, avant de la propager au réseau d'entreprise.

      Figure 1-18 Les adresses VLSM peuvent être résumées

      Implémentation de la synthèse d'itinéraire

      Le résumé des routes réduit l'utilisation de la mémoire sur les routeurs et le trafic réseau du protocole de routage, car il en résulte moins d'entrées dans la table de routage (sur les routeurs qui reçoivent les routes résumées). Pour que la synthèse fonctionne correctement, les conditions suivantes doivent être remplies :

      Plusieurs adresses IP doivent partager les mêmes bits de poids fort.

      Les protocoles de routage doivent baser leurs décisions de routage sur une adresse IP de 32 bits et une longueur de préfixe pouvant aller jusqu'à 32 bits.

      Les mises à jour de routage doivent porter la longueur du préfixe (le masque de sous-réseau) ainsi que l'adresse IP de 32 bits.

      Opération de résumé de route dans les routeurs Cisco

      Cette section traite des généralités sur la façon dont les routeurs Cisco gèrent la récapitulation des routes. Les détails sur le fonctionnement de la récapitulation des routes avec un protocole spécifique sont abordés dans le chapitre sur le protocole correspondant de ce livre.

      Les routeurs Cisco gèrent la récapitulation des routes de deux manières :

      Envoi de résumés de parcours—Les informations de routage publiées sur une interface sont automatiquement résumées aux limites des principales adresses réseau (classiques) par RIP, IGRP et EIGRP. Plus précisément, ce résumé automatique se produit pour les routes dont les adresses réseau par classe diffèrent de l'adresse réseau principale de l'interface à laquelle l'annonce est envoyée. Pour OSPF et IS-IS, vous devez configurer la récapitulation.

      La récapitulation d'itinéraire n'est pas toujours une solution. Vous ne voudriez pas utiliser la récapitulation d'itinéraire si vous deviez annoncer tous les réseaux à travers une limite, par exemple lorsque vous avez des réseaux non contigus. Lorsque vous utilisez EIGRP et RIPv2, vous pouvez désactiver cette récapitulation automatique.

      Sélection d'itinéraires à partir de résumés d'itinéraires—Si plus d'une entrée dans la table de routage correspond à une destination particulière, la correspondance de préfixe la plus longue dans la table de routage est utilisée. Plusieurs routes peuvent correspondre à une destination, mais le préfixe correspondant le plus long est utilisé.

      Par exemple, si une table de routage a les chemins illustrés à la Figure 1-19, les paquets adressés à la destination 172.16.5.99 sont acheminés via le chemin 172.16.5.0/24, car cette adresse a la correspondance la plus longue avec l'adresse de destination.

      Figure 1-19 Les routeurs utilisent la correspondance la plus longue lors de la sélection d'un itinéraire

      Lors de l'exécution de protocoles par classe (RIPv1 et IGRP), vous devez activer IP sans classe si vous souhaitez que le routeur sélectionne un itinéraire par défaut lorsqu'il doit acheminer vers un sous-réseau inconnu d'un réseau pour lequel il connaît certains sous-réseaux. Reportez-vous à la section "Le IP sans classe Command" au chapitre 2 pour plus de détails.

      Notez que par défaut (et pour des raisons historiques) la table de routage sur les routeurs Cisco agit par classe, comme décrit dans la barre latérale "La table de routage agit avec classe" au chapitre 2.

      Résumé des routes dans les protocoles de routage IP

      Le Tableau 1-2 résume la prise en charge de la récapitulation des routes disponible dans les divers protocoles de routage IP.

      Tableau 1-2 Prise en charge de la récapitulation des routes du protocole de routage

      Récapitulation automatique à la limite du réseau par classe ?

      Possibilité de désactiver la récapitulation automatique ?

      Capacité de résumer ailleurs qu'à une limite de réseau par classes ?


      Voir la vidéo: Tipseo - Faire disparaitre des entités (Octobre 2021).