Suite

Quels champs le paramètre d'expression CalculateField_management peut-il contenir ?


Quels champs le paramètre d'expression CalculateField_management peut-il contenir ? Je veux dire que les paramètres peuvent être les champs contenus dans la table de sortie, ou peuvent-ils également être un champ d'une autre table?

Il y a deux tableaux :

  1. beaucoup de champs et un champ, ce qui devait être placé sur une autre table.
  2. La table jointe. Il contient le champ qui vient de la table précédente et tous les enregistrements ont une valeur unique dans ce certain champ.

Maintenant, la tâche consiste à parcourir le certain champ de la table 2 et à calculer un autre champ dans cette table 2, mais je dois rechercher des valeurs dans la table 1. Si la valeur "certain champ" d'un enregistrement est la même que celle de la table 2 "certain champ ", alors j'ai besoin des autres données de champ de la table 1 pour calculer les autres champs de la table 2.

Les paramètres d'expression doivent-ils provenir d'une seule table ou puis-je également faire référence à d'autres champs de table ?

J'espère que c'est compréhensible.


Cela semble être répondu par la documentation Calculate Field (Data Management):

Lors du calcul des données jointes, vous ne pouvez pas calculer directement les colonnes jointes. Cependant, vous pouvez calculer directement les colonnes de la table d'origine. Pour calculer les données jointes, vous devez d'abord ajouter les tables ou couches jointes à ArcMap. Vous pouvez ensuite effectuer des calculs sur ces données séparément. Ces changements seront reflétés dans les colonnes jointes.

Pour savoir comment faire référence aux colonnes jointes dans ArcPy, je vous recommande de consulter Comment calculer le champ dans une table jointe à l'aide d'ArcPy ?.

À votre question "Les paramètres d'expression doivent-ils provenir d'une seule table ou puis-je également faire référence à d'autres champs de table ?", ma réponse (comme ci-dessus) est "Non, vous pouvez également calculer des champs dans la table jointe, comme illustré dans Comment calculer le champ dans une table jointe à l'aide d'ArcPy ?"


Une option consiste à utiliser d'abord l'outil Join Field.

Joint le contenu d'une table à une autre table en fonction d'un champ d'attribut commun. La table d'entrée est mise à jour pour contenir les champs de la table de jointure. Vous pouvez sélectionner les champs de la table de jointure qui seront ajoutés à la table d'entrée.

Mais, faire attention car cela modifie en fait la table d'entrée - ce n'est pas une jointure temporaire - cela ajoute en fait les champs que vous choisissez à la table d'entrée.

Vous pouvez ensuite facilement utiliser l'outil Calculer le champ sur n'importe quelle colonne.

Si vous ne souhaitez pas modifier les données d'origine, vous pouvez toujours en faire une copie, puis exécuter l'outil Join Field sur la copie.


Chapitre 16 Administration de la base de données

Au chapitre 15, nous avons appris à écrire des requêtes SELECT pour récupérer des données à partir d'un serveur SQL existant. Bien sûr, ces requêtes dépendent de la configuration de ce serveur et des données appropriées chargées dedans. Dans ce chapitre, nous fournissons les outils nécessaires pour configurer une nouvelle base de données et la remplir. De plus, nous présentons des concepts qui vous aideront à construire des bases de données efficaces permettant des performances de requête plus rapides. Bien que le traitement ici ne soit pas suffisant pour faire de vous un administrateur de base de données chevronné, il devrait être suffisant pour vous permettre de commencer à expérimenter par vous-même les bases de données SQL.

Comme au chapitre 15, le code que vous voyez dans ce chapitre illustre les échanges entre un serveur MySQL et un client. Dans des endroits où R est impliqué, nous allons le rendre explicite. Nous supposons que vous pouvez vous connecter à un serveur MySQL. (Voir l'annexe F pour obtenir des instructions sur l'installation, la configuration et la connexion à un serveur SQL.)


Contenu

On pourrait considérer que l'analyse spatiale est apparue avec les premières tentatives de cartographie et d'arpentage, mais de nombreux domaines ont contribué à son essor sous une forme moderne. Par exemple, la biologie a contribué à travers des études botaniques de la distribution mondiale des plantes et des emplacements locaux des plantes, des études éthologiques des mouvements d'animaux, des études écologiques des blocs de végétation, des études écologiques de la dynamique spatiale des populations et l'étude de la biogéographie. L'épidémiologie a contribué aux premiers travaux sur la cartographie des maladies, notamment les travaux de John Snow sur la cartographie d'une épidémie de choléra, avec des recherches sur la cartographie de la propagation des maladies et avec des études de localisation pour la prestation des soins de santé. Les statistiques ont grandement contribué à travers les travaux sur les statistiques spatiales. L'économie y a notamment contribué à travers l'économétrie spatiale. L'analyse spatiale moderne se concentre sur les techniques informatiques. En raison de la grande quantité de données, de la puissance des logiciels modernes de science de l'information statistique et géographique (SIG) et de la complexité de la modélisation informatique. Les systèmes d'information géographique sont actuellement un contributeur majeur en raison de l'importance des logiciels géospatiaux dans la boîte à outils analytique moderne. La télédétection a largement contribué à l'analyse morphométrique et de clustering. L'informatique a largement contribué à travers l'étude des algorithmes, notamment en géométrie computationnelle. Les mathématiques continuent de fournir les outils fondamentaux pour l'analyse et de révéler la complexité du domaine spatial, par exemple, avec des travaux récents sur les fractales et l'invariance d'échelle. La modélisation scientifique fournit également un cadre utile pour de nouvelles approches.


ASPECTS MAJEURS DE LA DÉMOGRAPHIE

LES CINQ ASPECTS MAJEURS DE LA DÉMOGRAPHIE SONT :

· COMPOSITION (RÉPARTITION PAR DES FACTEURS COMME L'ÂGE, LE SEXE ET LA RACE, QUI AFFECTENT LA CROISSANCE DE LA POPULATION)

· DYNAMIQUE DE LA POPULATION (CHANGEMENT DE TAILLE OU DE COMPOSITION DANS LE TEMPS FACTEURS QUI AFFECTENT LA CROISSANCE, COMME LES TAUX DE NAISSANCE, LES TAUX DE MORT ET LES TAUX DE MIGRATION)

· DÉTERMINANTS SOCIOÉCONOMIQUES ET CONSÉQUENCES DU CHANGEMENT DE POPULATION

CES ASPECTS SERONT MAINTENANT DISCUTER.

TAILLE : NOMBRE TOTAL DE PERSONNES DANS UNE ZONE D'INTÉRÊT, CLASSÉES EN GRANDES CATÉGORIES, Y COMPRIS :

· DE FACTO: PERSONNES PRÉSENT DANS UNE ZONE DONNÉE À UN MOMENT DONNÉ

· DE JURE: PERSONNES ASSOCIEES A UNE ZONE DONNE SELON DES CRITERES PRECISES, COMME LA RESIDENCE LEGALE OU LA RESIDENCE HABITUELLE

· PERSONNEL OFFICIEL ÉTRANGER

· ZONES OU RÉGIONS (PAR EXEMPLE, PAYS, PROVINCES, ÉTATS, COMTÉS)

· LIEUX (ZONES MÉTROPOLITAINES, VILLES, VILLES, VILLAGES)

· CARACTÉRISTIQUES ATTRIBUÉES : ÂGE, SEXE, RACE, ANNÉE DE NAISSANCE, LIEU DE NAISSANCE

· CARACTÉRISTIQUES OBTENUES OU ACQUISES : CARACTÉRISTIQUES SOCIOÉCONOMIQUES DE BASE, Y COMPRIS LA NATIVITÉ, LA LANGUE, L'ETHNICITÉ, L'ASCENDANCE, LA RELIGION, LA CITOYENNETÉ, L'ÉTAT MARITIME, LES CARACTÉRISTIQUES DU MÉNAGE, LES CONDITIONS DE VIE, LE NIVEAU D'ÉDUCATION ET D'ENVIRONNEMENT, L'ÉCOLE D'INSCRIPTION

· CARACTÉRISTIQUES ASSOCIÉES À TOUT DOMAINE LIÉ À LA DÉMOGRAPHIE : ASSURANCE, SANTÉ, HANDICAP, STATUT INSTITUTIONNEL, COMMERCE, ÉTUDES DE MARCHÉ, AMÉNAGEMENT URBAIN ET RÉGIONAL, AMÉNAGEMENT DES TRANSPORTS, POLITIQUE, DÉFENSE

DYNAMIQUE DE LA POPULATION (CHANGEMENT DANS LE TEMPS) :

· NOMBRE DE NAISSANCES, DE DECES, D'IMMIGRANTS (« IN-MIGRANTS »), D'ÉMIGRANTS (« OUT-MIGRANTS »)

· TAUX DE CHANGEMENT DE LA POPULATION (CROISSANCE OU DIMINUTION)

· CHANGEMENTS DANS LA DISTRIBUTION OU LA COMPOSITION GÉOGRAPHIQUE

· CHANGEMENT DE STATUT (ÂGE, ETAT MARITAL, ETATS SOCIOECONOMIQUES)

o PORTÉE ÉTROITE : NAISSANCES, DÉCÈS, MIGRANTS

o LARGE PORTÉE : TOUTES LES VARIABLES AFFECTANT CES VARIABLES (EX. MARIAGE, MALADIE, EMPLOI)

DÉTERMINANTS SOCIOÉCONOMIQUES ET CONSÉQUENCES DU CHANGEMENT DE POPULATION :

· NOMBREUSES VARIABLES DANS DE NOMBREUX DOMAINES D'INTÉRÊT (PAR EXEMPLE, ÉTAT MARITAL, ÉDUCATION, EMPLOI, SANTÉ, ENVIRONNEMENT)

PRINCIPALES CATÉGORIES DE DÉMOGRAPHIE :

· ANALYSE DÉMOGRAPHIQUE (MÉTHODES ET MATÉRIAUX)

· ÉTUDES DE POPULATION (DESCRIPTION DE LA SITUATION ET DES TENDANCES DANS UN DOMAINE IMPORTANT, COMME LA PAUVRETÉ, LA SANTÉ OU L'ENVIRONNEMENT)

CETTE PRÉSENTATION ADRESSE UNE ANALYSE DÉMOGRAPHIQUE, PAS DES ÉTUDES DE POPULATION.


Méthodes de bioimpédance

5.2 L'impédance électrique

Des paramètres groupés peuvent être définis pour des problèmes de valeurs limites sans sources internes lorsque l'interaction avec l'environnement se produit à travers des ports sur la frontière, dans un contexte gradient-flux, comme le rapport entre les gradients moteurs et les flux conjugués. Par exemple, pour un système où l'interaction du champ électromagnétique avec l'environnement se produit au niveau de deux bornes (ports) uniquement (le champ électromagnétique est contenu dans le système, ne « traverse » pas la frontière), une impédance électrique est calculée comme le rapport de chute de tension (gradient), U(t), sur le courant électrique (flux), je(t), C'est, Z(t) = U/je [Ω]—bien que U et je ne concernent pas les mêmes terminaux.

La figure 5.1 suggère, graphiquement, la définition et la signification de l'impédance électrique dans le problème du flux de courant continu à travers un cylindre électroconducteur, entre deux ports de courant sur la frontière - le reste de la frontière est supposé isolé électriquement - alimenté par un la source. Une chute de tension, U, est détecté par une paire d'électrodes équipotentielles de mesure. On suppose que le courant électrique qui peut traverser les électrodes de tension est négligeable. Les surfaces des électrodes de tension (V1 et V2) sont des surfaces correspondantes d'un tube de flux, et le tube de courant électrique entre elles est approximativement égal au courant aux bornes.

Graphique 5.1. L'impédance calculée comme une chute de tension divisée à travers le tube de courant - la configuration standard à quatre électrodes. La chute de tension (aux bornes de mesure) se fait par rapport à deux surfaces de tension constante et le courant électrique est véhiculé par les bornes d'excitation.

Compte tenu de la relation gradient (chute de tension)-flux (courant électrique) aux bornes, le modèle de la figure 5.1 illustre l'introduction d'un élément de circuit dipolaire - un modèle à paramètres localisés - avec des effets de champ (électromagnétique). Toute la physique à l'intérieur du domaine physique (le champ électrique ici) est présentée de manière concise à travers U=U(je). L'utilisation de tels éléments de circuit avec des effets de champ peut réduire un problème de limite et de valeur initiale à un modèle de circuit équivalent, où les interactions se produisent uniquement au niveau terminal. Le modèle à paramètres regroupés réduit la description - configuration, géométrie, champ et propriétés - des systèmes physiques à la topologie d'un système compagnon distribué, dont les nœuds représentent les terminaux (ports) et les branches sont les éléments regroupés. Par la suite, les modèles d'équation(s) aux dérivées partielles, d'EDP(s) sont réduits à des ODE d'équation(s) différentielles ordinaires, généralement plus faciles à aborder puisque des problèmes de type Cauchy doivent être résolus. Il y a des avantages (des ODE au lieu de PDE) et des inconvénients (par exemple, aucune information spatiale ne résulte, les circuits localisés ne sont connus que par rapport à certains ports) qui viennent avec cette approche.

Pour l'excitation harmonique dans le temps, lorsque les sources électriques fonctionnent à la même fréquence, il est d'usage de représenter et de résoudre la représentation complexe et simplifiée de l'ODE. L'impédance dynamique, Z(t), est représenté par son image complexe ( Chapitre 1 : Modélisation Physique, Mathématique et Numérique)

où la vraie partie, R [Ω], est la résistance électrique (effet électrothermique), et la partie imaginaire, X [Ω], est la réactance, soit des effets inductifs (champ magnétique) ou capacitifs (champ électrique). Comme mentionné précédemment, les tissus corporels se comportent comme des milieux conducteurs lorsqu'ils sont exposés à un champ électrique à basse fréquence, l'impédance électrique est donc représentée de manière dominante par sa partie réelle.

Des modèles de circuits électriques localisés sont utilisés en spectroscopie de bioimpédance. Par exemple, le modèle Cole à dispersion unique ( Cole, 1940 Grimnes et Martinsen, 2008 Ivorra et al., 2004 ) a été utilisé dans l'analyse du sang ( Dai et Adler, 2009 ), de la composition corporelle ( Buendi et al., 2014 ) , détection du cancer ( Teixeira et al., 2018 ), surveillance de l'ischémie ( Guermazi et al., 2014 ), mesure de l'urée dans le dialysat ( Jensen et al., 2012 ), analyse des tissus ( Guermazi et al., 2014 ) et hémodialyse ( Al-Surkhi et al., 2007). De plus, les tissus biologiques composés d'amas cellulaires et d'espaces extracellulaires peuvent être modélisés à l'aide d'une approche simplifiée mais efficace de circuits localisés à paramètres distribués et de modèles de calcul fractionnaire ( Freeborn, 2013 Vosika et al., 2013 ), qui donnent lieu à des systèmes d'EDO ( Freeborn, 2013 ). Ivorra et al., 2004) qui peuvent être résolus à l'aide de simulateurs de circuits, par exemple, SPICE (Nagel et Pederson, 1973 Nagel, 1975). D'autres modèles de permittivité - modèle RC à simple dispersion, modèles étendus de Cole à simple et double dispersion, modèles fractionnaires et multi-échelles - sont cités et référencés dans les travaux de Naranjo-Hernández et al. (2019) .

La modélisation macroscopique et continue des médias introduit des quantités qui font la moyenne des processus et des quantités à l'échelle cellulaire. Au niveau de la matière vivante, les tissus sont composés de cellules à fines membranes de haute résistivité électrique qui se comportent comme des condensateurs ( Grimnes et Martinsen, 2008 ). Pour une excitation électrique harmonique de fréquence plus élevée, le courant électrique traverse les tissus et les liquides à la fois à l'intérieur (courant de déplacement) et à l'extérieur des cellules (courant de conduction). Aux basses fréquences, le courant ne circule qu'à travers les liquides à l'extérieur des cellules, un courant de conduction.

Le courant électrique de conduction prévaut dans les solutions électrolytiques des tissus mous (organes, muscles, etc.) et les fluides corporels (sang, liquide interstitiel, lymphe, etc.) (Grimnes et Martinsen, 2014). Les tissus osseux et adipeux, les gaz des voies respiratoires et des poumons sont perméables au courant de déplacement, qui dépend de la fréquence du champ incident et de la permittivité du milieu ( Gabriel et al., 1996 ) - une propriété électrique qui s'explique, au niveau de la matière vivante, par la polarisation dipolaire du milieu biologique ( Chapitre 1 : Modélisation Physique, Mathématique et Numérique).

Les effets de relaxation liés aux dipôles dépendent de la fréquence du champ électrique incident. Plus la fréquence est élevée, plus le décalage temporel de la réponse au stimulus est important, ce qui entraîne une augmentation de l'énergie interne. Selon la fréquence du champ électrique incident, trois groupes de processus sont observés ( Amini et al., 2018 Bhardwaja et al., 2018 Guermazi et al., 2014 ) : (i) dans la gamme 10 Hz à 10 kHz, nommé « région de dispersion α », la diffusion ionique à travers la membrane cellulaire et les processus de contre-ions se produisent et génèrent une polarisation de charge d'espace (interfaciale) (ii) dans la plage de 10 kHz à 100 MHz, appelée « région de dispersion β », la polarisation des membranes cellulaires, des protéines et d'autres macromolécules organiques sont produites, et (iii) dans la gamme du gigahertz (appelée « région de dispersion γ ») la polarisation des molécules d'eau se produit à la fois les régions de dispersion β et sont caractérisées par une polarisation orientationnelle.

Pour faire face à ce large spectre de processus liés à la fréquence, plusieurs modèles macroscopiques de permittivité ont été proposés. Par exemple, la dispersion unique Modèle de relaxation Cole-Cole (Cole et Cole, 1941) présente la permittivité relative complexe comme fonction dépendante de la fréquence pour trois tissus du corps (peau, muscle, graisse) tel que défini par Gabriel et al. (1996) et Naranjo-Hernández et al. (2019)

ω = 2si est la vitesse angulaire, F est la fréquence, σ est la conductivité électrique,εm et ε sont les constantes diélectriques « statique » et « fréquence infinie ». Δεm, τm, et n ∈ ( 0 , 1 ] sont les amplitudes, les constantes de temps et les paramètres de distribution des constantes de temps qui caractérisent les trois plages de dispersion (n = 1, 2, 3 pour α, β et γ, respectivement).

Sur la base de la variabilité des propriétés diélectriques, d'un tissu à l'autre, les mesures d'impédance électrique peuvent fournir des informations de composition globales sur le volume d'intérêt. Parce que la constante diélectrique et la conductivité électrique peuvent distinguer les tissus et leurs états physiologiques, la spectroscopie d'impédance est une méthode appropriée pour leur caractérisation en ce qui concerne la normalité et la pathogenèse, l'état d'hydratation, la viabilité, etc. La dépendance de ces propriétés avec la fréquence contribue à augmenter la précision de la méthode.


Si vous ne savez pas que c'est un carré, vous laissez $L$ être la longueur, $W$ être la largeur, le périmètre est . utilisez l'équation d'aire pour éliminer une variable et obtenez le périmètre en fonction de l'autre, prenez la dérivée, mise à zéro.

Soit $l$ la longueur et $w$ la largeur. On a alors $A=lw =32$ . Vous obtenez donc $w=frac<32>$. Maintenant le périmètre $P=2l+2w=2l+2cdot frac<32>=frac<2l^2+64>$. Maintenant, prenez la dérivée et trouvez le point critique en mettant la dérivée à zéro, puis résolvez $l$.


Reprogrammer le monde : les terrains juridiques

E-Relations Internationales
6 décembre 2019, 23:56 GMT+11

Ceci est un extrait de Reprogramming the World: Cyberspace and the Geography of Global Order. Obtenez votre exemplaire gratuit ici.

L'un des aspects les plus frappants du transport aérien est l'aménagement labyrinthique des aéroports qui crée et délimite une variété d'espaces distincts pour le voyageur. Les passagers traversent des passages souterrains et des avenues dignes d'un centre commercial pour embarquer dans leur avion. Ils passent d'une zone non stérile à une zone stérile après avoir franchi les frontières de sécurité qui délimitent les changements de règles. Alors que les voyageurs ressentent ces aménagements comme des désagréments mineurs, ils ne parviennent souvent pas à reconnaître comment les aéroports sont conçus pour contrôler les voyageurs qui s'y trouvent. Les aéroports par conception délimitent et produisent les règles de comportement au sein de différentes zones de l'espace. Ce n'est pas une caractéristique propre aux aéroports, car presque toutes les architectures déploient une sorte de contrôle.[1] Par exemple, le contrôle architecturé est la prémisse sous-jacente du Panopticon de Jeremy Bentham, mais il peut également être vu déployé dans les aménagements d'espaces publics tels que les magasins Walmart et les musées.[2] Le contrôle architectural est également visible dans les espaces privés, car les portes et les murs sont des mécanismes architecturaux qui aident à maintenir l'intimité. L'architecture contrôle la façon dont les individus perçoivent l'espace en les activant et en les désactivant de diverses manières, et l'architecture de réseau ouverte du Cyberspace n'est pas différente. Dans le même ordre d'idées, les aéroports utilisent l'architecture pour séparer les passagers internationaux, en particulier les arrivées internationales, du reste de la population aéroportuaire. Les passagers internationaux sont introduits dans des halls d'arrivée qui sont conçus avec une série de comptoirs auxquels siège une autorité de l'État qui vérifie le passeport et les documents de chaque voyageur. Il y a des signes qui indiquent que cette ligne de compteurs est la frontière du pays où l'avion a atterri. Malgré le fait que ces voyageurs se trouvent généralement à l'intérieur du territoire de cet État, ils ne sont pas encore entrés dans l'État. Dans ce cas, la géographie de la frontière est déformée pour correspondre à la géographie juridique de la juridiction, créant des zones d'exclusion presque impossibles à cartographier sur une carte des frontières nationales.

Ces exemples illustrent les différentes faces d'une même médaille. Les géographies juridiques peuvent être déployées par des technologies d'application pour limiter la capacité individuelle à transgresser la norme en cours d'application. De plus, ces géographies peuvent également être réimaginées pour inclure ou exclure l'espace malgré l'emplacement physique de ce territoire. La capacité de l'État à conceptualiser dynamiquement ses frontières de manière à créer des fictions juridiques à l'intérieur du territoire fait des frontières les marqueurs d'une géographie juridique fondée sur la juridiction.[3] C'est pourquoi des architectures de contrôle sont utilisées aux frontières : elles matérialisent des lignes imaginaires, car les frontières de l'État ne sont solides que dans la mesure où l'État lui-même peut les faire. La géographie juridique du cyberespace est une question de savoir comment les architectures de contrôle sont déployées en son sein. L'analyse ici s'applique à l'ensemble du modèle en couches établi au chapitre 2. Premièrement, elle examinera l'idée de juridiction en tant que type de géographie. Pour ce faire, il examinera le lien traditionnel entre territoire et juridiction. La deuxième section utilisera le lien entre l'architecture et le contrôle pour examiner un principe fondamental de la répartition du pouvoir réglementaire dans le cyberespace à travers l'examen du principe de Lessig selon lequel « le code est la loi ». Enfin, ce chapitre se tournera vers l'idée de code en tant que constitution du cyberespace et explorera les implications de gouvernance qui découlent d'une telle idée. Cette dernière section tirera ensuite des conclusions sur la dispersion des compétences dans le cyberespace.

L'espace du droit

La juridiction est l'espace du droit. Il peut être compris, dans au moins un sens, comme les limitations géographiques littérales de la loi.[4] En tant que concept juridique, la juridiction peut sembler éphémère, mais elle fait littéralement partie du langage que nous utilisons pour nous situer dans le monde. « Je viens de . » est une expression qui se terminera probablement par la désignation d'une juridiction légale telle qu'un État ou ses subdivisions politiques telles que les provinces, les comtés ou les municipalités. Ces subdivisions, qui sont souvent imbriquées comme des poupées matriochka, désignent chacune un espace avec un ensemble particulier de caractéristiques juridiques. C'est ce que l'on entend par géographie juridique. Il est important de noter que ces juridictions imbriquées se chevauchent de telle sorte qu'un individu se trouve souvent dans une pile hiérarchique de juridictions qui se chevauchent. Il est soutenu ici que le cyberespace déploie également une géographie juridique de la juridiction sur l'individu, mais cette géographie résiste au confinement au sein des juridictions tel que conceptualisé dans le régime de gouvernance internationale.

Comme indiqué au chapitre 2, le cyberespace modifie notre expérience spatiale. La juridiction, dans le système étatique moderne, est directement liée au territoire. Le territoire sert de lien critique entre la juridiction et le pouvoir dans le déploiement de la gouvernance d'un État, car historiquement, il y a eu « une correspondance générale entre les frontières tracées dans l'espace physique et les frontières tracées dans « l'espace juridique ». signifie une connexion «naturelle», mais il s'agit d'une connexion de facto basée sur des technologies à travers lesquelles le pouvoir est exercé et à travers lesquelles l'ordre mondial se déroule.

À cette fin, le droit international a reconnu cinq bases à partir desquelles un État peut étendre sa juridiction et ainsi exercer son pouvoir : territorial, personnel, protecteur, personnalité passive et universel[6]. Chacun de ces principes d'extension de compétence a sa propre logique interne, mais tous - sauf un - sont liés au territoire physique. Cela intègre les compréhensions territoriales dans le concept de juridiction au sein de l'espace international.[7] La compétence personnelle est liée à un territoire via les auspices de la nationalité, la compétence protectrice est liée à la protection du territoire de l'État contre les dommages et la personnalité passive est liée au concept de nationalité, qui à son tour est lié au territoire. Seule la compétence universelle semble échapper au lien territorial, car son incarnation originale était comme un mécanisme pour s'adresser aux acteurs extérieurs aux frontières territoriales de tout État, comme les pirates.[8] La compétence universelle, cependant, exige que les malfaiteurs soient amenés dans la juridiction territoriale de l'État afin qu'il exerce un pouvoir légal.[9]

Ce que montrent ces principes reconnus de compétence, c'est que le territoire est le fondement de la compétence dans le système international, et cette compétence peut être comprise comme l'espace dans lequel l'État peut exercer son pouvoir, à la fois le pouvoir juridique et à travers son monopole sur la violence.[10] Il est important de comprendre la limitation territoriale du pouvoir de l'État, car le territoire est au cœur du système juridique international. Les frontières tracées par ce système montrent une configuration particulière de juridiction superposée à l'espace du monde. Alors que « [nous] tenons pour acquis un monde dans lequel les frontières géographiques. sont d'une importance primordiale pour déterminer les droits et les responsabilités juridiques », cette configuration n'est qu'un rendu statique d'un ensemble dynamique de lignes qui indiquent une variété d'espaces fluides.[ 11]

L'argument avancé par cette section est que la juridiction, comprise comme une géographie juridique, n'est ni un espace continu ni un espace statique, et qu'elle est reconfigurable non seulement par la conceptualisation de ses frontières par un État, mais aussi par des processus externes qui remodèlent la nature de l'espace juridique. Cette section procédera en deux parties, toutes deux destinées à montrer les lacunes dans le lien entre espace territorial et espace réglementaire. Dans un premier temps, cette section montrera comment le Cyberespace fracture les juridictions nationales, puis, il poursuivra le même objectif en termes d'espace international. Il convient de noter que l'affirmation faite dans cette section n'est pas que les juridictions des États se sont évanouies, mais que cette juridiction n'est pas « déjà, et pour toujours, « réglée ». objets et individus sur son territoire. Cependant, le Cyberespace crée une situation spatiale dans laquelle s'épuise le pouvoir réglementaire associé au territoire, et à ce stade, nous pouvons voir où commence la géographie juridique du Cyberespace.

Le débat sur la nature du cyberespace, caractérisé par l'échange entre la poste et l'orfèvre discuté au chapitre 2, est important dans la discussion de la géographie juridique. Le débat était centré sur la question de savoir si le cyberespace était ou non un nouvel espace, mais plus précisément en tant que juristes, le différend portait sur la question de savoir si le cyberespace créait de nouvelles géographies juridiques alternatives de juridiction. De telles affirmations avaient été avancées dans la "Déclaration d'indépendance du cyberespace" de Barlow. L'affirmation de Barlow selon laquelle les États « n'étaient pas les bienvenus » dans le cyberespace est enracinée dans la notion d'une souveraineté territoriale indépendante comme source de gouvernance légitime dans le cyberespace.[13]

Alors que Goldsmith rejette catégoriquement une telle rhétorique, Post adopte une position plus nuancée. Il affirme que « le cyberespace est en quelque sorte différent » et que cette différence « compte pour comprendre ces questions juridictionnelles. » [14] L'argument de Post est enraciné dans l'idée que le cyberespace crée un monde « de causes interconnectées et géographiquement complexes et effets."[15] Il note que

La médiation informatique massivement distribuée des transactions, de l'avis de Post, nécessite une réévaluation des « ententes établies » de concepts tels que la juridiction.[17]

Pour comprendre les arguments de Post, le regard critique doit à nouveau se tourner vers les frontières qui définissent l'État. Les technologies transfrontalières plus anciennes étaient souvent contrôlées par des normes technologiques adoptées par un État donné. Il s'agissait d'une fonction unique de la juridiction légale qui pouvait créer des contrôles architecturaux à la frontière d'un État. Par exemple, en adoptant un écartement de chemin de fer standard différent, un État pourrait s'assurer que toutes les expéditions de train ont été débarquées et rechargées sous l'œil vigilant de l'État.[18] La normalisation est un outil par lequel la technologie est directement réglementée. La couche logique d'Internet adopte des normes qui imposent l'interopérabilité universelle, ce qui signifie que la couche logique contourne les frontières en rendant les normes de télécommunications physiques d'un État non pertinentes. La technologie physique de la frontière est minée car le cyberespace redirige les passages frontaliers vers les couches d'applications fonctionnant sur Internet. La prolifération des points de transaction entraîne également la prolifération des intersections frontalières. Pour la frontière territoriale, « [l]a numérisation signifie dématérialisation. »[19]

Cela ne veut pas dire que les technologies de franchissement des frontières n'ont pas été un problème pour la communauté internationale auparavant. En effet, les transmissions radio[20] et la diffusion par satellite[21] ont toutes deux suscité des débats sur la scène internationale. Comme Post le note cependant, l'échelle du cyberespace est radicalement différente des technologies précédentes.[22] La capacité de communiquer instantanément avec l'ensemble de la population en ligne oblige à de nouvelles compréhensions de la juridiction, car cela signifie que les transmissions de données traversent toutes les frontières à la fois.

L'architecture du cyberespace est telle qu'elle oblige des États géographiquement éloignés à entrer en contact direct les uns avec les autres en rapprochant leurs frontières. Cela signifie souvent que "plusieurs juridictions non coordinatrices" sont rapprochées à mesure que l'Internet met en réseau ces juridictions en contact.[23] Le cyberespace crée des points de contact entre et parmi tous les espaces physiques en réseau. Ceci est problématique car les lois « concernent principalement des espaces nationaux ».[24] On peut le voir dans l'arrêt France c. Yahoo! cas.[25] Le procès a été intenté contre Yahoo! en France car Yahoo! a maintenu un site Web d'enchères qui a facilité la vente d'attirail nazi, ce qui est illégal en France.[26] Yahoo!, une société américaine, a été tenue coupable en France de la disponibilité de ce site Internet sur le territoire français.[27] Deux choses doivent être clarifiées. Premièrement, ce site Web était accessible à toute personne disposant d'une connexion Internet et d'un navigateur Web, quel que soit son emplacement. Deuxièmement, la revendication légale de la France était seulement que la disponibilité sur le territoire de la France était illégale. Si Yahoo! capitulé devant la demande française de suppression, le site Web ne serait disponible nulle part dans le monde, y compris dans les endroits où la vente de tels souvenirs est légale, ce qui entraînerait l'application de la loi et des valeurs françaises à l'échelle mondiale. Yahoo! a demandé un jugement déclaratoire devant un tribunal fédéral des États-Unis pour rendre la décision inapplicable, mais le 9e circuit a refusé d'accorder le jugement déclaratoire au motif qu'il n'avait pas compétence sur l'entité française LICRA, qui a intenté l'action initiale.[28]

Alors que le cyber-non-exceptionnaliste pourrait soutenir que cela indique que les tribunaux sont parfaitement capables d'appliquer la loi aux affaires impliquant le cyberespace, Yahoo! cas a des implications plus profondes qui rendent une telle position ténue. Si cette transaction avait eu lieu dans un environnement pré-Internet, un certain nombre de facteurs l'auraient rendue différente. Premièrement, un citoyen français devrait quitter la France pour participer à la vente aux enchères, ce qui en fait une entreprise coûteuse. Ce citoyen devra alors transporter physiquement l'objet au-delà de la frontière française et négocier les points de pression réglementaires appliqués aux passages frontaliers. Internet permet quant à lui à tous les Français de participer à des enchères qui sont « aux » États-Unis en termes de localisation de serveur. Trois choses sont importantes ici. Premièrement, le passage frontalier n'est pas physique. Cela signifie que l'État a perdu un certain contrôle sur l'endroit où sa frontière est tracée. Deuxièmement, le passage de la frontière s'effectue sur un réseau privé. L'appareil étatique de contrôle des frontières se situe physiquement aux frontières sous la forme de postes de contrôle, qui sont des lieux d'inclusion et d'exclusion. Dans ce cas, le « point de contrôle » a été détourné et l'État a été exclu de sa fonction de contrôle habituelle. Enfin, l'échelle des actions de Yahoo! est à un niveau de grandeur très différent, car les actions dans le cyberespace ont un "effet multi-sites" fragmentant l'idée de la lex loci.[29]

Le site d'enchères de Yahoo! a permis à toute personne disposant d'un accès Internet en France de participer à ces enchères en minimisant les coûts de transaction liés aux frontières. La géographie physique pré-Internet était un obstacle pour tous les collectionneurs, sauf les plus riches et les plus dévoués. Désormais, la technologie facilite l'accès de tous à ces enchères. Yahoo! agissait sous la juridiction de la France, mais la France n'avait pas la capacité juridictionnelle d'atteindre et de toucher physiquement Yahoo! ce qui signifie que la compétence diminue à mesure que le territoire français s'épuise. Avant Internet, de telles interactions étaient marginales, mais après Internet, elles sont facilitées.[30]

La juridiction en fonction du territoire exige que les transactions soient localisées « géographiquement quelque part en particulier », ce qui est « très insatisfaisant ».[31] La leçon durable de Yahoo! est que le contrôle de l'État sur les personnes et les biens diminue, car les frontières qui définissent cette juridiction ne représentent plus un obstacle aux transactions sociales.[32] L'espace de l'État s'épuise alors qu'un espace social échappant à son contrôle s'ouvre.

Étant donné que l'échelle des transactions sur Internet est de portée mondiale, de nombreux chercheurs se sont tournés vers le droit international comme moyen de réglementer le cyberespace de manière appropriée. Cette approche est apparemment naturelle, car les flux d'informations dans le cyberespace sont souvent de nature transnationale, mais cela aussi présente plusieurs problèmes, et le manque de droit international traitant du cyberespace est révélateur.

Tout d'abord, il faut noter que le national est ancré dans l'international et vice-versa. L'espace international est une extension conceptuelle de l'espace national.[33] Le système international lui-même est composé d'États qui participent sur la base des principes de non-intervention et d'égalité souveraine.[34] En conséquence, le droit international moderne est orienté vers « l'intégrité territoriale » de l'État lui-même.[35] Le droit international réifie la géographie de l'État en faisant des limites juridictionnelles des frontières d'exclusion à travers le principe de non-intervention.[36] En effet, jusqu'à très récemment, l'objectif réglementaire du droit international était la frontière de l'État-nation, et seuls les territoires les plus marginalisés n'ont pas de statut juridique en droit international.[37]

Les États débattent depuis longtemps du contrôle des flux d'informations transfrontaliers comme une question de droit international. Radio Free Europe et Voice of America sont d'excellents exemples de tentatives étatiques de pénétrer les frontières d'autres États avec la technologie des télécommunications.[38] Mais ces interventions avaient une portée limitée car la technologie et la géographie s'étaient épuisées. La technologie radio est limitée par la facilité de brouillage ainsi que par les contraintes géographiques sur la puissance d'émission de la station.[39] De même, la technologie des satellites a soulevé des problèmes qui ont donné lieu à un ensemble controversé de principes adoptés par l'Assemblée générale des Nations Unies.[40] Le cyberespace est un nouveau contexte pour ces mêmes problèmes car il offre aux utilisateurs « de nouvelles opportunités d'échanger des informations et des opinions ».[41]

Cette préoccupation pour les communications internationales se reflète dans le forum international pour traiter de telles questions, l'Union internationale des télécommunications (UIT), qui est la « plus ancienne organisation internationale au monde ».[42] L'UIT est l'organisation internationale (OI) chargée de coordonner les télécommunications internationales dans le but de "faciliter les relations pacifiques, la coopération internationale entre les peuples et le développement économique et social au moyen de services de télécommunications efficaces.[43] L'UIT a trois secteurs,[44] chacun avec son propre mandat: le Secteur des radiocommunications ". assure l'utilisation rationnelle, équitable, efficace et économique du spectre des fréquences radioélectriques"[45] le Secteur de la normalisation des télécommunications qui promeut les normes qui fonctionnent au-delà des frontières nationales[46] et le Secteur du développement des télécommunications qui promeut le développement des systèmes de télécommunications dans les pays en développement.[47] Le cyberespace, bien qu'il soit clairement une forme de télécommunications, ne s'intègre pas clairement dans ces silos bien définis de l'UIT. En conséquence, l'UIT a eu peu de pouvoir pour affirmer une sorte de gouvernance directe sur le cyberespace.[48]

Le vide que l'UIT ne peut combler a également été laissé vide par d'autres processus législatifs internationaux. Il y a une pénurie notable de droit des traités. Le seul traité multilatéral axé sur la cybercriminalité est la Convention de Budapest sur la cybercriminalité, et il est au mieux faible.[49] La Convention de Budapest tente d'établir des normes sur la prévention et la poursuite de la cybercriminalité, mais elle ne parvient pas à être un document suffisamment mordant pour contraindre l'État à agir. Au lieu d'obligations internationales fortes, le traité transfère les charges de mise en œuvre et d'application aux États et n'étend la compétence d'aucune entité internationale. En conférant des droits et des obligations au système national des États, la Convention sur la cybercriminalité réifie la position centrale de l'État et ignore la dimension de gouvernance très différente que présente le cyberespace. En fait, une grande partie de la recherche sur le droit international et le cyberespace semble impliquer qu'il s'agit d'un mécanisme inefficace.[50] Sofaer et al suggèrent que la cyberguerre, le cyber-renseignement, les restrictions de contenu, les droits de l'homme et la sécurité nationale resteront tous en dehors du champ d'application des accords internationaux.[51] Notamment, les conflits et les droits de l'homme relèvent spécifiquement du champ d'application des accords internationaux existants, ce qui indique un changement significatif de pouvoir.

C'est précisément l'orientation vers le national qui a rendu le droit international mal équipé pour faire face à la nature mondiale du cyberespace, car il utilise un paradigme réglementaire cloisonné basé sur le territoire physique. Alors que les universitaires se sont penchés à la fois sur le droit international coutumier[52] et sur les principes du droit non contraignant[53], il existe peu de consensus sur la manière dont le cyberespace devrait être traité par les États-nations. Le terrain semble gelé en termes d'élaboration du droit international.[54] Cela ne veut pas dire que les États sont incapables de négocier un traité visant à régir le cyberespace. Ils pourraient faire exactement cela. L'affirmation, au contraire, est que les États sont incapables de conclure un tel traité, car ils comprennent leurs propres limites à l'exercice d'un contrôle dans une sphère marquée par une grave incertitude juridictionnelle.[55] La non-territorialité du Cyberespace évince la notion de juridiction telle qu'elle est contenue dans le droit international.[56]

Une dernière distinction doit être faite. Le chapitre 2 postule un emplacement mondial pour le cyberespace, et il faut reconnaître qu'il existe des zones extérieures à l'État qui existent dans l'espace international et sont pleinement envisagées par le droit international. Un groupe de domaines connus sous le nom de biens communs mondiaux sont définis dans les limites du droit international, mais en dehors des limites du national.La haute mer, l'Antarctique et l'espace extra-atmosphérique sont tous des territoires délimités par le droit international comme étant de nature mondiale.[57] Le cyberespace ne rentre pas dans cette catégorie car il lui manque un élément commun clé avec les biens communs mondiaux : le cyberespace n'est pas une res communis au sens du droit international. [58] Les biens communs mondiaux partagent une interdiction légale fondamentale contre l'appropriation par un État. Cependant, le cyberespace, tout au long du modèle en couches, est marqué par une dispersion de la propriété, certains composants appartenant aux États eux-mêmes. Le cyberespace est apparu approprié et n'est donc pas un bien commun mondial au sens juridique du terme, ce qui le rend difficile à classer au sein du système international.[59]

L'incapacité de l'espace juridique national et international à contenir le cyberespace trouve son origine dans le fait que les utilisateurs sont « [s]éparés de la doctrine liée aux frontières territoriales ».[60] Afin d'articuler une géographie juridique du cyberespace, une enquête sur ce des mécanismes reprennent lorsque le territoire de l'État s'épuise doivent être mis en place. Malgré le fait que le cyberespace soit parfois comparé au Far West[61] impliquant un certain degré d'anarchie, il existe un certain nombre de sources de réglementation dans le cyberespace qui exercent un contrôle quand et où l'État ne peut pas.[62]

Comme discuté au chapitre 2, le cyberespace a une architecture technique qui définit ses limites spatiales et ses frontières et sert à contraindre les habitants de cet espace. De la même manière qu'une chaîne de montagnes peut empêcher la migration, la géographie du Cyberespace est telle que des individus peuvent être empêchés de migrer vers certains réseaux grâce à des murs virtuels. La différence majeure - à part le fait que l'un soit virtuel et l'autre existant dans "l'espace de la viande" - est que le cyberespace est une géographie architecturée.[63]

La cybergéographie - c'est-à-dire ses montagnes et ses vallées et d'autres attributs "naturels" - est une manifestation du code et du matériel déployés à travers le modèle conceptuel en couches.[64] Pour conceptualiser la façon dont le code restreint, considérons un exemple simple du premier jeu d'arcade Pong. Pong était un jeu simple qui a été publié pour le système de jeu Atari en 1972.[65] Dans Pong, deux joueurs contrôlent à l'écran des blocs qui fonctionnent comme des pagaies. Ces palettes sont utilisées pour frapper un point sur l'écran, qui représente une balle. Les palettes utilisées par les joueurs se déplacent sur un seul axe, de haut en bas, sur les extrémités latérales de l'écran, et la balle rebondit en haut et en bas de l'écran. Le jeu continue jusqu'à ce qu'un joueur manque le point lui permettant de passer la raquette et de toucher le bord gauche ou droit de l'écran.

En d'autres termes, moins alambiqués, Pong est une version électronique du ping-pong ou du tennis de table. Il y a une différence critique, pour les besoins du moment, au-delà du simple équipement nécessaire pour chaque version : au ping-pong, un joueur peut enfreindre les règles. C'est un jeu avec un ensemble de règles. Ces règles contraignent les joueurs par la menace d'une pénalité, mais il est possible que les joueurs puissent subvertir et violer ces règles.[66] A Pong, en revanche, les joueurs sont incapables de tricher. Les règles de Pong sont parfaitement appliquées dans le sens où les joueurs sont obligés de leur obéir, non par la menace de conséquences pour la violation, mais par la contrainte de l'architecture du jeu mise en œuvre par le code informatique qui impose des contraintes au joueur dans l'espace de jeu. Les règles sont parfaitement appliquées, de sorte que les joueurs n'ont pas besoin de recevoir un livre de règles ou même un avis des règles pour éviter de les enfreindre.

Cet exemple est utilisé pour illustrer le principe de Lessig « le code est la loi ».[67] Le principe de Lessig stipule que lorsqu'une technologie de quelque sorte que ce soit négocie des transactions, le code ou l'architecture de cette technologie régule également les possibilités de ces transactions.[68] La réglementation intégrée à l'architecture peut atteindre une application presque parfaite parce que les règles sont compressées dans la structure.[69] Au cœur de la théorie de Lessig se trouve le concept de régularité. Il soutient que les individus sont « régulés » par diverses forces, notamment les marchés, la loi (au sens formel), les normes et l'architecture ou le code.[70] Chacune de ces forces exerce des limitations sur les actions d'un individu. Lessig postule que dans le cyberespace « la réglementation est imposée principalement par le code »[71]

Le code régule le cyberespace parce qu'il « définit les termes selon lesquels le cyberespace est offert. »[72] Le principe du code est la loi exige que l'analyse soit renvoyée au modèle en couches dans lequel nous pouvons voir la variété des architectures à travers lesquelles le code est déployé. Le modèle en couches révèle spécifiquement qu'il existe du code s'exécutant sur les trois couches inférieures qui, combinés, influencent l'expérience utilisateur au niveau du contenu. Ces couches « sont les législateurs non reconnus du cyberespace ».[73] Un exemple bénin est Netflix, un site Web qui diffuse des films aux clients abonnés.[74] Netflix octroie des licences de droits de distribution pour la propriété intellectuelle et met cette propriété intellectuelle à la disposition de ses clients. Netflix a plusieurs préoccupations fondamentales pour que son modèle commercial fonctionne de manière efficace et rentable. Le premier est d'éviter le vol dans le sens où les non-abonnés accèdent à la collection Netflix. Netflix ne se fonde pas sur un avis interdisant aux non-abonnés d'accéder au site Web sous peine de poursuites. Ce serait évidemment futile. Au lieu de cela, Netflix utilise un code au niveau de la couche d'applications qui oblige un abonné à vérifier son identité sous la forme d'une connexion à l'aide d'un nom d'utilisateur et d'un mot de passe. Netflix décourage le partage généralisé de ces informations d'identification en déployant un code qui limite le nombre d'adresses IP (et donc d'appareils) pouvant accéder à la collection à partir d'un seul compte à un moment donné. Deuxièmement, Netflix est soucieux de respecter les termes de la licence de distribution qu'il a avec les propriétaires de la propriété intellectuelle qu'il diffuse. Netflix utilise du code au niveau de la couche d'applications pour diffuser les fichiers vidéo sur les appareils des utilisateurs au lieu de les télécharger entièrement, ce qui empêche Netflix de distribuer des copies non autorisées des fichiers.[75] Les accords de licence sont également susceptibles de contenir des restrictions géographiques sur la distribution. Netflix utilise l'adresse IP de l'utilisateur, qui fait partie du code de la couche logique, pour filtrer les appareils se connectant depuis l'extérieur du territoire sur lequel s'applique la licence de distribution. Enfin, Netflix souhaite que son service fonctionne pour ses abonnés. Pour ce faire, il analyse la bande passante de la connexion de l'abonné et ajuste la résolution de l'écran en conséquence pour assurer un streaming fluide. La bande passante dépend fortement de l'architecture de la couche physique à travers laquelle l'abonné se connecte à Netflix. L'expérience utilisateur de Netflix est façonnée par l'architecture en couches. L'utilisateur ne perçoit probablement pas le code comme une réglementation ou des règles qui commandent la conformité. Au lieu de cela, tous les mécanismes de régulation - à l'exception du filtrage IP, qui correspond aux préoccupations territoriales - sont probablement vécus comme une fonctionnalité du service.

Netflix est un exemple bénin, mais il met en évidence l'une des idées clés de Lessig. Des réglementations codées se cachent dans l'architecture de l'espace. Cela signifie que les effets réglementaires sont souvent ressentis comme une fonctionnalité plutôt que comme une limitation, ce qui signifie que des réglementations cachées peuvent être élaborées et imposées en dehors du contrôle public. Le code se cache de l'utilisateur, et il y a rarement une conversation entre l'utilisateur et le développeur sur la façon dont le code doit fonctionner. En effet, les utilisateurs peuvent ne pas avoir connaissance du tout des règles ou de la manière dont elles sont appliquées. Dans des applications telles que Pong et Netflix, cela peut avoir peu d'importance pour l'utilisateur, mais lorsqu'elles sont considérées en termes de réseau mondial qui interconnecte les individus, ces règles cachées deviennent problématiques à mesure que les interactions induites par la machine prolifèrent. Le principe du code is law explique comment l'espace réglementaire est façonné, mais ouvre les questions des sources du code et de la façon dont le code est mis en œuvre.

Code source : Logiciel et Softlaw

Le droit vient des législateurs. Dans une démocratie libérale, il est, en théorie, censé être très facile de voir d'où vient la loi.[76] La transparence de la loi et de la réglementation est une fonction du système démocratique libéral de gouvernance. Ce système met en œuvre un processus standardisé pour l'élaboration des lois, ce qui crée une ouverture dans les forums publics dans lesquels la loi est faite et jugée. La procédure standardisée permet aux particuliers d'accéder à la loi. Le couplage de la transparence et de la procédure permet aux citoyens de jeter un coup d'œil et de voir comment les lois qui les régissent sont construites et appliquées. Ce processus repose sur la confirmation de la légitimité dans le fond de la loi par l'acte légitimant de la bonne procédure. Elle ouvre également l'espace politique en fixant un cadre d'action gouvernementale.

Le code vient des codeurs, c'est-à-dire des personnes qui écrivent du code. Les codeurs sont partout. Ils peuvent être employés par un gouvernement, contractés par une entité privée, travailler en tant que collectif pour le bien public, faire partie d'un cartel criminel ou travailler seuls pour une simple satisfaction personnelle. Les motivations et les objectifs des codeurs ne sont pas uniformes. Ils peuvent écrire du code à des fins économiques ou d'intérêt public. Le code qu'ils publient peut être propriétaire et secret, ou il peut être ouvert et transparent. Le code peut être déployé sur n'importe quelle couche du modèle en couches. L'implication étant qu'il n'y a pas de procédure standardisée pour développer un code et qu'il n'y a pas de forum ouvert et transparent dans lequel le code en tant que catégorie de réglementation est débattu. En effet, dans le cyberespace, le code est omniprésent et non monolithique.

Le code, comme Internet lui-même, est de nature rhizomatique. Il se développe de manière irrégulière dans l'espace et dans le temps à partir de sources multivariées et imprévisibles, et il est déployé dynamiquement à travers les réseaux qui médient les interactions. C'est une fonction du réseau de bout en bout, dont il a déjà été démontré qu'il facilite l'innovation à la périphérie du réseau. Des codeurs travaillant au niveau de la couche applicative pour faire proliférer les points de transaction grâce au développement d'applications innovantes. L'architecture ouverte permet littéralement à un individu de changer la géographie juridique du cyberespace en écrivant du code. Par exemple, Silk Road, un marché en ligne pour les produits du marché noir a été programmé et exploité principalement par un seul individu.[77] La Route de la soie a changé l'espace du marché en ligne en facilitant les transactions anonymes pour éliminer le fardeau de la réglementation de l'État.

Le code doit être compris comme dispersé : à travers les couches, à travers les acteurs, à travers les motivations. À tout moment, un utilisateur du cyberespace est régulé par plusieurs couches de code. Opérationnalisé, le principe du « code » fait loi signifie qu'il est difficile de discerner les réglementations applicables lors de l'analyse des interactions au niveau des utilisateurs. Il y a littéralement trop de code pour que l'utilisateur puisse l'évaluer, et l'utilisateur doit trouver des moyens d'étendre la confiance dans le code sans avoir besoin de comprendre toutes les interactions de structuration du code. Les utilisateurs peuvent le faire en utilisant une variété de mécanismes tels que les accords d'utilisation, les certificats de sécurité, les sources de confiance, etc. Le résultat pratique de cette dispersion du code est que le cyberespace est intégré avec une préférence pour l'autorégulation.[78] Ce résultat découle de l'architecture non hiérarchique mise en œuvre dans la couche logique.

Les États ont un pouvoir important pour superviser des parties de cette architecture, mais pas assez pour réguler le cyberespace dans son ensemble, car la nature décentralisée du réseau donne à « tous les acteurs… une position tout aussi forte dans la définition de sa nature. »[79] Cela facilite plusieurs points d'entrée pour les co-régulateurs pour déployer le code. Alors que les États peuvent utiliser l'adresse IP d'un appareil pour révéler l'identité de l'individu utilisant cet appareil, la technologie du navigateur Tor peut être déployée au niveau des applications pour crypter et masquer l'adresse IP d'un appareil, diminuant ainsi la portée du pouvoir réglementaire de l'État et donnant à l'individu le capacité de choisir des droits incompatibles avec ceux définis dans la géographie juridique de l'État.[80] L'autorégulation permet la dispersion de la gouvernance sur un système complexe, et c'est « le laboratoire du droit et de la régulation pour Internet ».[81]

La préférence pour l'autoréglementation est importante parce que la loi a traditionnellement été un moyen inefficace de régir une technologie en développement rapide. Le droit évolue lentement par rapport à la technologie, ainsi le droit peut être lent à réagir aux développements technologiques, et les changements technologiques peuvent déformer les termes juridiques et enraciner des dispositions juridiques dépassées.[82] C'est l'une des raisons pour lesquelles, dans l'État bureaucratique moderne, les législateurs transmettent hiérarchiquement la spécificité aux régulateurs, dont les règles de procédure les rendent plus habiles dans l'élaboration des règles. Ces moyens plus adroits restent cependant grevés d'une procédure formelle. Les mécanismes d'autorégulation remplissent une fonction similaire, mais sont capables de mettre en œuvre des normes (c'est-à-dire des mécanismes de régulation) en réduisant au minimum le processus et en se concentrant sur des problèmes étroitement définis.

Le cyberespace est grand et son architecture est conçue pour gérer son échelle massive.[83] L'un des moyens d'y parvenir est de disperser la gouvernance entre les réseaux et dispositifs publics, privés et de la société civile. Comme indiqué, l'État détient un pouvoir réglementaire important sur les individus et les biens physiques, mais la gouvernance du cyberespace est un assemblage, et l'État n'est qu'une composante de cet assemblage. De même, les institutions internationales telles que l'UIT et l'ONU, malgré leurs limites, constituent une autre composante de l'assemblée en tant qu'expression du consensus, ou de l'absence de consensus, des États membres. Le reste de l'assemblage est composé d'une variété d'acteurs qui travaillent à travers les couches d'Internet et exercent différents degrés de pouvoirs d'autorégulation. Pour les besoins, ces acteurs non étatiques seront divisés en trois groupes : les acteurs commerciaux, la société civile et l'individu. Ces groupes ne sont pas discrets et sont choisis comme points représentatifs d'un éventail d'acteurs.

Les acteurs commerciaux ont longtemps été considérés comme exerçant un pouvoir réglementaire, principalement par le biais des forces du marché. En effet, les empires d'Europe occidentale ont été construits autour d'entreprises privées ayant la capacité d'étendre l'autorité réglementaire par le biais d'une lex mercatoria.[84] Le pouvoir commercial est au cœur des critiques du néolibéralisme et de la montée des multinationales (MNC). L'une des principales leçons tirées de la littérature sur la mondialisation est l'enracinement de la multinationale dans le monde entier, et sa capacité à fausser la loi et la politique par l'extension du pouvoir économique a été confirmée.[85]

Le cyberespace n'est bien sûr pas différent. Les intérêts commerciaux envahissent les trois couches d'Internet. Les entreprises possèdent l'infrastructure physique, les entreprises développent des logiciels au niveau des applications et les entreprises possèdent le contenu au niveau du contenu. Seule la couche logique est relativement exempte de propriété directe de l'entreprise et c'est parce que le principe d'interopérabilité exige que la couche logique soit ouverte, transparente et le code exempt de revendications de propriété. Les entreprises sont cependant investies dans la couche logique et sont actives dans les communautés de gouvernance de l'Internet (IGC).

Tambini et al montrent que l'autoréglementation des entreprises se déroule le long des divisions de l'industrie et est enracinée dans la notion « qu'une réglementation conventionnelle impliquant un décalage législatif et des tribunaux incompétents serait inappropriée et risquerait de briser les principes architecturaux de cette nouvelle technologie. » [86] Différent les divisions de l'industrie déploient des mécanismes d'autorégulation pour assurer la compatibilité, la confiance des utilisateurs et la responsabilité. Ces groupes utilisent des mécanismes tels que des codes de conduite, des organismes de normalisation de l'industrie et des interfaces qui permettent aux utilisateurs de signaler les violations des normes afin d'assurer le respect de la loi ainsi que la satisfaction des utilisateurs.[87] Les activités d'autoréglementation des entreprises sont soumises aux mêmes critiques que les organismes d'autoréglementation dans d'autres domaines commerciaux. Les questions de déficits démocratiques, de réification des structures de pouvoir fondées sur la concentration du capital et de légitimité sont toutes soulevées pour des raisons évidentes.[88] Dans le cyberespace, comme l'observent Tambini et al, l'un des problèmes centraux est que les organismes commerciaux maintiennent le contrôle sur l'information et la façon dont elle circule, ce qui signifie que les intérêts privés deviennent les arbitres de la « liberté d'expression ». dans l'espace global du Cyberespace à une échelle suffisante devenir l'arbitre de ce droit à travers des espaces globaux non liés à des limitations juridictionnelles territoriales.

Un deuxième problème analytique causé par l'autorégulation des entreprises est qu'il existe de nombreux types différents d'acteurs des entreprises. Des expressions comme « intérêts d'entreprise » et « intérêts commerciaux » indiquent souvent un ensemble unitaire d'intérêts, mais aucun intérêt unitaire de ce type ne peut être identifié pour « l'industrie Internet ». L'autorégulation par les acteurs commerciaux est dispersée sur le plan architectural et dépend de l'endroit où une entreprise fonctionne dans le modèle en couches. Les acteurs commerciaux innovants au niveau de la couche applicative ont intérêt à maintenir des transferts de données ouverts et de bout en bout dans la couche logique. Cela signifie que les intérêts commerciaux propriétaires d'infrastructures physiques, comme les dorsales et les réseaux TIC, sont tenus, en raison des forces du marché, de maintenir une bande passante suffisante pour transmettre les données requises par la couche d'applications. L'inadéquation des intérêts, entre le contenu et la bande passante, est visible dans le débat sur la neutralité du net qui se déroule aux États-Unis et en Europe. L'essor des applications de streaming, telles que Netflix, a entraîné une forte augmentation des besoins en bande passante au niveau de la dorsale.[90] En raison de la nature des accords qui organisent le peering entre les dorsales, les propriétaires commerciaux subissaient des coûts associés à l'augmentation de la bande passante. La solution commerciale naturelle à ce problème consiste à répercuter ces coûts sur les entités utilisant la bande passante, et les FAI souhaitent à leur tour répercuter ces coûts sur les utilisateurs. D'un point de vue commercial, c'est exactement ainsi que fonctionne une économie de marché, mais cela signifie que le FAI est également incité à privilégier certains types d'utilisation de la bande passante.[91] En conséquence, un FAI et un fournisseur de contenu Internet (ICP) peuvent conclure un contrat qui donne au contenu de ce ICP une priorité sur la bande passante ou même exclut le trafic de bande passante d'un concurrent. Cela pourrait s'avérer être un flux de profit viable pour un FAI ainsi que potentiellement fatal pour un ICP qui n'a pas un pouvoir de marché suffisant. L'intérêt de l'ICP pour la fourniture de contenu implique des problèmes de liberté d'expression ainsi que l'architecture innovante d'Internet lui-même. Si l'architecture de bout en bout ne parvient pas à connecter les extrémités, l'espace créé par le paysage technologique est radicalement modifié. Le but ici n'est pas nécessairement de discuter des mérites de la neutralité du net, mais de montrer comment les intérêts des entreprises à différents points de la pile de couches divergent.La neutralité du Net montre comment un simple problème d'offre et de demande au niveau de la couche physique permute à travers les autres couches Internet et révèle des problèmes de gouvernance profonds concernant la nature du réseau et les droits humains fondamentaux.

L'exemple de la neutralité du net révèle une divergence des intérêts des entreprises, mais il révèle également une convergence, à savoir que lorsque les technologies convergent, les entreprises fusionnent souvent. De nombreux PCI ne sont pas titulaires des droits de propriété intellectuelle sur le contenu qu'ils fournissent.[92] Le contrôle de la propriété intellectuelle a été une contestation clé dans le cyberespace et a un pedigree qui comprend des ICP tels que Napster et Pirate Bay. Les ICP réussis tels que YouTube, poussent les contrôles de contenu vers les utilisateurs, ce qui a été une épine dans le pied des propriétaires de contenu qui veulent être les seuls arbitres de cette propriété. La neutralité du Net rappelle que les entreprises, telles que Time Warner, sont à la fois propriétaires de contenu et FAI.[93] Une telle convergence d'entreprise sans neutralité du net permettrait à ces entreprises de contraindre les ICP dans les deux sens dans la pile de couches. Une telle convergence des entreprises peut créer de nouvelles sources de pouvoir réglementaire, car les entreprises diversifiées cherchent à tirer parti de différents mécanismes pour maximiser la rentabilité et filtrer la concurrence.

Les espaces publics sont codés. À titre d'exemple, Lessig cite l'Americans with Disabilities Act, une loi qui recodait l'espace public afin d'en augmenter l'accès.[94] De même, les lieux publics et privés nouvellement construits doivent être construits « au code ». Les codes du bâtiment assurent un certain nombre de choses différentes : ils assurent la compatibilité entre les structures et les services publics tels que le réseau électrique, ils assurent la sécurité en décrivant des techniques de construction qui donneront au bâtiment l'intégrité structurelle requise, et ces codes imposent également certains types d'espaces. Helen, GA est un exemple. Helen, GA est une petite ville touristique dans les Appalaches du nord-est de la Géorgie. Il possède toutes les commodités d'une ville touristique d'époque à une époque où les voyages en voiture étaient forcés sur des autoroutes sinueuses : restaurants, y compris des chaînes de restauration rapide, un mini-golf, des cavistes servant du rotgut local et des motels pour les voyageurs fatigués. Populaire auprès des cyclistes sur de longues promenades en montagne et des excursions sur le terrain en camp d'été pour "tube the Hooch", Helen ressemble à de nombreux autres avant-postes à travers les Appalaches, mais Helen est différente. Plus précisément, Helen ressemble à un village bavarois sorti d'Allemagne - même le McDonald's est conforme à l'esthétique. Helen utilise son code du bâtiment pour se transformer en un type particulier d'espace public, conçu pour structurer un espace économique construit autour du tourisme. Le code du bâtiment applique la prévisibilité architecturale à la fois dans l'espace public et dans l'espace commercial privé.

Les FAI et les ICP possèdent et exploitent des réseaux sur le réseau de réseaux. Pour prolonger la métaphore de l'« autoroute de l'information », ce sont les espaces privés que vous voyez lorsque vous conduisez le long de l'autoroute. Il s'agit de commerces dont les portes sont ouvertes au public et de commerces fermés à tous sauf aux personnes autorisées à entrer. De plus, il y a des stands maman et pop, des vide-greniers et d'autres attractions en bordure de route. Il y a aussi des résidences privées qui restent fermées au public, et des églises qui sont ouvertes à tous. Pendant que vous conduisez, cependant, vous êtes dans l'espace public. Vous êtes sur une route, qui est entretenue par une autorité publique pour le bien public, mais cette autorité n'est pas une autorité gouvernementale appliquant les normes de zonage locales.

L'espace public sur Internet est le plus visible à la fois au niveau de la couche logique et de la couche des applications. Ces couches sont là où les points d'interaction prolifèrent, mais ces points d'interaction doivent être architecturés. Cela a conduit à un assortiment intéressant d'entités qui entretiennent cet espace public grâce à des procédures de normalisation destinées à garantir bon nombre des mêmes choses que les codes du bâtiment accomplissent, à savoir l'interopérabilité, la stabilité et l'entretien de l'espace public. La normalisation est le moyen par lequel ces entités travaillent pour structurer les paramètres des interactions en ligne, car la normalisation rend l'architecture prévisible.

Les organismes de normalisation ne sont en aucun cas une innovation. Les organismes de normalisation gouvernementaux et commerciaux ont toujours été une caractéristique des économies de marché. L'intérêt du gouvernement à établir de telles normes est dans l'entretien de l'espace public. Alors que les intérêts commerciaux sont souvent vocaux dans le processus d'adoption des normes, ils peuvent être accueillis avec scepticisme lorsqu'ils deviennent les arbitres des droits dans l'espace public. Comme cela a déjà été établi, les États n'ont qu'un contrôle partiel de l'espace public d'Internet, de sorte que, à mesure que le territoire de l'État s'épuise, un autre type d'organe d'autorégulation est intervenu : les communautés de gouvernance de l'Internet (IGC).[95] Ces organes de gouvernance sont de nature autoréglementée et se caractérisent par divers niveaux d'adhésion ouverte qui permettent à toute personne ayant un intérêt et des compétences techniques suffisantes de participer à leurs délibérations. Les CIG se sont développées de manière organique avec le développement de la technologie Internet et elles constituent une communauté au sein de laquelle des structures techniques standard sont négociées.[96] Contrairement à l'UIT, qui n'a pas été en mesure d'étendre son pouvoir de réglementation sur les protocoles Internet, les IGC adoptent régulièrement des normes qui affectent les fonctionnalités de toutes les couches d'Internet. Les CIG seront au cœur de l'analyse présentée au chapitre 7, mais deux brefs exemples sont proposés ici à titre d'illustrations.

Cœur de la pile protocolaire, la couche logique crée un espace public grâce à son code ouvert. Il facilite la poignée de main numérique entre les appareils sur Internet, et les normes ouvertes qui créent la couche logique permettent aux entités de s'installer sur l'autoroute de l'information. Les normes qui facilitent une telle interopérabilité doivent être ouvertes, non exclusives et accessibles, et elles doivent fonctionner suffisamment bien pour assurer une large adoption, ce qui facilite la prévisibilité architecturale. Ces normes sont développées par l'Internet Engineering Task Force (IETF). L'IETF a été créé par les chercheurs qui ont initialement développé Internet, et « a probablement la plus grande influence sur les technologies utilisées pour construire Internet » malgré son manque « d'autorité formelle ».[97] À l'origine, un groupe d'informaticiens originaires d'universités et de contribuant à la première architecture de réseau, l'IETF permet désormais à quiconque de se joindre et de prendre part aux délibérations sur ses normes non contraignantes.[98] Bien que non contraignantes, ces normes sont adoptées dans le cadre d'une procédure de décision qui met l'accent sur « un consensus approximatif et un code en cours d'exécution », une position délibérative qui valorise l'accord et la fonctionnalité de manière égale.[99] L'IETF accorde une grande importance à la transparence dans la prise de décision, et il est essentiel que le document « lisez-moi » déclare explicitement un rejet des « rois et tyrans ».[100]

Un deuxième exemple est le World Wide Web Consortium (W3C). L'innovation permise au niveau de la couche logique signifie que d'autres espaces publics peuvent être ouverts dans le cyberespace grâce à l'utilisation de la couche des applications. Comme examiné précédemment, WWW est un code de couche d'applications et son langage de base est HTML. Plus précisément, HTML permet le concept d'hypertexte, qui permet d'établir des connexions entre des documents numériques, une fonction communément appelée liaison.[101] Afin de faciliter ces liens hypertextes, le HTML doit être standardisé et ouvert. Le W3C est l'organisme de normalisation qui garantit la publicité du WWW.[102] Le W3C se décrit non pas comme une organisation mais comme une « communauté internationale qui développe des normes ouvertes pour assurer la croissance à long terme du Web. »[103] Il a également des membres ouverts permettant à la fois aux organisations et aux individus d'adhérer, et ses décisions sont prises. par « consensus communautaire ».[104]

Ces deux exemples présentent des caractéristiques clés qui rendent les CIG difficiles à caractériser en termes organisationnels, ce qui rend leur évolution en tant que mécanisme de gouvernance importante pour comprendre la géographie juridique du cyberespace. Premièrement, les IGC sont le reflet de la nature distribuée et ouverte de l'architecture Internet. Leurs programmes d'adhésion ouverts répartissent potentiellement la prise de décision à l'échelle mondiale et leur processus est ouvert afin d'assurer des objectifs d'interopérabilité.[105] Deuxièmement, en tant que communautés - plutôt que d'organisations - leurs décisions imposent des valeurs communautaires dans la conception architecturale. Dans les CIG, le public, en tant que collectif, crée et entretient le code de l'espace public.

Le réseau de bout en bout réduit les obstacles à l'innovation, tout comme le code ouvert au niveau logique. Ces arêtes innovantes ouvrent des espaces dans lesquels les individus peuvent agir à un niveau global et changer la nature des interactions dans le cyberespace au niveau des applications. PGP et Silk Road, évoqués ci-dessus, sont des exemples de codeurs réécrivant le pouvoir réglementaire de l'État. Ces codes de couche d'application inscrivent de nouvelles règles sur la capacité de l'État à contrôler l'information à l'aide de technologies cryptographiques, ou comme l'affirme un commentateur, l'utilisateur est habilité à « [c]réer le monde numérique, et avec lui, [ses] propres règles ».[ 106] L'individu a un accès direct à la mise en œuvre d'innovations qui peuvent reconstituer la géographie juridique dans laquelle l'utilisateur habite. L'implication que l'individu peut directement réguler dans le cyberespace est au mieux controversée, et beaucoup rejetteraient catégoriquement une telle notion. Des lectures alternatives suggéreraient probablement que le code déployé par ces personnes fera l'objet de droit pénal ou commercial. De telles lectures inscrivent la juridiction nationale autour de l'individu comme sujet de droit.

Ces lectures sont ancrées dans le territoire et ignorent les manières dont ces technologies ré-architecturent la géographie juridique. Les applications étendent aux individus la capacité d'être l'arbitre de leurs propres droits en termes de libertés d'information. Ils sont un « arbitre » dans le sens où ils peuvent efficacement masquer les interactions personnelles et les soustraire à la géographie juridique du territoire. La couche logique permet au code de la couche d'applications de contourner la juridiction de l'État. L'utilisateur respatialise à une géographie juridique qui existe en dehors du regard territorial de l'État. L'utilisateur en tant que codeur choisit les valeurs contenues dans le code qu'il écrit. Cela signifie que certains peuvent utiliser ces technologies pour affirmer une liberté d'expression politique, mais d'autres peuvent imprégner le droit de contenus plus néfastes tels que la pédopornographie ou le terrorisme. Ces utilisations feront l'objet du chapitre 8.

WikiLeaks est un bon exemple. WikiLeaks est plus qu'une simple page Web. C'est un code au niveau des applications qui permet aux individus d'envoyer des informations à WikiLeaks tout en préservant l'anonymat.[107] Développé et déployé par Julian Assange avec l'aide d'une poignée d'autres programmeurs, WikiLeaks est devenu un acteur mondial après avoir publié un certain nombre de fuites importantes. Cette attention médiatique a culminé avec la publication de milliers de câbles du Département d'État divulgués par Chelsea (anciennement Bradley) Manning.[108] Deux choses sont importantes ici, d'abord les objectifs de Julian Assange pour développer WikiLeaks spécifiquement pour invoquer des changements dans l'ordre mondial et, deuxièmement, le re-autonomisation de l'individu.[109] WikiLeaks est « une plate-forme, un outil, une instance de technologie », mais il a un objectif juridique explicite de diminuer la compétence d'exécution de l'État en réduisant « les coûts juridiques incalculables » en transportant les fuites vers une nouvelle géographie juridique.[110]

La deuxième chose à noter est la puissance du code. La fuite de Cablegate, Manning, n'a pas été arrêtée parce que l'État a suivi sa piste numérique. Au lieu de cela, Manning s'est révélée à un collègue codeur, Adrian Lamo, qui l'a dénoncé. Jusqu'à ce point, les États-Unis n'avaient aucune preuve contre Manning. Les propres révélations de Manning ont ramené son acte à l'intérieur de la géographie juridique de l'État. Ce n'est que lorsque Manning a parlé que le crime s'est matérialisé dans un sens territorial.

Le paysage juridique du cyberespace, tel que décrit ci-dessus, est une géographie multidimensionnelle qui peut réécrire les modèles juridictionnels établis comme acceptés dans la gouvernance internationale. La multidimensionnalité est le résultat de la double géographie implicite dans l'architecture en couches d'Internet. Cela révèle pourquoi le modèle en couches porte la force en tant qu'outil explicatif : à travers la dissection de l'architecture du réseau, des points de contrôle interconnectés peuvent être identifiés et observés. Le modèle en couches facilite la « pensée en couches », qui peut révéler comment les caractéristiques spatiales du cyberespace peuvent se répercuter sur la pile conceptuelle et changer d'autres zones géographiques, comme cela a été montré en relation avec la géographie juridique abordée ci-dessus.[111]

L'analogie avec l'aéroport qui a ouvert ce chapitre nous a amenés à une frontière internationale trouvée dans le hall des arrivées internationales d'un aéroport. Il y a un autre aspect de cette pièce qui doit être noté avant de passer au dernier chapitre de la partie I. Si vous écoutez dans le hall des arrivées, vous pouvez entendre le battement étouffé et arythmique des timbres frappant les passeports. Comme observé ci-dessus, la juridiction, ou la géographie juridique, est généralement cartographiée à travers l'espace en utilisant les frontières territoriales d'un État comme indicateurs de ses limites. Ces frontières représentent également une autre notion. Dans le hall des arrivées de l'aéroport, la frontière est autant une question de territoire et de droit que d'identité individuelle. La frontière est une expression de l'identité politique, et les passeports sont ouverts afin de vérifier l'identité politique. Le chapitre suivant reprendra cette notion à travers l'examen de la géographie politique.

[2] Cohen, "Confidentialité, visibilité, transparence et exposition" (2008) 184.

[3] Voir Bowman, "Thinking Outside the Border" (2007) 1192-95.

[4] Kulesza, International Internet Law (2013) 2-3.

[5] Johnson & Post, "Droit et frontières" (1996) 1368.

[6] Akehurst, « Juridiction in International Law » (1972) 145 Schabas, Genocide in International Law (2009) 409 et Blount, « Juridiction in Outer Space » (2007) 299.

[7] Kulesza, International Internet Law (2013) 4.

[8] Voir Schmitt, Nomos de la Terre (2003) 42-44.

[9] Voir par exemple les affaires Adolf Eichmann : Arendt, Eichmann in Jerusalem (1963) 262-263 Augustus Pinochet, Roht-Arriaza, « The Pinochet Precedent and Universal Jurisdiction » (2001) 311-19 et Humberto Alvarez Machain, Zaid , "La puissance militaire contre le droit souverain" (1996) 829.

[10] Kulesza, International Internet Law (2013) 6.

[11] Johnson & Post, "Droit et frontières" (1996) 1368.

[12] Post, "Contre 'Contre la Cyberanarchie'" (2002) 1373.

[14] Post, "Contre 'Contre la cyberanarchie'" (2002) 1368.

[18] Mattelart, Networking the World (2000) 1-13 et Werbach, "Breaking the Ice" (2005) 60.

[19] Luke, "La politique de l'inégalité numérique" (1998) 125.

[20] Robertson, "La suppression de la radiodiffusion pirate" (1982) 71-101 et Eppenstein & Aisenberg, "Radio Propaganda" (1979).

[21] Voir Lyall & Larsen, Space Law (2009) 256-269 et UNGA, Res.3 7/92 (1982).

[22] Post, Jefferson's Moose (2012) 60-89.

[24] Kulesza, International Internet Law (2013) 86.

[25] Post, Jefferson's Moose (2012) 164-71 Lessig, Code 2.0 (2006) 294-97 et Kulesza, International Internet Law (2013) 107-08. Un cas similaire est l'affaire allemande CompuServ qui concernait la disponibilité de la pornographie via les services CompuServ. Voir Kulesza, International Internet Law (2013) 106-107 et Lessig, Code 2.0 (2006) 39.

[26] Kulesza, International Internet Law (2013) 107.

[27] La ​​technologie qui a conduit à Yahoo! cas une technologie antidatée qui permettait la géolocalisation des utilisateurs via leurs adresses IP. Kulesza, Droit international de l'Internet (2013) xiii. Les débats sur le contrôle géographique des adresses IP persistent Leiner et al., "A Brief History of the Internet" (2012) ITU, "Resolution 102 (Rev. Busan, 2014) ITU's Role with Regard to International Public Policy Issues Pertaining to the Internet et la gestion des ressources Internet, y compris les noms de domaine et les adresses" (2014) 148 et UIT, "Résolution 133 (Rév. Busan, 2014) Rôle des administrations des États membres dans la gestion des noms de domaine internationalisés (multilingues)" (2014) 183 .

[28] Yahoo! Inc. c. La Ligue Contre Le Racisme, 433 F. 3d 1199 (9th Cir. 2006).

[29] Kulesza, International Internet Law (2013) 103. Voir aussi Spar, « The Public Face of Cyberspace » (1999) 345.

[30] Post, "Contre 'Contre la Cyberanarchie'" (2002) 1383.

[31] Johnson & Post, "Droit et frontières" (1996) 1378.

[32] Voir Kulesza, International Internet Law (2013) 14 et McIntosh & Cates, « Hard Travelin' » (1998) 85.

[33] Habermas, La Constellation Postnationale (2001) 63.

[34] Clapham, "Degrees of Statehood" (1998) 145 et Walzer, "The Moral Standing of States" (1980) 212.

[36] Habermas, La Constellation Postnationale (2001) 64.

[37] Sassen, Territoire, Autorité, Droits (2006) 54.

[38] Eppenstein & Aisenberg, "Radio Propagande" (1979).

[41] Conseil de l'Union européenne, "EU Human Rights Guidelines on Freedom of Expression Online and Offline" (2014) I.D.35.

[42] Voir Codding, "International Telecommunications Union" (1994) 501. Pour d'autres OI historiques, voir Mattelart, Networking the World (2000) 6-8.

[43] Constitution de l'Union internationale des télécommunications (2010), préambule.

[44] Voir Codding, "International Telecommunications Union" (1994) 508.

[45] Constitution de l'UIT (2010) Art. 12.

[48] ​​Kulesza, International Internet Law (2013) xiii-xiv.

[49] Convention sur la cybercriminalité (2004).

[50] Kulesza, International Internet Law (2013) 29, 60.

[51] Sofaer, Clark et Diffie, « Cybersécurité et accords internationaux » (2010).

[52] Zalnieriute, « Un moment constitutionnel international » (2015) 99-133.

[53] Voir de manière générale, Power & Tobin, « Soft Law for the Internet » (2011) 31-45 Yannakogeorgos & Lowther, « The Prospects for Cyber ​​Deterrence » (2013) 49-77 et Hurwitz, « A New Normal ? (2013) 233-64. Voir généralement Finnemore & Sikkink, "International Norm Dynamics and Political Change" (1998) 887-917.

[54] Voir Kulesza, International Internet Law (2013) xiii-xiv et Hurwitz, « A New Normal ? (2013) 243.

[55] Voir Power & Oisin Tobin, « Soft Law for the Internet » (2011) 35. Sur l'incertitude, voir en général, Clark & ​​Landau, « Untangling Attribution » (2010) 25 Libicki, « Two Maybe Three Cheers for Ambiguity » ( 2013) 27-34 Lessig, Code 2.0 (2006) 25 McDermott, « Prise de décision en situation d'incertitude » (2010) 227-41


Abstrait

L'extraction d'énergie géothermique peu profonde à l'aide d'échangeurs de chaleur de forage (BHE) est une approche prometteuse pour la décarbonisation du secteur du chauffage. Cependant, un déploiement dense de BHE peut conduire à des interférences thermiques entre forages voisins et ainsi à une surexploitation de la capacité calorifique du sol.Nous proposons ici une nouvelle méthode pour estimer le potentiel technique des BHE qui prend en compte les interférences thermiques potentielles ainsi que la surface disponible pour les installations BHE. La méthode combine la simulation de l'extraction de chaleur à long terme à travers les BHE pour une gamme d'espacements et de profondeurs de forage et comprend une étape d'optimisation pour maximiser l'extraction de chaleur. L'application de la méthode à un cas d'étude en Suisse romande, à partir d'une surface disponible de 284 km 2 , donne un potentiel technique annuel de 4,65 TWh et une densité énergétique maximale de 15,5 kWh/m 2 . Les résultats suggèrent également que, pour un espacement minimal des forages de 5 m et une profondeur maximale des forages de 200 m , la profondeur cumulée des forages installés ne devrait pas dépasser 2 km / ha . Le potentiel technique estimé peut être utilisé par les urbanistes pour l'analyse technico-économique des systèmes BHE et par les décideurs politiques pour développer des stratégies qui encouragent l'utilisation de l'énergie géothermique peu profonde.


Matériels et méthodes

Cultures d'embryons d'oursins et extraction d'ARN

Des oursins adultes ont été fournis par une installation de mariculture de la recherche océanographique et limnologique israélienne à Eilat. Les œufs et le sperme d'oursins ont été obtenus en injectant à des oursins adultes 0,5 M de KCl. Les embryons ont été cultivés à 18°C ​​dans de l'eau de mer artificielle. L'ARN total a été extrait à l'aide du kit Qiagen mini RNeasy à partir d'embryons à des moments indiqués. 1 μg d'ARN total de chaque point dans le temps de chacun des trois réplicats biologiques indépendants a été utilisé pour générer de l'ADNc à l'aide du kit BioRad i-script et ensuite utilisé pour la QPCR.

Protocoles

Les réactions QPCR ont été exécutées dans des plaques à 384 puits en utilisant une machine en temps réel 384CFX (BioRad). Chaque réaction a été réalisée en triple expérimental et en triple biologique, conduisant ainsi à au moins neuf mesures par gène pour chaque point dans le temps. Chaque réaction contenait 10 μl de mélange SYBR Green de BioRad, dont 3 μM d'amorces spécifiques aux gènes directs et inverses et 2,5 μl d'ADNc (dilué à 1:100 pour chaque test). Les paramètres du cycle thermique étaient 95ଌ pendant 3 min (un cycle) puis 95ଌ pendant 10 s, 55ଌ pendant 10 s et 72ଌ pendant 30 s (40 cycles), suivis d'une étape de dénaturation pour vérifier la amplification d'un seul produit.

Conception et efficacité des amorces

Séquences de PL les gènes ont été récupérés par blastn recherches dans les bases de données de transcriptome disponibles avec autorisation sur le portail web Octupus (http://octopus.obs-vlfr.fr/) en utilisant comme modèle l'oursin annoté Sp Séquences d'ARNm extraites de la page Web du transcriptome de l'oursin (http://www.spbase.org:3838/quantdev/). Sur la base de ces séquences, nous avons conçu des amorces QPCR pour chaque gène en utilisant le site Web Primer3 (http://primer3.ut.ee/). Nous voulions capturer le temps d'initiation de la transcription et, par conséquent, les amorces ont été conçues pour les 500 pb les plus 5' de chaque gène, au sein de l'ORF. La taille des amplicons était longue de 120 pb. Les séquences d'amorces sont disponibles dans le tableau S2 prenant en charge. Toutes les paires d'amorces ont été initialement validées par une amplification PCR régulière et leurs efficacités d'amplification ont ensuite été déterminées par des analyses de courbe standard effectuées en utilisant des dilutions en série de 4 d'échantillons d'ADNc appropriés. Seules des amorces avec une efficacité d'amplification allant de 1,85 à 2,03 (donc 89�%) ont été utilisées pour des analyses ultérieures.

Quantification de l'expression des gènes

Pour quantifier les niveaux relatifs d'ARNm par échantillon dans PL nous avons inséré un nombre connu de molécules d'ADNc de GFP dans chaque échantillon qui comprend l'ADNc transcrit à partir de 1,25 ng d'ARN total extrait de PL à différents moments. Le calcul de la prévalence des gènes par rapport à la GFP a été effectué à l'aide de la formule GFP × 1,9 (CtGFPCtgene) , avec un coefficient d'efficacité constant, 1,9, correspondant à la valeur moyenne de toutes les amorces définies. Dans nos expériences, nous avons utilisé des molécules GFP 2.6휐 8 ou 1.1휐 7 et obtenu des résultats similaires. La valeur mesurée de l'ARN total de Sp l'embryon est d'environ 2,8 ng. Compte tenu de l'efficacité de la procédure d'extraction et de l'instabilité de l'ARN, nous avons estimé qu'environ 1,25 ng d'ARN total extrait par le kit RNeasy équivaut à l'ARN d'environ un embryon. Les niveaux d'ARNm que nous présentons sont donc une bonne estimation du nombre de copies d'ARNm par embryon. L'erreur technique a été mesurée par S E M G F P 2 + S E M G e n e 2 , où SEM est l'erreur standard de la mesure QPCR. Le pourcentage de l'écart type est calculé comme l'écart type d'une quantité (soit le niveau d'ARNm maximal soit le temps d'initiation) mesuré aux trois répétitions biologiques divisé par la quantité moyenne mesurée. Pour générer la figure 5, nous avons normalisé chaque évolution dans le temps en divisant le niveau mesuré à chaque instant par le niveau maximal de ce gène pendant la fenêtre temporelle de l'expérience.

L'analyse des données

Les temps d'initiation, t0, pour les figures 2D et 4 ont été estimés à l'aide de la fonction sigmoïde : Log(ARNm(t)) = uneb/(1 + exp(c(tt0)) comme à Yanai et el, 2011 [35]. Le sigmoïde a été ajusté à l'aide de la boîte à outils d'ajustement de courbe de Matlab, en utilisant la méthode des moindres carrés non linéaires. Pour tous les gènes R 2 Ϡ.94, à l'exception de la répétition PlDlx #3 qui avait R 2 = 0,88. Pour calculer la corrélation de Pearson entre Sp et PL cours du temps, nous avons d'abord mis à l'échelle les taux de développement chez les deux espèces en utilisant un facteur de ൱,3 entre PL et Sp. Les points de temps exacts que nous avons comparés sont indiqués dans le tableau S1. Ensuite, nous avons calculé la corrélation de Pearson entre les niveaux d'expression moyens dans Sp et PL en utilisant la fonction CORREL dans Excel.


Application du modèle cloud et du réseau bayésien à l'évaluation des risques de piratage

La piraterie est une menace majeure pour la sécurité maritime. L'évaluation du risque de piraterie est cruciale pour la sécurité des navires, la sécurité des voyages et la préparation des plans d'urgence. En l'absence d'une compréhension approfondie des facteurs et mécanismes qui influencent le piratage, aucune équation mathématique parfaite ne peut être établie pour une telle évaluation des risques. Par conséquent, les principaux facteurs qui influencent le piratage ont été identifiés pour construire un système d'indicateurs d'évaluation. Ces facteurs ont été analysés en tenant compte des propriétés globales d'aléa, de vulnérabilité et d'anti-risque, puis le réseau bayésien a été introduit dans le modèle d'évaluation des risques pour fusionner les informations multi-ressources. Pour certains indicateurs, qui ne disposent que d'informations qualitatives ou de données statistiques fragmentaires, la théorie du modèle de nuage a été adoptée pour réaliser les réglages de probabilité préalables du réseau bayésien et ainsi pallier la déficience dans les réglages des paramètres. Enfin, le risque inhérent à la mer de Chine méridionale a été évalué, à titre d'exemple pour le modèle, et deux cas réels de piraterie ont été étudiés pour valider le modèle proposé. Le modèle d'évaluation construit ici peut être appliqué à tous les cas, similaires à ceux étudiés ici.

1. Introduction

La piraterie maritime est un problème de portée internationale, qui pose des menaces humaines, économiques et environnementales. Le circuit international de base reste longtemps la région à haut risque la plus vulnérable. Selon les statistiques de l'Organisation maritime internationale (OMI), de nombreuses missions de lutte contre la piraterie ont été lancées depuis 2008, mais la piraterie se poursuit sans relâche. De plus, avec les frappes internationales continuelles contre la Somalie, les activités de piraterie ont eu tendance à se déplacer vers la mer d'Arabie et la mer de Guinée.

La piraterie, une menace majeure pour la sécurité maritime, est devenue un point chaud dans les universités internationales. De nombreuses recherches qualitatives ont été menées depuis les premiers jours pour étudier le piratage, telles que l'exploration des moyens de lutte contre le piratage en mettant l'accent sur les lois et les politiques [1–4]. Plus tard, le concept de modélisation mathématique a également été introduit pour étudier le piratage. Par exemple, la théorie des jeux [5, 6] et l'ensemble flou intuitionniste [7] ont été utilisés pour suggérer des itinéraires de transport qui peuvent éviter les pirates maritimes ou pour optimiser les stratégies de patrouille de lutte contre la piraterie. Par ailleurs, la situation de la piraterie maritime a été modélisée par plusieurs méthodes, comme le réseau bayésien dynamique [8]. Bouejla et al [9, 10] et Chaze [11] ont appliqué le réseau bayésien et le système SARGOS pour modéliser les systèmes de décision de réponse et de gestion des risques pour contrer les attaques de piratage. En outre, des évaluations des risques de piraterie maritime ont été réalisées pour aider les armateurs et les capitaines à gérer les risques lors d'attaques de pirates [12, 13].

Pour résumer, le réseau bayésien, de par l'avantage qu'il offre d'extraire directement des informations à partir de réseaux compliqués, a été largement utilisé dans la recherche du piratage. Cependant, il n'a pas été appliqué jusqu'à présent à l'évaluation des risques de piraterie. Qui plus est, la recherche actuelle sur l'évaluation des risques de piraterie s'est jusqu'à présent concentrée uniquement sur les dangers de la piraterie, sans prêter l'attention voulue à la vulnérabilité et aux propriétés anti-risque. De plus, la plupart des recherches existantes se basent uniquement sur l'analyse qualitative ou de simples statistiques probabilistes.

La sécurité des voyages et le plan d'urgence étant des exigences fondamentales pour la sécurité maritime, les études antipiraterie devront se concentrer sur l'évaluation quantitative des risques [14, 15]. Ainsi, l'objectif de cette étude a été de construire un cadre d'évaluation quantitative des risques de piratage, en utilisant le réseau bayésien et en tenant compte du danger global, de la vulnérabilité et de la propriété anti-risque. En fait, l'évaluation des risques de piratage nécessite nécessairement la fusion d'informations provenant de sources multiples, telles que des statistiques de données, des connaissances d'experts et des messages textuels qualitatifs. Le réseau bayésien est considéré comme le meilleur outil mathématique pour une telle fusion [16–18]. Mais, lors de la définition de la probabilité a priori de certains nœuds à l'aide de messages textuels, de connaissances d'experts et de données statistiques fragmentaires, aucun moyen approprié n'est disponible pour surmonter l'aporie. Les méthodes existantes, telles que l'algorithme de maximisation des attentes et l'algorithme de Gibbs, se concentrent sur le réglage de probabilité conditionnelle, ignorant l'amélioration de la précision du réglage de probabilité antérieur. Le modèle bayésien élargi (Qualitative Bayesian Network) peut très bien être appliqué aux problèmes d'expression de connaissances et d'exploration de données, mais il ne donne qu'un résultat quantitatif.

Ainsi, pour les nœuds feuilles avec des connaissances expertes, un message qualitatif et des données statistiques fragmentaires, le bon choix pour obtenir leur distribution de probabilité est d'explorer les moyens d'exprimer le concept linguistique et d'extraire la distribution. Cependant, cette question n'a été mentionnée par aucun des chercheurs précédents. Par conséquent, cette étude introduira la théorie du modèle cloud pour traiter l'expression d'informations contextuelles et optimiser les paramètres de probabilité antérieurs du réseau bayésien, sur la base desquels le cadre d'évaluation quantitative du risque de piratage peut être établi. Le résultat de cet exercice aiderait les décideurs à prendre des décisions plus intuitives et objectives. Le réseau bayésien optimisé peut également aider à l'évaluation quantitative des risques de problèmes similaires.

Le reste de l'article est organisé comme suit : la section 2 analyse les principaux facteurs qui influencent le risque de piratage. La section 3 présente le modèle d'évaluation des risques, ainsi que sa théorie principale. et la simulation de scénarios et la section 5 présente les conclusions de cette étude, suivies de propositions pour les travaux futurs.

2. Théorie du risque de piratage

La définition du risque n'a pas abouti à une définition unifiée, de même que les composantes du risque. Certains chercheurs représentent le risque comme la combinaison de trois composants : l'aléa (la possibilité que l'événement déclencheur ait lieu), la vulnérabilité (une condition ou un état particulier d'un système avant que l'événement déclencheur ne se produise) et la conséquence (pertes potentielles) [19, 20], alors que certains chercheurs représentent le risque comme la combinaison de l'aléa, de la vulnérabilité et de la propriété anti-risque (la capacité du système ou de l'extérieur à résister au risque, on l'appelle aussi capacités d'adaptation) [21, 22].

Ce document accepte les derniers composants mentionnés dans le dernier paragraphe, c'est-à-dire que le risque se composait de l'aléa, de la vulnérabilité et de la propriété anti-risque. Par conséquent, le système de risque de piraterie peut être considéré comme une combinaison des risques de piraterie, de la vulnérabilité du navire attaqué et de la propriété anti-risque des navires et de la force d'escorte en mer. C'est-à-dire que lorsque l'objet attaqué est confronté à des facteurs de risque, son exposition et sa sensibilité à ces facteurs lui infligeront des pertes dont l'ampleur dépend de l'intensité des facteurs de risque, de la durée d'exposition et du degré de sensibilité. En général, plus l'ampleur (taille et degré) des facteurs de risque est grande, plus le risque serait élevé. Cependant, la propriété anti-risque du bateau et la résistance de la force d'escorte vont, dans une certaine mesure, diminuer le risque.

2.1. Analyse du risque de piratage

Les rapports de l'OMI fournissent les détails de chaque attaque de pirate. Selon ces rapports, les pirates s'en sortent généralement en prenant des biens et du matériel sur les navires, tout comme le font les voleurs et les voleurs. Parfois, ils blessent également les travailleurs sur les navires, ou, moins fréquemment, les kidnappent même. Le risque de piraterie vient à la fois de la probabilité d'être attaqué par des pirates et de la gravité de leurs attaques. En règle générale, plus la probabilité (la gravité) de l'attaque est élevée, plus le risque serait élevé.

La probabilité d'une attaque de navire peut être évaluée à partir de plusieurs facteurs.

2.1.1. Dossiers historiques d'attaques de piraterie

Le bilan des attaques de pirates sur la zone de recherche au cours des dernières années serait d'une grande aide pour évaluer la probabilité qu'un navire soit attaqué. Plus les cas d'attaque enregistrés sont nombreux, plus la probabilité de piratage serait élevée.

2.1.2. Situation économique des pays voisins

D'une manière générale, lorsque les conditions économiques d'un pays se détériorent au point d'appauvrir la population, les habitants de ce pays ont tendance à migrer vers l'un des pays environnants, où les conditions sont favorables. Un excellent exemple à cet égard est l'émergence des pirates somaliens. Ainsi, plus la situation économique d'un pays est mauvaise, plus le risque de piraterie dans les pays limitrophes serait grand.

2.1.3. Situation politique des pays voisins

Si la situation politique d'un pays devient agitée, le climat national sera l'instabilité, ce qui entraînera une augmentation du nombre de conflits internes. En conséquence, les compatriotes, qui sont durement touchés par de tels conflits, auraient tendance à rejoindre une organisation criminelle ou une autre. En outre, l'instabilité politique d'un pays peut entraîner une détérioration des conditions économiques, ce qui, à son tour, entraînera une augmentation du nombre de réfugiés dans les pays limitrophes et donc une augmentation du nombre de pirates.

2.1.4. Conditions météorologiques

Les pirates sont connus pour éviter les conditions météorologiques hostiles, telles que les saisons de mousson, les vents violents, les vagues élevées et les forts courants océaniques [23]. Par exemple, plus de 50 % des attaques de pirates ont eu lieu au printemps, lorsque le temps est favorable avec des vents doux, des vagues douces et une bonne visibilité. Par conséquent, plus les conditions météorologiques sont favorables, plus la probabilité de piratage serait élevée.

2.1.5. Conditions géographiques

Le cadre géographique naturel d'une zone constitue un facteur important dans la définition de la vulnérabilité de cette zone à la piraterie. Les conditions géographiques complexes offrent une cachette idéale pour les pirates. Par exemple, la mer d'Indonésie, communément appelée « pays aux mille îles », est considérée comme l'un des sites les plus vulnérables à la piraterie dans la mer du Sud. En règle générale, plus le cadre géographique est complexe, plus la probabilité de piratage est élevée.

En outre, le risque de piraterie dans n'importe quelle zone peut être évalué par le compte rendu historique de la gravité des attaques dans cette zone. Généralement, les gangs de pirates traînent dans la même zone choisie. Si les récits historiques de piraterie sont des événements de simples vols sans implication d'armes, alors cela implique que les pirates dans cette zone ne représentent aucune menace sérieuse et peuvent donc être facilement traités. Selon les rapports de l'OMI, la gravité du piratage dans n'importe quelle région peut être évaluée à partir de deux facteurs.

2.1.6. Nombre de pirates

L'étude statistique des rapports de l'OMI montre que plus le nombre de pirates est élevé, plus leur taux de réussite serait élevé. Les rapports annuels de l'OMI enregistrent généralement le nombre de pirates impliqués dans une attaque en trois catégories, 1 à 4, 5 à 10 et plus de 10, le niveau de risque augmentant dans cet ordre.

2.1.7. Armement des pirates

Les rapports de l'OMI enregistrent les armes utilisées par les pirates lors de l'attaque en quatre catégories : aucune, couteau, couteau long et arme à feu. Selon les rapports, lorsque les pirates attaquent sans armes, ils ont tendance à ne voler que quelques biens et matériaux, et donc leur taux de réussite a tendance à être faible, au contraire, lorsqu'ils sont armés de bonnes armes, ils constituent une menace sérieuse pour la sécurité de l'équipage du navire et, par conséquent, leurs taux de réussite ont tendance à être élevés. Par conséquent, plus les armes des pirates sont sophistiquées, plus la menace pour les navires serait grande et, par conséquent, plus le risque serait élevé.

2.2. Analyse de la vulnérabilité des objets attaqués

La vulnérabilité de l'objet attaqué est la propriété interne de cet objet, ce qui le rend vulnérable aux aléas. La propension à être affecté par un stimulus dépend à la fois de l'exposition et de la sensibilité d'un système, où l'exposition est la condition d'être soumis à un effet néfaste, elle reflète donc la nature biophysique du stimulus, caractéristique de l'emplacement et de la nature du système. La sensibilité fait référence au degré auquel un système répond ou est affecté par un stimulus et est lié aux caractéristiques du système et à des facteurs non climatiques plus larges (par exemple, l'utilisation des terres, les moyens de subsistance, les infrastructures et la politique gouvernementale) [24] .

Les pirates causent des pertes de biens et de matériaux aux navires par des moyens malhonnêtes et, parfois, même en mettant en danger la sécurité de l'équipage du navire. Ainsi, les principales cibles des attaques des pirates sont les marchandises et l'équipage, en particulier les marchandises. Dans la piraterie, l'intensité de l'exposition dépend de la valeur de la marchandise et du nombre d'équipages. Plus la valeur des marchandises est élevée ou plus le nombre d'équipages est élevé, plus l'exposition serait importante et, par conséquent, plus le risque serait élevé. Et, la principale sensibilité du navire, soumis à la piraterie, est le degré de besoin intérieur des marchandises à bord du navire, c'est-à-dire le degré de dépendance de ce pays vis-à-vis des approvisionnements extérieurs pour ces marchandises.Si la dépendance est très élevée, alors la demande intérieure pour les biens sera très élevée. Ainsi, lorsque les marchandises sont perdues, ce qui compte n'est pas leur coût, mais leur indisponibilité en cas de besoin, et donc le risque résultant de la perte sera élevé.

2.3. Analyse de la propriété anti-risque du système

La propriété anti-risque de l'objet attaqué est la force de cet objet à résister au risque et à combattre les pirates, et cette force vient de l'intérieur de l'objet attaqué et du système externe.

2.3.1. Escorte

La force de la force d'escorte a une influence significative sur la piraterie, notamment parce qu'elle peut servir à effrayer les petits groupes de pirates. À l'heure actuelle, la prévention de la piraterie est devenue une préoccupation internationale. Les actions menées jusqu'à présent par la force d'escorte et les forces de défense régionales et celles menées avec la coopération internationale ont donné des résultats remarquables, comme en témoigne la forte diminution du nombre de pirateries.

2.3.2. Installations de communication et équipement d'autodéfense des navires

Une fois que le piratage se produit ou est sur le point de se produire, le navire attaqué ou sur le point d'être attaqué envoie un message sans fil au centre d'information le plus proche. A la réception du message, les autorités concernées entreprendront des opérations de sauvetage. Par conséquent, les installations de communication sont cruciales pour le sauvetage rapide des navires. En outre, chaque navire devrait être équipé d'armes d'autodéfense et de personnel de sécurité pour contenir la menace des pirates.

2.3.3. Qualité du plan d'urgence et capacité d'action

De nos jours, de nombreuses compagnies maritimes tiennent des plans d'urgence prêts à faire face à la piraterie, car la piraterie est le problème singulier et le plus critique qui menace la sécurité des navires de haute mer. Une fois qu'un navire est attaqué par des pirates, la compagnie maritime concernée active immédiatement son plan d'urgence pour réduire les pertes éventuelles, dans la mesure du possible. Un exemple typique à cet égard est le navire de la compagnie Shanghai Zhen Hua, qui a déjà été attaqué par des pirates dans la région de la Somalie en février 2011. Cependant, en raison de son plan d'urgence solide, le navire a pu repousser avec succès les pirates.

3. Le modèle d'évaluation

Li [25] a proposé le modèle de nuage pour représenter quantitativement les termes linguistiques et pour intégrer efficacement leur flou et leur caractère aléatoire de manière unifiée, sur la base de la théorie des probabilités et des ensembles flous. Pour cette étude, l'approche des auteurs consistait à appliquer la théorie du modèle de nuage au réseau bayésien pour un réglage de probabilité préalable afin d'obtenir la distribution de probabilité des nœuds avec des données statistiques fragmentaires ou des informations qualitatives. Ensuite, ils présentent le processus de leur modèle d'évaluation et illustrent sa théorie principale.

3.1. Extraction et traitement de données

Les données pour l'évaluation des risques de piraterie devraient couvrir les indicateurs visés à la section 2. Les données concernant la vulnérabilité et une partie de la capacité de prévention sont disponibles avec le navire attaqué, tandis que les données sur les dangers ont été extraites du rapport de l'OMI, de l'indice IF, de l'ICAODS et du STEM30. .

Si les données étaient en termes quantitatifs, elles étaient simplement enregistrées et leur norme de classement était fixée. Si les données étaient en termes qualitatifs, l'avis d'experts était sollicité pour faire des commentaires linguistiques sur l'état des indicateurs, sur la base des informations disponibles, puis les commentaires linguistiques étaient enregistrés.

3.2. La construction du réseau bayésien

Le réseau bayésien (BN), également connu sous le nom de réseau de fiabilité bayésien, n'est pas seulement une expression graphique de la relation causale entre les variables [26] mais aussi une technique de raisonnement probabiliste. Il peut être représenté par un binaire :

représente un graphe orienté acyclique. est un ensemble de nœuds où chaque nœud représente une variable dans le domaine du problème. est un ensemble d'arcs, et un arc dirigé représente la dépendance causale entre les variables. (ii) est le paramètre de réseau, c'est-à-dire la distribution de probabilité des nœuds. exprime le degré d'influence mutuelle entre les nœuds et présente des caractéristiques quantitatives dans le domaine de la connaissance.

Supposons un ensemble de variables

. La base mathématique de BN est le théorème de Bayes montré par l'équation (1), qui est également au cœur de l'inférence bayésienne.

où est la probabilité a priori, est la probabilité conditionnelle et est la probabilité a posteriori. Basé sur , pourrait être dérivé par le théorème de Bayes dans les conditions pertinentes .

Le réseau bayésien est généralement utilisé pour la représentation causale des phénomènes impliqués dans un système ou un processus complexe [27]. Cette approche permet une meilleure analyse d'un système basé sur la connaissance. Il utilise le réseau bayésien comme outil de modélisation pour quantifier le risque d'un système complexe et obtenir une meilleure estimation de la distribution de probabilité du risque d'un événement de piratage. En effet, le périmètre du réseau bayésien est suffisamment large pour permettre l'analyse de la propagation des influences entre les fonctions des différents acteurs au sein du système (exprimées en probabilités conditionnelles).

3.3. Paramètre de probabilité préalable pour le réseau bayésien

Pour réaliser le réseau bayésien, la probabilité de chaque nœud a été configurée. Les méthodes statistiques largement utilisées pour l'estimation de probabilité signifient que le nœud doit posséder une grande quantité de données statistiques quantitatives ou un concept distinct. Il existe deux types de données dont la distribution de probabilité est difficile à obtenir : (a) les données quantitatives statistiques fragmentaires et (b) les informations qualitatives. Pour obtenir leur distribution de probabilité, les données des événements de piratage ont été utilisées comme suit.

3.3.1. Nœuds avec des informations qualitatives

Certains nœuds n'offrent que des informations qualitatives. Pour obtenir un résultat quantitatif et global pour la connaissance intuitionniste, un modèle mathématique est nécessaire pour transformer les informations qualitatives en données quantitatives. Au cours d'une telle transformation, la nature du langage qualitatif doit être conservée dans toute la mesure du possible. Par conséquent, les caractéristiques numériques du cloud ont été utilisées pour transformer les données, l'algorithme du cloud virtuel a été utilisé pour synthétiser les points de vue de plusieurs experts, et enfin, le générateur de cloud a été appliqué pour générer des gouttelettes de cloud avec trois caractéristiques

, sur la base duquel la carte des nuages ​​peut être obtenue. Ensuite, la distribution de probabilité d'un nœud est obtenue en calculant la fréquence des gouttelettes de nuage à chaque niveau de risque dans le graphique des nuages.

Les principales théories qui ont été appliquées pour le traitement sont les suivantes.

Les caractéristiques quantitatives (nuage) du concept linguistique qualitatif sont toujours représentées par trois caractéristiques numériques, qui représentent respectivement l'attente, l'entropie et l'hyperentropie. L'hyperentropie est un concept relativement nouveau, c'est une métrique d'incertitude de l'entropie, qui montre le degré d'écart par rapport à la distribution normale. Il peut également être considéré comme une mesure de la maturité du modèle cloud et est toujours fourni par le constructeur du modèle.

L'algorithme de cloud virtuel est l'algorithme le plus couramment utilisé pour le cloud computing. Il peut être utilisé pour élaborer de nouvelles caractéristiques numériques, en utilisant les caractéristiques numériques données. Les algorithmes de cloud sont de différents types, comme les algorithmes de cloud flottant, de cloud intégrateur, de cloud en décomposition et de cloud géométrique. Parmi eux, les algorithmes de nuage flottant et de nuage d'intégration sont fréquemment utilisés pour l'intégration de nuage. L'algorithme de nuage de décomposition est inversé en algorithme de nuage d'intégration en décomposant un nuage en plusieurs nuages ​​pour décrire le concept d'une manière plus détaillée et raffinée. L'algorithme de nuage géométrique est utilisé pour ajuster un nuage complet, sur la base de certaines caractéristiques partielles [28].

Les générateurs de nuages ​​​​peuvent être divisés en deux types : direct et inverse. Le générateur de nuages ​​avant peut générer des gouttelettes de nuages ​​avec trois caractéristiques, qui permettent de mapper des données quantitatives à partir d'un concept qualitatif. La figure 1 montre les principales caractéristiques du générateur de nuage normal avant, dont l'algorithme est le suivant (ici, le nuage normal est introduit en raison de son universalité, les propriétés mathématiques importantes du nuage normal sont présentées en détail dans [29]) : (i ) Générer une valeur aléatoire normale

avec comme attente et

comme la variance. (ii) Générer une valeur aléatoire normale

avec comme espérance et comme variance. (iii) Calculer

. (iv) Générer , avec le degré d'appartenance , sous forme de gouttelettes de nuage dans le champ numérique. (v) Répétez les étapes ci-dessus jusqu'à ce que la quantité requise de gouttelettes de nuage soit générée.

3.3.2. Nœuds avec des données quantitatives statistiques fragmentaires

Chaque événement de piraterie est signalé par le navire attaqué à l'OMI. Cependant, certains détails de l'événement sont généralement perdus dans les rapports, ce qui entraîne des données manquantes. Pour obtenir la distribution de probabilité de ces nœuds, les caractéristiques de distribution des données ont été extraites des données fragmentaires, en utilisant la théorie de la transformation du nuage. Une fois les distributions de fréquence des nœuds obtenues, les distributions ont été divisées en plusieurs distributions de nuages ​​gaussiens, dont certaines se chevauchaient. En fixant une condition de contrainte pour la relation entre ces distributions, les distributions gaussiennes ont été synthétisées en plusieurs distributions qui remplissent la condition de contrainte. Ensuite, l'appartenance à chaque niveau de risque a été obtenue par la distribution de probabilité des gouttelettes de nuage dans le graphique des nuages.

Les principaux aspects de la théorie de la transformation du cloud sont les suivants.

Toute distribution de données peut être transformée en superpositions de plusieurs distributions gaussiennes, et le processus impliqué dans une telle transformation est connu sous le nom de transformation gaussienne [30]. La transformation nuageuse utilisée pour convertir la distribution de données en distributions nuageuses gaussiennes est basée sur la transformation gaussienne. Ensuite, en calculant la quantité de chevauchement entre deux nuages, qui représente la maturité de partition, la partition de la distribution des données a été tellement réajustée que le chevauchement entre les nuages ​​était très faible. Par exemple, la figure 2 montre la courbe de distribution (ligne bleue continue) de 776 académiciens de l'Académie chinoise d'ingénierie, dont l'âge varie de 43 à 99 ans. Par transformation de nuage gaussien, les données de distribution d'âge ont été divisées en trois et deux types, comme le montrent les figures 2(a) et 2(b), respectivement. Lorsque les données ont été divisées en trois types de nuages ​​(voir Figure 2(a)), la quantité de chevauchement entre les nuages ​​est énorme (en particulier les deux nuages ​​de droite), ce qui signifie que la partition est ambiguë. Lorsque les données ont été transformées en deux nuages ​​(voir Figure 2(b)), le chevauchement est dans les limites acceptables, et donc la partition est considérée comme bien meilleure.

Ainsi, la transformation en nuage a contribué à réduire la distribution des données et à décrire les zones de concentration des données. Par la transformation, un intervalle numérique dans lequel les données occupant une plus grande probabilité peuvent être obtenues.

3.4. Paramètre de table de probabilité conditionnelle

La probabilité conditionnelle est la probabilité d'occurrence d'un événement, lorsqu'on sait qu'un autre événement s'est déjà produit. Lorsque la relation mathématique n'est pas claire, elle est toujours obtenue en tenant compte de l'expérience des experts et de l'analyse statistique des données historiques [31].

Pour le risque de piratage, l'influence des nœuds secondaires sur l'ensemble du risque n'était pas claire, il était donc difficile de construire des modèles mathématiques qui reflètent le mécanisme d'influence de chaque indicateur. Par conséquent, l'inférence de logique floue a été appliquée pour établir des relations logiques de toutes sortes de scénarios et pour trier ceux appartenant à la probabilité des niveaux de risque. A partir des scénarios ainsi triés, la table de probabilité conditionnelle a été générée aléatoirement.

3.5. L'inférence du réseau bayésien et sa mise en œuvre logicielle

Sur la base de la structure du réseau bayésien et de ses paramètres, la distribution de probabilité postérieure des nœuds peut être déduite par un raisonnement probabiliste, dont la base mathématique est le théorème de Bayes. L'algorithme de raisonnement bayésien comprend un algorithme exact et un algorithme approximatif. Un algorithme approximatif est généralement appliqué à une structure de réseau à grande échelle pour faire face à des calculs excessifs [32]. Compte tenu de l'échelle du réseau dans notre recherche, nous appliquons l'algorithme exact, l'algorithme d'inférence d'arbre conjoint, pour obtenir une distribution a posteriori. L'algorithme de raisonnement bayésien utilisé dans le Nétique logiciel est l'algorithme d'inférence d'arbre conjoint. Lorsque les utilisateurs saisissent des informations a priori (les probabilités a priori et les tables de probabilités conditionnelles) dans le Nétique plate-forme pour obtenir des inférences, les résultats calculés apparaîtront sur l'interface visuelle. le Nétique est un logiciel pratique de simulation de réseau bayésien qui peut réaliser la plupart des classifications et des raisonnements bayésiens. En outre, il dispose d'une interface utilisateur intuitive et conviviale qui permet aux utilisateurs de dessiner le réseau et de certains algorithmes qui aident à réaliser l'apprentissage de la structure et des paramètres. Dernièrement, Nétique le logiciel peut modifier arbitrairement les valeurs des variables de nœud, puis calculer automatiquement la distribution de probabilité de chaque nœud, en fonction des résultats modifiés.

Pour résumer, l'organigramme du modèle est illustré à la figure 3.

4. Expérience d'évaluation des risques de piraterie

4.1. Sources de données et traitement

L'OMI a enregistré les événements de piraterie de 1982 à ce jour. Ces rapports contiennent, outre les récits historiques des événements, les détails de chaque événement, tels que le nombre de pirates impliqués dans chaque événement et les armes qu'ils ont utilisées [33]. Ces données ont été extraites du rapport et leurs statistiques de fréquence ont été calculées.

Le Fonds monétaire international (FMI), l'indice de risque mondial (WRI), etc. enregistrent chaque année plusieurs types de statistiques relatives à l'économie, telles que le PIB par habitant, le taux de pauvreté, le coefficient de Gini et l'IPC. Les données sont enregistrées dans différentes unités et mesures pour différents pays. En raison de ces différences, la normalisation des données est assez difficile. Par conséquent, l'ensemble des données mondiales a été divisé en cinq niveaux, et les pays évalués selon ces niveaux ont reçu des commentaires linguistiques, en fonction de leur classement.

Transparency International (TI), World Govern Index (WGI), WRI, etc. enregistrent plusieurs types de statistiques relatives à la politique, telles que l'événement d'instabilité de l'État, l'événement de guerre interne de l'État, la corruption de la gouvernance et l'efficacité de la gouvernance. Mais, ils ne contiennent pas les données de certains pays d'ailleurs, les données sont enregistrées dans différentes métriques pour différents pays. Ainsi, des experts ont été invités à donner leurs commentaires linguistiques selon les classements des pays concernés.

L'ensemble international complet de données sur l'atmosphère océanique (ICOADS) fournit des données marines de surface. L'ensemble de données est fusionné à partir des données internationales éliminées, y compris les données de mesure ou d'observation des navires (commerciaux, navals et de recherche), les données des bouées d'amarrage et flottantes, les données des sites côtiers et d'autres données des stations océaniques. Les variables de cet ensemble de données sont la vitesse du vent, la hauteur des vagues, la visibilité, etc. Cependant, ces données ne peuvent pas fournir des informations complètes sur les conditions météorologiques pertinentes pour l'événement de piraterie. Pour pallier cette lacune, les variables relatives au jour de l'événement ont été extraites et leur analyse de distribution de fréquence a été réalisée.

La NASA et la NIMA fournissent un ensemble de données SRTM-3 (Shuttle Radar Topography Mission), dont la résolution horizontale est de 90 m et l'échelle de temps est de 2000. L'ensemble de données fournit des informations sur les conditions géographiques de plus de 80% de la surface terrestre mondiale.

4.2. Construction d'un réseau bayésien pour le risque de piraterie

La structure du réseau bayésien pour l'évaluation des risques de piraterie (voir Figure 4) peut être obtenue sur la base des connaissances d'experts, comme expliqué dans la section 2.

4.3. Paramètre de probabilité préalable pour le réseau bayésien

Comme déjà mentionné, il existe deux types de données sur le piratage, dont la distribution de probabilité est difficile à obtenir : (i) les données statistiques quantitatives fragmentaires et (ii) les informations qualitatives. Rappelons que, dans la section 3, le modèle d'évaluation des risques est présenté, ainsi que les principales théories impliquées dans le traitement de ces données pour obtenir la distribution de probabilité de chaque nœud. Dans cette section, deux exemples sont donnés pour illustrer l'application de ces théories, l'un pour des informations qualitatives et l'autre pour des données quantitatives statistiques fragmentaires.

4.3.1. Les nœuds avec des informations qualitatives

Il y a deux nœuds dans les données d'un tel format, l'un relatif à la situation économique des pays voisins et l'autre à la situation politique. Pour illustrer l'application de la théorie des modèles de nuages, un paramètre de probabilité a priori est introduit ici pour le nœud de la situation économique des pays voisins.

La situation économique des pays limitrophes est jugée par certains indices. Bien qu'il existe de nombreux indices, les quatre suivants ont été choisis pour cette étude : PIB par habitant, pourcentage de pauvreté inférieur à 1,25 $, Gini domestique et indice de pauvreté humaine. Les pays évalués se situent autour de la région de la mer du Sud et comprennent la Chine, l'Indonésie, le Vietnam, les Philippines, la Thaïlande, la Malaisie, Singapour, le Cambodge et Brunei. En raison des grandes différences entre leurs ordres de grandeur, la standardisation de leurs évaluations est très difficile. Sur la base des données disponibles, les experts ont formulé leurs commentaires sur chaque indicateur, qui sont présentés dans le tableau 1. Dans ce tableau, COM désigne les commentaires, EL à risque extrêmement faible, RL à risque relativement faible, ME à risque moyen, RH à risque relativement élevé et EH risque extrêmement élevé.

Les commentaires linguistiques ont ensuite été transférés vers les caractéristiques numériques du cloud. Il a été supposé que (0, 20), (20, 40), (40, 60), (60, 80) et (80, 100) représentent respectivement les commentaires linguistiques « extrêmement bas », « relativement bas, « « moyen », « relativement élevé » et « extrêmement élevé. » Selon le modèle de nuage normal, les termes linguistiques comme « inférieur », « moyen » et « supérieur » sont limités par des frontières bilatérales, dont la forme est une cloche pleine. Sa limite inférieure a été fixée à

et la limite supérieure comme

. Ainsi, de tels termes linguistiques ont été quantifiés par l'équation (2).

est une valeur constante (0,1 pour cette étude), qui représente la maturité de ce modèle, telle que décidée par les experts [33]. Cependant, de tels termes linguistiques, tels que « extrêmement bas » et « extrêmement élevé », ont atteint la limite gauche de la limite droite de l'univers du discours, et ainsi la forme en cloche du nuage est devenue un nuage en cloche mi-bas ou mi-haut. comme le montre la figure 5. Pour représenter ces termes linguistiques, si la valeur limite ou est définie sur , elle sera alors quantifiée par l'équation (3).

Les caractéristiques numériques de chaque commentaire sont présentées dans le tableau 2.En raison de l'indépendance entre les indicateurs, l'intersection au sein de chaque indicateur représente le mieux la situation économique. Par conséquent, le nuage flottant a été introduit pour synthétiser les valeurs des indicateurs. Ensuite, les caractéristiques numériques du modèle de nuage qui représentent la situation économique générale de chaque pays ont été calculées et les résultats sont présentés dans le tableau 2.

ChineIndonésieViêt NamPhilippinesThaïlande
PIB par habitant(50, 3.33, 0.1)(70, 3.33, 0.1)(100, 6.67, 0.1)(100, 6.67, 0.1)(50, 3.33, 0.1)
Pourcentage de pauvreté inférieur à 1,25 $ (

Enfin, la situation économique générale de la zone maritime étudiée, par rapport à celle des pays limitrophes, a été calculée en intégrant les résultats de l'algorithme cloud, car la situation économique de chaque pays doit être prise en compte. Ensuite, le risque global pour la situation économique de cette zone peut être calculé sous la forme de caractéristiques numériques (51,83, 18,94, 0,1). Enfin, le générateur de nuages ​​positifs a été utilisé pour obtenir le graphique des nuages ​​de risque comme le montre la figure 6. En raison des énormes différences entre les situations économiques des pays, il existe une grande incertitude dans le modèle de nuage. De plus, les gouttelettes de nuage hors de portée sont considérées comme une étendue de valeur limite, elles sont donc également considérées comme la notion avec le concept « extrêmement élevé » ou « extrêmement faible ».

Le graphique du nuage de risque comprend deux mille gouttelettes de nuage générées aléatoirement. En comptant le nombre de gouttelettes dans chaque intervalle de commentaire, la proportion des concepts occupant cet intervalle a été déterminée. On peut voir que la proportion de gouttelettes de nuages ​​dans l'intervalle à risque extrêmement élevé est de 0,065, dans l'intervalle à risque relativement élevé 0,27, dans l'intervalle à risque moyen 0,388, dans l'intervalle à risque relativement faible 0,232 et dans l'intervalle à risque extrêmement intervalle de faible risque 0,045. De cette façon, la distribution de probabilité des nœuds a été obtenue.

4.3.2. Les nœuds avec des données quantitatives statistiques fragmentaires

Il existe également deux nœuds avec des formats de données tels que les conditions météorologiques et le nombre de pirates. Maintenant, le paramètre de probabilité préalable pour le nœud de vitesse du vent est présenté pour illustrer l'application de la théorie de la transformation des nuages.

En utilisant les données de la base de données ICAODS, la distribution de fréquence de la vitesse du vent a été obtenue comme le montre la figure 7 (voir la courbe bleue). Conformément aux normes de classification existantes (l'échelle de Beaufort et la classification de visibilité de la norme nationale chinoise (QX/T 114-2010)), les degrés de danger de la vitesse du vent, de la hauteur des vagues et de la visibilité pour cette étude ont été classés en cinq niveaux, comme indiqué dans Tableau 3 : risque extrêmement faible, risque relativement faible, risque moyen, risque relativement élevé et risque extrêmement élevé.

Application de la transformée de Gauss

, les distributions de fréquence du domaine ont été converties en superpositions de plusieurs distributions gaussiennes. A partir de ces distributions, la distribution correspondante des nuages ​​gaussiens a été obtenue. Ainsi, en fixant la condition de contrainte « les nuages ​​gaussiens ne se chevauchent pas », définissez un algorithme circulant : (i) Si les nuages ​​gaussiens se chevauchent, (ii) alors le nombre de nuages ​​gaussiens est de M à M-1, et les deux nuages ​​adjacents sont synthétisés en un seul nuage (iii) Le nuage synthétisé est comparé à son nuage adjacent, et s'ils se chevauchent, commencez (ii) (iv) Enfin, les nuages ​​qui ne se chevauchent pas représentent le diffusion du concept

Ajustant la distribution des données de la vitesse du vent, via la transformation des nuages, la distribution des nuages ​​de la vitesse du vent est illustrée à la figure 7.

Dans cette figure, la ligne rouge est la courbe d'ajustement du nuage gaussien, la dispersion verte est la distribution du nuage gaussien et la courbe bleue est la distribution des données initiales. Sur cette figure, on peut voir que la proportion de gouttelettes de nuages ​​dans l'intervalle à risque extrêmement élevé est de 0,656, dans l'intervalle à risque relativement élevé 0,193, dans l'intervalle à risque moyen 0,103, dans l'intervalle à risque relativement faible 0,025 , et dans l'intervalle de risque extrêmement faible 0,023. Ainsi, la probabilité de ce nœud a été obtenue.

4.4. Paramètre de probabilité conditionnelle pour le réseau bayésien

Sur la base des relations logiques et des probabilités de niveau de risque correspondantes, le tableau de probabilité conditionnelle a été généré de manière aléatoire. Par exemple, le tableau 4 présente la table de probabilité conditionnelle du nœud « Hazard », générée à partir des nœuds « Probabilité » et « Conséquence ».

À partir de la première ligne du tableau 4, on peut voir que lorsque les niveaux de risque de « Probabilité » et de « Conséquence » sont extrêmement élevés, l'appartenance à « Danger » à un niveau extrêmement élevé est de 96 %, tandis que les appartenances à un niveau relativement élevé , les niveaux moyens et relativement faibles sont respectivement de 2 %, 1 % et 1 %.

4.5. L'inférence du réseau bayésien
4.5.1. Expérience de simulation de danger

Le danger d'un système est inhérent et ne varie pas avec les objets porteurs de risque. Le risque auquel sont confrontés les objets porteurs de risque est la superposition de l'aléa du système, de la vulnérabilité objective et de la propriété anti-risque. Le risque inhérent à la zone étudiée peut être calculé sur la base de données historiques. Pour ce faire, la probabilité a priori et la table de probabilité conditionnelle ont été saisies dans Nétique, puis l'inférence a été faite sur le réseau. Après cela, le degré d'appartenance à chaque niveau de risque de l'aléa de la zone de recherche a été calculé comme le montre la figure 8.

La figure 8 montre que l'appartenance au nœud « probabilité » à un niveau de risque extrêmement élevé peut atteindre 42,9 %, indiquant ainsi que la probabilité que les navires soient attaqués par des pirates est extrêmement élevée. L'appartenance du nœud « de conséquence » au niveau de risque extrêmement élevé est la plus importante avec 26,7%. Le risque de danger inhérent à la zone étudiée est donc considéré comme extrêmement élevé avec la plus grande adhésion de 33,3%.

4.5.2. Validation du modèle

Dans cette section, deux histoires de cas, relatives à la mer de Chine méridionale, sont présentées pour valider le modèle proposé.

(1) Accident de piraterie, portant le numéro IMO 9522984. L'événement entier a été enregistré comme suit. Le remorqueur est parti de Singapour, en route vers le Cambodge, remorquant la barge CALISTA, immatriculée à Singapour, avec 12 membres d'équipage à bord. Il a été détourné par huit pirates vêtus de vêtements noirs et armés de fusils et de parangs. Initialement, les pirates ont enfermé tous les membres d'équipage dans leurs cabines et plus tard, le 10 février, les ont mis à la dérive sur un radeau de sauvetage. Ils ont été secourus le 11 février par la marine malaisienne. Les coordonnées géographiques de la zone de l'incident sont 13°04.00′N, 47°04.00′E.

En utilisant les conditions climatiques de ce jour et les conditions géographiques de cette zone, ainsi que d'autres données pertinentes de l'événement, les probabilités a priori du réseau bayésien ont été obtenues. Pour cela, les paramètres ont d'abord été saisis, puis la probabilité postérieure du nœud cible a été calculée. Le résultat est illustré à la figure 9.

Comme le montre la figure 9, le risque de piraterie est extrêmement élevé (avec un taux d'adhésion de 30,7%), ce qui est en bon accord avec le résultat de l'événement réel, dans lequel les pirates ont pris en otage tout l'équipage et ont détourné le navire.

(2) Accident de piraterie, portant le numéro IMO 9379662. L'événement entier a été enregistré comme suit. Quatre pirates armés de longs couteaux sont montés à bord du navire au gaillard d'avant, où il était ancré. Ils ont tenté de désarmer les deux gardiens de service et d'entrer dans les cabines, mais certains membres d'équipage vigilants ont verrouillé toutes les entrées et l'officier de quart de service a déclenché l'alarme. Ainsi, les pirates pourraient simplement voler quelques provisions du navire et s'échapper. Les coordonnées géographiques de la zone de l'incident sont 22°15.00′N, 91°44.00′E.

Le résultat obtenu en suivant la même procédure que celle du cas 1 est illustré à la figure 10.

Comme le montre la figure 10, le risque de piratage est plutôt faible (avec un degré d'adhésion de 42,6%), ce qui est conforme au résultat de l'événement réel, dans lequel les pirates n'ont pu voler que quelques magasins et s'échapper.

5. Conclusion

Dans la présente étude, un modèle d'évaluation quantitative des risques de piratage a été construit, en utilisant le réseau bayésien. La théorie du modèle de nuage a été utilisée pour obtenir des paramètres de probabilité préalables du réseau bayésien pour les nœuds avec des informations qualitatives et des données quantitatives statistiques fragmentaires. Enfin, les aléas du risque de piraterie en mer de Chine méridionale ont servi d'exemple pour l'application du modèle d'évaluation des risques. De plus, deux histoires de cas d'événements réels de piratage ont été analysées pour valider le modèle proposé. Le résultat de l'évaluation montre que le risque de piraterie en mer de Chine méridionale est extrêmement élevé. Par ailleurs, les résultats de l'évaluation des risques des deux cas sont conformes à ceux des événements réels. Par conséquent, tout navire ou entreprise de transport peut appliquer ce modèle pour l'évaluation des risques de piraterie et ajuster ses plans d'urgence en fonction des résultats des nœuds clés.

L'évaluation des risques de piraterie est une exigence fondamentale pour l'attribution des équipements et la préparation des plans d'urgence pour les déplacements des navires. De même, les paramètres de probabilité a priori du réseau bayésien sont fondamentaux pour l'évaluation des risques, dont l'exigence peut être mieux résolue par le modèle proposé que par les modèles existants. Le potentiel du modèle proposé est résumé comme suit : (1) La probabilité a priori des nœuds peut être obtenue à partir d'informations qualitatives, en utilisant la théorie du modèle de nuage. Le modèle cloud reflète mieux l'incertitude des commentaires linguistiques que l'ensemble flou traditionnel avec une implémentation aléatoire et un principe d'appartenance. Et, précisément à cause du caractère aléatoire du modèle de nuage, la probabilité peut être comptée en termes de chutes de nuages. Pour le modèle cloud, contrairement à la méthode traditionnelle, les experts n'ont besoin de faire que des commentaires linguistiques sur les objectifs évalués et non de donner leur distribution mathématique de probabilité. Ceci est mieux adapté au modèle de pensée humain, car l'événement cognitif des humains est toujours un concept flou et est difficile à décrire mathématiquement. (2) La probabilité a priori des nœuds peut être obtenue à partir de données statistiques fragmentaires, en utilisant la théorie de la transformation des nuages. Cette théorie peut extraire la distribution des données quantitatives et la classer en types désignés de nuages ​​gaussiens. Si les nuages ​​gaussiens ne se chevauchent pas, alors les principales distributions des données quantitatives apparaissent clairement. Étant donné que les gouttes de nuage sont aléatoires, la probabilité peut être évaluée en les comptant. La méthode proposée calcule la probabilité a priori des données statistiques du fragment qui fournit une solution sous la condition avec paramètre incomplet, alors que les recherches existantes et les modèles en expansion se concentrent principalement sur les paramètres de probabilité conditionnelle avec le paramètre incomplet. (3) Contrairement aux méthodes de recherche existantes sur le risque de piraterie, le modèle d'évaluation des risques proposé ici prend en compte l'aléa de piraterie, la vulnérabilité des navires attaqués, et les propriétés anti-risque des navires et de leur force d'escorte. Pour cette étude, les principaux facteurs impliqués dans la formation du mécanisme de risque de piratage ont été analysés et le système d'indicateurs pour l'évaluation du risque de piratage a été construit. Les résultats montrent que les navires avec différents niveaux de vulnérabilité et différentes propriétés anti-risques sont confrontés à différents types de risques. (4) Le modèle d'évaluation des risques peut être appliqué même aux cas avec un ensemble de données ou des informations qualitatives incomplets.

Certes, le modèle d'évaluation du risque de piratage proposé ici n'est pas exempt de défauts. Bien que le réseau bayésien, en particulier celui basé sur une plate-forme logicielle, puisse évaluer en temps réel les événements d'urgence en modifiant la distribution de probabilité des nœuds, il ne peut obtenir le risque que sur la base des informations connues et avec retard. Comme il n'y a pas de lois définitives pour projeter le risque de piratage, les relations de probabilité entre les tranches de temps restent inconnues. Ainsi, l'évaluation dynamique des risques de piratage est difficile. Pour résoudre ce problème, beaucoup plus de recherches doivent être faites. En particulier, les lois du risque de piratage devront être découvertes afin que les relations de probabilité entre les tranches de temps puissent être établies pour faire de l'évaluation dynamique du risque de piratage une possibilité distincte. Ceci, à son tour, peut aider les décideurs à prendre des décisions opportunes appropriées pour prévenir ou contenir le risque de piraterie.

Disponibilité des données

L'OMI a enregistré les événements de piraterie de 1982 à ce jour. Ces rapports contiennent, outre les récits historiques des événements, les détails de chaque événement, tels que le nombre de pirates impliqués dans chaque événement et les armes qu'ils ont utilisées. Ces données ont été extraites du rapport et leurs statistiques de fréquence ont été calculées. Le Fonds monétaire international (FMI), l'indice de risque mondial (WRI), etc. enregistrent chaque année plusieurs types de statistiques relatives à l'économie, telles que le PIB par habitant, le taux de pauvreté, le coefficient de Gini et l'IPC. Les données sont enregistrées dans différentes unités et mesures pour différents pays. En raison de ces différences, la normalisation des données est assez difficile. Par conséquent, l'ensemble des données mondiales a été divisé en cinq niveaux, et les pays évalués selon ces niveaux ont reçu des commentaires linguistiques, en fonction de leur classement. Transparency International (TI), World Govern Index (WGI), WRI, etc. enregistrent plusieurs types de statistiques relatives à la politique, telles que l'événement d'instabilité de l'État, l'événement de guerre interne de l'État, la corruption de la gouvernance et l'efficacité de la gouvernance. Mais, ils ne contiennent pas les données de certains pays d'ailleurs, les données sont enregistrées dans différentes métriques pour différents pays. Ainsi, des experts ont été invités à donner leurs commentaires linguistiques selon les classements des pays concernés. L'ICOADS fournit des données marines de surface. L'ensemble de données est fusionné à partir des données internationales éliminées, y compris les données de mesure ou d'observation des navires (commerciaux, navals et de recherche), les données des bouées d'amarrage et flottantes, les données des sites côtiers et d'autres données des stations océaniques. Les variables de cet ensemble de données sont la vitesse du vent, la hauteur des vagues, la visibilité, etc. Cependant, ces données ne peuvent pas fournir des informations complètes sur les conditions météorologiques pertinentes pour l'événement de piraterie. Pour pallier cette lacune, les variables relatives au jour de l'événement ont été extraites et leur analyse de distribution de fréquence a été réalisée. La NASA et la NIMA fournissent un ensemble de données SRTM-3 (Shuttle Radar Topography Mission), dont la résolution horizontale est de 90 m et l'échelle de temps est de 2000. L'ensemble de données fournit des informations sur les conditions géographiques de plus de 80% de la surface terrestre mondiale.

Les conflits d'intérêts

Les auteurs ne déclarent aucun conflit d'intérêts.

Contributions des auteurs

Lizhi Yang et Kefeng Liu ont conçu et conçu les expériences que Ming Li a réalisées. Lizhi Yang a analysé les données que Kefeng Liu a rédigées.

Les références

  1. H. R. Williamson, « Nouvelle réflexion dans la lutte contre la piraterie maritime : financer et piller la piraterie avant que la prévention ne devienne nécessaire », Case Western Reserve Journal of International Law, vol. 32, 2013. Voir sur : Google Scholar
  2. C. M. Douse, « Combattre le risque en haute mer, une analyse des effets des actes de piraterie modernes sur l'industrie de l'assurance maritime », Revue de droit maritime de Tulane, vol. 19, 2010. Voir à: Google Scholar
  3. J. Chen, « L'analyse économique et les contre-mesures du crime de piraterie », Économie et gestion, vol. 25, 2011. Voir à: Google Scholar
  4. B. Lucas, « Vers un droit international de la piraterie sui generis. Comment la double nature du droit de la piraterie maritime permet à la piraterie de prospérer », Publication électronique en sciences sociales, vol. 29, non. 2, pp. 399-455, 2010. Voir sur : Google Scholar
  5. O. Vaněk, B. Bošanský, M. Jakob et M. Pechoucek, « Transiting areas patrouilled by a mobile adversary », dans Actes du Symposium IEEE 2010 sur l'intelligence informatique et les jeux (CIG), pp. 9–16, Dublin, Irlande, août 2010. Afficher sur : Site de l'éditeur | Google Scholar
  6. C. D. Marsh, « Contre le piratage. Un jeu répété avec des informations asymétriques », Naval Postgraduate School, Monterey, CA, USA, 2009, Thèse. Voir sur : Google Scholar
  7. Z. F. Rui, R. R. Ying et L. I. Wei, « Une méthodologie pour la sélection d'itinéraires militaires à l'aide de nombres flous intuitionnistes », Science des navires et technologie, vol. 36, non. 1, pp. 144-157, 2014. Voir sur : Google Scholar
  8. J. J. Dabrowski et J. P. De Villiers, « Modélisation de situation de piraterie maritime avec des réseaux bayésiens dynamiques », Fusion d'informations, vol. 23, pp. 116-130, 2015. Voir sur : Site de l'éditeur | Google Scholar
  9. A. Bouejla, X. Chaze, F. Guarnieri et A. Napoli, « Bayesian network in the management of oil field piracy risk », in Actes de la 8e Conférence internationale sur la simulation dans l'analyse des risques et l'atténuation des risques, vol. VIII, p. 12, Brac, Croatie, septembre 2012. Afficher sur : Site de l'éditeur | Google Scholar
  10. A. Bouejla, X. Chaze, F. Guarnieri et A. Napoli, « Un réseau bayésien pour gérer les risques de piraterie maritime contre les champs pétroliers offshore », Sciences de la sécurité, vol. 68, pp. 222-230, 2014. Voir sur : Site de l'éditeur | Google Scholar
  11. X. Chaze, A. Bouejla, A. Napoli et F. Guarnieri, « Intégration d'un réseau bayésien pour la planification des réponses dans un système de gestion des risques de piraterie maritime », dans Actes de la 7e conférence internationale 2012 sur l'ingénierie des systèmes SOSE, p. 6, Gênes, Italie, juillet 2012. Afficher sur : Site de l'éditeur | Google Scholar
  12. H. Liwång, J. W. Ringsberg et M. Norsell, « Analyse quantitative des risques - analyse de la sécurité des navires pour des options efficaces de contrôle des risques », Sciences de la sécurité, vol. 58, non. 10, pp. 98-112, 2013. Voir sur : Site de l'éditeur | Google Scholar
  13. J. C. Sevillano, D. Rios Insua et J. Rios, « Adversarial risk analysis : the Somali pirates case the Somali pirates case », Analyse de décision, vol. 9, non. 2, pp. 86-95, 2012. Voir sur : Site de l'éditeur | Google Scholar
  14. M. P. Fanti, G. Iacobellis et W. Ukovich, « Un cadre d'évaluation des risques pour le transport de matières dangereuses sur les autoroutes par des filets de Petri colorés », Transactions IEEE sur les systèmes, l'homme et la cybernétique : systèmes, vol. 45, non. 3, pp. 485-495, 2015. Voir sur : Site de l'éditeur | Google Scholar
  15. B. Cai, Y. Liu, Z. Liu, X. Tian, ​​Y. Zhang et R.Ji, « Application des réseaux bayésiens dans l'évaluation quantitative des risques des opérations de prévention des éruptions sous-marines », Analyse de risque, vol. 33, non. 7, pp. 1293-1311, 2013. Voir sur : Site de l'éditeur | Google Scholar
  16. D. Codetta-Raiteri et L. Portinale, « Réseaux bayésiens dynamiques pour la détection, l'identification et la récupération de défauts dans les engins spatiaux autonomes », Transactions IEEE sur les systèmes, l'homme et la cybernétique : systèmes, vol. 45, non. 1, pp. 13-24, 2015. Voir sur : Site de l'éditeur | Google Scholar
  17. Q. Zhang, C. Zhou, N. Xiong, Y. Qin, X. Li et S. Huang, « Prévision d'incidents multimodèles et évaluation des risques dans la protection dynamique de la cybersécurité pour les systèmes de contrôle industriel » Transactions IEEE sur Systems Man & Cybernetics Systems, vol. 46, non. 10, pp. 1–16, 2015. Voir sur : Site de l'éditeur | Google Scholar
  18. B. Cai, Y. Liu, Y. Zhang, Q. Fan, Z. Liu et X. Tian, ​​« Une modélisation de réseaux bayésiens dynamiques des facteurs humains sur les éruptions offshore » Journal de la prévention des pertes dans les industries de transformation, vol. 26, non. 4, pp. 639–649, 2013. Voir sur : Site de l'éditeur | Google Scholar
  19. Y. Y. Haimes, « Sur la définition des vulnérabilités dans la mesure des risques pour les infrastructures », Analyse de risque, vol. 26, non. 2, pp. 293-296, 2006. Voir sur : Site de l'éditeur | Google Scholar
  20. G. Tsakiris, « L'évaluation du risque d'inondation : concepts, modélisation, applications », Discussions sur les risques naturels et les sciences du système terrestre, vol. 14, non. 5, pp. 1361–1369, 2014. Afficher sur : Site de l'éditeur | Google Scholar
  21. J. Q. Zhang et N. Li, Méthodes quantitatives et applications de l'évaluation et de la gestion des risques sur les principales catastrophes météorologiques, Beijing Normal University Press, Pékin, Chine, 2007.
  22. R. Zhang, Diagnostic caractéristique des facteurs environnementaux marins et évaluation des risques de l'activité militaire océanique, Beijing Normal University Press, Pékin, Chine, 2012.
  23. Bureau Maritime International de la CCI, ICC-IMB sur la piraterie et les vols à main armée contre les navires - Rapport annuel, ICC International Maritime Bureau, Londres, Angleterre, 2011, http://www.iccwbo.org/products-and-services/fighting-commercial-crime/international-maritime-bureau/.
  24. S. Belliveau, B. Smit et B. Bradshaw, « Expositions multiples et vulnérabilité dynamique : preuves de l'industrie du raisin dans la vallée de l'Okanagan, Canada », Changement environnemental mondial, vol. 16, non. 4, pp. 364-378, 2006. Voir sur : Site de l'éditeur | Google Scholar
  25. D. Li, H. Meng et X. Shi, « Nuages ​​d'adhésion et générateurs de nuages ​​d'adhésion », Journal of Computer Research & Development, vol. 32, non. 6, pp. 15-20, 1995. Voir sur : Google Scholar
  26. M. Li et K. Liu, « Prédiction probabiliste de la hauteur significative des vagues à l'aide d'un réseau bayésien dynamique et d'un flux d'informations » L'eau, vol. 12, non. 8, p. 2075, 2020. Voir sur : Site de l'éditeur | Google Scholar
  27. M. Li, R. Zhang et K. Liu, « Un nouvel algorithme d'apprentissage d'ensemble combiné à une analyse causale pour l'apprentissage structurel du réseau bayésien », Symétrie, vol. 12, non. 12, p. 2054, 2020. Voir sur : Site de l'éditeur | Google Scholar
  28. K. Di, D. Li et D. Li, « La théorie des nuages ​​et ses applications dans l'exploration de données spatiales et la découverte de connaissances », Journal de l'image et des graphiques, vol. 4, non. 11, pp. 930-935, 1999. Voir sur : Google Scholar
  29. D. Li, Intelligence artificielle avec incertitude, National Defence Industry Press, Pékin, Chine, 2014.
  30. T. I. Alecu, S. Voloshynovskiy et T. Pun, « La transformation gaussienne des distributions : définition, calcul et application » Transactions IEEE sur le traitement du signal, vol. 54, non. 8, pp. 2976–2985, 2006. Voir sur : Site de l'éditeur | Google Scholar
  31. B. Cai, Y. Liu, Q. Fan et al., « Diagnostic de panne basé sur la fusion d'informations multi-sources d'une pompe à chaleur géothermique utilisant un réseau bayésien », Énergie appliquée, vol. 114, non. 2, pp. 1-9, 2014. Voir sur : Site de l'éditeur | Google Scholar
  32. M. Li et K. Liu, « Pondération d'attributs basée sur la causalité via le flux d'informations et l'algorithme génétique pour le classificateur naïf de Bayes », Accès IEEE, vol. 7, pp. 150630–150641, 2019. Voir sur : Site de l'éditeur | Google Scholar
  33. L. Yang, R. Zhang, T. Hou, Z. Hao et J. Liu, « Le modèle de nuage hésitant et son application dans l'évaluation des risques de « la route de la soie maritime du XXIe siècle », Problèmes mathématiques en ingénierie, vol. 2016, non. 3, numéro d'article 5620803, 11 pages, 2016. Afficher sur : Site de l'éditeur | Google Scholar

Droits d'auteur

Copyright © 2021 Kefeng Liu et al. Il s'agit d'un article en libre accès distribué sous la licence Creative Commons Attribution, qui permet une utilisation, une distribution et une reproduction sans restriction sur n'importe quel support, à condition que l'œuvre originale soit correctement citée.


Voir la vidéo: Using Field Calculator in ArcMap (Octobre 2021).