Suite

Existe-t-il un moyen d'ajouter une « étendue d'origine » à une carte cartodb ?


Dans la barre de zoom, existe-t-il un moyen d'inclure un bouton d'étendue d'accueil sur lequel l'utilisateur pourrait cliquer pour zoomer dans la même étendue que l'étendue initiale de la carte ?


Oui, si j'ai bien compris ta question.

Leaflet a une méthode appeléesetView(lien) qui modifie le centre et le niveau de zoom de votre carte. Vous pouvez même animer la transition !

Un bouton, comme çaRéinitialiser la vue, fonctionnera avec le code CartoDB.js/Leaflet suivant :

var map = new L.Map('map', { center: [45, -122], zoom: 5 }); var layer = L.tileLayer('http://{s}.basemaps.cartocdn.com/light_all/{z}/{x}/{y}.png">

Voici une solution de brochure pure; il étend la commande de zoom intégrée Leaflet pour ajouter un bouton d'accueil de zoom.

Bouton « Accueil » Plan du dépliant

Malheureusement, je ne connais pas assez cartodb.js pour savoir quels changements (le cas échéant) seront nécessaires pour que cela fonctionne avec la version cartodb du dépliant, mais cela devrait au moins vous aider à démarrer


Réussi dans l'exemple suivant en faisant de l'objet map une variable globale. Voir un exemple de code ici


Que sont les grilles et les graticules ?

Une grille est un réseau de lignes horizontales et verticales régulièrement espacées utilisées pour identifier des emplacements sur une carte. Par exemple, vous pouvez placer une grille qui divise une carte en un nombre spécifié de lignes et de colonnes en choisissant le type de grille de référence. Souvent, les étiquettes de ligne et de colonne d'une grille de référence identifient les emplacements répertoriés dans un index cartographique. Voici une carte divisée en cinq colonnes (A à E) et cinq lignes (1 à 5) :

Vous pouvez également utiliser des grilles pour afficher les emplacements mesurés à l'aide des coordonnées projetées sur la carte. Il existe de nombreuses façons d'afficher les grilles mesurées. Par exemple, vous trouverez ci-dessous une carte illustrant une grille de 10 000 mètres utilisant le Military Grid Reference System (MGRS) :

Les graticules sont des lignes indiquant les parallèles de latitude et les méridiens de longitude de la Terre.

Les graticules peuvent être utilisés pour montrer l'emplacement en coordonnées géographiques (degrés de latitude et de longitude). Vous trouverez ci-dessous une carte de l'Europe où les graticules sont visibles pour chaque 5 degrés de latitude et 10 degrés de longitude :

Il est également possible de combiner des grilles et des graticules pour afficher plusieurs systèmes de coordonnées sur la même carte. Par exemple, vous pouvez utiliser une grille mesurée pour placer des grilles UTM (Universal Transverse Mercator) et des grilles planes d'état. Ou, comme l'illustre l'exemple ci-dessous, vous pouvez utiliser une grille mesurée pour une projection UTM (en bleu) tout en affichant également des lignes de réticule (en noir) :


Le SIG 3D apporte une profondeur accrue dans la collecte et l'analyse des données en incorporant une valeur z dans la cartographie. Le plus souvent, cela signifie inclure des données d'altitude, mais les utilisateurs ont de nombreuses options pour ajouter des couches d'informations.

Par exemple, une carte peut inclure une dimension basée sur les concentrations de certains produits chimiques et minéraux ou sur les parcelles de terrain les mieux adaptées au développement. Travaillant avec trois dimensions, les professionnels du SIG peuvent souvent appliquer leurs découvertes pour résoudre les problèmes du monde réel avec une plus grande précision.

Bien que les modèles 3D soient plus difficiles à créer et à entretenir que les modèles 2D, il existe une myriade d'applications SIG 3D où cette technologie est très bénéfique. Ces quatre exemples montrent comment un investissement dans la modélisation SIG 3D peut générer de la valeur ajoutée :

1. Urbanisme

Les villes ont une façon de se développer pour englober des zones auparavant sous-développées ou non développées dans un processus souvent appelé urbanisation ou étalement urbain. L'étalement urbain s'explique par de nombreuses raisons, notamment le désir de construire des infrastructures améliorées, des terrains ou des taux d'imposition abordables, ou la surpopulation à l'intérieur de la ville. L'étalement urbain peut avoir un impact majeur sur les personnes qui décident de quitter la ville ainsi que sur celles qui restent. Par exemple, à mesure que les résidents s'éloignent du centre-ville, les infrastructures telles que les routes ou les systèmes de transport public doivent s'adapter à leurs déplacements, et la circulation peut entraîner des taux plus élevés de pollution de l'air.

Pour minimiser les impacts négatifs de l'étalement urbain et du développement accru, il est important que les urbanistes déterminent avec soin la meilleure façon de développer les zones urbaines. Le développement urbain doit prendre en compte les exigences d'aujourd'hui, les changements potentiels de la demande et les effets à long terme de la construction vers le haut et vers l'extérieur.

Un logiciel SIG 3D peut aider les urbanistes à visualiser à quoi ressembleront les changements proposés et à prédire les résultats pour les résidents actuels et les générations futures. Un exemple a été la revitalisation en 2012 du quartier Mülheim Süd à Cologne, en Allemagne, situé sur le Rhin. Le projet visait à rendre le quartier, qui comprenait un mélange de bâtiments résidentiels, commerciaux et industriels, plus respectueux de l'environnement au cours de deux décennies.

Un modèle 3D a mis en lumière des informations sur le bâtiment, des photos aériennes, la performance énergétique, la pollution de l'air, les données d'élévation lidar, le bruit et le trafic. Le large éventail d'informations intégrées a permis aux architectes, aux ingénieurs en planification et à d'autres de collaborer efficacement. Au fur et à mesure que le quartier se développe, le modèle 3D aidera les futurs planificateurs avec la modélisation énergétique et environnementale et guidera les initiatives de participation du public.

2. Modélisation des informations sur le bâtiment

La modélisation des informations du bâtiment (BIM) est une technologie qui génère des représentations numériques des installations et des processus pertinents. Le BIM a donné aux gestionnaires d'installations la possibilité d'examiner attentivement les structures, en commençant par la phase de planification de la construction.

Utilisé conjointement avec des données SIG 3D, le BIM peut aider à créer des plans de gestion de bâtiment robustes et permettre une analyse plus détaillée. Par exemple, avant de commencer un projet de construction, les parties prenantes peuvent examiner les résultats du SIG et du BIM pour tirer des conclusions sur l'impact environnemental, la durabilité, la préparation aux catastrophes et comment optimiser l'utilisation des actifs et de l'espace.

Le BIM et le SIG 3D peuvent également s'associer pour soutenir la préservation et la restauration des bâtiments historiques. Un effort pour enregistrer numériquement les sites du patrimoine culturel à Dublin, en Irlande, s'est appuyé sur la modélisation des informations sur les bâtiments historiques (HBIM) et le SIG 3D pour documenter et analyser des emplacements sélectionnés.

Un projet s'est concentré sur la restauration des bâtiments le long de la rue Henrietta, dont la première construction date de 1730. Au 21e siècle, la rue était bordée de bâtiments nécessitant sérieusement des soins. La technologie HBIM a permis de cartographier l'étendue des dégâts et de visualiser à quoi ressemblait la zone à l'état neuf. Les chercheurs ont utilisé des outils SIG pour noter les attributs des bâtiments individuels comme les années de construction et les informations d'adresse. Dans le processus, ils ont développé un stock d'informations qui pourraient être utilisées pour générer des visualisations en profondeur ou guider les touristes.

3. Modélisation et analyse côtières

Le littoral d'un pays est une porte d'entrée cruciale pour les importations et les exportations, et environ 40 pour cent de la population mondiale vit à moins de 60 miles d'une côte. Mais ces domaines posent également de nombreux défis pour le développement.

Il est essentiel que les planificateurs comprennent les facteurs qui affectent la construction et l'entretien des ports d'expédition, de la pêche, des exploitations minières et des zones de préservation de la nature. Le développement côtier responsable doit être éclairé par la topographie sous-marine, la végétation locale et les prévisions de l'impact environnemental à long terme.

Les systèmes de planification des ressources qui s'appuient sur le SIG peuvent fournir des informations sur les résultats économiques, environnementaux et culturels des activités le long de la côte. Les bonnes données font toute la différence dans l'exécution durable d'opérations telles que la construction ou l'excavation. Lors de la préparation de l'extraction des ressources sur le littoral, les organisations bénéficient de la synthèse d'informations telles que :

  • Résultats de la cartographie SIG 3D qui suggèrent les résultats probables du dragage des matériaux dans l'eau
  • Levés topographiques lidar
  • Ensembles de données des activités d'extraction passées
  • Tendances des changements côtiers

4. Évaluation du parc éolien

La planification d'un parc éolien nécessite une analyse détaillée d'un environnement et des effets potentiels des structures. En utilisant la modélisation SIG 3D, les planificateurs et autres parties prenantes peuvent avoir une meilleure idée de l'impact du développement des parcs éoliens sur la faune et les personnes.

Par exemple, lors de l'évaluation d'emplacements possibles de parcs éoliens en deux dimensions, le chemin migratoire d'un oiseau peut donner l'impression qu'un emplacement est inaccessible. Cependant, l'examen de ce même espace à l'aide de données SIG 3D peut révéler que l'élévation des trajectoires de vol des oiseaux et la hauteur du parc éolien sont compatibles.

En Suisse, les développeurs voulaient trouver un moyen de déterminer avec précision le bruit qui serait généré par l'installation d'un nouveau parc éolien. Une équipe développant un outil de simulation visio-acoustique a décidé d'étudier le Mont Crosin dans le canton de Berne, en Suisse, qui abrite 16 éoliennes. Les chercheurs ont analysé les enregistrements pris des jours avec des conditions de vent et de météo variables et des mesures de la vitesse du vent prises avec un anémomètre à ultrasons 3D. Ils ont généré des modèles 3D représentant la végétation, les infrastructures et les éoliennes elles-mêmes. Les données ont permis aux planificateurs de prédire le bruit et l'impact environnemental qui seraient produits par le parc éolien proposé.

À propos des programmes d'études supérieures en SIG en ligne de l'USC

L'Université de Californie du Sud propose une sélection complète de programmes SIG en ligne, y compris des masters SIG et des certificats d'études supérieures SIG. Cela donne à nos étudiants la flexibilité ultime pour adapter leur éducation à leurs objectifs de carrière. Cliquez sur les programmes ci-dessous pour en savoir plus sur notre formation de pointe en sciences de l'information géographique.

Masters SIG en ligne

Certificats d'études supérieures SIG en ligne

Demander une brochure

Remplissez les informations ci-dessous pour en savoir plus sur les programmes d'études supérieures en SIG en ligne de l'Université de Californie du Sud et téléchargez une brochure gratuite. Si vous avez des questions supplémentaires, veuillez appeler 877-650-9054 parler à un conseiller à l'inscription.

L'Université de Californie du Sud respecte votre droit à la vie privée. En soumettant ce formulaire, vous acceptez de recevoir des e-mails et des appels d'un représentant de l'Université de Californie du Sud, ce qui peut inclure l'utilisation d'une technologie automatisée. Le consentement est nécessaire pour vous contacter, mais n'est pas une exigence pour vous inscrire ou vous inscrire.


Comment planter des graines de pachysandra

La pachysandra est une plante naturelle à cultiver, et une fois profondément enracinée, elle se répand entièrement au sol. Planter ces graines ne prend pas beaucoup de temps et peut être très amusant, beaucoup de jardiniers appellent ce processus une autre forme de loisir.

Il existe de nombreuses variétés de Pachysandra disponibles pour les plantes en fonction de leurs préférences et de leur emplacement.

Suivez ces étapes ci-dessous et votre succès de plantation est garanti.

Choisir un emplacement

Les graines de Pachysandra prospèrent mieux dans les zones partiellement ombragées. Une exposition excessive au soleil blanchit le feuillage vert des plantes et le rend anormalement jaune, une situation connue sous le nom de chlorose des plantes.

Pour une croissance maximale, plantes pachysandra dépendent de la protection contre le soleil toute l'année pendant l'été et l'hiver.

Par conséquent, sous de grands arbres ombragés ou derrière des murs ou des clôtures, le meilleur endroit pour les planter est que ces structures protégeront Pachysandra des brûlures hivernales qui rendront les feuilles sans vie.

Sol et plantation Pachysandra

Pachysandra pousse mieux dans un sol fertile et bien drainé. Il préfère les sols qui ont un ph acide. de 5,5 à 6,5. La zone de croissance recommandée est comprise entre 4 et 7.

Avant de planter une plante couvre-sol, il est essentiel d'éliminer les mauvaises herbes existantes. Ne pas débarrasser le sol des mauvaises herbes affectera la croissance des nouvelles plantes et leur aspect visuel.

Après avoir éliminé les débris, avant de planter, assurez-vous d'enrichir le sol avec du fumier pourri, de la mousse de tourbe ou des feuilles pourries, car ils préfèrent un sol humide et riche en humus organique.

Les plantes de pachysandra plus petites doivent être plantées à une distance de 15 à 30 cm (6 et 12 pouces) pour s'adapter à leur propagation, mais vous pouvez également les planter plus près si vous préférez remplir et étendre une zone plus rapidement.

Le Pachysandra nouvellement planté nécessite un arrosage régulier jusqu'à ce que les racines soient profondément enracinées. Arrosez soigneusement les nouvelles plantes et fournissez 5 cm de fumier pour aider le système racinaire à retenir l'eau.

Le meilleur outil de plantation pour planter des plantes de Pachysandra est une simple truelle de maçon, ouvrez doucement un petit compartiment dans le sol ameubli, placez la plante et comprimez-la légèrement autour de la base de la plante.


Utilisez e4defrag pour défragmenter vos fichiers

Si votre système de fichiers ext4 est créé avec l'option d'extension (c'est la valeur par défaut dans les distributions récentes), vous pouvez utiliser l'utilitaire e4defrag pour le vérifier et le défragmenter en ligne, c'est-à-dire sans démonter.

Vérifiez simplement le niveau de fragmentation avec quelque chose comme ceci (vous devez être root pour voir les détails):

Voici un exemple de sortie que vous pouvez obtenir :

Comme dans cet exemple, la plupart du temps, il vous dira qu'aucune défragmentation n'est nécessaire, mais si vous souhaitez le faire de toute façon, vous pouvez utiliser (vous n'avez pas besoin d'utiliser sudo pour défragmenter vos propres fichiers):

Vos utilisateurs peuvent même l'exécuter sur leurs propres fichiers, il n'est pas nécessaire d'être root à moins que vous ne vouliez travailler sur les fichiers d'autres utilisateurs ou système.

e4defrag est dans le package e2fsprogs, et je suppose qu'il est déjà installé sur votre système Ubuntu.


La capitale mondiale du plastique au quotidien

Comment est-ce qu'on est arrivés ici? Quand le côté obscur du miracle du plastique s'est-il manifesté pour la première fois ? C'est une question que l'on peut se poser sur bon nombre des merveilles de notre monde technologique. Depuis qu'ils ont aidé les Alliés à gagner la Seconde Guerre mondiale, pensez aux parachutes en nylon ou aux pièces d'avion légères, les plastiques ont transformé toutes nos vies comme peu d'autres inventions l'ont fait, la plupart pour le mieux. Ils ont facilité les voyages dans l'espace et révolutionné la médecine. Ils allègent chaque voiture et gros porteur aujourd'hui, économisant du carburant et de la pollution. Sous forme d'enveloppes collantes et légères comme de l'air, elles prolongent la durée de vie des aliments frais. Dans les airbags, les incubateurs, les casques, ou simplement en fournissant de l'eau potable aux pauvres dans ces bouteilles jetables désormais diabolisées, les plastiques sauvent des vies au quotidien.

Dans l'une de leurs premières applications, ils ont sauvé la faune. Au milieu des années 1800, les touches de piano, les boules de billard, les peignes et toutes sortes de bibelots étaient faits d'un matériau naturel rare : l'ivoire d'éléphant. Avec la population d'éléphants en danger et l'ivoire cher et rare, une entreprise de billard à New York a offert une récompense de 10 000 $ à quiconque pourrait trouver une alternative.

Comme Susan Freinkel raconte l'histoire dans son livre, Plastique : une histoire d'amour toxique, un inventeur amateur nommé John Wesley Hyatt a relevé le défi. Son nouveau matériau, le celluloïd, était fait de cellulose, le polymère présent dans toutes les plantes. L'entreprise de Hyatt se vantait d'éliminer le besoin de « saccager la Terre à la recherche de substances de plus en plus rares ». En plus d'épargner au moins quelques éléphants, le celluloïd a également contribué à faire passer le billard d'un simple passe-temps aristocratique à un jeu auquel les travailleurs jouent dans les bars.

Une brève histoire de la façon dont le plastique a changé notre monde

C'est un exemple trivial d'une révolution profonde inaugurée par le plastique - une ère d'abondance matérielle. La révolution s'est accélérée au début du 20e siècle, une fois que les plastiques ont commencé à être fabriqués à partir de la même substance qui nous donnait une énergie abondante et bon marché : le pétrole. Les compagnies pétrolières avaient des gaz résiduaires comme l'éthylène sortant des cheminées de leurs raffineries. Les chimistes ont découvert qu'ils pouvaient utiliser ces gaz comme éléments constitutifs, ou monomères, pour créer toutes sortes de nouveaux polymères - le polyéthylène téréphtalate, par exemple, ou le PET - au lieu de travailler uniquement avec des polymères qui existaient déjà dans la nature. Un monde de possibilités s'est ouvert. Tout et n'importe quoi pouvait être fait de plastique, et il en était ainsi, parce que les plastiques étaient bon marché.

Ils étaient si bon marché que nous avons commencé à fabriquer des choses que nous n'avions jamais l'intention de garder. En 1955 Vie magazine a célébré la libération de la ménagère américaine de la corvée. Sous le titre "Throwaway Living", une photographie montrait une famille lançant des assiettes, des tasses et des couverts en l'air. Les articles prendraient 40 heures à nettoyer, a noté le texte - "sauf qu'aucune femme au foyer n'a besoin de s'en soucier". Quand les plastiques ont-ils commencé à montrer leur côté sombre ? Vous pourriez dire que c'est lorsque la jonque sur cette photo a touché le sol.

Six décennies plus tard, environ 40 % des plus de 448 millions de tonnes de plastique produites chaque année sont jetables, une grande partie étant utilisée comme emballage destiné à être jeté dans les minutes qui suivent l'achat. La production a augmenté à un rythme si effréné que pratiquement la moitié du plastique jamais fabriqué a été fabriqué au cours des 15 dernières années. L'année dernière, la société Coca-Cola, peut-être le plus grand producteur mondial de bouteilles en plastique, a reconnu pour la première fois combien elle en fabrique : 128 milliards par an. Nestlé, PepsiCo et d'autres produisent également des torrents de bouteilles.

La croissance de la production de plastique a largement dépassé la capacité de la gestion des déchets à suivre le rythme : c'est pourquoi les océans sont attaqués. "Ce n'est pas surprenant que nous ayons cassé le système", dit Jambeck. "Ce genre d'augmentation briserait tout système qui n'y serait pas préparé." En 2013, un groupe de scientifiques a publié une nouvelle évaluation de la vie jetable. Écrire dans La nature magazine, ils ont déclaré que le plastique jetable devrait être classé, non pas comme l'ami d'une femme au foyer, mais comme une matière dangereuse.

Ces dernières années, l'augmentation de la production a été largement due à l'utilisation accrue des emballages en plastique jetables dans les économies en croissance d'Asie, où les systèmes de collecte des ordures peuvent être sous-développés ou inexistants. En 2010, selon une estimation de Jambeck, la moitié des déchets plastiques mal gérés dans le monde étaient générés par seulement cinq pays asiatiques : la Chine, l'Indonésie, les Philippines, le Vietnam et le Sri Lanka.

« Disons que vous recyclez à 100 % dans toute l'Amérique du Nord et l'Europe », déclare Ramani Narayan, professeur de génie chimique à la Michigan State University qui travaille également dans son Inde natale. « Vous ne feriez toujours pas une brèche sur les plastiques rejetés dans les océans. Si vous voulez faire quelque chose à ce sujet, vous devez aller là-bas, dans ces pays, et traiter les déchets mal gérés. »

La rivière Pasig coulait autrefois majestueusement à travers le centre-ville de Manille, capitale des Philippines, et se jette dans la baie immaculée de Manille. C'était une voie navigable précieuse et un point de fierté civique. Il fait désormais partie des 10 principaux fleuves au monde qui transportent des déchets plastiques vers la mer. Jusqu'à 72 000 tonnes s'écoulent en aval chaque année, principalement pendant la mousson. En 1990, le Pasig a été déclaré biologiquement mort.

La Commission de réhabilitation de la rivière Pasig, créée en 1999, s'emploie à nettoyer la rivière, avec quelques signes de succès. Jose Antonio Goitia, directeur exécutif de la commission, se dit optimiste quant à la possibilité de restaurer le Pasig un jour, bien qu'il reconnaisse qu'il n'a pas de moyen facile de le faire. "Peut-être que la meilleure chose à faire est d'interdire les sacs en plastique", dit-il.

Les défis restants sont clairement visibles chaque jour.La rivière est alimentée par 51 affluents, dont certains débordent de déchets plastiques provenant de colonies de squatters en porte-à-faux précaire sur les berges du ruisseau. Un affluent près de Chinatown, où des baraques branlantes sont coincées entre des bâtiments modernes, est tellement encombré de débris de plastique que vous pouvez le traverser en renonçant à la passerelle. Les plages de la baie de Manille, autrefois répits récréatifs pour les 13 millions d'habitants du Grand Manille, sont jonchées d'ordures, en grande partie en plastique. L'automne dernier, Break Free From Plastic, une coalition comprenant Greenpeace et d'autres groupes, a nettoyé une plage sur Freedom Island, qui est annoncée comme un district écotouristique, les bénévoles ont ramassé 54 260 morceaux de plastique, des chaussures aux contenants de nourriture. Au moment où j'ai visité quelques semaines plus tard, la plage était à nouveau jonchée de bouteilles, d'emballages et de sacs à provisions.

La scène à Manille est typique des grands centres urbains surpeuplés d'Asie. Les Philippines sont une nation densément peuplée de 105 millions d'habitants qui est toujours aux prises avec les problèmes de santé publique les plus fondamentaux, notamment les maladies d'origine hydrique telles que la typhoïde et la diarrhée bactérienne. Pas étonnant qu'elle ait du mal à gérer l'explosion des déchets plastiques. Manille dispose d'un système métropolitain de collecte des ordures qui s'étend sur 17 gouvernements locaux distincts, une source de chaos et d'inefficacité. En 2004, la région manquait déjà de terres pour déverser les ordures en toute sécurité. La pénurie d'espaces d'enfouissement, et donc la crise, perdure aujourd'hui.

Une petite partie de la marge est absorbée par l'industrie informelle du recyclage de Manille, qui se compose de milliers de ramasseurs de déchets. Armando Siena, 34 ans, est l'un d'entre eux. Lui et sa femme, Angie, 31 ans, ont vécu toute leur vie entourés de déchets. Ils sont nés à Smokey Mountain, un dépotoir de renommée internationale qui a été officiellement fermé dans les années 1990. Ils vivent maintenant avec leurs trois enfants près du front de mer de Manille dans un appartement d'une pièce éclairé par une seule ampoule, meublé avec une paire de chaises en plastique et dépourvu de plomberie, de literie ou de réfrigération. L'appartement se trouve dans un bidonville rempli d'ordures nommé Aroma, à côté d'un autre bidonville nommé Happyland.

Chaque jour, Sienne roule sur un vélo branlant au-delà des limites d'Aroma, parcourant les rues à la recherche de déchets recyclables qu'il peut mettre dans son side-car. Les contenants de soupe en plastique sont des trouvailles de grande valeur, payant 20 pesos (38 cents) le kilogramme. Sienne trie et vend son chargement à une brocante appartenant à son oncle, qui transporte les déchets vers des usines de recyclage à la périphérie de Manille.

Les ramasseurs de déchets comme Sienne font partie de la solution, certains militants soutiennent qu'ils n'ont besoin que d'un salaire décent. Dans le bidonville de Baseco au bord de l'eau à Manille, un petit magasin de recyclage exploité par la Plastic Bank of Vancouver, en Colombie-Britannique, paie une prime pour les bouteilles et le plastique dur collectés par les ramasseurs de déchets. Elle vend ensuite ce plastique à un prix plus élevé aux multinationales, qui commercialisent leurs produits recyclés comme socialement responsables.

Siegler, l'économiste du Vermont, a travaillé dans suffisamment de pays et dirigé suffisamment de numéros pour être sceptique à l'égard de tels programmes. "Il n'y a pas assez de valeur dans les plastiques pour que cela fonctionne", dit-il. « C'est moins cher de financer un système de gestion des déchets solides que de subventionner la collecte de plastique. »

Les déchets qui obstruent les plages et les cours d'eau de Manille renforcent le point de vue de Siegler. Il s'agit en grande partie de sachets, de sachets détachables qui contenaient autrefois une seule portion de shampoing, de dentifrice, de café, de condiments ou d'autres produits. Ils sont vendus par millions à des pauvres comme Sienne et sa famille, qui ne peuvent pas se permettre d'acheter plus d'une portion à la fois. Les sachets soufflent autour de Manille comme des feuilles qui tombent des arbres. Ils ne sont pas recyclables, donc aucun ramasseur de déchets ne les récupérera. Crispian Lao, membre de la Commission nationale de gestion des déchets solides, déclare : « Ce segment des emballages est en pleine croissance et il est devenu un véritable défi pour la gestion des déchets solides.

Lorsque Greenpeace a nettoyé la plage de Freedom Island, il a affiché un décompte des noms de marque des sachets que ses bénévoles avaient collectés. Nestlé s'est classé premier, Unilever deuxième. Les punaises des ordures ne sont pas les seules fautives, déclare Abigail Aguilar de Greenpeace : « Nous pensons que ceux qui produisent et promeuvent l'utilisation de plastiques à usage unique ont un rôle majeur dans l'ensemble du problème. Une porte-parole d'Unilever à Manille m'a dit que l'entreprise développait un sachet recyclable.

Après le vol 370 de Malaysia Airlines disparu des écrans radar en mars 2014 alors qu'il se rendait de Kuala Lumpur à Pékin, sa recherche s'étendait de l'Indonésie au sud de l'océan Indien. Il a captivé un public mondial pendant des semaines. Aucun signe de l'épave n'est apparu. À plusieurs reprises, lorsque des images satellites ont révélé des collections d'objets flottant à la surface de la mer, l'espoir s'est envolé qu'il s'agirait de pièces d'avion. Ils ne l'étaient pas. Ce n'étaient que des déchets – des morceaux de conteneurs d'expédition cassés, des engins de pêche abandonnés et, bien sûr, des sacs à provisions en plastique.

Kathleen Dohan, scientifique et présidente de Earth and Space Research à Seattle, a vu une opportunité dans l'horreur : les images de l'espace faisaient apparaître un problème qui avait longtemps été négligé. "C'est la première fois que le monde entier regarde", m'a-t-elle dit à l'époque. "C'est le bon moment pour que les gens comprennent que nos océans sont des dépotoirs." Dohan a senti un tournant dans la sensibilisation du public et les événements qui se sont déroulés depuis suggèrent qu'elle avait peut-être raison.

La chose la plus encourageante à propos du problème des déchets plastiques est l'explosion récente de l'attention portée à ce problème, et même des efforts sérieux, bien que dispersés, pour y remédier. Une liste partielle des bonnes nouvelles depuis 2014 comprendrait, sans ordre particulier : le Kenya a rejoint une liste croissante de pays qui ont interdit les sacs en plastique, imposant de lourdes amendes et des peines de prison aux contrevenants. La France a annoncé qu'elle interdirait les assiettes et les gobelets en plastique d'ici 2020. L'interdiction des microbilles de plastique dans les cosmétiques (ce sont des exfoliants) entrera en vigueur cette année aux États-Unis, au Canada, au Royaume-Uni et dans quatre autres pays. L'industrie les élimine progressivement.

Les entreprises réagissent à l'opinion publique. Coca-Cola, qui produit également de l'eau Dasani, a annoncé son objectif de « collecter et recycler l'équivalent de » 100 % de ses emballages d'ici 2030. Elle et d'autres multinationales, dont PepsiCo, Amcor et Unilever, se sont engagées à passer à 100 %. des emballages réutilisables, recyclables ou compostables d'ici 2025. Et Johnson & Johnson passe du plastique aux tiges en papier sur ses cotons-tiges.

Les individus aussi font une différence. Ellen MacArthur, une navigatrice britannique, a créé une fondation pour promouvoir la vision d'une « économie circulaire », dans laquelle tous les matériaux, y compris les plastiques, sont conçus pour être réutilisés ou recyclés, et non pour être jetés. L'acteur Adrian Grenier a prêté sa célébrité à la campagne contre la paille en plastique. Et Boyan Slat, 23 ans, des Pays-Bas, va de l'avant avec son vœu d'adolescent de nettoyer le plus grand dépotoir du Pacifique Nord. Son organisation a levé plus de 30 millions de dollars pour construire une machine de balayage des océans qui est toujours en cours de développement.

Toutes ces mesures aident à un certain niveau, même le nettoyage des plages, aussi futiles qu'elles paraissent parfois. Un nettoyage de plage a attiré Richard Thompson sur le problème du plastique il y a un quart de siècle. Mais la vraie solution, pense-t-il maintenant, est d'empêcher le plastique d'entrer dans l'océan en premier lieu, puis de repenser toute notre approche des choses incroyables. « Nous avons fait beaucoup de travail pour nous assurer que le plastique fait son travail, mais très peu de travail sur ce qui arrive à ce produit à la fin de sa durée de vie », dit-il. "Je ne dis pas que les plastiques sont l'ennemi, mais l'industrie peut faire beaucoup pour aider à résoudre le problème."

L'industrie peut apporter son aide de deux manières fondamentales, si elle le veut ou y est forcée. Premièrement, avec des scientifiques universitaires tels que Jambeck, il peut concevoir de nouveaux plastiques et de nouveaux produits en plastique qui sont soit biodégradables, soit plus recyclables (voir Vous pouvez aider à renverser la vapeur sur le plastique. Voici comment.). De nouveaux matériaux et davantage de recyclage, tout en évitant simplement les utilisations inutiles de ces produits, sont les solutions à long terme au problème des déchets plastiques. Mais le moyen le plus rapide de faire une grande différence, dit Siegler, est la basse technologie. Ce sont plus des camions à ordures et des décharges.

« Tout le monde veut une réponse sexy », dit-il. « La réalité est que nous devons simplement ramasser les ordures. Dans la plupart des pays dans lesquels je travaille, vous ne pouvez même pas le sortir de la rue. Nous avons besoin de camions à ordures et d'aider à institutionnaliser le fait que ces déchets doivent être collectés régulièrement et mis en décharge, recyclés ou brûlés afin qu'ils ne finissent pas par se répandre partout.

C'est la deuxième façon dont l'industrie pourrait aider : elle pourrait intervenir. Siegler a proposé une taxe mondiale d'un centime sur chaque livre de résine plastique fabriquée. La taxe permettrait de collecter environ six milliards de dollars par an qui pourraient être utilisés pour financer les systèmes de collecte des ordures dans les pays en développement. L'idée n'a jamais fait son chemin. À l'automne 2017, cependant, un groupe de scientifiques a relancé le concept d'un fonds mondial. Le groupe a appelé à un accord international sur le modèle de l'accord de Paris sur le climat.


Lettre à l'éditeur (exemples de lettres & exemples)

Une lettre au rédacteur en chef est une lettre conventionnelle envoyée à un magazine ou à un journal pour discuter des problèmes de ses lecteurs. Il faut suivre strictement le format de la lettre. Il peut également être écrit pour être publié par courrier électronique ou conventionnel. Dans la plupart des cas, une telle lettre - destinée à être publiée dans des magazines et des journaux - est parfois publiée dans d'autres médias tels que des magazines techniques et de divertissement, des stations de radio et de télévision.

Une lettre à l'éditeur est l'un des articles de lecture les plus populaires dans n'importe quel magazine ou journal. Cela permet de toucher un public plus large. Il existe de nombreuses raisons spécifiques d'écrire une lettre à l'éditeur. Mais voici les raisons générales d'écrire une lettre à l'éditeur :

  • Proposer une idée aux autres
  • Exprimer vos griefs
  • Impacter l'opinion publique
  • Sensibiliser le public sur un sujet précis
  • Impacter les élus ou les décideurs de manière directe ou indirecte
  • Accroître la sensibilisation aux enjeux organisationnels
  • Faites connaître votre groupe et attirez des bénévoles
  • Discuter des opinions publiques et partager vos sentiments sur les gens
  • Etc.

Presque toutes les publications imprimées préfèrent recevoir leurs lettres ou autres documents par courrier électronique, car tout ce qu'elles publient est généralement disponible sur un ordinateur et imprimé à partir d'un logiciel. On peut toujours envoyer sa lettre par courrier, mais pour les problèmes urgents, cela n'est pas toujours recommandé car vous devrez attendre plus longtemps après sa réception pour l'impression.

Après avoir reçu votre lettre, les éditeurs tenteront de l'inclure dans leur prochain numéro. Seules les lettres de haute qualité et fondées sur des principes scientifiques solides sont généralement prises en compte pour les publications. Toutes les lettres sont généralement soumises à un examen minutieux par les membres du comité de rédaction avant d'être approuvées pour publication.

Si vous souhaitez envoyer une lettre à l'éditeur, assurez-vous de vous référer aux points suivants pour savoir comment formater correctement votre lettre à l'éditeur :


Arguments pour le Collège électoral

  • contribue à la cohésion du pays en exigeant une répartition du soutien populaire pour être élu président
  • rehausse le statut des intérêts minoritaires,
  • contribue à la stabilité politique de la nation en encourageant un système bipartite, et
  • maintient un système fédéral de gouvernement et de représentation.

Reconnaissant les forts intérêts et loyautés régionaux qui ont joué un si grand rôle dans l'histoire américaine, les partisans soutiennent que le système des collèges électoraux contribue à la cohésion du pays être exigeant une répartition du soutien populaire pour être élu président, sans un tel mécanisme, soulignent-ils, le président serait choisi soit par la domination d'une région peuplée sur les autres, soit par la domination de grandes régions métropolitaines sur les régions rurales. En effet, c'est principalement à cause du Collège électoral que les candidats présidentiels sont enclins à choisir des vice-présidents vice-présidents d'une région autre que la leur. Car dans l'état actuel des choses, aucune région ne contient la majorité absolue (270) des voix électorales requises pour élire un président. Ainsi, les candidats présidentiels sont incités à rassembler des coalitions d'États et de régions plutôt que d'exacerber les différences régionales. Un tel mécanisme d'unification semble particulièrement prudent compte tenu des graves problèmes régionaux qui ont généralement frappé de grandes nations géographiquement telles que la Chine, l'Inde, l'Union soviétique et même, à son époque, l'Empire romain.

Ce mécanisme fédérateur n'est cependant pas sans petit prix. Et le prix à payer, c'est que lors d'élections populaires très serrées, il est possible que le candidat qui remporte une légère majorité des suffrages populaires ne soit pas celui élu président - selon (comme en 1888) si sa popularité se concentre dans quelques États ou s'il est plus également réparti entre les États. Pourtant, c'est moins un problème qu'il n'y paraît puisque, en pratique, la différence populaire entre les deux candidats serait probablement si faible que l'un ou l'autre des candidats pourrait gouverner efficacement.

Les partisans pensent donc que la valeur pratique d'exiger une distribution de soutien populaire l'emporte sur toute valeur sentimentale pouvant être attachée à l'obtention d'une simple majorité de soutien populaire. En effet, ils soulignent que le système du Collège électoral est conçu pour fonctionner dans une série rationnelle de défauts : si, dans un premier temps, un candidat obtient une majorité substantielle du vote populaire, alors ce candidat est pratiquement certain de remporter suffisamment de votes électoraux. être élu président dans le cas où le vote populaire est extrêmement serré, alors l'élection est par défaut celle du candidat ayant la meilleure répartition des votes populaires (comme en témoigne l'obtention de la majorité absolue des votes électoraux) dans le cas où le pays est tellement divisé que personne n'obtient la majorité absolue des voix électorales, alors le choix du président revient par défaut aux États à la Chambre des représentants américaine. D'une manière ou d'une autre, le candidat gagnant doit donc démontrer à la fois un soutien populaire suffisant pour gouverner ainsi qu'une répartition suffisante de ce soutien pour gouverner.

Les partisans soulignent également que, loin de diminuer les intérêts minoritaires en diminuant la participation des électeurs, le Collège électoral améliore le statut des groupes minoritaires. Il en est ainsi parce que les électeurs même de petites minorités dans un État peuvent faire la différence entre remporter tous les votes électoraux de cet État ou aucun des votes électoraux de cet État. Et comme les groupes ethniques minoritaires aux États-Unis se concentrent dans les États ayant le plus de votes électoraux, ils assument une importance pour les candidats à la présidentielle bien disproportionnée par rapport à leur nombre. Le même principe s'applique à d'autres groupes d'intérêts particuliers tels que les syndicats, les agriculteurs, les écologistes, etc.

C'est à cause de cet « effet de levier » que la présidence, en tant qu'institution, a tendance à être plus sensible aux minorités ethniques et aux autres groupes d'intérêts particuliers que le Congrès en tant qu'institution. Passer à une élection directe du président porterait donc atteinte aux intérêts minoritaires puisque leurs voix seraient dépassées par une majorité populaire nationale.

Les partisans soutiennent en outre que le Collège électoral contribue à la stabilité politique de la nation en encourageant un système bipartite. Il ne fait aucun doute que le Collège électoral a encouragé et aide à maintenir un système bipartite aux États-Unis. Cela est vrai simplement parce qu'il est extrêmement difficile pour un nouveau parti ou un parti mineur de gagner suffisamment de voix dans suffisamment d'États pour avoir une chance de remporter la présidence. Même s'ils obtenaient suffisamment de voix électorales pour forcer la décision à la Chambre des représentants des États-Unis, ils devraient encore avoir une majorité de plus de la moitié des délégations des États pour élire leur candidat - et dans ce cas, ils ne seraient guère considérés comme un partie mineure.

En plus de protéger la présidence des mouvements de tiers passionnés mais transitoires, l'effet pratique du Collège électoral (avec le système de représentation par circonscription uninominale au Congrès) est de forcer virtuellement les mouvements de tiers à entrer dans l'un des deux principaux des soirées. A l'inverse, les grands partis ont tout intérêt à absorber les mouvements de petits partis dans leur tentative incessante de conquérir les majorités populaires aux États-Unis. Dans ce processus d'assimilation, les mouvements tiers sont obligés de compromettre leurs points de vue les plus radicaux s'ils espèrent atteindre l'un de leurs objectifs plus généralement acceptables. Ainsi, nous nous retrouvons avec deux grands partis politiques pragmatiques qui tendent au centre de l'opinion publique plutôt que des dizaines de petits partis politiques répondant à des points de vue divergents et parfois extrémistes. En d'autres termes, un tel système oblige les coalitions politiques à se former au sein des partis politiques plutôt qu'au sein du gouvernement.

Une élection populaire directe du président aurait probablement l'effet inverse. Car dans une élection populaire directe, il y aurait tout intérêt à ce qu'une multitude de petits partis se forment pour tenter d'empêcher la majorité populaire qui pourrait être nécessaire pour élire un président. Les candidats survivants seraient ainsi attirés par les points de vue régionalistes ou extrémistes représentés par ces partis dans l'espoir de remporter le second tour.

Le résultat d'une élection populaire directe pour le président serait donc probablement un système politique effiloché et instable caractérisé par une multitude de partis politiques et par des changements de politique plus radicaux d'une administration à l'autre. Le système des collèges électoraux, en revanche, encourage les partis politiques à fusionner des intérêts divergents en deux ensembles d'alternatives cohérentes. Une telle organisation des conflits sociaux et du débat politique contribue à la stabilité politique de la nation.

Enfin, ses partisans soutiennent à juste titre que le Collège électoral maintient un système fédéral de gouvernement et de représentation. Leur raisonnement est que dans une structure fédérale formelle, d'importants pouvoirs politiques sont réservés aux États qui la composent. Aux États-Unis, par exemple, la Chambre des représentants a été conçue pour représenter les États en fonction de la taille de leur population. Les États sont même chargés de tracer les limites des circonscriptions pour leurs sièges à la Chambre. Le Sénat a été conçu pour représenter chaque État de manière égale, quelle que soit sa population. Et le Collège électoral a été conçu pour représenter le choix de chaque État pour la présidence (le nombre de voix électorales de chaque État étant le nombre de ses sénateurs plus le nombre de ses représentants). Supprimer le Collège électoral au profit d'une élection nationale populaire pour le président frapperait au cœur même de la structure fédérale prévue par notre Constitution et conduirait à la nationalisation de notre gouvernement central - au détriment des États.

En effet, si nous devenons obsédés par le gouvernement à la majorité populaire comme seule considération, ne devrions-nous pas alors abolir le Sénat qui représente les États sans distinction de population ? Ne faut-il pas corriger les légères distorsions de la Chambre (causées par les circonscriptions et en garantissant à chaque Etat au moins un Représentant) en la faisant passer à un système de représentation proportionnelle ? Cela permettrait d'accomplir un "gouvernement à la majorité populaire" et de garantir la représentation des partis minoritaires, mais cela détruirait également notre système de gouvernement fédéral. S'il y a des raisons de maintenir la représentation de l'État au Sénat et à la Chambre telles qu'elles existent aujourd'hui, alors ces mêmes raisons s'appliquent sûrement au choix du président. Pourquoi donc n'appliquer un attachement sentimental aux majorités populaires qu'au Collège électoral ?

Le fait est, soutiennent-ils, que la conception originale de notre système fédéral de gouvernement a été soigneusement et sagement débattue par les Pères fondateurs. Les points de vue de l'État, ont-ils décidé, sont plus importants que les points de vue des minorités politiques. Et l'opinion collective des populations individuelles de l'État est plus importante que l'opinion de la population nationale prise dans son ensemble. Nous ne devons pas non plus toucher à l'équilibre prudent des pouvoirs entre les gouvernements national et étatique que les Pères fondateurs voulaient et qui se reflète dans le collège électoral. Agir ainsi modifierait fondamentalement la nature de notre gouvernement et pourrait bien entraîner des conséquences que même les réformateurs en viendraient à regretter.


Nouvelles et analyses de la banquise arctique

Vous trouverez ci-dessous quelques questions courantes que nous avons reçues concernant la banquise arctique. Si vous ne voyez pas de réponse à votre question ici, veuillez consulter Icelights : Vos questions brûlantes sur la banquise arctique et le climat, pour rechercher votre question ou en soumettre une nouvelle. Vous pouvez trouver plus d'informations sur la recherche sur la glace de mer sur la page Web État de la cryosphère : glace de mer et tout sur la glace de mer. Pour des informations générales de base, voir Faits en bref sur la banquise arctique.

Questions sur les images et les données

Étudier la glace de mer

Causes du changement climatique mondial et du déclin des glaces

Solutions possibles

Questions sur les images et les données

Pourquoi les valeurs minimales quotidiennes que vous citez actuellement pour les années passées sont-elles légèrement différentes de ce que vous avez initialement indiqué ?

En avril 2012, le NSIDC a mis à jour sa méthode de calcul des valeurs quotidiennes pour l'étendue minimale de la banquise arctique, passant d'une moyenne centrée sur 5 jours à une moyenne mobile sur 5 jours. Les nouveaux calculs montrent, par exemple, que le minimum record s'est produit le 18 septembre 2007, soit deux jours plus tard que ce que nous avions initialement signalé (16 septembre). De plus, NSIDC met à jour les valeurs d'étendue, calculées initialement avec des données en temps quasi réel, lorsque les données finales traitées deviennent disponibles. Ces données finales, traitées à la NASA Goddard, utilisent des données de source d'entrée de meilleure qualité et incluent des mesures de contrôle de qualité supplémentaires. Les recalculs montrent une étendue record de 4,17 millions de kilomètres carrés (1,61 million de miles carrés) en 2007. Notre valeur initialement publiée était de 4,13 millions de kilomètres carrés. Dans les données finales, la date du minimum peut également changer pendant quelques années.

Pourquoi utilisez-vous la moyenne glissante 5 pour annoncer le minimum/maximum et non l'étendue quotidienne ?

Nous utilisons une moyenne glissante sur 5 jours pour lisser la variabilité au jour le jour de l'influence des conditions météorologiques (telles que les tempêtes provoquant de fausses récupérations) et des effets côtiers ou de surface sur les données. Cinq jours est une échelle de temps synoptique typique qui permet de créer une courbe continue plus facile à suivre et à interpréter.

Pour plus d'informations sur le calcul des valeurs quotidiennes de l'étendue de la glace de mer, consultez la documentation sur l'indice de glace de mer .

Mis à jour le 18 septembre 2018

Pourquoi l'étendue moyenne mensuelle n'est-elle pas égale à la moyenne des valeurs d'étendue quotidiennes ?

Quelle est la différence entre la superficie et l'étendue de la banquise?

La superficie et l'étendue sont des mesures différentes et donnent aux scientifiques des informations légèrement différentes. Certaines organisations, dont Cryosphere Today, signalent la superficie des glaces. Le NSIDC signale principalement l'étendue des glaces. L'étendue est toujours un nombre plus grand que la zone, et il y a des avantages et des inconvénients associés à chaque méthode.

Une façon simplifiée de penser à l'étendue par rapport à la zone est d'imaginer une tranche de fromage suisse. L'étendue serait une mesure des bords de la tranche de fromage et de tout l'espace à l'intérieur. La superficie serait la mesure de l'endroit où il y a du fromage uniquement, sans compter les trous. C'est pourquoi si vous comparez l'étendue et la zone dans la même période, l'étendue est toujours plus grande. Une explication plus précise de l'étendue par rapport à la zone devient plus compliquée.

L'étendue définit une région comme “couverte de glace” ou “non recouverte de glace.” Pour chaque cellule de données satellitaires, on dit que la cellule a de la glace ou n'en a pas, en fonction d'un seuil. Le seuil le plus courant (et celui utilisé par le NSIDC) est de 15 pour cent, ce qui signifie que si la cellule de données a une concentration de glace supérieure à 15 pour cent, la cellule est considérée comme couverte de glace moins que cela et elle est dite libre de glace. Exemple : Imaginons que vous ayez trois cellules de grille de 25 kilomètres (km) x 25 km (16 miles x 16 miles) recouvertes de 16 % de glace, 2 % de glace et 90 % de glace. Deux des trois cellules seraient considérées comme « couvertes de glace », ou à 100 % de glace. Multipliez la surface de la cellule de la grille par 100 % de glace de mer et vous obtiendrez une étendue totale de 1 250 km² (482 miles carrés).

La zone prend les pourcentages de glace de mer dans les cellules de données et les additionne pour indiquer la superficie de l'Arctique couverte par la zone de glace utilise généralement un seuil de 15 %. Ainsi, dans le même exemple, avec trois cellules de grille de 25 km x 25 km (16 miles x 16 miles) de 16 % de glace, 2 % de glace et 90 % de glace, multipliez les zones de cellule de grille qui dépassent le seuil de 15 % par le pour cent de glace de mer dans ces cellules de grille, et additionnez-le. Vous auriez une superficie totale de 662 kilomètres carrés (255,8 milles carrés).

Les scientifiques du NSIDC signalent l'étendue parce qu'ils sont prudents quant aux valeurs estivales de concentration de glace et de superficie prises par les capteurs satellites. Pour le capteur, la fonte de surface semble être de l'eau libre plutôt que de l'eau au-dessus de la banquise. Ainsi, bien qu'il soit fiable pour mesurer la surface la plupart de l'année, le capteur à micro-ondes a tendance à sous-estimer la concentration et la surface réelles de glace lorsque la surface fond. Pour tenir compte de cette imprécision potentielle, les scientifiques du NSIDC s'appuient principalement sur l'étendue lorsqu'ils analysent les conditions de la saison de fonte et les signalent au public. Cela dit, l'analyse de la surface de glace est toujours très utile. Compte tenu des bonnes circonstances, des connaissances de base et des informations scientifiques sur les conditions actuelles, cela peut fournir une excellente idée de la quantité de glace réellement présente sur le sol.

Quel est le cercle gris au milieu de certaines des cartes d'étendue ?

Tous les satellites ne passent pas assez près du pôle Nord pour que leurs capteurs y collectent des données. Ce manque de données est indiqué par un cercle gris, ou « trou de pôle » dans chaque image.

Comment saurons-nous si la glace au pôle Nord fond ?

Historiquement, le manque de données satellitaires directement au-dessus du pôle Nord n'a pas inquiété les scientifiques, ils ont toujours supposé que la zone en dessous était recouverte de glace de mer. Cependant, ces dernières années, la possibilité qu'il n'y ait pas de glace de mer au-dessus du pôle Nord en été est devenue plus probable.

Heureusement, certains capteurs satellitaires sont capables d'obtenir des données directement au-dessus du pôle Nord. Les données de ces satellites pourraient être utilisées pour compléter les données manquantes dans d'autres enregistrements satellitaires. Par exemple, le radiomètre à balayage micro-ondes avancé de la NASA – Système d'observation de la Terre (AMSR-E) pourrait remplir certaines données manquantes car il a un trou de pôle plus petit que les autres satellites. Ou, les scientifiques pourraient utiliser le spectroradiomètre imageur à résolution modérée (MODIS) de la NASA, qui collecte des données au-dessus du pôle Nord et n'a donc pas de trou de pôle. Pour en savoir plus sur la façon dont les scientifiques étudient la glace de mer, consultez Tout sur la glace de mer : Étudier.

De quel satellite proviennent les données sur la glace de mer ?

La « mise à jour quotidienne des images », ainsi que de nombreuses images présentées dans Arctic Sea Ice News & Analysis, sont dérivées du produit de données Sea Ice Index. L'indice de glace de mer s'appuie sur des méthodes développées par la NASA pour estimer les conditions de glace de mer à l'aide de données micro-ondes passives du programme de satellite météorologique de la défense (DMSP), l'imageur/sondeur spécial à micro-ondes (SSMIS). La base de l'indice de glace de mer est l'ensemble de données, “Near-Real-Time DMSP SSM/I Daily Polar Gridded Sea Ice Concentrations,” et les “Sea Ice Concentrations produites par la NASA de Nimbus-7 SMMR et DMSP SSM/I Passive Microwave Data.” Pour plus de détails, voir l'indice de glace de mer.

Pourquoi le produit Sea Ice Index est-il utilisé pour étudier la glace de mer ?

Les données micro-ondes passives utilisées pour l'indice de glace de mer sont particulièrement utiles car le capteur peut voir à travers les nuages ​​et fournir des données même pendant les six mois d'obscurité arctique et de conditions fréquemment nuageuses. Certains autres capteurs satellites ne peuvent pas pénétrer les nuages ​​pour prendre des données, les résultats sont donc sporadiques et dépendent des conditions météorologiques. D'autres capteurs encore peuvent voir à travers les nuages, mais ils ne couvrent pas toute la région du globe où la glace de mer existe chaque jour, ce qui rend difficile la surveillance en temps quasi réel. De plus, certains capteurs ne peuvent pas fournir d'informations en hiver, lorsque l'obscurité polaire règne.

L'enregistrement passif des micro-ondes de la glace de mer remonte à 1979, l'un des ensembles de données environnementales les plus longs que nous connaissions. Cela fournit un produit à long terme qui suit systématiquement les changements dans la couverture de glace sur de nombreuses années, ce qui donne une confiance supplémentaire aux tendances que nous observons. Ainsi, bien que le NSIDC fasse référence à des données satellitaires supplémentaires dans le développement de notre analyse, nous nous appuyons principalement sur des données micro-ondes passives pour les images et le contenu Arctic Sea Ice News & Analysis, et pour suivre les changements à long terme.

Parfois, les lecteurs signalent que nos cartes montrent la glace de manière incorrecte, par rapport aux observations sur le terrain ou à d'autres sources de données. Pourquoi est-ce?

Contrôle qualité des données en temps quasi réel

L'une des raisons pour lesquelles les images de l'étendue de la glace peuvent comporter des erreurs est que les images dérivées des satellites dans notre mise à jour quotidienne des images sont presque en temps réel et n'ont pas encore subi de contrôle qualité rigoureux pour corriger les informations contradictoires qui sont particulièrement probables le long des côtes. Les zones proches de la terre peuvent présenter une certaine couverture de glace là où il n'y en a pas car la résolution du capteur n'est pas assez fine pour distinguer la glace de la terre lorsqu'un pixel chevauche la côte. Parfois, les données que nous recevons contiennent des erreurs dans les données de géolocalisation, causées par des problèmes avec l'instrument, qui pourraient affecter l'endroit où la glace apparaît. Les données en temps quasi réel peuvent également comporter des zones de données manquantes, affichées sur la carte quotidienne sous forme de coins gris, de taches ou de motifs de toile d'araignée. De plus, les capteurs satellites ont parfois des problèmes et des pannes, ce qui peut affecter les données en temps quasi réel. Nous corrigeons ces problèmes dans les produits finaux de la glace de mer, qui remplacent les données en temps quasi réel en environ six mois à un an.

Malgré des zones d'inexactitude, les données en temps quasi réel sont toujours utiles pour évaluer les changements dans la couverture de glace de mer, en particulier lorsqu'elles sont moyennées sur un mois entier. L'image moyenne mensuelle est plus précise que les images quotidiennes car les anomalies météorologiques et autres erreurs sont moins susceptibles de l'affecter.

En raison des limites des données en temps quasi réel, elles doivent être utilisées avec prudence lorsqu'on cherche à étendre une série chronologique de glace de mer et ne doivent pas être utilisées à des fins opérationnelles telles que la navigation. Pour consulter les images mensuelles qui ont subi un contrôle de qualité, cliquez sur « Données et images archivées » dans l'index des glaces de mer.

Résolution des données

Une autre raison des erreurs apparentes dans l'étendue de la glace est que les données sont moyennées sur une superficie de 25 kilomètres sur 25 kilomètres (16 milles sur 16). Cela signifie que la lisière de la glace pourrait être éloignée de 25 à 50 kilomètres (16 à 31 miles) dans les données micro-ondes passives, par rapport aux systèmes satellitaires à plus haute résolution. De plus, nous définissons l'étendue de la glace comme toute cellule de grille de 25 kilomètres sur 25 avec une moyenne d'au moins 15 pour cent de glace. Des zones libres de glace peuvent néanmoins exister dans une zone définie par nos algorithmes comme couverte de glace.

Caractéristiques des données micro-ondes passives

L'image quotidienne est dérivée de données micro-ondes passives télédétectées, qui peuvent être collectées même par temps nuageux ou sombre. Les données micro-ondes passives peuvent montrer de la glace là où il n'y en a pas en raison de la variation du signal entre la terre et l'eau le long des côtes, ou à cause des interférences atmosphériques dues à la pluie ou aux vents violents au-dessus de l'océan sans glace.

Les raisons pour lesquelles les données micro-ondes passives peuvent ne pas détecter la glace incluent la présence de glace mince et nouvellement formée, le changement d'albédo de la fonte active de la glace et les interférences atmosphériques. La glace mince et nouvellement formée est systématiquement sous-estimée par ces données. Des centres tels que le Centre national des glaces des États-Unis et le Service canadien des glaces qui publient des données sur la glace de mer pour la navigation utilisent des données à plus haute résolution spatiale qui sont mieux à même de détecter une glace aussi mince.

Malgré les limites des données micro-ondes passives, elles produisent toujours de bonnes estimations à grande échelle pour le modèle d'étendue globale et les valeurs de la glace. De plus, les limitations sont cohérentes, affectant les données cette année de la même manière qu'elles l'ont affecté les années précédentes. Ainsi, lors de la comparaison d'une année à l'autre, ces types d'erreurs n'affectent pas la comparaison.

Bien que les produits de données micro-ondes passives puissent ne pas montrer autant de détails ou être aussi précis "au sol" que d'autres données satellitaires, ils fournissent une série chronologique cohérente pour suivre l'étendue de la glace de mer depuis 1979. Les capteurs à plus haute résolution ne remontent qu'à 2002. Ce type de données cohérentes à long terme est important pour les scientifiques qui étudient si des changements se produisent ou non dans un système. Pour en savoir plus sur la façon dont les scientifiques étudient la glace de mer, consultez Tout sur la glace de mer : Étudier.

Vos données sont-elles soumises à un contrôle qualité ?

Les images quotidiennes et mensuelles que nous montrons dans Arctic Sea Ice News & Analysis sont des données en temps quasi réel. Les données en temps quasi réel ne bénéficient pas du contrôle de qualité rigoureux dont bénéficient les produits de glace de mer finaux, mais elles nous permettent de surveiller les conditions de la glace au fur et à mesure qu'elles se développent.

Plusieurs sources d'erreurs possibles peuvent affecter les images en temps quasi réel. Les zones proches de la terre peuvent présenter une certaine couverture de glace car le capteur a une résolution grossière et bien qu'un filtre côtier soit appliqué, il n'est pas efficace dans certaines situations. Parfois, les données que nous recevons comportent des erreurs de géolocalisation, ce qui peut affecter l'endroit où la glace apparaît. Les données en temps quasi réel peuvent également comporter des zones de données manquantes, affichées sur la carte quotidienne sous forme de coins gris, de taches ou de motifs de toile d'araignée. De plus, les capteurs satellites ont parfois des problèmes et des pannes, ce qui peut affecter les données en temps quasi réel. Nous corrigeons ces problèmes dans les produits finaux de la glace de mer, qui remplacent les données en temps quasi réel en environ six mois à un an.

Malgré ses zones d'inexactitude, les données en temps quasi réel sont toujours utiles pour évaluer les changements dans la couverture de glace de mer, en particulier lorsqu'elles sont moyennées sur un mois entier. L'image moyenne mensuelle est plus précise que les images quotidiennes car les anomalies météorologiques et autres erreurs sont moins susceptibles de l'affecter. En raison des limites des données en temps quasi réel, elles doivent être utilisées avec prudence lorsqu'on cherche à étendre une série chronologique de glace de mer et ne doivent pas être utilisées à des fins opérationnelles telles que la navigation.

Pour consulter les images mensuelles qui ont été soumises à un contrôle qualité, cliquez sur « Données et images archivées » dans l'index des glaces de mer.

Quelle est la plage d'erreur pour vos images ?

Le NSIDC n'a pas de barres d'erreur sur le tracé de la série chronologique affiché dans la « Mise à jour quotidienne des images » et le tracé de la série chronologique quotidien (généralement étiqueté « Figure 2 »), car nous nous efforçons de garder les images concises et faciles à lire. De plus, les barres d'erreur seraient assez petites par rapport aux valeurs d'étendue totales dans les images.

Nous estimons l'erreur sur la base de la connaissance acceptée des capacités des capteurs et de l'analyse de la quantité de « bruit » ou des variations quotidiennes non expliquées par des changements dans les variables météorologiques. Pour une erreur relative moyenne, ou une erreur par rapport à d'autres années, l'erreur est d'environ 20 000 à 30 000 kilomètres carrés (7 700 à 11 600 milles carrés), une petite fraction de la banquise totale existante. Pour l'erreur absolue moyenne, ou la quantité de glace que le capteur mesure par rapport à la glace réelle au sol, l'erreur est d'environ 50 000 à 1 million de kilomètres carrés (19 300 à 386 100 miles carrés), variant au cours de l'année. Pendant la fonte estivale et le gel à l'automne, l'étendue peut être sous-estimée de 1 million de milles carrés au milieu et à la fin de l'hiver avant le début de la fonte, l'erreur se situera dans la partie inférieure des estimations. Il est important de noter que même si l'ampleur de l'erreur varie au cours de l'année, elle est constante d'une année à l'autre. Cela donne aux scientifiques une grande confiance dans les tendances interannuelles à un moment donné de l'année.

Les valeurs d'erreur absolue peuvent sembler élevées, mais il est important de noter que chaque année a à peu près la même valeur d'erreur absolue, de sorte que la baisse sur le long terme reste claire. Le NSIDC a une grande confiance dans les statistiques de tendance de la glace de mer et la comparaison de l'étendue de la glace de mer entre les années.

Pourquoi utilisez-vous la moyenne de 1981 à 2010 pour les comparaisons ?

Les scientifiques du NSIDC utilisent la moyenne de 1981 à 2010 car elle fournit une base de référence cohérente pour les comparaisons d'une année à l'autre de l'étendue de la glace de mer. Trente ans sont considérés comme une période de référence standard pour le temps et le climat, et les enregistrements satellitaires sont désormais suffisamment longs pour fournir une période de référence de trente ans. Si nous devions recalculer la référence chaque année pour incorporer l'année de données la plus récente, nous ne pourrions pas comparer de manière significative entre les années récentes. Pour emprunter une expression courante, nous comparerions des pommes et des oranges.

Le problème de se fier à une moyenne mobile devient clair au fil du temps, lorsque nous essayons de comparer les nouvelles années de données avec les années précédentes. Par exemple, si nous nous appuyons sur une base de référence standard et immuable comme 1981 à 2010, nous pouvons facilement et clairement comparer septembre 2007 et septembre 2008 l'un avec l'autre. Cependant, si nous devions utiliser une base de référence glissante de 1979 à 2006 pour septembre 2007, et une base de référence glissante de 1979 à 2007 pour septembre 2008, nous ne comparerions plus « des pommes avec des pommes » lorsque nous comparons les deux années à la référence. .

Arctic Sea Ice News and Analysis et l'indice des glaces de mer sont passés à une période de référence de 1981 à 2010 commençant le 1er juillet 2013. Auparavant, le NSIDC avait utilisé 1979 à 2000 comme période de comparaison. Pour plus d'informations sur ce changement, consultez notre article du 2 juillet 2013 et l'indice des glaces de mer.

La mise à jour quotidienne de l'image n'est pas actuelle, pourquoi ?

La mise à jour quotidienne des images est produite à partir de données satellitaires opérationnelles en temps quasi réel, avec un décalage de données d'environ un jour. Cependant, les visiteurs peuvent remarquer que la date sur l'image est parfois en retard de plus d'un jour. Des retards occasionnels à court terme et des pannes de données se produisent et sont généralement résolus en quelques jours.

Existe-t-il d'autres sources de données sur la glace de mer? En quoi ces sources diffèrent-elles des données du NSIDC ?

D'autres chercheurs et organisations surveillent indépendamment la glace de mer, en utilisant une variété de capteurs et d'algorithmes.Bien que ces sources concordent largement avec les données du NSIDC, les mesures d'étendue diffèrent en raison de la variation des formules (algorithmes) utilisées pour le calcul, du capteur utilisé, de la méthode de seuil pour déterminer si une région est « couverte de glace » et des méthodes de traitement. Les méthodes du NSIDC sont conçues pour être aussi cohérentes en interne que possible afin de permettre le suivi des tendances et de la variabilité tout au long de notre enregistrement de données. Les liens vers d'autres sources de données sur la glace de mer sont énumérés ci-dessous :

Les centres opérationnels qui fournissent un soutien aux navires naviguant dans l'Arctique constituent une autre source de données sur la glace de mer. Il existe souvent des divergences entre les informations de ces centres et nos données, car ils utilisent des sources de données supplémentaires pour saisir autant de détails que possible sur les conditions de la glace de mer. Cependant, contrairement à nos données, étant donné que la qualité et la disponibilité de leurs sources de données varient, leurs produits ne fournissent pas de séries temporelles cohérentes à long terme adaptées au suivi des tendances et de la variabilité climatiques. Plusieurs pays de l'Arctique ont des centres de glace de mer opérationnels. Les deux centres nord-américains sont :

Pourquoi des années différentes apparaissent-elles sur le graphique ?

Chaque année au début du mois de janvier, l'année de référence sur le graphique d'étendue quotidienne change. Le graphique de l'étendue quotidienne de la glace de mer pour l'hémisphère nord montre l'étendue de la glace pour l'année en cours, la moyenne de 1981 à 2010 et l'année avec une faible étendue de glace (actuellement 2012). Le graphique a une fenêtre de cinq mois. Cela signifie qu'en décembre, le graphique montre l'année record de 2012, plus une partie de 2008 (2007-08) et 2013 (2012-13). Lorsque nous déplaçons la vue en janvier pour montrer cinq mois commençant en octobre, le graphique montre la fin de 2006 et le début de 2007 (2006-07) et la fin de 2011 et le début de 2012 (2011-12).

Quelle est la plage d'écart-type sur l'image quotidienne ?

En février 2010, nous avons ajouté la plage de l'écart type à notre graphique d'étendue quotidienne. La zone grise autour de la ligne moyenne de 1981 à 2010 montre la plage de deux écarts types des données, qui sert d'estimation de la plage attendue de variabilité naturelle. Au cours des dernières années, l'étendue de la banquise arctique pendant la plupart des mois a été inférieure de plus de deux écarts types à la moyenne de 1981 à 2010, particulièrement en été.

Qu'est-ce que l'écart type et comment est-il lié à l'étendue de la banquise ?

L'écart type est une mesure de la variation autour d'une moyenne. Un écart type est défini comme englobant 68 % de la variation, et deux écarts types englobent 95 % de la variation. Les scientifiques utilisent les écarts types pour estimer la plage de variabilité des données. Dans le contexte des données climatiques telles que l'étendue de la banquise, cela donne une idée de l'éventail des conditions attendues. Les mesures qui se situent bien en dehors de la plage des deux écarts types ou qui se situent systématiquement en dehors de cette plage suggèrent qu'il se produit quelque chose d'inhabituel qui ne peut pas être expliqué par des processus normaux.

Pour les données sur l'étendue de la glace de mer, l'écart type est calculé pour chaque jour de l'année à partir de l'étendue de ce jour sur les 30 années de la période de référence, 1981 à 2010. Doubler l'écart type pour produire une plage de 95 % signifie que 95 % des étendues quotidiennes pour les années 1981 à 2010 se situent dans cette fourchette.

Ces dernières années, l'étendue de la glace a diminué et en été surtout, elle est régulièrement tombée en dehors de deux écarts types. Cela suggère que le déclin récent de l'étendue de la glace de mer représente un changement significatif des conditions de 1981 à 2010.

Pourquoi ne publiez-vous pas un nombre global d'étendue de glace de mer ?

Le nombre combiné, bien que facile à dériver de nos données publiées en ligne, n'est pas utile en tant qu'outil d'analyse ou indicateur des tendances climatiques. L'examen des tendances de l'étendue de la glace de chaque région et de ses processus séparément permet de mieux comprendre comment et pourquoi l'étendue de la glace change. La glace de mer dans l'Arctique est régie par des processus quelque peu différents de ceux de la glace de mer autour de l'Antarctique, et la géographie très différente des deux pôles joue un rôle important. La glace de mer dans l'Arctique existe dans un petit océan entouré de masses continentales, avec un apport plus important de poussière, d'aérosols et de suie que dans l'hémisphère sud. La glace de mer dans l'hémisphère sud borde un continent recouvert de glace, l'Antarctique, entouré d'océans ouverts. Bien que les deux régions soient affectées par l'air, le vent et l'océan, les systèmes et leurs modèles sont intrinsèquement très différents. De plus, à tout moment, les deux pôles sont à des saisons opposées, et donc un nombre combiné confondrait les tendances estivales et hivernales, ou les tendances printanières et automnales, pour les deux régions.

Pourquoi le changement quotidien de l'étendue de la glace de mer dans l'hémisphère nord est-il plus important au début de chaque mois ?

Si vous tracez le changement quotidien moyen de l'étendue de la glace de mer dans l'hémisphère nord, sur la base des données de ‘Sea_Ice_Index_Daily_Extent_G02135_v3.0.xlsx,’ vous remarquerez qu'au début de chaque mois, en particulier en été, le le changement est plus important.

Ceci est lié aux masques de glace valides qui sont utilisés dans le traitement de l'indice des glaces de mer. C'est vraiment un effet de débordement sur les terres : c'est-à-dire que même lorsqu'il n'y a pas de glace dans une mer côtière, la glace peut sembler border la côte et remplir les fjords. Cela se produit parce qu'il existe des zones mixtes terre-océan dans le champ de vision du capteur. Ce mélange de terre et de glace ressemble à de la glace de mer pour les algorithmes qui interprètent les données du capteur.

Une correction pour le débordement est appliquée, mais elle n'est pas parfaite. Des masques de glace valables mensuellement sont également utilisés et ceux-ci masquent les zones où la glace de mer n'est pas réaliste au cours d'un mois donné, y compris le long de la côte en raison des débordements terrestres. Lorsque vous passez au mois suivant, le masque de glace change. De mai à juin et juillet, le masque de glace valide se déplace vers le nord dans l'Arctique et recadre davantage de zones de glace potentielles au sud de la ligne de glace valide. La glace peut avoir reculé dans une mer côtière d'ici la fin mai, par exemple, mais peut encore sembler être le long du littoral. Le premier jour de juin, le nouveau masque enlève une plus grande partie de la glace invalide, c'est pourquoi vous constatez un changement soudain de la glace de mer.

Étudier la glace de mer

Que signifierait la récupération de la banquise arctique ?

L'étendue de la glace de mer varie normalement d'une année à l'autre, tout comme le temps change d'un jour à l'autre. Mais tout comme une journée chaude en octobre n'annule pas une tendance au refroidissement vers l'hiver, un léger gain annuel de l'étendue de la glace de mer par rapport à un creux record n'annule pas le déclin à long terme.

Même si l'étendue de la banquise arctique n'est pas revenue au plus bas record de 2012, les données montrent qu'elle ne se rétablit pas. Récupérer signifierait revenir à l'intérieur de son ancienne fourchette à long terme. L'étendue de la banquise arctique reste très faible.

De plus, la glace de mer reste beaucoup plus mince que par le passé et est donc plus vulnérable à un déclin supplémentaire. Bien que l'épaisseur de la glace soit difficile à mesurer à l'aide de satellites, diverses sources de données et estimations indiquent que la couverture de glace arctique reste mince. Pour plus d'informations sur l'épaisseur de la glace, consultez le Lumières de glace article, Se mettre sous la glace.

Alors, comment les scientifiques appelleraient-ils une récupération de la banquise ? Premièrement, une véritable reprise se poursuivrait sur une période de plusieurs années. Deuxièmement, les scientifiques s'attendraient à voir une série d'étendues minimales de glace de mer qui non seulement dépassent l'année précédente, mais reviennent également à l'intérieur de la plage de variation naturelle. Lors d'une reprise, les scientifiques s'attendraient également à un retour à une couverture de glace de mer arctique dominée par une glace pluriannuelle plus épaisse.

À quoi ressemblait la glace de mer avant l'ère des satellites ?

L'enregistrement satellite ne remonte qu'à 1979. Cependant, les scientifiques ont utilisé des enregistrements historiques des conditions de la glace de mer pour estimer l'étendue de la glace de mer avant 1979. Pour en savoir plus sur ce sujet, lisez le Lumières de glace post, la banquise arctique avant les satellites.

L'océan Arctique a-t-il toujours eu de la glace en été ?

Nous savons avec certitude qu'au moins dans un passé lointain, l'Arctique était libre de glace. Des fossiles datant de l'âge des dinosaures, il y a 65 millions d'années, indiquent un climat tempéré avec des fougères et autres végétations luxuriantes.

Sur la base des enregistrements paléoclimatiques des carottes de glace et d'océan, la dernière période chaude de l'Arctique a culminé il y a environ 8 000 ans, pendant le maximum thermique holocène. Certaines études suggèrent qu'il y a 5 500 ans à peine, l'Arctique avait moins de glace de mer en été qu'aujourd'hui. Cependant, il n'est pas clair que l'Arctique était complètement exempt de glace de mer estivale pendant cette période.

L'ère suivante la plus ancienne où l'Arctique était très probablement exempt de glace d'été était il y a 125 000 ans, au plus fort de la dernière grande période interglaciaire, connue sous le nom d'Éémien. Les températures dans l'Arctique étaient plus élevées qu'aujourd'hui et le niveau de la mer était également de 4 à 6 mètres (13 à 20 pieds) plus élevé qu'aujourd'hui parce que la glace du Groenland et de l'Antarctique
les draps avaient en partie fondu. En raison de la combustion de combustibles fossiles, les températures moyennes mondiales d'aujourd'hui se rapprochent de la chaleur maximale observée pendant l'Eémien. Les niveaux de dioxyde de carbone sont maintenant bien au-dessus des niveaux les plus élevés de l'Eémien, indiquant qu'il y a encore un réchauffement à venir.

Selon les analyses de la NASA et de la NOAA, la dernière décennie a été la plus chaude du record d'observation remontant au 19e siècle et l'Arctique a été considérablement plus élevé que la moyenne mondiale.

La glace au pôle Nord va-t-elle fondre ?

Parfois, dans l'usage quotidien, les gens associent « le pôle Nord » à toute la région arctique. Cependant, lorsque les scientifiques discutent du pôle Nord, ils parlent du pôle Nord géographique, un seul point du globe situé à 90 degrés nord. Le terme « Arctique » fait généralement référence à une région beaucoup plus vaste qui englobe les latitudes septentrionales du globe. L'Arctique comprend des régions de la Russie, de l'Amérique du Nord et du Groenland, ainsi que l'océan Arctique.

La communauté scientifique a une série de prédictions concernant le moment où nous pourrions voir un océan Arctique libre de glace en été. Les prévisions vont d'ici les dix prochaines années à 2100. Pour plus d'informations sur les prévisions d'un Arctique sans glace, consultez le Lumières de glace post, Quand l'Arctique perdra-t-il sa banquise ?

Pourquoi n'entends-je pas beaucoup parler de la banquise antarctique ?

Les scientifiques du NSIDC surveillent la glace de mer dans l'Antarctique, et la glace de mer dans l'Antarctique intéresse les scientifiques du monde entier. Bien qu'il existe de nombreux articles de revues à comité de lecture sur le sujet de la banquise antarctique et de ses changements, il a reçu moins d'attention que l'Arctique. La glace de mer antarctique a en général beaucoup moins changé que la glace arctique. De plus, il est peu probable que les changements dans la banquise antarctique aient un impact direct significatif sur les latitudes tempérées du sud. Pour plus d'informations sur la banquise antarctique, consultez le Lumières de glace post, Glace de mer en bas : glace de mer et climat de l'Antarctique.

Les données sur la glace de mer de l'Antarctique sont disponibles sur l'indice de glace de mer du NSIDC.

La banquise hivernale antarctique augmente-t-elle ou diminue-t-elle ?

La glace de mer antarctique en hiver augmente à un faible taux et avec des variations substantielles d'une année à l'autre. Les données mensuelles sur la glace de mer montrent des tendances à l'augmentation de l'étendue de la glace de mer qui sont légèrement supérieures à la variabilité moyenne d'une année à l'autre sur l'enregistrement satellite (1979 à aujourd'hui). En termes plus techniques, les tendances sont statistiquement significatives au seuil de 95 %, bien que faibles (

Les projections du modèle climatique mondial pour les tendances de la glace de mer autour de l'Antarctique sont en contradiction avec ce qui est observé. Presque tous les modèles à ce jour prévoient une légère diminution de l'étendue de la glace de mer à l'heure actuelle et pour les prochaines décennies. L'inadéquation entre les résultats des modèles et les observations est un sujet de recherche et une base d'investigation pour trouver les processus qui doivent être ajoutés aux modèles pour les aligner sur ce qui est observé. Cependant, l'analyse de la variabilité de la banquise antarctique dans les modèles montre qu'il est possible que la tendance actuelle à l'augmentation de l'étendue de la banquise soit le résultat de la grande variabilité de la banquise antarctique et du système climatique.

Le changement dominant, bien que subtil, dans le modèle climatique de l'Antarctique a été une augmentation progressive des vents circumpolaires d'ouest. Les modèles suggèrent que la perte d'ozone (le trou dans la couche d'ozone qui se produit chaque année en septembre/octobre) et l'augmentation des gaz à effet de serre entraînent une augmentation de la fréquence de ce modèle climatique. Lorsque les vents poussent sur la glace de mer, ils ont tendance à la déplacer dans la direction dans laquelle ils soufflent, mais l'effet Coriolis ajoute une poussée apparente vers la gauche. Dans le système non confiné de la banquise antarctique, cela pousse la glace vers le nord loin du continent. En étendant la glace de mer vers l'ouest et un peu vers le nord (et puisque nous mesurons l'étendue avec un seuil de 15 %), la tendance graduelle vers des vents moyens plus rapides signifie une tendance graduelle vers l'expansion de la couverture de glace. Cette tendance générale peut être une partie de l'explication de la tendance.

Des enregistrements récents d'étendues hivernales (en 2012, 2013 et 2014) semblent être associés à des modèles de circulation de l'air liés au régime des vents d'ouest. La dépression de la mer d'Amundsen (ASL), une caractéristique climatique du modèle de pression moyenne annuelle pour l'Antarctique, varie à la fois en force et en emplacement sur une base saisonnière. L'ASL a tendance à être plus forte lorsque les vents d'ouest sont forts. L'ASL, et son effet sur la formation et la dérive de la glace de mer, semble être une partie importante de la récente série de maximums hivernaux records.

Plus récemment (depuis juillet 2015), la glace de mer est revenue à des conditions proches de la moyenne, et au moment d'écrire ces lignes, elle est à un niveau record quotidien. Cela met en évidence la variabilité inhérente au système. Cependant, une analyse qui a tenté d'expliquer à la fois les très grandes étendues hivernales de 2012, 2013 et 2014, et les maximums hivernaux inférieurs et proches de la moyenne en 2015 et 2016 a suggéré que l'oscillation australe El Niño et une tendance du Pacifique appelée l'oscillation décennale du Pacifique (une tendance résiduelle vers El Niño ou La Niña dans le Pacifique qui se déplace sur des échelles de temps multi-décennales) peut être liée au changement. En d'autres termes, l'avènement d'un fort El Niño à la fin de 2015 et au début de 2016 a peut-être modifié la circulation du vent et de l'océan pour favoriser des étendues inférieures après une série d'années propices à La Niña (Meehl, 2016).

La tendance à des vents circumpolaires plus forts a également entraîné une diminution de l'étendue de la glace de mer près de la péninsule antarctique. En général, les vents ont tendance à plonger légèrement vers le sud à l'approche de la péninsule, un effet des crêtes montagneuses des Andes et d'autres caractéristiques de circulation dans la mer d'Amundsen et de Bellingshausen (l'ASL mentionné ci-dessus). Un vent plus fort du nord-ouest apporte des conditions plus chaudes et donc moins de glace dans la région. Enfin, les cycles El Niño et La Niña semblent également influencer la banquise dans le secteur Pacifique. Les modèles El Niño (un Pacifique tropical oriental chaud) sont associés à des vents plus chauds et à moins de glace, le contraire est vrai pour La Niña.

Les modèles climatiques suggèrent que les augmentations observées de la banquise antarctique ne sont pas en dehors de la variabilité naturelle. Cependant, tous les modèles indiquent que l'étendue de la glace devrait diminuer à mesure que les gaz à effet de serre dans l'atmosphère augmenteront davantage plus tard au cours de ce siècle.

Pour plus d'informations, consultez Tout sur la glace de mer : Arctique contre Antarctique et l'état de la cryosphère : glace de mer. Pour voir les données sur la glace de mer antarctique, consultez l'indice de glace de mer.

Causes du changement climatique mondial et du déclin des glaces

Comment savons-nous que les activités humaines causent le changement climatique?

La combustion des combustibles fossiles est responsable du changement climatique en raison de la manière dont une concentration accrue de dioxyde de carbone dans l'atmosphère modifie le bilan énergétique de la planète et rend la surface plus chaude.

La mesure la plus fondamentale de l'état du climat de la Terre est la température moyenne mondiale de l'air à la surface. Nous définissons le changement climatique comme une tendance étendue de cette température. Un tel changement ne peut pas se produire à moins que quelque chose ne force le changement. Divers forçages climatiques naturels existent. Par exemple, des changements périodiques de l'orbite de la Terre autour du soleil modifient la distribution saisonnière et latitudinale du rayonnement solaire à la surface de la planète. Ces variations peuvent être liées aux périodes glaciaires de la Terre au cours des deux derniers millions d'années. Les changements dans la production solaire influencent la quantité d'énergie solaire que la surface de la Terre reçoit dans son ensemble, plus ou moins d'énergie solaire signifie un climat mondial plus chaud ou plus froid. Les éruptions volcaniques explosives injectent du dioxyde de soufre et de la poussière dans la stratosphère, empêchant une partie de l'énergie du soleil d'atteindre la surface et de la refroidir. Ce sont des forçages climatiques car ils modifient le bilan radiatif ou énergétique de la planète.

Une augmentation de la concentration de dioxyde de carbone dans l'atmosphère est également un forçage climatique : elle conduit à une situation dans laquelle la planète absorbe plus de rayonnement solaire qu'elle n'en émet dans l'espace sous forme de rayonnement à ondes longues. Cela signifie que le système gagne de l'énergie. La température moyenne mondiale augmentera en conséquence. Ceci est en accord avec un principe fondamental de la physique : la conservation de l'énergie. Comme les humains brûlent des combustibles fossiles, ajoutant du dioxyde de carbone dans l'atmosphère, la température moyenne mondiale augmente en conséquence.

Pour plus d'informations sur la contribution humaine au changement climatique, visitez:

Les taches solaires provoquent-elles le changement climatique ?

Certaines personnes se demandent si la raison pour laquelle la banquise diminue et que la planète se réchauffe peut s'expliquer par les taches solaires, qui sont liées aux variations de la production d'énergie du Soleil au fil du temps. Alors que les changements dans la production solaire peuvent affecter le climat de la Terre, le réchauffement récent ne peut pas être expliqué par des changements dans l'activité solaire.

Pour plus d'informations sur cette question, visitez :

Les volcans sous-marins ont-ils causé le déclin de la banquise arctique ?

Une étude récente a découvert des volcans actifs au fond de l'océan Arctique, et certaines personnes se sont demandé s'ils faisaient fondre la glace de mer.

Alors que les éruptions volcaniques ont sûrement réchauffé l'océan à proximité immédiate des éruptions, la quantité de chaleur qu'elles ont produite par rapport au grand volume de l'océan Arctique est faible. L'océan Arctique couvre 14 millions de kilomètres carrés (5,4 millions de miles carrés), soit environ 1 ½ fois la taille des États-Unis ou 58 fois la taille du Royaume-Uni. Dans ses endroits les plus profonds, l'océan Arctique a une profondeur de 4 000 à 5 500 mètres (13 000 à 18 000 pieds). La chaleur des volcans se serait dispersée sur un volume énorme et aurait eu peu d'effet sur la température de l'océan, tout comme un seau d'eau bouillante vidé dans un lac aurait peu d'effet sur la température du lac.

Deuxièmement, les éruptions auraient introduit de la chaleur profondément sous la glace de mer qui flotte à la surface de l'océan. Les sommets des volcans sous-marins les plus hauts mesurent plus de 1 000 mètres (3 000 pieds) de profondeur. L'océan Arctique est fortement stratifié, ce qui empêche le mélange des couches et rend difficile pour toute eau profonde, même l'eau profonde réchauffée par la chaleur des volcans, d'atteindre la surface et de faire fondre la glace. Cette stratification résulte d'un fort gradient de densité : les couches d'eau proches de la surface sont moins salées et donc moins denses, tandis que les eaux de fond sont les plus denses. Contrairement à la plupart des océans, où les gradients de densité sont déterminés à la fois par la salinité et la température, les eaux de l'océan Arctique sont fortement stratifiées principalement en raison des variations de salinité.

Les brise-glace contribuent-ils au changement climatique ?

Lorsque les brise-glaces traversent la banquise, ils laissent des traînées d'eau libre dans leur sillage.Les eaux sombres et libres ne reflètent pas autant la lumière du soleil que la glace, alors les gens se demandent parfois si les brise-glaces accélèrent ou aggravent le déclin de la banquise.

En été, les passages créés par les brise-glace augmentent local la fonte estivale parce que les navires traversent la glace et exposent de nouvelles zones d'eau à l'air chaud. Cependant, la fonte causée par un brise-glace est faible et localisée. Les chenaux créés par les brise-glaces sont assez étroits et peu nombreux par rapport aux brèches naturelles dans la glace. En hiver, les ouvertures causées par les brise-glaces gèleront rapidement à nouveau. Ainsi, les scientifiques ne pensent pas que les brise-glaces jouent un rôle important dans l'accélération du déclin de la banquise arctique.

Les ouragans dans l'Atlantique brisent-ils la banquise arctique ?

Le NSIDC n'a connaissance d'aucune preuve que les ouragans dans l'Atlantique, ou ailleurs sur la planète, jouent un rôle dans le déclin de la banquise arctique.

Une fois que la banquise arctique est brisée, fond-elle plus rapidement ?

Oui, les vagues, les embruns, les vents et les étangs de fonte affectent tous la glace de mer. Si la glace est brisée, les zones d'eau libre entre les banquises absorbent une grande partie de l'énergie solaire en été. Cette énergie peut être transférée à la fois sur les côtés des floes et sous les floes, favorisant une nouvelle fonte.

La direction du vent est également importante. Les vents chauds du sud peuvent favoriser la fonte à la fois parce qu'ils apportent de l'air chaud. De plus, les vents du sud déplacent la glace vers le nord en s'éloignant de la côte. Les tempêtes et leurs embruns associés peuvent réduire l'albédo, ou la réflectivité, de la glace, augmentant encore la fonte. D'autres effets du vent sur la glace de mer poussent la glace ensemble, entraînant une plus petite étendue, ou l'étendent, entraînant de plus grandes étendues de glace de mer à une densité plus faible. Ces processus sont appelés respectivement convergence et divergence.

Une autre question intéressante est la suivante : ces processus sont-ils capturés dans les modèles climatiques mondiaux ? Les simulations informatiques ne capturent pas le niveau de détail que ces types de processus impliquent. Par exemple, alors que tous les modèles climatiques mondiaux participant au plus récent rapport du Groupe d'experts intergouvernemental sur l'évolution du climat montrent un déclin de la banquise arctique au cours de la période d'observations disponibles, aucun d'entre eux ne correspond à la gravité des tendances que nous observons réellement. Il se peut que certains des processus de fusion les plus détaillés ne soient pas capturés correctement.

Si des conditions arctiques chaudes suggèrent un réchauffement climatique continu, alors pourquoi un temps plus froid que d'habitude dans ma région ne suggère-t-il pas un refroidissement mondial ?

Nous notons les récentes conditions météorologiques arctiques dans nos rapports, car elles nous aident à comprendre si le temps a affecté la glace cette saison. Les conditions météorologiques de l'année dans l'Arctique ne créent ni n'indiquent un réchauffement climatique, tout comme une saison plus fraîche dans n'importe quelle région de la Terre ne signifie pas que le climat se refroidit. Le temps d'une saison pourrait accélérer ou ralentir légèrement la perte de glace de mer arctique cette année, mais cela ne changera pas la tendance climatique et les causes fondamentales du réchauffement.

Le climat est une mesure des conditions moyennes sur une longue période de temps, c'est donc un meilleur moyen de dire si les changements peuvent être persistants. Les relevés climatiques montrent que l'Arctique s'est considérablement réchauffé au cours des dernières décennies. L'Arctique continue de se réchauffer plus rapidement que toute autre région du monde. Les données mondiales montrent toujours que la Terre se réchauffe en moyenne.

Les scientifiques s'attendaient à ce que l'Arctique se réchauffe plus rapidement que d'autres endroits sur Terre, en raison de la façon dont l'Arctique interagit avec le système climatique mondial. Le réchauffement de l'Arctique est une préoccupation particulière, car ses effets peuvent accélérer le réchauffement de la Terre entière.

Les sites Web suivants contiennent plus d'informations sur la science du changement climatique :

Solutions possibles

L'énergie renouvelable est-elle la réponse ?

Presque toutes les études publiées dans des revues scientifiques à comité de lecture confirment que le climat de la Terre se réchauffe à cause de la combustion de combustibles fossiles. Les gens se demandent naturellement quelles autres sources d'énergie nous pourrions utiliser, les énergies renouvelables étant souvent celles qu'ils demandent. Les scientifiques du NSIDC ne sont pas spécialisés dans les énergies renouvelables, mais les ressources non-NSIDC suivantes peuvent être utiles :

Si nous mettons de la « mousse de polystyrène » blanche dans l'océan pour remplacer la glace de mer, cela arrêterait-il le changement climatique ?

Refaire la surface de l'océan Arctique avec des substituts de glace ne fonctionnerait probablement pas pour arrêter le changement climatique.

L'une des raisons est que l'Arctique est une vaste région. Si nous tentions de ramener l'Arctique à des niveaux moyens à long terme de « glace », nous aurions besoin d'ajouter environ 2,6 millions de kilomètres carrés (1 million de milles carrés) de mousse à l'océan Arctique. Ce serait l'équivalent de recouvrir l'Alaska et le Texas, ou dix Royaumes-Uni, de mousse de polystyrène. Des études devraient également être menées concernant l'impact environnemental de l'introduction de telles quantités d'une substance artificielle dans l'océan, la différence d'albédo entre la glace et la mousse, la longévité de la solution, le coût d'un tel effort et le carbone dioxyde de carbone émis lors de la production et de la mise en place de la mousse.

Cela dit, même si la mousse était une solution viable qui était immédiatement entreprise, elle n'arrêterait toujours pas le changement climatique tout de suite. Le système climatique a déjà un peu de chauffage à réaliser, il n'a pas encore rattrapé les effets de la combustion de combustibles fossiles des dernières décennies. Les gens appellent parfois ce futur chauffage de la chaleur "dans le pipeline". D'une certaine manière, cela ressemble au fonctionnement d'une carte de crédit. Nous avons déjà « dépensé » des combustibles fossiles, mais nous n'avons pas encore « payé » la totalité de la charge en termes de hausse de température. Ainsi, même si nous devions empêcher la fonte de plus de glace, la planète a encore un réchauffement supplémentaire à l'horizon.

J'ai une question qui n'est pas répondue ici. Qui puis-je contacter ?

Les membres du grand public peuvent contacter les services aux utilisateurs du NSIDC pour toute question ou préoccupation.


Vous pouvez le faire (c'est-à-dire que c'est grammatical), mais cela n'a probablement pas le sens que vous voulez. Vous essayez probablement de dire :

Concernant l'e-mail ci-dessous, je vous ai envoyé toutes les données requises.

Cela signifie que les données requises sont référencées dans l'e-mail et que vous y répondez en envoyant ces données.

Se référant à l'e-mail ci-dessous, je vous ai envoyé toutes les données requises.

. vous dites que vous (l'auteur) avez envoyé les données, et le fait que vous ayez envoyé les données est abordé dans l'e-mail ci-dessous, et vous le savez parce que vous avez fait référence à l'e-mail.