Suite

Comment résumer les valeurs dans le polygone de la grille dans QGIS?


J'ai une grille pleine d'hexagones que j'essaye de mettre des points dans la poubelle. Cependant, au lieu d'utiliser le Vector > Outils d'analyse > Points dans le polygone qui compte le nombre de points à l'intérieur de chaque hexagone, j'essaie de résumer les valeurs des autres attributs pour chaque hexagone. Mieux encore, ce serait formidable si je pouvais faire cela en plus de compter les points à l'intérieur de chaque hexagone.

Par exemple, mon jeu de données est formaté comme ceci :

ID Lat Long Score 1 43,1 -431,5 0,75 2 44,3 -431,6 0,89 3 40,8 -429,7 0,12 4 100,1 80,9 0,36 5 99,8 76,1 0,65 6 91,2 75,9 0,24

Ce que j'espère sera quelque chose comme ça :

Somme hexagonale N 1 1,76 3 2 1,25 3

Après beaucoup d'essais et d'erreurs, j'ai trouvé ma réponse. Pour les débutants en SIG, comme moi, ce que je cherchais était une jointure spatiale, ce qui pouvait être fait facilement avec QGIS :

Vector > Outils de gestion de données > Attributs de jointure par emplacement


Interface QGIS pour SWAT+ : QSWAT+

Pour les utilisateurs expérimentés de QSWAT, nous soulignons d'abord les nouveautés ou les différences dans QSWAT+.

Environnement : Vous utilisez des outils 64 bits (Installation, Environnement et Outils requis) et QSWAT+ utilise SQLite au lieu des bases de données Microsoft Access. Linux et MacOS sont également pris en charge. Vous créez et exécutez des modèles SWAT+ en utilisant uniquement un logiciel gratuit et open source.

QGIS est la version 3, pas 2 : cela signifie que nous utilisons Python 3 au lieu de Python 2. Le les différences pour l'utilisateur ne sont pas très grandes, et vous devriez bientôt vous y habituer. QGIS 3 peut être installé en toute sécurité avec une installation QGIS 2 existante.

Cours d'eau et canaux : Les sous-bassins sont formés comme auparavant par des zones de drainage des cours d'eau, mais les sous-bassins peuvent contenir plusieurs canaux (Création de canaux et de flux). Les HRU drainent vers les canaux et sont donc positionnés plus précisément que dans QSWAT.

Unités paysagères : Les zones drainant vers les canaux peuvent être divisées en plaine inondable et

les zones d'amont formant chacune une unité paysagère (Création d'unités paysagères). HRU

appartiennent à des unités paysagères.

Fusion de canaux courts : les sous-bassins peuvent être fusionnés comme dans QSWAT, mais en plus les canaux peuvent être fusionnés au sein de sous-bassins (Fusionner des canaux courts) dans le but de

ou les réservoirs, ou inclus dans les lacs, sont remplacés par des terres WETN il n'y a plus de HRU avec des terres WATR.

Modèles de grille : En plus des modèles basés sur des sous-bassins délimités, les modèles de grille peuvent être créés et utilisés (à l'aide de modèles de grille).

Paramètres : une large gamme de paramètres peut être définie à l'aide du formulaire de paramètres (Paramètres).

Flux environnementaux : une gamme de flux environnementaux peut être générée (Flux environnementaux).

2. Environnement et outils requis

 Microsoft Windows (n'importe quelle version, à notre connaissance) ou Linux (probablement n'importe quelle version récente, mais uniquement testé sur Ubuntu) ou MacOS (uniquement testé sur Catalina)  Éditeur de texte (par exemple, NotePad sous Windows, gedit sous Linux, TextEdit sous MacOS, Emacs sous

any) qui vous permet de lire et de modifier des fichiers texte ASCII.

QGIS. Les instructions de ce document supposent que vous disposez d'une machine 64 bits et que vous devez utiliser les versions 64 bits de QGIS, QSWAT+ et SWAT+.

 Un outil qui permet de visualiser et d'éditer des bases de données SQLite. Un bon choix dans Windows est le SQLiteStudio gratuit et open source qui peut être téléchargé à partir de

https://sqlitestudio.pl. Sous Linux et sur Mac, vous pouvez également utiliser SQLiteStudio, ou vous pouvez trouver SQLiteBrowser disponible dans votre distribution.

Le code source de QSWAT+ est disponible sur

 Installez QGIS en exécutant QGIS-OSGeo4W-3.16.4-1-Setup-x86_64 (ou une version ultérieure). Il peut être téléchargé à partir de la page de téléchargement de QGIS, où vous devez sélectionner le Référentiel de version à long terme et le programme d'installation autonome 64 bits. Utiliser la valeur par défaut dossier C:/Program Files/QGIS 3.16 comme dossier d'installation.

Notez que vous pouvez utiliser une version ultérieure à la 3.16 à condition qu'il s'agisse de QGIS 3, pas de QGIS 2 qui est incompatible avec QSWAT+, mais pas une version antérieure. Nous vous recommandons d'utiliser la version actuelle à long terme (LTR) car elle restera stable pendant un certain temps (actuellement un an) et c'est la version contre laquelle QSWAT+ est testé.

Installez QSWAT+ en exécutant swatplustools-installer, version 2.0 ou ultérieure. Ça peut être téléchargé à partir de la page SWAT+ du site Web SWAT. Vous pouvez être informé que

Windows a protégé votre PC et vous devez cliquer sur Plus d'informations, puis sur Exécuter quand même pour

procéder à l'installation. Vous devez ensuite accepter la licence. Il s'agit d'un programme d'installation combiné qui fournit QSWAT+, l'éditeur SWAT+ et d'autres

matériaux. Vous pouvez choisir les composants dont vous avez besoin (pour la première installation QSWAT+, l'éditeur SWAT+, probablement le générateur météo global, et le

les données de sol SSURGO/STATSGO si vous modélisez n'importe où aux États-Unis), et vous devez également faire quelques choix :

o L'éditeur SWAT+, ainsi que le programme SWAT+ et d'autres supports sont par défaut installé dans C:/SWAT/SWATPlus, mais l'utilisateur faisant l'installation a la possibilité de changer ce répertoire. Si vous choisissez de modifier cette valeur par défaut, vous devrez utiliser le formulaire Paramètres QSWAT+ la première fois que vous exécutez QSWAT+ pour définir le répertoire SWATPlus sur le chemin que vous avez choisi. le le réglage sera alors conservé par QSWAT+ et le même utilisé à l'avenir, à moins que vous ne le changiez à nouveau.

o QSWAT+ est un plugin pour QGIS. Il peut être installé pour tous les utilisateurs, ou simplement le utilisateur exécutant le programme d'installation. Dans le second cas, le plugin est placé dans les fichiers personnels de l'utilisateur et n'apparaîtra en tant que plugin que lorsque le même utilisateur démarre QGIS. Cela ne nécessite pas de privilèges d'administrateur et est le choix naturel si vous effectuez l'installation sur votre ordinateur portable personnel ou sur une machine sur laquelle vous êtes le utilisateur principal. Dans le cas de tous les utilisateurs, le plugin est placé dans le QGIS fichiers d'installation. Cela nécessitera des privilèges d'administrateur. Il a également le

conséquence que si vous mettez à niveau QGIS, QSWAT+ devra être réinstallé. Le programme d'installation peut également devoir vous demander de rechercher où QGIS est installé, si il ne le trouve pas aux endroits habituels.

Notez qu'il est possible d'installer QSWAT+ individuellement pour plusieurs utilisateurs, si cela est plus pratique que d'utiliser l'option tous les utilisateurs, simplement par chaque utilisateur exécuter le composant QSWAT+ du programme d'installation de swatplustools.

 Votre distribution Linux peut avoir un package QGIS dans sa collection standard. À condition qu'il s'agisse de la version QGIS 3.16 ou ultérieure (pas de QGIS 2), vous pourrez l'utiliser et vous pouvez utiliser le système de gestion de packages standard pour l'installer. Les instructions qui suivent ici sont une alternative pour obtenir la dernière version à long terme de QGIS, actuellement 3.16, qui est la première version compatible avec QSWAT+ version 2.0.  Commencez par aller au téléchargement de QGIS page et en sélectionnant Linux. Suivre la

instructions pour votre distribution. Notez que les instructions sur la page QGIS incluent l'installation de qgis-plugin-grass, mais cela n'est pas nécessaire pour QSWAT+, c'est-à-dire que la commande d'installation nécessaire est simplement sudo apt install qgis (bien qu'Ubuntu semble l'installer de toute façon).

pour décompresser le fichier tar. Vous décidez ensuite de l'installer juste pour vous ou pour tout le monde. Dans le premier cas, il ne sera disponible que pour l'utilisateur qui l'installe. Dans le second cas, il sera disponible pour n'importe quel utilisateur, mais nécessitera le mot de passe de l'utilisateur root pour l'installer. Pour prendre la première option, utilisez la commande

et pour prendre la deuxième option utilisez la commande

Cela installera le plugin QSWAT+ pour QGIS, dans les fichiers personnels de l'utilisateur avec la première option, et dans l'installation de QGIS avec la deuxième option. Il installe également l'éditeur SWAT+ et d'autres outils et données dans le répertoire SWATPlus. Avec le premier option, SWATPlus est

est le répertoire personnel de l'utilisateur) et avec la deuxième option, c'est /usr/local/share/SWATPlus.

Il existe également des scripts shell uninstallforme.sh et unistallforall.sh pour la désinstallation.

 Obtenez QGIS à partir du téléchargement page, en sélectionnant Télécharger pour macOS, le Les installateurs tout-en-un signés et la version à long terme (la plus stable), actuellement 3.16, qui est la première version compatible avec QSWAT+ 2.0. Cela vous donnera un fichier .dmg, ouvrez-le, acceptez la licence et vous obtenez une petite fenêtre avec un symbole QGIS et un symbole Applications. Faites glisser le symbole QGIS sur le

Symbole des applications. Cela place QGIS dans votre dossier Applications et prend quelques minutes.

Lorsque vous ouvrez QGIS dans MacOS 10.15 (Catalina), vous obtenez une réponse indiquant qu'il ne peut pas être ouvert car Apple ne peut pas le vérifier pour les logiciels malveillants. Cliquez sur Afficher dans Finder, puis au lieu de cliquer avec le bouton gauche sur QGIS, faites un clic droit (ou maintenez la touche Ctrl enfoncée) pendant que vous cliquez) sur QGIS, puis choisissez Ouvrir. Le même avertissement concernant les malveillants le logiciel apparaît, mais cette fois, il y a un bouton Ouvrir sur lequel vous cliquez pour démarrer QGIS. Ensuite, QGIS s'ouvrira normalement.

Installez QSWAT+ à l'aide du swatplus-mac-installer du Page SWAT+ du site SWAT. Cela prend la forme d'une archive tar compressée. Enregistrez-le quelque part, ouvrez un terminal et cd dans le répertoire dans lequel il est enregistré. Utilisez la commande

tar -xvf swatplus-mac-installer.tgz

pour décompresser le fichier tar. Vous décidez ensuite de l'installer juste pour vous ou pour tout le monde. Dans le premier cas, il ne sera disponible que pour l'utilisateur qui l'installe. Dans le second cas, il sera disponible pour n'importe quel utilisateur, mais nécessitera le mot de passe de l'utilisateur root pour l'installer. Pour prendre la première option, utilisez la commande

Pour la deuxième option, si vous n'utilisez pas QGIS 3.16 mais une version différente, 3.18, disons, vous devrez éditer installforall.sh, en remplaçant à la ligne 3

Vous devriez apporter la même modification à uninstallforall.sh

Cela installera le plugin QSWAT+ pour QGIS, dans les fichiers personnels de l'utilisateur avec la première option, et dans l'installation de QGIS avec la deuxième option. Il installe également l'éditeur SWAT+ et d'autres outils et données dans le répertoire SWATPlus. Avec le premier option, SWATPlus est

est le répertoire personnel de l'utilisateur) et avec le deuxième option, c'est /usr/local/share/SWATPlus.

Il existe également des scripts shell uninstallforme.sh et unistallforall.sh pour la désinstallation.  Actuellement, il y a un problème que vous devez installer une nouvelle version d'un package appelé

oreiller. Pour cela, ouvrez une fenêtre de terminal et utilisez la commande

/Applications/QGIS-LTR.app/Contents/MacOS/bin/pip3 install Pillow -U

Et vous le verrez désinstaller Pillow-7.2.0 et installer Pillow-8.1.0 (ou peut-être plus tard).

 Répertoires installés

Les répertoires créés dans le répertoire SWATPlus sont :

SWATPlusEditor contenant l'éditeur et le programme SWAT+

Bases de données contenant une base de données de projet modèle, une base de données de référence, un modèle projet, la base de données du générateur météo global (si sélectionné pour Windows) et le Base de données des sols SSURGO/STATSGO (si sélectionné pour Windows).

Documents contenant ce manuel (si sélectionné dans le programme d'installation de Windows QSWAT+, toujours pour Linux et Mac)

ExampleDatasets contenant l'exemple Robit utilisé dans ce manuel

TauDEM5Bin contenant les programmes TauDEM utilisés dans la délimitation des bassins versants. Toi n'en avez pas besoin sous Windows si vous avez installé QSWAT ou QSWAT3.

o Windows uniquement : ConvertFromArc contenant un convertisseur d'ArcSWAT projets aux projets QSWAT+.

o SWATGraph (facultatif dans l'installateur Windows) contenant runSWATGraph.bat (Windows) ou runSWATGrap.sh (Linux et MacOS) Cela donne accès au programme SWATGraph. Vous n'en avez pas besoin sous Windows si QSWAT est installé.

Sous MacOS, si votre version de QGIS n'est pas la 3.16, vous devrez modifier

runSWATGrap.sh, en remplaçant QGIS3.16 à la ligne 3 par la chaîne appropriée pour

Les utilisateurs peuvent rejoindre le groupe d'utilisateurs QSWAT+ à l'adresse https://groups.google.com/d/forum/qswatplus. Il existe également des groupes d'utilisateurs pour l'éditeur SWAT+ et le modèle SWAT+.

même système de coordonnées projetées. Les utilisateurs peuvent se référer à l'annexe II pour la préparation des données mondiales pour QSWAT+. Les exemples de fichiers utilisés dans ce manuel sont disponibles dans le répertoire SWATPlus dans un répertoire ExampleDatasets/Robit. Ce répertoire contient :

Un DEM dans l'annuaire DEM

Un flux atteint le fichier à graver dans le DEM, dans le répertoire RobitStreamsUn fichier de sortie dans le répertoire MainOutlet

Cartes d'occupation du sol et des sols dans les annuaires Landuse and SoilDonnées climatiques dans le répertoire ClimateRobit

 Certains fichiers csv pour créer des tables de base de données, et

Un fichier de données observé ObserveFlow.csv dans le répertoire Observed.

Il est recommandé aux utilisateurs d'enregistrer l'emplacement SWATPlus/ExampleDatasets/Robit sur votre

Favoris ou liste d'accès rapide dans l'explorateur Windows (dans les fichiers Linux, utilisez Ctrl-D pour le mettre en signet,

dans Mac Finder, faites-le glisser vers la barre latérale). (Dans Mac Finder, vous rechercherez

/usr/local/share/SWATPlus et vous ne pourrez peut-être pas voir /usr. Pour le rendre visible, ouvrez

Finder, puis utilisez Aller dans le menu du haut, sélectionnez Aller au dossier et tapez /usr dans la zone.) Là sont des références fréquentes à SWATPlus/ExampleDatasets/Robit lorsque les fichiers et les cartes sont chargés, et il est fastidieux d'accès si son chemin est long. Nous appellerons ce dossier Robit

5. Structure et emplacement des données de sortie

Nous allons établir un projet appelé Demo1 dans un dossier QSWATPlus_Projects/Robit. (Au Windows, vous pouvez créer C:QSWATPlus_Projects sous Linux ou Mac, vous créez QSWATPlus_Projects dans votre dossier personnel.) Cela créera :

1. Un dossier QSWATPlus_Projects/Robit/Demo1 appelé dossier de projet.

2. Un fichier QSWATPlus_Projects/Robit/Demo1/Demo1.qgs appelé le fichier de projet. Cette contient des détails sur l'état actuel de QGIS et les paramètres du projet que nous avons choisis. Si nous voulons plus tard rouvrir le projet Demo1.qgs sera le fichier que nous recherchons.

3. Un dossier QSWATPlus_Projects/Robit/Demo1/Scenarios/Default/TxtInOut qui contiennent tous les fichiers d'entrée et de sortie SWAT+.

4. Un dossier QSWATPlus_Projects/Robit/Demo1/Scenarios/Default/Results qui peut être utilisé par l'éditeur SWAT+ et est utilisé pour conserver les fichiers de résultats de la visualisation. 5. Si nous choisissons d'enregistrer une exécution SWAT en tant que Sim1, disons, puis un dossier

QSWATPlus_Projects/Robit/Demo1/Scenarios/Sim1 sera créé (une copie de QSWATPlus_Projects/Robit/Demo1/Scenarios/Default, y compris ses sous-dossiers).

6. Un dossier QSWATPlus_Projects/Robit/Demo1/Watershed avec plusieurs sous-dossiers : 6.1. Rasters pour contenir les rasters utilisés, divisés en 3 sous-dossiers supplémentaires

6.1.1. DEM qui contiendra la copie locale de votre DEM, ainsi que tous les fichiers généré à partir de celui-ci comme la direction du flux, les cours d'eau et les sous-bassins en tant que rasters 6.1.2. Paysage qui contiendra, si vous créez des plaines inondables, des rasters de plaine inondable

et les rasters créés pour les générer.

6.1.3. Landuse pour contenir la copie locale de votre raster landuse 6.1.4. Sol pour contenir la copie locale de votre raster de sol

6.3. Texte pour contenir les rapports.

6. Configuration pour le bassin versant Robit, bassin du lac Tana

Le reste de ce document décrit et montre les outils tels qu'ils apparaissent dans Windows. Les versions Linux et Mac de QGIS seront presque identiques. On supposera que les utilisateurs savent comment effectuer des tâches courantes telles que créer des répertoires sous Linux et MacOS, ou peuvent utiliser Internet pour le savoir.

Démarrez QGIS 3 et sélectionnez le menu Plugins -> Gérer et installer les plugins et recherchez QSWATPlus3_64. Cliquez sur sa case à cocher pour l'installer, ce qui prend quelques secondes. le L'icône QSWAT+ apparaîtra dans la barre d'outils.

Figure 1 : QGIS 3 avec le plugin QSWAT+ chargé

Vous devez également vérifier que le plugin Processing est coché dans le menu Plugins. C'est un partie standard de QGIS et doit être activé par défaut, mais peut ne pas l'être. Vous pouvez dire si c'est activé par si Traitement apparaît comme un élément de menu en haut de la fenêtre QGIS, car il fait dans la figure 1.

Démarrez QSWAT+ en cliquant sur l'icône QSWAT+. L'interface principale QSWAT+ sera affiché..

Cliquez sur la case Nouveau projet. Un navigateur s'affichera demandant un répertoire parent pour le nouveau projet. Accédez à un dossier tel que C:QSWATPlus_Projects. Vous aurez probablement besoin de créez le dossier Robit, donc dans le panneau de gauche faites un clic droit sur QSWAT_Projects pour ouvrir un menu, sélectionnez Nouveau -> Dossier et tapez Robit pour écraser le nom par défaut de Nouveau dossier, et appuyez sur

Entrer. Robit apparaîtra dans le panneau de droite. Sélectionnez-le pour qu'il apparaisse dans la zone de texte ci-dessous et

Figure 2 : interface QSWAT+ à l'étape 1

A ce stade, la base de données du projet est créée en tant que Demo1.sqlite dans le dossier du projet, et une copie de la base de données de référence SWAT swatplus_datasets.sqlite y est également créée.

A ce stade, toutes vos cartes doivent être préparées dans une projection de surface égale (probablement, mais pas nécessairement, UTM1). Toutes les cartes doivent être dans le même système de coordonnées de projection. Se référer à l'annexe

II

7. Délimitation du bassin versant

Pour démarrer la délimitation automatique du bassin versant, cliquez sur le bouton Délimiter le bassin versant. Puis clique le bouton dans le groupe Select DEM.

L'UTM n'est pas une projection de surface égale, mais est proche de l'être, et suffisamment proche pour que SWAT+ puisse être utilisé sur la plupart des bassins versants.

Accédez au dossier Robit/DEM/srtm_30m et ouvrez le fichier hdr.adf. Ce DEM est un ESRI grid (ou raster) et se compose d'un certain nombre de fichiers. Le fichier nommé hdr.adf est celui à choisir pour une telle grille. QSWAT+ accepte une très large gamme de formats de fichiers raster. Le plus communs sont probablement les fichiers GeoTiff, qui ont normalement un suffixe .tif et se présentent sous la forme d'un seul des dossiers.

Figure 3 : Sélection du DEM

Le nom de la grille de la carte d'élévation sera affiché dans la zone de texte DEM sous le

Boîte de dialogue Bassin versant. Le DEM sélectionné sera copié dans le dossier Source du projet et,

si nécessaire, converti au format GeoTiff (.tif). Si les unités de votre DEM ne sont pas des compteurs, vous pouvez sélectionnez l'onglet Propriétés DEM et modifiez-les. Cet onglet affiche également la taille de la cellule DEM, la cellule zone, système de projection et étendue en degrés.

Les utilisateurs peuvent graver en utilisant un réseau de flux existant en utilisant l'option Graver dans un flux existant réseau : utilisez un fichier avec l'extension *.shp (Figure 4). Vérifiez la gravure dans le flux existant

option réseau et sélectionnez le fichier Robit/RobitStreams/robReach.shp.

Le formulaire de délimitation vous permet d'opter pour un réseau de bassins versants et de cours d'eau prédéfini en en sélectionnant l'onglet Utiliser le bassin versant existant. Si vous êtes intéressé par l'utilisation d'un

bassin versant et réseau de cours d'eau, veuillez vous référer à l'annexe III : Utilisation d'un bassin versant prédéfini et Channel Network).

Figure 4 : Création du réseau de flux

7.1.1 Création de chaînes et de flux

Les tailles de seuil pour la création de canaux et de flux doivent être définies ensuite. Ils peuvent être définis par superficie, dans diverses unités telles que les kilomètres carrés ou les hectares, ou par nombre de cellules. Si nécessaire, modifiez la méthode de seuil pour utiliser des hectares, modifiez la superficie des canaux à 9 et des ruisseaux à 90, et appuyez sur Créer des flux : le nombre de cellules sera ajusté à la valeur correspondante (100 et 1000 respectivement).Le seuil est le nombre de cellules (ou de surface) requis pour former un canal ou un flux : une cellule fera partie d'un canal ou d'un flux si elle a au moins le nombre seuil de cellules qui s'y drainent. Les tronçons de cours d'eau sont des sections du réseau de cours d'eau entre des points importants, où les points importants sont des sources de cours d'eau, des points de surveillance tels que des jauges d'eau, des jonctions de cours d'eau, des entrées et des sorties de bassin versant. Un sous-bassin est une zone

se jetant dans un bief de ruisseau. Les sous-bassins sont les principales divisions du bassin versant, et généralement les entités dont nous voulons générer et étudier les résultats SWAT. Les chenaux sont des divisions et des extensions plus fines des tronçons de cours d'eau, et nous permettent de situer plus précisément les

composantes du bassin versant qui formeront le modèle SWAT+ : unités de paysage, réservoirs, étangs, sources ponctuelles et unités de réponse hydrologique. Cette étape crée des flux (Figure 5). Il charge également le fichier de formes de gravure de flux s'il en a été sélectionné.

Figure 5 : Réseaux de flux et de canaux affichés

7.1.2 Entrées et sorties

Un fichier entrées/sorties contenant uniquement une sortie principale est fourni pour cet exemple. Vérifiez l'utilisation une option de fichier de formes d'entrées/sorties et accédez à Robit/MainOutlet/MainOutlet.shp. le une sortie est ajoutée (Figure 6).

Les utilisateurs peuvent ajouter des sorties, des réservoirs, des étangs, des entrées et des sources ponctuelles en sélectionnant le dessin Option entrées/sorties. Cela demande d'abord si vous souhaitez ajouter au fichier d'entrées/sorties existant, ou en créer un nouveau. Après avoir fait ce choix, sélectionnez le type de point à ajouter, et cliquez sur le

Watershed and Channel Network pour plus de détails sur les champs nécessaires dans un fichier inlets/outlets. Nous n'ajoutez pas de sorties, d'étangs, de réservoirs, d'entrées ou de sources ponctuelles supplémentaires dans cet exemple.

Figure 6 : Prise ajoutée

Si vous avez plusieurs points dans votre fichier entrées/sorties, vous pouvez choisir de n'utiliser qu'une sélection de eux. Pour ce faire, choisissez l'option Sélectionner les entrées/sorties. Maintenez la touche Ctrl enfoncée et sélectionnez les points en en faisant glisser la souris pour faire un petit rectangle autour d'eux. Les points sélectionnés deviendront jaunes et un compte sera affiché en bas à gauche de la fenêtre principale. Vous n'avez besoin d'utiliser cette option que si vous souhaitez utiliser uniquement un sous-ensemble de prises. La valeur par défaut est d'utiliser tous les points du fichier de prises ou ceux dessinés.

On vous dira combien de points ont été capturés avec succès. Si certains n'étaient pas cassés (ou pour vérifier à l'avance avant de créer le bassin versant), vous pouvez cliquer sur Review snapped qui montre les entrées/sorties encliquetées, c'est-à-dire celles qui se trouvent dans la distance seuil définie.

Cliquer sur Créer un bassin versant créera le bassin versant (Figure 7). Vérifiez que la délimitation Le formulaire montre que le bon nombre de points ont été capturés (dans notre cas 1) et aucun n'a échoué. Notez que sur la figure 7, nous avons un peu zoomé pour mieux nous concentrer sur le bassin versant. Pour ce faire, sélectionnez la couche des sous-bassins dans le panneau Couches, puis cliquez sur le bouton Zoom au bouton de calque (dans la barre d'outils supérieure, juste sous Traitement).

Figure 7 : Bassin versant délimité

Dans QSWAT+, il est possible de diviser les sous-bassins en unités de paysage. Deux unités paysagères sont possible, plaine inondable et amont. Si nous définissons des unités paysagères, lorsque nous en viendrons plus tard à définir unités de réponse hydrologique (HRU) celles-ci seront définies au sein de chaque unité paysagère, et si nous choisissons également de ne sélectionner que quelques HRU, alors chaque unité paysagère sera traitée séparément, de sorte que chaque unité paysagère contienne au moins une HRU. Le choix de la définition des unités paysagères s'applique à l'ensemble du bassin versant. Il est possible que de très petits sous-bassins tombent entièrement dans la plaine inondable, mais en général, chaque sous-bassin aura deux unités de paysage.

7.1.3 Création d'unités paysagères

Pour définir des unités de paysage, nous cliquons sur l'onglet Créer un paysage puis sur le bouton Créer. Cela fait apparaître le formulaire d'analyse du paysage (Figure 8).

Figure 8 : Création d'unités paysagères en tamponnant les cours d'eau

Il existe trois méthodes possibles pour créer des unités de paysage. La première consiste à faire de la plaine inondable simplement une zone tampon dessinée autour des tronçons du cours d'eau. Il n'y a pas d'analyse de terrain impliquée. La largeur de la plaine inondable de chaque côté du cours d'eau est définie comme un multiple, 10 par défaut, de la largeur du cours d'eau. La largeur du cours d'eau principal varie selon la zone qui s'y draine, de sorte que la

la largeur de la plaine inondable variera également, augmentant en aval. Cette méthode est plus susceptible d'être utilisée lorsque le terrain est principalement plat, lorsque d'autres méthodes peuvent donner de mauvais résultats.

La deuxième méthode est appelée inversion DEM. Il est calculé en annulant toutes les élévations du DEM et en recalculant les directions d'écoulement, et en calculant la quantité d'eau qui serait alors flux dans chaque point, l'accumulation de flux. Points où l'accumulation de débit dépasse un seuil, le seuil de crête, sont désignés comme des crêtes. Cela reflète exactement la méthode de calcul de l'endroit où les ruisseaux se produiront, et le seuil de crête par défaut est défini comme le seuil de ruisseau. Une position de pente pour chaque point est ensuite calculée. Il s'agit du rapport de la chute de chaque point à l'endroit où son débit d'eau rencontre un cours d'eau, à la chute totale de son point de crête (où son écoulement inverse rencontre une crête) au même point de cours d'eau. Si ce rapport est inférieur au seuil de position de pente, sa position dans le paysage est une plaine inondable, sinon elle est en amont. 0,1 est une valeur typique à utiliser pour la position de la pente, et est la valeur par défaut (Figure 9)

Figure 9 : Création d'unités paysagères en inversant le MNT

La troisième méthode de création d'unités de paysage est la méthode de longueur de branche. Cela utilise la même méthode de position de pente, mais une méthode différente pour définir les crêtes. Nous pouvons calculer le

longueur de branche de toute paire de points adjacents comme la plus petite des distances de chaque point à

où se rencontrent leurs chemins d'écoulement (qui peuvent être infinis si ces chemins vont à différents exutoires de bassin versant). Un point est dit sur une arête s'il a une longueur de branche avec un point adjacent qui dépasse un seuil. Ensuite, pour chaque point du bassin versant, nous utilisons pour son point de cours d'eau où son chemin d'écoulement rencontre un cours d'eau et pour son point de crête le point le plus proche classé comme sur une crête, et calculons sa position de pente comme avec l'inversion DEM. Les utilisateurs doivent noter que la méthode de longueur de branche prend peut-être un ordre de grandeur plus long que l'inversion DEM à calculer. Comme il n'est pas clair quelle méthode sera la meilleure pour un bassin versant particulier, le choix doit être fait par l'utilisateur, et il est probablement préférable de le faire visuellement. L'interface permet donc de réaliser plusieurs versions d'unités paysagères possibles, puis d'en choisir une ultérieurement lors de la création des HRU. À cette fin, les rasters d'unités de paysage montrent uniquement la plaine inondable et sont donnés le nom bufferfloodn s'il est créé par mise en mémoire tampon, où n est le multiplicateur de tampon, invfloodn_m si créé par l'inversion DEM, où n.m est le seuil de position de la pente, et branchfloodn_m si créé par la méthode de longueur de branche. Les utilisateurs peuvent donc s'ils le souhaitent créer plusieurs

candidats, en utilisant différentes méthodes et/ou différents paramètres. La figure 10 montre le résultat de la création de trois à l'aide de chacune des méthodes avec les paramètres par défaut et de la seule troisième actuellement visible dans le canevas de la carte. Pour cet exercice, vous devez créer le mêmes trois rasters de plaine inondable. Cliquez sur Terminé pour fermer le formulaire d'analyse du paysage.

Figure 10 : Rasters potentiels de plaine inondable créés

7.1.4 Fusion de sous-bassins

Dans QSWAT+, les utilisateurs peuvent sélectionner et fusionner des sous-bassins. Ceci est particulièrement important pour éviter petits sous-bassins. Pour fusionner des sous-bassins, sélectionnez l'option Sélectionner des sous-bassins dans le menu Fusionner onglet sous-bassins. Maintenez la touche Ctrl enfoncée et cliquez dans les sous-bassins que vous souhaitez sélectionner. Choisi les sous-bassins deviendront jaunes et un compte s'affichera en bas à gauche de la fenêtre de dialogue (Figure 11).

Figure 11 : Sous-bassin identifié pour fusion

Pour les besoins de cet exercice, nous ne fusionnerons pas le sous-bassin sélectionné. Relâchez la touche Ctrl et cliquez sur la carte à l'extérieur du bassin versant et le sous-bassin sélectionné sera désélectionné. Cocher l'option Sélectionner de petits sous-bassins offre la possibilité de fusionner les sous-bassins ci-dessous un certain seuil (c'est-à-dire soit la superficie en hectares, soit un pourcentage de la superficie moyenne du sous-bassin) (Illustration 12). Pour cet exercice, cliquez sur le bouton radio pourcentage de l'aire moyenne et laissez le chiffre par défaut de 5 dans la case à côté. Cliquez sur Sélectionner. Il vous montrera les sous-bassins qui ont un surface inférieure à 5% de la surface moyenne. Lorsque vous avez terminé, cliquez sur « Enregistrer » pour enregistrer votre sélection, ou « Annuler » pour abandonner votre sélection. Vous cliquez sur Fusionner pour effectuer la fusion. Remarque : vous ne peut pas fusionner un sous-bassin qui a une sortie ou une entrée à sa sortie. Ainsi, dans cet exemple, le seul petit sous-bassin est celui à la sortie du bassin versant, qui ne peut pas être fusionné, et QSWAT+ le rapportera.

Figure 12. Sous-bassins qui ont une superficie inférieure à 5% de la superficie moyenne des sous-bassins destinés à fusionner avec sous-bassins en aval.

Le troisième onglet du formulaire de délimitation consiste à ajouter des lacs. Nous n'avons pas de lacs à ajouter dans notre Robit exemple, et c'est un sujet substantiel, nous y reviendrons donc plus tard dans la section 11.

Pour terminer la délimitation du bassin versant, vous devez cliquer sur OK. Cela calcule et enregistre informations sur le bassin versant, avec le message Construction de la topologie, et provoque la sous-bassins à numéroter. Cette étape met fin à la délimitation du bassin versant et active la création Option HRU (Figure 13).

Figure 13. La délimitation du bassin versant est terminée et Créer des HRU est activé

7.2.1 Cartes d'occupation des sols et des sols

Après avoir calculé les bassins dont vous aviez besoin pour calculer les détails de la

Unités de réponse (HRU) utilisées par SWAT+. Ce sont des divisions de bassins en unités plus petites dont chacune a une combinaison particulière sol/utilisation des terres (culture)/plage de pente.

Pour ce faire, nous cliquons sur Créer des HRU, sélectionnez Robit/Landuse/roblandusenew/hdr.adf comme Carte d'utilisation des terres et sélectionnez Robit/Soil/mowr_soil90/hdr.adf comme carte de sol. Vous remarquerez peut-être que la carte d'utilisation des terres est chargée comme sélectionnée, en tant que raster ESRI avec un nom hdr.adf. Mais le sol map, au lieu d'être mowr_soil90/hdr.adf s'appelle mowr_soil90_clip.tif. Ceci est dû au fait QSWAT+ vérifie si les cartes d'utilisation des terres et des sols sont sensiblement plus grandes que le DEM (au moins 10 pixels DEM dans n'importe quelle direction) et, si c'est le cas, les coupe pour éviter de charger une carte plus grande que nécessaire. Le découpage les convertit également au format GeoTiff. Ainsi, lorsque vous préparez de telles cartes pour QSWAT+, vous devez vous assurer que leur projection correspond au DEM et qu'elles couvrent facilement la zone du bassin versant, mais ne vous inquiétez pas de les couper à la taille

table et table de sol respectivement.

Pour landuse, sélectionnez l'option Use csv file dans le menu déroulant Landuse table. Une forme apparaît en demandant le fichier csv de recherche de landuse. Accédez à Robit/Robit_landuses.csv et cliquez sur Ouvert. Cela lit le fichier csv et crée une table Robit_landuses dans la base de données du projet. le csv a la structure appropriée pour une table de recherche d'utilisation des terres. Son contenu est illustré à la figure 14. La première ligne, généralement incluse, est ignorée si son premier champ n'est pas numérique. Sur chaque autre ligne, le premier champ, délimité par une virgule, est une valeur de la carte d'occupation du sol. le le deuxième champ est un code d'utilisation des terres SWAT+, tel qu'il se trouve dans l'un des tableaux plante ou urbain dans le base de données du projet, ou tel que défini par l'utilisateur dans une nouvelle table. En option, une troisième colonne avec l'en-tête DESCRIPTION peut être inclus, et un troisième champ de texte (éventuellement vide, mais précédé par une virgule) inclus sur chaque ligne suivante. Plusieurs valeurs de carte peuvent correspondre au même code d'utilisation des terres, mais les valeurs de carte ne peuvent pas être répétées. Le nom de la table est déterminé comme suit. Premièrement, si le nom du fichier contient landuse (comme le nôtre), il est utilisé comme base. Sinon, landuse_lookup est utilisé comme base. Deuxièmement, si la base n'existe pas sous forme de table nom, il est utilisé, sinon successivement 0, 1, etc. est ajouté jusqu'à ce qu'un nom de table inutilisé soit trouvé et utilisé. Dans notre cas Robit_landuses sera le nom de la table. Vous n'aurez pas besoin de lire le fichier csv à nouveau : si vous réexécutez le projet, Robit_landuses sera disponible dans le menu déroulant menu (et sera la sélection par défaut car elle sera enregistrée dans le fichier de projet en tant que table de recherche d'utilisation des terres).

Figure 14 : Robit_landuses.csv

Les codes d'occupation des sols SWAT+ se trouvent généralement dans les tableaux végétal ou urbain du projet base de données, mais les utilisateurs sont libres de créer leurs propres tables. Premièrement, ils peuvent changer l'utilisation des terres et base de données des sols de sa valeur par défaut de la base de données du projet à une autre base de données. Deuxièmement, la plante ou

table urbaine n'a pas besoin d'utiliser ce nom : les menus déroulants intitulés Table de plantes et Urban

table inclura toutes les tables avec respectivement plante ou urbain dans leurs noms. Les utilisateurs peuvent également utilisez les options Utiliser csv dans ces menus pour charger un fichier csv avec les données appropriées et créer un tableau adapté.

Pour les modèles de grille, où les cellules de la grille peuvent ne contenir que quelques cellules d'utilisation des terres, il existe un risque que les cellules d'utilisation des terres sans données entraînent l'absence de valeur d'utilisation des terres dans l'ensemble de la cellule de la grille. Pour éviter cela, les valeurs nodata landuse sont remplacées par une valeur par défaut. La valeur par défaut est la valeur mappée par zéro dans la table de recherche landuse, sinon la première lue. Étant donné que l'ordre des entrées dans les tables de base de données est arbitraire, il est judicieux d'inclure 0 dans les tables de recherche si vous créez des modèles de grille.

Pour le sol, sélectionnez de la même manière Utiliser le fichier csv, puis ouvrez Robit/Robit_soils.csv. Il mappe les valeurs de notre carte des sols aux noms de sols trouvés dans le champ SNAM de la table useroil que nous sommes sur le point de créer.

7.2.2 Définir les propriétés du sol

À moins que notre projet ne soit aux États-Unis et que nous utilisions SSURGO ou STATSGO, nous avons également besoin d'un tableau décrivant les propriétés du sol. Celui-ci porte traditionnellement un nom usersol, ou un autre incluant celui nom, et se trouve généralement dans la base de données du projet. Ce sont les valeurs par défaut actuellement dans le formulaire pour la base de données et le nom de la table. Vous pouvez modifier la base de données si vous avez votre données de sol dans une autre base de données SQLite, (mais elle doit inclure vos tables végétales et urbaines comme bien) et vous pouvez utiliser n'importe quelle table avec useroil dans son nom. Le global_usersoil par défaut dans le La base de données du projet est appropriée pour les cartes mondiales des sols de la FAO, mais pas dans notre cas. Laissez la sélection par défaut de la base de données sur l'utilisation des terres et les sols telle quelle (la base de données du projet), assurez-vous l'option Soil data est définie sur usersoil, et sélectionnez Use csv file dans le menu déroulant Usersoil table menu. Ouvert . Robit/Robit_usersoil.csv pour créer et sélectionner la table Robit_usersoil.

Les autres options de données sur le sol concernent les bassins versants aux États-Unis pour lesquels vous utilisez Cartes des sols STATSGO, STATSGO2 ou SSURGO. Si vous sélectionnez le STATSGO ou le l'option SSURGO/STATSGO2, les données de sol seront automatiquement extraites du

base de données swatplus_soils.sqlite stockée dans SWATPlus/Databases. Aucune table de recherche de sol n'est nécessaire

avec SSURGO/STATSGO2. Pour STATSGO, une table de recherche est requise et elle cartographiera le sol mappez les valeurs sur l'une des quatre options, toutes basées sur la table statsgo dans swatplus_soils.sqlite :

1. valeurs muid telles que AL001

2. valeurs muid+seqn telles que AL001+1

3. valeurs muid+name telles que AL001+DICKSON 4. valeurs s5id telles que TN0042

La table de recherche doit utiliser l'une de ces options de manière cohérente. Où la cible de recherche correspond plus d'une ligne dans la table statsgo, la première (classée par valeurs d'identification croissantes) est prise. Ainsi, les quatre exemples ci-dessus donneraient tous la première ligne (id 1) dans le tableau.

Nous utiliserons l'une des cartes des plaines inondables que nous avons créées plus tôt, pour diviser nos sous-bassins en

unités de paysage. Utilisez le menu déroulant intitulé Sélectionner une carte de plaine inondable (facultatif) pour sélectionner

invflood0_10.tif. Ce menu inclura tous les fichiers trouvés dans le

Dossier Watershed/Landscape/Flood : vous pouvez ajouter de tels fichiers vous-même si vous le souhaitez. Ils ont besoin

être des rasters avec la même projection que le projet, et doit avoir la valeur 1 pour les pixels de la plaine inondable, et nodata partout ailleurs. Si vous ne sélectionnez pas dans ce menu. pas d'unités paysagères sera créé. Si vous placez vos propres cartes d'inondation dans ce dossier, vous ne devez pas inclure le

ceux avec des pentes moyennes supérieures à 10%. Tapez 10 dans la case et cliquez sur Insérer. Les bandes de pente boîte indique que la limite intermédiaire est insérée.

Nous allons également générer un shapefile FullHRUs : cliquez dans la case à cocher. La génération de ce fichier est facultatif, car cela peut prendre un certain temps s'il y a beaucoup de HRU. Si vous avez l'intention de visualiser les sorties HRU après avoir exécuté SWAT+, vous devez générer ce fichier.

Pour lire les données du DEM, des cartes d'occupation des sols, des sols et des pentes et se préparer à calculer HRU, assurez-vous que Lire à partir des cartes est coché et cliquez sur Lire (Figure 15). Il y a aussi un option Lire à partir de l'exécution précédente. Cela peut être utilisé lors de la réexécution du projet, à condition que vous n'ont pas réexécuté l'étape de délimitation, et n'ont pas modifié les entrées de sol ou d'utilisation des terres, ou les bandes de pente, pour récupérer les informations de la base de données du projet au lieu de relire les grilles. La lecture de la base de données est nettement plus rapide.

sa table de correspondance. (Cela devrait également se produire pour la carte des sols, mais dans ce cas, il existe apparemment une très large gamme de valeurs, de 106 à 198, mais QGIS ne reconnaît pas que seules 4 valeurs se produisent réellement.).

 Shapefiles Full HRU et Full LSU ont été créés et ajoutés. Cela permet aux utilisateurs pour voir où dans chaque sous-bassin se trouvent physiquement les unités de paysage (LSU) et les potentielles unités de réponse hydrologique (HRU). Une unité de paysage est la région qui se draine dans un tronçon de canal, elle-même divisée en régions de plaine inondable et en amont si un raster de plaine inondable est utilisé. Les LSU forment des régions uniques : elles forment chacune un seul polygone. Un HRU est la collection de pixels au sein d'un LSU qui partagent la même plage d'utilisation des terres, de sol et de pente. Les HRU forment généralement une collection de polygones. Si, par exemple, nous zoomons sur le sous-bassin 3, dans le panneau Légende sélectionnez (bouton gauche) Full HRUs, ouvrez son table attributaire (bouton droit), réglez la souris sur Select Feature(s) (barre d'outils QGIS, ou utilisez

View -> Select -> Select feature(s)) et cliquez sur le sud-est du sous-bassin 3, puis

faites défiler la table attributaire pour trouver la ligne sélectionnée, puis nous obtenons une vue comme la figure 17. Nous voyons que ce potentiel HRU est composé de plusieurs parties, est dans le sous-bassin 3 comme nous l'avions prévu, draine vers le canal 57, a l'unité de paysage Upslope , l'utilisation du sol AGRL, le sol LVx et la bande de pente 10 vers le haut. Sa superficie de 18,45 ha représente 5,4% de le sous-bassin et 59,9 % de l'unité paysagère amont du chenal. Fermer l'attribut Éditeur de tableaux. La génération du fichier de formes FullHRUs est facultative, car cela peut prendre un certain temps, mais est nécessaire si vous avez l'intention de visualiser plus tard les résultats des HRU. Dénombrements des sous-bassins (9), les canaux (87) et les HRU complets (potentiels) (516) sont affichés dans Créer des HRU que le fichier FullHRUs soit créé ou non.

Figure 17 : Affichage d'un HRU particulier

Avant de continuer avec la définition HRU, si vous regardez la fenêtre principale QSWAT+ vous voyez qu'un nouvel élément Sélectionnez le rapport à afficher est disponible et que vous pouvez choisir d'en afficher seulement deux rapports à ce stade, qui sont les rapports Elevation et Landuse and Soil. L'élévation rapport donne des informations sur la superficie des terres à chaque altitude, de la plus basse à la plus élevée, à la fois pour le bassin versant dans son ensemble et pour chaque sous-bassin (Figure 18). Le rapport sur l'utilisation des terres et les sols répertorie les zones d'utilisation des terres, les sols et les bandes de pente pour chaque sous-bassin (Figure 19). Il répertorie également les zones, divisées en unités de paysage si elles sont utilisées, pour chaque portée de canal.

(9 hectares dans notre cas), les tronçons des canaux au sein du réseau peuvent être très courts, car les jonctions se trouvent être proches les unes des autres et leurs zones de drainage sont donc réduites. La figure 20 montre un tronçon de chenal dans le sous-bassin 3 de seulement 72,4 mètres de long avec une zone de drainage, unité de paysage (LSU) numéro 121 (surlignée en jaune) de seulement 0,54 ha. Celui-ci est en fait divisé en 2 HRU potentiels, dont un de seulement 0,09 ha ! Il est préférable de supprimer ces HRU car SWAT+ passera du temps à les traiter, mais leur effet sera insignifiant. Nous supprimerons plus tard les petits HRU, mais il existe une règle selon laquelle chaque portée de canal, et en fait chaque unité de paysage si nous les utilisons, en conservera au moins un. Pour contrer cela, il existe une option pour fusionner les canaux courts avec les canaux voisins, en sélectionnant un seuil en pourcentage du sous-bassin ou en superficie en hectares, et en recréant le réseau de canaux. Utilisez le curseur dans le

Groupe de fusion de canaux courts (ou tapez dans la case) pour définir le seuil à 2%, sélectionnez le Re-merge l'option canaux courts et cliquez à nouveau sur Lire. Nous voyons que le nombre de canaux tombe à 72, et

les HRU complets comptent jusqu'à 4552. Si nous inspectons le rapport sur l'utilisation des terres et les sols pour le sous-bassin 3, nous voyons que la plus petite zone de drainage du canal est maintenant de 2,62 % du sous-bassin, avec une zone de drainage de 9 hectares. Si nous pensons toujours que cela est trop petit, nous pouvons modifier le seuil du canal court et cliquez à nouveau sur Lire. Mais nous allons continuer avec le réglage que nous avons. La fusion des canaux courts seuil peut être défini avant la première lecture si vous le souhaitez.

Figure 20 : Petit tronçon de canal et sa zone de drainage

7.2.4 Fractionnement et exonération des usages du sol

À ce stade, vous avez la possibilité de diviser les utilisations des terres et d'exempter les utilisations des terres, les deux

affectera la façon dont les HRU sont définis.

 Le fractionnement des landuses vous permet de définir des landuses plus précis que ne le propose votre carte d'aménagement du territoire. Si, disons, vous savez que dans ce bassin 50% de l'AGRL (Générique des terres agricoles) est utilisé pour le maïs, et l'autre 50% est utilisé pour le teff, vous pouvez diviser l'AGRL en 50% MAS et 50% TEFF (Figure 21 ). Il est possible d'utiliser l'utilisation du sol d'origine (ici AGRL) comme l'une des sous-utilisations du sol. Les pourcentages sont des nombres entiers et doivent totaliser 100 pour chaque utilisation des terres que vous divisez. Divisez AGRL en 50% MAS et 50% TEFF comme montré. Pour ce faire, sélectionnez d'abord AGRL dans le menu déroulant Select landuse to split. Cela soulève immédiatement une forme de sous-utilisation du sol Select. Sélectionnez MAS et cliquez sur OK. Ceci termine la première ligne du tableau. Cliquez sur le bouton Ajouter un sous-sol, sélectionnez TEFF et cliquez sur OK. Cela ajoute la deuxième ligne. Changez ensuite les deux pourcentages en 50, cliquez sur Enregistrer les modifications pour stocker le contenu de la table en tant qu'utilisation des terres divisée, et enfin cliquez sur Enregistrer les fractionnements pour remplir le formulaire et en sortir.

 L'exonération des usages permet de s'assurer qu'un usage est conservé dans le HRU

calcul même s'il tombe en dessous des seuils que nous définirons plus loin. Par exemple, nous pourrions décider d'exempter le FRST d'utilisation des terres forestières (Figure 22). Faites cette exemption.

Figure 22 : Exemption d'un usage du sol

7.2.5 Étangs et réservoirs

Il existe 3 manières de former des étangs et des réservoirs dans QSWAT+ :

1. Des lacs peuvent être ajoutés et ceux-ci doivent être désignés comme étangs ou réservoirs. Voir rubrique 11.

2. Les points peuvent être identifiés comme des points d'étang ou de réservoir dans le fichier de formes des entrées/sorties. Dans ce cas, chacun de ces points doit être à l'intérieur du point d'accrochage d'un canal. Le canal est divisé au point d'encliquetage en deux, la partie aval restant un canal et la partie amont devenant un étang ou un réservoir. Tous les pixels avec WATR d'utilisation des terres dans le LSU adjacent font partie de l'étang ou du réservoir, au lieu d'être potentiellement devenir des HRU. Ici, le LSU adjacent au canal est le LSU de la plaine inondable si un la carte de la plaine inondable est sélectionnée, sinon l'ensemble du LSU.

3. Un pourcentage de seuil de réservoir peut être défini. C'est le pourcentage minimum de WATR dans le LSU adjacent pour que la zone WATR devienne un réservoir. Quand ce seuil est atteint, le chenal est remplacé par un réservoir, d'aire la surface WATR de le LSU adjacent. Le seuil par défaut est de 101 %, ce qui désactive effectivement le

création automatique de réservoirs. Si nous modifions le seuil à ce stade, nous aurons besoin pour relire les données des cartes d'occupation des sols, des sols et des pentes : la lecture de l'exécution précédente est sélectionné et les options de création HRU sont désactivées jusqu'à ce que nous cliquions à nouveau sur Lire. le le réglage de fusion des canaux courts est conservé (ou peut être modifié) et sera réappliqué. Les canaux connectés qui atteignent le seuil de formation de réservoirs automatiques formeront un réservoir unique. L'exception à cette règle est lorsqu'un étang ou un réservoir a été marqué sur un canal pendant la délimitation. La position de l'étang ou du réservoir empêche de le combiner avec un réservoir en aval. Cela donne aux utilisateurs un moyen de contrôler la fusion autrement automatique des réservoirs.

Les canaux qui deviennent des étangs ou des réservoirs disparaissent effectivement du réseau d'acheminement (écoulement de l'eau). Les canaux, les unités paysagères et les HRU qui y seraient normalement acheminés sont plutôt acheminés vers l'étang ou le réservoir.

Ce bassin versant n'a pas de zones WATR et donc aucun réservoir ou étang ne pourrait être formé, même si nous réduisions le seuil du réservoir.

Une fois que toutes les données ont été lues et stockées, le choix HRU simple/multiple est activé. Les options d'utilisation des terres dominante, de sol, de pente et de HRU dominant fournissent un seul HRU pour chaque unité de paysage (c'est-à-dire que chacune est une seule option HRU). L'utilisation dominante du sol, le sol, la pente choisit le l'utilisation du sol avec la plus grande surface dans l'unité de paysage, le sol avec la plus grande surface dans l'unité de paysage et la plage de pente avec la plus grande surface dans l'unité de paysage et les utilise pour l'ensemble de l'unité paysagère. Dominant HRU sélectionne le plus grand des HRU potentiels dans chaque unité de paysage et fait de son utilisation du sol, de ses sols et de ses pentes celles choisies pour l'ensemble de l'unité de paysage.

Les options avec Filtrer par occupation du sol, sol, pente Filtrer par zone et Nombre cible de Les HRU créent plusieurs HRU possibles dans chaque unité de paysage. Pour l'option Plusieurs HRU, les utilisateurs peuvent exclure les HRU qui sont insignifiants en tenant compte des seuils de pourcentage ou de la superficie seuils. L'option Filtrer par utilisation des terres, sol et pente ignorera tout HRU potentiel dont l'occupation du sol, le sol ou la pente est inférieur au seuil choisi. Les zones de HRU qui sont ignorées seront redistribuées proportionnellement parmi celles qui sont conservées au sein de chaque unité de paysage. L'option Filtrer par zone ignorera les HRU qui sont en dessous d'un certain montant seuil (soit le pourcentage de l'unité de paysage, soit la superficie). Enfin l'option Cible nombre de HRU limite le nombre de HRU dans l'ensemble du bassin versant à un utilisateur préféré (c'est-à-dire entre la limite inférieure d'un HRU par unité de paysage et la limite supérieure de conservation de tous les HRU potentiels).

Pour cet exercice, utilisez la méthode Filtrer par occupation du sol, sol et pente et choisissez le Méthode de seuil de pourcentage d'unité de paysage. Pour l'utilisation du sol, la valeur de 51 comme maximum que nous pouvons choisir indique qu'il existe une unité de paysage où la valeur maximale pour une utilisation du sol est de 51%. Si nous choisissions une valeur supérieure à 51 %, nous essaierions d'ignorer toutes les catégories d'utilisation des terres dans cette unité de paysage. Par conséquent, 51 % est le minimum sur l'ensemble du

unités paysagères du pourcentage maximal d'occupation des sols dans chaque unité paysagère. Pour cet exercice, sélectionnez 10 % pour l'utilisation des terres, en utilisant le curseur ou en tapant dans la case, et cliquez sur OK. le

L'interface calcule ensuite le pourcentage min-max pour un sol à 51%. Sélectionnez 10 pour le sol, cliquez sur Va. De même, sélectionnez 10 pour la pente. A ce stade, l'utilisateur peut créer des HRU en cliquant sur Créer HRU (Figure 23). Le nombre de HRU créés (651) est indiqué en haut de la carte Toile. (Ce chiffre est supérieur au nombre de FullHRU (455) signalé précédemment en raison de la division des AGRL HRU.)

Figure 23 : Création de plusieurs HRU par filtre par utilisation des terres, sol et pente

Créer des HRU est maintenant signalé comme terminé et la troisième étape est activée (Figure 24). Un fichier Réel

Les LSU ont été ajoutés et, si vous avez demandé un fichier HRU complet, un fichier HRU réel a également

été ajouté. Ceux-ci contiennent les LSU réels après toute fusion de canaux, et les HRU potentiels qui ont été conservés en tant que HRU réels (et ont donc généralement des trous représentant ceux qui n'ont pas été conservés). Le tableau des attributs du fichier de formes LSU réel affiche les identifiants LSU, le

canal et le sous-bassin. La table attributaire du fichier de formes des HRU présente le sous-bassin et le canal, la catégorie de paysage, l'utilisation (originale) des terres, le sol et la bande de pente, et le(s) numéro(s) HRU. Dans le cas des HRU divisés, il peut y avoir plus d'un numéro HRU pour une forme, car il est impossible d'afficher dans un fichier de formes la division par des quantités arbitraires de l'original HRU potentiels. Si vous regardez les rapports maintenant disponibles, vous constaterez qu'il existe un HRU rapport qui n'inclut que les utilisations des terres, les sols et les bandes de pente laissées après la sélection des HRU, et donne également des détails sur les HRU qui ont été formées (Figure 25). Si vous souhaitez modifier le seuils HRU, vous pouvez cliquer à nouveau sur le bouton Créer des HRU, sélectionnez Lire à partir de passage précédent, cliquez sur Lire, modifiez les seuils et/ou les usages à scinder ou à exempter, et réexécutez l'étape Créer des HRU.

Figure 25 : Rapport des HRU

Un nouveau shapefile a été ajouté, le titre Channel atteint. Celui-ci est formé des canaux shapefile créé lors de la délimitation, mais a des canaux fusionnés. Un autre fichier de formes, montrant les sources ponctuelles qui sont automatiquement ajoutées à chaque canal, et tous les réservoirs qui ont été ajoutés, a également été ajouté. Une source ponctuelle est ajoutée à chaque canal pour plus de commodité. Les utilisateurs peuvent ajouter des données (dans l'éditeur SWAT+) pour toutes les sources ponctuelles qu'ils souhaitent inclure dans leur modèle : les sources ponctuelles sans données sont ignorées.

Il est fortement recommandé de sauvegarder le projet (via le menu fichier de QGIS) à ce stade. Vous pouvez maintenant cliquer sur le bouton Modifier les entrées et exécuter SWAT pour démarrer l'éditeur SWAT+, définissez le reste des paramètres et des données d'entrée dont vous avez besoin, et exécutez le modèle SWAT+. Ce document ne couvre pas l'éditeur - vous devez consulter la documentation de l'éditeur SWAT+

pour plus de détails, mais il y a quelques choses que vous devez savoir sur la façon d'exécuter l'exemple Robit. Vérifiez la sous-section suivante avant de lancer l'éditeur.

 Configuration de l'exemple Robit dans l'éditeur SWAT

Avant de commencer, vous pouvez préparer les informations du générateur météo. Les données d'exemple de Robit inclut ces données dans le répertoire Robit et aucune préparation supplémentaire n'est requise.

Deuxièmement, vous aurez besoin (si vous l'avez) de fournir des données météorologiques observées. L'exemple de Robit les données incluent ces données, dans Robit/ClimateRobit, et aucune autre préparation n'est requise.

Après avoir lancé l'éditeur (Figure 26), cliquez sur Démarrer pour importer le projet et les bases de données de référence. Ensuite, sur l'écran de résumé du projet (Figure 27), cliquez sur Commencer, puis sur le suivant

screen Ajouter des générateurs météo maintenant.

Figure 27 : Résumé du projet SWAT+ Editor

Pour configurer le générateur météo, cliquez sur Importer des données et sélectionnez les fichiers CSV comme format de données. Accédez à Robit/WGEN_Robit_stat.csv en tant que fichier csv Stations, et

Robit/WGEN_Robit_mon.csv comme fichier csv des valeurs mensuelles. Cochez la case pour indiquer que

Figure 28 : Importation des données du générateur météo

Les données du générateur de données météo sont importées et vous verrez une seule ligne puisqu'il n'y a qu'une seule station dans ces données (Figure 29).

Figure 29 : Données du générateur météo importées

Une fois le générateur météo configuré, sélectionnez Stations météo en haut à gauche. Dans le temps Formulaire Stations cliquez sur Importer les données. Les données observées par Robit sont au format SWAT2012, donc laissez-le comme choix dans la première case. Pour le répertoire des fichiers météo, naviguez pour sélectionner le dossier Robit/ClimateRobit. Pour un répertoire pour enregistrer les fichiers, vous pouvez choisir n'importe où vous comme, mais la valeur par défaut du dossier Scenarios/Default/TxtInOut, où les autres fichiers d'entrée seront stocké, est un choix judicieux. Cliquez sur Démarrer (Figure 30).

Figure 30 : Importation des données météorologiques observées

Le formulaire Stations météorologiques réapparaîtra, affichant une seule station avec des données pour les précipitations, la température, le rayonnement solaire, l'humidité relative et la vitesse du vent (Figure 31).

Figure 31 : Données météorologiques observées importées

7.3.2 Période de simulation

Cliquez sur le symbole triangulaire à gauche pour Exécuter SWAT+, qui ouvre les paramètres de simulation page (figure 32).

Figure 32 : Paramètres de simulation

Dans les paramètres de simulation, le dossier des fichiers d'entrée SWAT+ peut être laissé par défaut. Sélectionnez Définir votre période de simulation.

Nous avons des données quotidiennes pour le début de 1990 à la fin de 2013, mais pour réduire le temps nécessaire à l'exécution et pour importer les données de sortie, nous limiterons la période à 1990 à 2000. Utilisez le sélecteur de date pour modifier la date de fin en 31 décembre 2000. Notez que vous pouvez ajuster l'année en avant ou en arrière par décennies ainsi que par années. Après avoir sélectionné l'année, vous devez cliquer sur le jour (31 décembre) pour que le changement s'enregistre (Figure 33).

Figure 33 : Réglage de la date de fin de simulation

Sélectionnez Choisir la sortie à imprimer. . Nous utiliserons 3 comme période d'échauffement. SWAT+ fonctionnera pendant les trois trois premières années, mais la sortie sera ignorée.

Pour les objets à imprimer, une sortie est présélectionnée. Nous allons visualiser une variété de sorties, donc sélectionnez seulement trois des cases du haut sous Mensuel, Annuel et Moyenne. Ensuite, recherchez et ajoutez

canal sous Quotidien, dont nous aurons besoin pour le calcul des débits environnementaux. Nous ne le ferons pas

inclure d'autres sorties quotidiennes car il faudra un certain temps pour écrire près de 3000 enregistrements pour chaque canal, lsu ou hru dans la sortie demandée (Figure 34).

Figure 34 : Paramétrage des options d'impression

Faites défiler vers le bas et assurez-vous que Écrire les fichiers d'entrée, Exécuter SWAT+ et Analyser la sortie pour visualisation sont tous vérifiés (Figure 32). Nous n'avons pas besoin de la version de débogage, que vous n'utiliserait normalement que si le modèle comporte des erreurs, pour obtenir plus d'informations. Cliquez sur Enregistrer Paramètres & Exécuter sélectionné. Nous voyons les fichiers d'entrée en cours d'écriture, puis SWAT+ en cours d'exécution, et les fichiers de sortie en cours de lecture. Ils sont stockés dans une base de données de sortie,

swatplus_outputs.sqlite dans le dossier Scenarios/Default/Results. Nous avons sélectionné beaucoup de

sorties, donc cela prend quelques minutes. Quand c'est fini, nous pouvons quitter l'éditeur SWAT+. 8. Visualisation de sortie avec QSWAT+

Une fois que SWAT+ a été exécuté et la sortie importée, de sorte qu'il existe une base de données de sortie

swatplus_output.sqlite dans le répertoire Scenarios/Default/Results du projet, puis un bouton Visualize devient disponible dans le formulaire QSWAT+ principal (Figure 35). La visualisation permet

Figure 35 : Formulaire QSWAT+ principal affichant le bouton de visualisation

Cliquez sur Visualiser sur le formulaire QSWAT+ principal pour afficher le formulaire Visualiser les résultats (Figure 36). Ici, le menu déroulant Choisir un scénario affiche les simulations, ou scénarios, qui sont disponible, actuellement uniquement celui par défaut. Sélectionnez celui que vous souhaitez afficher. Utilisez ensuite la table de sortie Choisir SWAT+ pour voir quelles tables sont disponibles. Cela dépend de ce que vous choisi d'imprimer dans l'éditeur SWAT+, et pour les résultats HRU si un fichier de formes FullHRUs a été généré3.

Les dates de début et de fin affichées sont initialement les dates de début et de fin de sortie du

Scénario par défaut. Notez que l'année initiale est 1993 puisque nous avons simulé à partir de 1990 mais défini nyskip à 3. Vous pouvez choisir des dates parmi celles-ci si vous le souhaitez, pour raccourcir la période étant

visualisé. Si d'autres scénarios sont sélectionnés, les dates seront modifiées si nécessaire pour garantir la disponibilité des données pour toute la période.

Il existe trois possibilités illustrées par les onglets Données statiques, Animation et Tracé. Pour données statiques, une valeur récapitulative unique est calculée pour chaque aquifère, canal, HRU ou LSU et affichée sous forme de carte. Pour l'animation, il y a un affichage animé de la valeur dans chaque aquifère, canal, HRU ou LSU à chaque pas de temps de l'animation. Plot prend en charge la création et l'affichage de tracés de variables sélectionnées. Cette section traite des données statiques : animation et

Les tables HRU (celles dont les noms commencent par « hru_ ») sont disponibles pour le traçage, mais pas pour la visualisation statique ou animation à moins qu'un fichier FullHRUs n'ait été généré. Plutôt que de répéter cet avertissement plusieurs fois, nous supposons dans le reste de cette section que le fichier de formes FullHRUs a été généré.

tracé sont décrits dans les sections suivantes. Assurez-vous que l'onglet Données statiques est sélectionné. Les résultats statiques sont créés en générant un fichier de formes, et par défaut celui-ci sera appelé

<table>results.shp (par exemple lsunit_pw_monresults.shp) et stocké dans le répertoire Results du scénario actuel. Vous pouvez laisser cette valeur par défaut ou modifier le nom et l'emplacement du fichier à votre guise. Vous remarquerez peut-être des fichiers appelés hrus.shp, lsus.shp, rivs.shp, subs.shp, aquifers.shp et

deep_aquifers.shp dans ce répertoire. Ne choisissez aucun de ceux-ci comme nom de fichier : les quatre premiers sont des copies des fichiers de formes HRU, LSU, canaux et sous-bassins générés par QSWAT+, copiés dans ce dossier et utilisés comme base pour le fichier de formes des résultats (et pour l'animation). Les fichiers de formes de l'aquifère ont été créés dans le même but. Les copier ou les créer dans le répertoire Results est effectué car ces fichiers de formes peuvent être modifiés par les exécutions ultérieures de QSWAT+ et ne pas avoir les mêmes HRU, LSU, canaux ou sous-bassins que cette exécution.

Sélectionnez lsunit_pw_mon comme table de sortie SWAT+.

Le menu déroulant dans Choisir les variables contient toutes les variables de sortie de votre choix tableau. Vous pouvez les sélectionner un par un et utiliser le bouton Ajouter pour les ajouter à la boîte ci-dessous, ou cliquez simplement sur Tout pour les obtenir tous. Vous pouvez ajuster votre sélection en sélectionnant et en utilisant Del pour les supprimer, ou en utilisant Clear pour les supprimer tous. Les données de toutes les variables que vous place dans la case sera placé dans le fichier de résultats. Vous devez ensuite sélectionner l'un d'entre eux pour être affiché. C'est une bonne idée en général de sélectionner Tout car cela vous permet d'afficher différents variables sans avoir à modifier le fichier de résultats.

Figure 36 : Formulaire de visualisation des résultats

Pour chaque variable, pour chaque aquifère, canal, LSU ou HRU, les données de sortie peuvent avoir une valeur pour chaque jour, mois ou année de votre simulation, ou une année moyenne pour l'ensemble de la simulation (selon les sorties que vous avez choisi d'imprimer) . Pour afficher les résultats graphiquement, nous devons produire une valeur unique pour chaque variable pour chaque sous-bassin, et pour cela nous choisissons un

Résumé. Les résumés disponibles sont :

Totaux : le résumé est le total des valeurs de la variable pour l'aquifère, le canal, LSU ou HRU..

Moyenne quotidienne : le résumé est la moyenne quotidienne du total, le total divisé par le nombre de jours dans la simulation.

Moyennes mensuelles : le résumé est la moyenne mensuelle du total, le total divisé par le nombre de mois dans la simulation. Le nombre de mois peut être fractionnaireMoyennes annuelles : le résumé est la moyenne annuelle du total, le total divisé par le

nombre d'années dans la simulation. Le nombre d'années peut être fractionnaire.

Maxima : le résumé est la valeur maximale de la variable pour l'aquifère, le canal, LSU ou HRU..

Minima : le résumé est la valeur minimale de la variable pour l'aquifère, le canal, LSU ou HRU.

Si le tableau de sortie est une moyenne annuelle (son nom se termine par '_aa') la méthode récapitulative est déjà choisi comme moyenne annuelle, et le menu Choisir récapitulatif n'est pas activé.

Pour les variables qui sont effectivement des moyennes, telles que les débits, seuls certains des résumés ont un sens physique, à savoir la moyenne pour la fréquence d'impression choisie, le maximum et le minimum. Les utilisateurs doivent donc faire preuve de prudence lorsqu'ils choisissent des résumés pour ces variables.

Figure 37 : Affichage des résultats statiques

Propriétés, puis sélectionnez l'onglet Symbologie).

Pour afficher une variable différente de la liste, sélectionnez-la avec la souris et cliquez sur Créer. À modifiez le résumé, sélectionnez le nouveau dans le menu déroulant et cliquez sur Créer. Nous avons choisi un tableau de résultats LSU, il a donc été affiché en coloriant les formes LSU. Couleurs de sortie HRU Formes HRU. Les résultats des canaux sont affichés à l'aide de canaux. L'épaisseur des formes de canal est proportionnelle à la largeur du canal.

Les fichiers de résultats statiques sont fournis avec des info-bulles cartographiques indiquant le numéro du canal, du LSU, du HRU ou de l'aquifère, afin que vous puissiez vérifier le nombre et la valeur du résultat de n'importe quelle caractéristique. Assurez-vous que le Le bouton Afficher les astuces de carte est enfoncé (Figure 41) et que la couche de résultats est sélectionnée dans le panneau des couches, et lorsque la souris survole une entité, son numéro de canal, LSU, HRU ou aquifère s'affiche, ainsi que la valeur du résultat.

Vous souhaiterez peut-être afficher une expression qui est une combinaison de valeurs de résultat ou une fonction d'un résultat existant. Ceci peut être réalisé comme suit.

Tout d'abord, générez un fichier de formes de résultats comme décrit ci-dessus, en vous assurant d'inclure dans ses variables au moins tout ce que vous souhaitez utiliser dans votre expression. Puis faites un clic droit sur son entrée dans le panneau Calques et sélectionnez Ouvrir la table attributaire. Cliquez sur le symbole du crayon jaune en haut gauche pour commencer l'édition, puis sélectionnez Ouvrir la calculatrice de champ (symbole de l'abaque).

Dans le calculateur de champs, assurez-vous que Créer un nouveau champ est coché, donnez-lui un nom (au plus 10 caractères et pas déjà un nom de champ), choisissez Nombre décimal (réel) comme type de champ, modifiez la longueur et la précision si vous le souhaitez, puis créez l'expression. Le moyen le plus simple pour ce faire, double-cliquez sur les entrées dans le panneau central : Champs et valeurs contient tous les noms de champs existants, Math contient des fonctions mathématiques, Opérateurs une variété de

opérateurs numériques et logiques (dont certains sont également disponibles sous forme de boutons au-dessus du panneau de gauche), et ainsi de suite.

Lorsque vous double-cliquez sur les éléments, ils sont ajoutés au panneau de gauche. Vous pouvez également modifier ce panneau directement (ainsi vous pouvez facilement supprimer les erreurs). Lorsque l'expression est valide, la valeur résultante de la première ligne du tableau est présentée ci-dessous.

Lorsque vous êtes satisfait de votre expression, cliquez sur OK pour fermer la calculatrice et le jaune crayon pour terminer l'édition. Confirmez que vous souhaitez enregistrer les modifications apportées au calque.

Vous trouverez le(s) nouveau(x) nom(s) de champ ajouté(s) aux variables pouvant être sélectionnées pour l'affichage. Sélectionnez-en un, modifiez la méthode de résumé si vous le souhaitez et cliquez sur Créer pour voir votre nouveau variable affichée.

Notez que cette méthode ajoute des données à la table attributaire du fichier de résultats courant : elle n'ajoute pas à la table courante de la base de données de sortie. Cela signifie qu'il ne peut pas, par exemple, être animé ou tracé. Pour ajouter de telles données à la table d'origine, il est souvent possible d'utiliser une instruction SQL : SQL dispose d'un puissant langage d'expression. Par exemple, nous pourrions utiliser SQLiteStudio pour ajouter un colonne flo_diff, la différence entre flo_out et flo_in à channel_sd_mon. Nous procédons comme suit:

Utilisez le bouton Ajouter une colonne pour ajouter une colonne appelée flo_diff, tapez REAL  Cliquez sur la coche verte pour confirmer l'ajout

Dans le menu Outils, sélectionnez Ouvrir l'éditeur SQL et tapez la commande

MISE À JOUR channel_sd_mon SET flo_diff = flo_out - flo_in

Cliquez sur le bouton bleu Exécuter la requête.

Dans le formulaire de visualisation, sélectionnez une autre table de sortie, puis sélectionnez channel_sd_mon à nouveau pour forcer la relecture du tableau et la mise à disposition de la variable dans les menus déroulants statique, animation et tracé.

Une autre méthode pour exploiter la puissance des feuilles de calcul serait d'exporter le tableau sous forme de fichier csv (facile à faire dans SQLiteStudio), d'importer le fichier csv dans un tableur comme Excel ou Open Office, d'ajouter la ou les colonnes et de générer leurs données à l'aide les fonctions disponibles dans le

tableur, modifiez la structure de la table dans SQLiteStudio pour ajouter la ou les colonnes nécessaires et réimportez le fichier csv dans la table

La section précédente 8.4 présente une méthode pour produire des valeurs de résultats basées sur des fonctions de valeurs d'origine, mais nécessite que les valeurs d'origine soient dans la même table. Mais les sorties SWAT sont regroupées dans une série de tableaux : et si une fonction de valeurs de différents tableaux était requise ? Nous expliquons dans cette section comment cela peut être fait.

Les tables visualisables ont généralement des noms sous la forme X_Y_Z4 où X est lsunit,

hru, ou canal, et Z indique la fréquence : jour pour quotidien, lun pour mensuel, an pour annuel,

et aa pour la moyenne annuelle. Si deux tables dans la même base de données de sortie ont en commun X et Z valeurs alors elles peuvent facilement être combinées dans une jointure naturelle. Ils partageront automatiquement le mêmes colonnes id, jday, mon, day, yr, unit, gis_id et name, elles apparaîtront donc dans la jointure, et les colonnes restantes seront simplement l'union de toutes les autres colonnes des deux tables. Par exemple, si vous utilisez SQLiteStudio, vous pouvez ouvrir la base de données de sortie, dans les outils dans le menu, sélectionnez Ouvrir l'éditeur SQL et tapez une commande telle que

CREATE TABLE lsunit_lswb_mon AS SELECT * FROM lsunit_ls_mon NATURAL JOIN lsunit_wb_mon

et cliquez sur le bouton Exécuter la requête.

Notez que le nouveau nom de table lsunit_lswb_mon préserve les valeurs X et Z des deux entrées tables, afin que l'outil de visualisation sache comment présenter les données de la nouvelle table. À présent resélectionnez le scénario (même s'il n'y a que par défaut), le nouveau tableau apparaîtra dans la sortie tables, et vous pouvez procéder comme dans la section 8.4 ci-dessus.


Contenu

Dès 1950, les informaticiens utilisaient des machines électroniques pour construire des systèmes de jeu relativement simples, tels que Bertie le cerveau en 1950 pour jouer au tic tac toe, ou Nimrod en 1951 pour jouer à Nim. Ces systèmes utilisaient soit des affichages lumineux électroniques et principalement des systèmes de démonstration lors de grandes expositions pour montrer la puissance des ordinateurs à l'époque. [1] [2]

Guerre spatiale ! est considéré comme l'un des premiers jeux vidéo reconnus. Développé en 1961 pour l'ordinateur central PDP-1 au Massachusetts Institute of Technology (MIT) par un groupe d'étudiants là-bas, il permettait à deux joueurs de simuler un combat de combat spatial sur le moniteur relativement simpliste du PDP-1. Le code source du jeu a été partagé avec d'autres institutions avec un PDP-1 à travers le pays alors que les étudiants du MIT eux-mêmes se déplaçaient, permettant au jeu de gagner en popularité. [3]

Jeux informatiques mainframe

Dans les années 1960, un certain nombre de jeux informatiques ont été créés pour les systèmes centraux et les mini-ordinateurs, mais ceux-ci n'ont pas réussi à être largement diffusés en raison de la rareté persistante des ressources informatiques, du manque de programmeurs suffisamment formés intéressés par la création de produits de divertissement et de la difficulté de transférer programmes entre ordinateurs dans différentes zones géographiques. À la fin des années 1970, cependant, la situation avait radicalement changé. Les langages de programmation de haut niveau BASIC et C ont été largement adoptés au cours de la décennie, qui étaient plus accessibles que les langages plus techniques antérieurs tels que FORTRAN et COBOL, ouvrant la création de jeux informatiques à une plus grande base d'utilisateurs. Avec l'avènement du temps partagé, qui a permis de répartir les ressources d'un seul ordinateur central entre plusieurs utilisateurs connectés à la machine par des terminaux, l'accès à l'ordinateur n'était plus limité à une poignée d'individus dans un établissement, créant plus d'opportunités pour les étudiants pour créer leurs propres jeux. De plus, l'adoption généralisée du PDP-10, publié par Digital Equipment Corporation (DEC) en 1966, et du système d'exploitation portable UNIX, développé aux Bell Labs en 1971 et généralement commercialisé en 1973, ont créé des environnements de programmation communs à travers le pays qui ont réduit la difficulté de partager les programmes entre les établissements. Enfin, la création des premiers magazines dédiés à l'informatique comme Informatique créative (1974), la publication des premiers livres de compilation de programmes comme 101 jeux informatiques de base (1973) et la diffusion des réseaux étendus tels que l'ARPANET ont permis de partager plus facilement les programmes sur de grandes distances. En conséquence, de nombreux jeux mainframe créés par des étudiants dans les années 1970 ont influencé les développements ultérieurs de l'industrie du jeu vidéo d'une manière qui, Guerre spatiale ! de côté, les jeux des années 1960 ne l'ont pas fait.

Dans l'arcade et sur les consoles de salon, l'action rapide et le gameplay en temps réel étaient la norme dans des genres comme la course et le tir à la cible. Sur l'ordinateur central, cependant, de tels jeux n'étaient généralement pas possibles en raison à la fois du manque d'affichages adéquats (de nombreux terminaux informatiques ont continué à s'appuyer sur des télétypes plutôt que sur des moniteurs jusque dans les années 1970 et même la plupart des terminaux CRT ne pouvaient restituer que des graphiques à base de caractères) et puissance de traitement et mémoire insuffisantes pour mettre à jour les éléments du jeu en temps réel. Alors que les mainframes des années 1970 étaient plus puissants que le matériel d'arcade et de console de l'époque, la nécessité de répartir les ressources informatiques entre des dizaines d'utilisateurs simultanés via le partage du temps a considérablement entravé leurs capacités. Ainsi, les programmeurs de jeux mainframe se sont concentrés sur la stratégie et la mécanique de résolution d'énigmes plutôt que sur l'action pure. Les jeux notables de la période incluent le jeu de combat tactique Star Trek (1971) de Mike Mayfield, le jeu de cache-cache Chasser le Wumpus (1972) de Gregory Yob, et le jeu de guerre stratégique Empire (1977) de Walter Bright. Le match le plus important de l'époque a peut-être été Aventure dans la grotte colossale (ou simplement Aventure), créé en 1976 par Will Crowther en combinant sa passion pour la spéléologie avec les concepts du tout nouveau jeu de rôle sur table (RPG) Donjons et Dragons (D&D). Développé par Don Woods en 1977 en mettant l'accent sur la haute fantaisie de J.R.R. Tolkien, Aventure a établi un nouveau genre basé sur l'exploration et la résolution d'énigmes basée sur l'inventaire qui a fait la transition vers les ordinateurs personnels à la fin des années 1970.

Alors que la plupart des jeux ont été créés sur du matériel de capacité graphique limitée, un ordinateur capable d'héberger des jeux plus impressionnants était le système PLATO développé à l'Université de l'Illinois. Conçu comme un ordinateur éducatif, le système connectait des centaines d'utilisateurs à travers les États-Unis via des terminaux distants dotés d'écrans plasma de haute qualité et permettant aux utilisateurs d'interagir les uns avec les autres en temps réel. Cela a permis au système d'héberger une gamme impressionnante de jeux graphiques et/ou multijoueurs, y compris certains des premiers RPG informatiques connus, qui étaient principalement dérivés, comme Aventure, de D&D, mais contrairement à ce jeu, il mettait davantage l'accent sur le combat et la progression des personnages que sur la résolution de puzzles. Commençant par des explorations de donjon de haut en bas comme Le donjon (1975) et Le jeu des donjons (1975), plus communément appelés aujourd'hui par leurs noms de fichiers, pedit5 et dnd, les RPG PLATO sont rapidement passés à une perspective à la première personne avec des jeux comme Moria (1975), Oubliette (1977), et Avatar (1979), qui permettait souvent à plusieurs joueurs d'unir leurs forces pour combattre des monstres et accomplir des quêtes ensemble. Comme Aventure, ces jeux ont finalement inspiré certains des premiers jeux informatiques personnels.

Les premiers jeux vidéo d'arcade et consoles de salon

Le début de l'industrie du jeu vidéo moderne est né du développement simultané du premier jeu vidéo d'arcade et de la première console de jeu vidéo domestique au début des années 1970 aux États-Unis.

L'industrie des jeux vidéo d'arcade est née de l'industrie des jeux d'arcade préexistante, qui était auparavant dominée par les jeux électromécaniques (jeux EM). Suite à l'arrivée du jeu EM de Sega Périscope (1966), l'industrie de l'arcade connaissait une « renaissance technologique » entraînée par les jeux de nouveauté EM « audiovisuels », établissant les arcades comme un environnement sain pour l'introduction de jeux vidéo commerciaux au début des années 1970. [4] À la fin des années 1960, un étudiant Nolan Bushnell avait un emploi à temps partiel dans une salle d'arcade où il s'est familiarisé avec les jeux EM tels que le jeu de conduite de Chicago Coin. Speedway (1969), en regardant les clients jouer et en aidant à entretenir les machines, tout en apprenant comment cela fonctionnait et en développant sa compréhension du fonctionnement de l'industrie du jeu. [5]

En 1966, alors qu'il travaillait chez Sanders Associates, Ralph Baer a eu l'idée d'un appareil de divertissement pouvant être connecté à un écran de télévision. Présentant cela à ses supérieurs chez Sanders et obtenant leur approbation, il a, avec William Harrison et William Rasch, affiné le concept de Baer dans le prototype "Brown Box" d'une console de jeu vidéo domestique qui pourrait jouer à un simple jeu de tennis de table. Les trois ont breveté la technologie et Sanders, qui n'était pas dans le domaine de la commercialisation, a vendu des licences sur les brevets à Magnavox pour les commercialiser. Avec l'aide de Baer, ​​Magnavox a développé la Magnavox Odyssey, la première console de salon commerciale, en 1972.

Simultanément, Nolan Bushnell et Ted Dabney ont eu l'idée de fabriquer une armoire à pièces abritant un petit micro-ordinateur bon marché pour faire fonctionner Guerre spatiale ! En 1971, les deux avaient développé Espace informatique avec Nutting Associates, le premier jeu vidéo d'arcade reconnu. [6] Bushnell et Dabney se sont débarrassés d'eux-mêmes et ont formé Atari. Bushnell, inspiré par le jeu de tennis de table sur l'Odyssey, a engagé Allan Alcorn pour développer une version arcade du jeu, cette fois en utilisant des circuits électroniques à logique transistor-transistor (TTL) discrets. Atari Pong est sorti fin 1972 et est considéré comme le premier jeu vidéo d'arcade à succès. Il a déclenché la croissance de l'industrie des jeux d'arcade aux États-Unis à la fois avec des fabricants de jeux à prépaiement établis comme Williams, Chicago Coin et la filiale Midway de Bally Manufacturing, et de nouvelles startups telles que Ramtek et Allied Leisure. Beaucoup d'entre eux étaient Pong clones utilisant des commandes à billes et à pagaie, et a conduit à la saturation du marché en 1974, forçant les fabricants de jeux d'arcade à essayer d'innover de nouveaux jeux en 1975. La plupart des nouvelles sociétés créées à la suite de Pong n'a pas réussi à innover par lui-même et a fermé ses portes, et à la fin de 1975, le marché des jeux d'arcade avait chuté d'environ 50 % sur la base des revenus des ventes de nouveaux jeux. [7] De plus, Magnavox a emmené Atari et plusieurs autres de ces fabricants de jeux d'arcade en justice pour violation des brevets de Baer. Bushnell a réglé le procès pour Atari, obtenant les droits perpétuels sur les brevets d'Atari dans le cadre du règlement. [8] D'autres n'ont pas réussi à régler et Magnavox a gagné environ 100 millions de dollars en dommages-intérêts de ces poursuites en contrefaçon de brevet avant l'expiration des brevets en 1990. [9]

Les jeux vidéo d'arcade se sont rapidement propagés au Japon en raison de partenariats entre des sociétés américaines et japonaises qui ont tenu les sociétés japonaises au courant des développements technologiques aux États-Unis. La Nakamura Amusement Machine Manufacturing Company (Namco) s'est associée à Atari pour importer Pong au Japon à la fin de 1973. Dans l'année, Taito et Sega ont sorti Pong clones au Japon à la mi-1973. Les entreprises japonaises ont commencé à développer de nouveaux titres et à exporter ou sous licence ces jeux par le biais de partenaires en 1974. [10] Parmi ceux-ci figuraient Taito's Combat d'armes à feu (à l'origine Pistolet occidental dans sa version japonaise), qui a été autorisé à Midway. La version de Midway, sortie en 1975, était le premier jeu vidéo d'arcade à utiliser un microprocesseur plutôt que des composants TLL discrets. [11] Cette innovation a considérablement réduit la complexité et le temps de conception des jeux d'arcade et le nombre de composants physiques requis pour obtenir un gameplay plus avancé. [12]

Le marché des consoles dédiées

Le Magnavox Odyssey n'a jamais séduit le public, en grande partie à cause de la fonctionnalité limitée de sa technologie primitive de composants électroniques discrets. [7] À la mi-1975, les micropuces d'intégration à grande échelle (LSI) étaient devenues suffisamment bon marché pour être incorporées dans un produit de consommation. [7] En 1975, Magnavox a réduit le nombre de pièces de l'Odyssey en utilisant un ensemble de trois puces créé par Texas Instruments et a sorti deux nouveaux systèmes qui ne jouaient qu'à des jeux de balle et de pagaie, le Magnavox Odyssey 100 et le Magnavox Odyssey 200. Atari, entre-temps, a fait son entrée sur le marché de la consommation la même année avec la monopuce Home Pong système. L'année suivante, General Instrument a publié un LSI "Pong-on-a-chip" et l'a mis à la disposition de toute entreprise intéressée à bas prix. La société de jouets Coleco Industries a utilisé cette puce pour créer la série de modèles de consoles Telstar, vendue à un million de dollars (1976-1977).

Ces premières consoles de jeux vidéo à domicile étaient populaires, ce qui a conduit à un afflux important d'entreprises libérantPong et d'autres clones de jeux vidéo pour satisfaire la demande des consommateurs. Alors qu'il n'y avait que sept sociétés qui sortaient des consoles de salon en 1975, il y en avait au moins 82 en 1977, avec plus de 160 modèles différents cette année-là qui étaient facilement documentés. Un grand nombre de ces consoles ont été créées en Asie de l'Est, et on estime que plus de 500 Pong-des modèles de consoles de salon de type ont été fabriqués pendant cette période. [7] Comme pour la saturation antérieure de la raquette et de la balle dans le domaine des jeux d'arcade en 1975 en raison de la lassitude des consommateurs, les ventes de consoles dédiées ont fortement chuté en 1978, perturbées par l'introduction de systèmes programmables et de jeux électroniques portables. [7] Parmi les sociétés américaines actives en 1977, seules Atari, Magnavox et Coleco restaient sur le marché des consoles en 1978. [7]

Tout comme les consoles dédiées perdaient en popularité en Occident, elles ont brièvement augmenté en popularité au Japon. Celles-ci TV geemu étaient souvent basées sur des conceptions sous licence de sociétés américaines, fabriquées par des fabricants de téléviseurs tels que Toshiba et Sharp. Notamment, Nintendo est entré sur le marché du jeu vidéo au cours de cette période aux côtés de ses gammes actuelles de jouets traditionnels et électroniques, produisant la série de consoles Color TV-Game en partenariat avec Mitsubishi. [dix]

Croissance des salles de jeux vidéo et âge d'or

Après la saturation du marché de la balle et de la pagaie en 1975, les développeurs de jeux ont commencé à rechercher de nouvelles idées pour les jeux, soutenus par la possibilité d'utiliser des microprocesseurs programmables plutôt que des composants analogiques. Le designer de Taito Tomohiro Nishikado, qui avait développé Combat d'armes à feu auparavant, a été inspiré par Atari Éclater pour créer un jeu de tir, Envahisseurs de l'espace, sorti pour la première fois au Japon en 1978. [13] Envahisseurs de l'espace introduit ou popularisé plusieurs concepts importants dans les jeux vidéo d'arcade, y compris le jeu régulé par des vies au lieu d'un chronomètre ou d'un score défini, gagner des vies supplémentaires en accumulant des points et le suivi du score élevé obtenu sur la machine. C'était également le premier jeu à confronter le joueur à des vagues de cibles qui lui ont riposté et le premier à inclure une musique de fond pendant le jeu, bien qu'une simple boucle de quatre notes. [14] Envahisseurs de l'espace a été un succès immédiat au Japon, avec quelques salles d'arcade créées uniquement pour Envahisseurs de l'espace Machines. [13] Bien qu'il ne soit pas aussi populaire aux États-Unis, Envahisseurs de l'espace est devenu un succès lorsque Midway, en tant que fabricant nord-américain, a déplacé plus de 60 000 armoires en 1979. [15]

Envahisseurs de l'espace a lancé ce qui est considéré comme l'âge d'or des jeux d'arcade qui a duré de 1978 à 1982. Plusieurs titres d'arcade influents et les plus vendus ont été publiés au cours de cette période par Atari, Namco, Taito, Williams et Nintendo, notamment Astéroïdes (1979), Galaxien (1979), Défenseur (1980), Commande de missiles (1980), Tempête (1981), et Galaga (1981). Pac-Man, sorti en 1980, est devenu une icône de la culture populaire, et une nouvelle vague de jeux est apparue qui se concentrait sur des personnages identifiables et des mécanismes alternatifs tels que la navigation dans un labyrinthe ou la traversée d'une série de plates-formes. À part Pac-Man et sa suite, Mme Pac-Man (1982), les jeux les plus populaires dans cette veine pendant l'âge d'or étaient Donkey Kong (1981) et Q*bert (1982). [13]

Selon la publication commerciale Heures de vente, les revenus générés par les jeux vidéo à prépaiement sur place aux États-Unis sont passés de 308 millions de dollars en 1978 à 968 millions de dollars en 1979 à 2,8 milliards de dollars en 1980. Pac-Man a déclenché un engouement encore plus grand pour les jeux vidéo et attiré plus de joueuses dans les salles d'arcade, les revenus ont de nouveau bondi à 4,9 milliards de dollars en 1981. Selon une publication commerciale Compteur de lecture, en juillet 1982, les collections totales de pièces de monnaie ont culminé à 8,9 milliards de dollars, dont 7,7 milliards de dollars provenaient des jeux vidéo. [16] Les salles de jeux vidéo dédiées se sont développées pendant l'âge d'or, le nombre d'arcades (emplacements avec au moins dix jeux d'arcade) a plus que doublé entre juillet 1981 et juillet 1983, passant de plus de 10 000 à un peu plus de 25 000. [13] [16] Ces chiffres ont fait des jeux d'arcade le moyen de divertissement le plus populaire du pays, dépassant de loin la musique pop (à 4 milliards de dollars de ventes par an) et les films hollywoodiens (3 milliards de dollars). [16]

L'âge d'or de l'arcade décline à partir de 1983, partiellement impacté par le krach du marché des consoles de salon cette même année. D'autres facteurs clés étaient le manque d'innovation, car les joueurs ne continueraient à dépenser de l'argent pour des jeux que si un nouveau gameplay était proposé. De plus, une nouvelle panique morale autour des jeux vidéo est apparue dans les années 1980, liant les jeux vidéo à la violence et à la dépendance, créant des impressions négatives sur les salles de jeux vidéo et éloignant les jeunes joueurs. [13]

Introduction des consoles de salon à cartouche

Les coûts de développement du matériel de jeu dédié pour les consoles d'arcade et de salon basés sur des circuits à composants discrets et des circuits intégrés spécifiques à l'application (ASIC) avec une durée de vie limitée seulement ont poussé les ingénieurs à trouver des alternatives. Le prix des microprocesseurs avait suffisamment baissé en 1975 pour en faire une option viable pour le développement de consoles programmables pouvant charger des logiciels de jeu à partir d'une forme de support échangeable. [17]

Le Fairchild Channel F de Fairchild Camera and Instrument est sorti en 1976. C'est la première console de salon à utiliser des cartouches ROM programmables - permettant aux joueurs d'échanger des jeux - ainsi que la première console de salon à utiliser un microprocesseur qui lit les instructions de la ROM cartouche. Atari et Magnavox ont emboîté le pas en 1977 avec la sortie de l'Atari Video Computer System (VCS, plus tard connu sous le nom d'Atari 2600) et du Magnavox Odyssey 2, les deux systèmes introduisant également l'utilisation de cartouches. Pour terminer rapidement l'Atari VCS, Bushnell a vendu Atari à Warner Communications pour 28 millions de dollars, fournissant l'injection de trésorerie nécessaire pour terminer la conception du système d'ici la fin de 1977. [12] Le marché initial de ces nouvelles consoles était initialement modeste car les consommateurs étaient encore méfiez-vous après la saturation des consoles de salon dédiées. [18] Cependant, il y avait encore un nouvel intérêt pour les jeux vidéo et de nouveaux joueurs ont été attirés sur le marché, comme Mattel Electronics avec l'Intellivision. [7] Contrairement à la maison dédiée Pong consoles, les consoles à cartouches programmables avaient une barrière d'entrée plus élevée avec les coûts de recherche et de développement et de production à grande échelle, et moins de fabricants sont entrés sur le marché au cours de cette période. [7]

Cette nouvelle gamme de consoles a connu un moment décisif lorsqu'Atari a obtenu une licence de Taito pour créer la version Atari VCS du hit d'arcade. Envahisseurs de l'espace, sorti en 1980. Envahisseurs de l'espace a quadruplé les ventes de l'Atari VCS, ce qui en fait la première « killer app » dans l'industrie du jeu vidéo, et le premier jeu vidéo à se vendre à plus d'un million d'exemplaires et finalement à plus de 2,5 millions en 1981. [19] [20] Les ventes aux consommateurs d'Atari a presque doublé, passant de 119 millions de dollars à près de 204 millions de dollars en 1980, puis a explosé à plus de 841 millions de dollars en 1981, tandis que les ventes dans l'ensemble de l'industrie du jeu vidéo aux États-Unis sont passées de 185,7 millions de dollars en 1979 à un peu plus d'un milliard de dollars en 1981. Grâce à une combinaison de conversions de ses propres jeux d'arcade comme Commande de missiles et Astéroïdes et des conversions sous licence comme Défenseur, Atari a pris une position dominante dans l'industrie, avec une part de marché estimée à 65% de l'industrie mondiale en volume en dollars en 1981. Mattel s'est installé à la deuxième place avec environ 15% à 20% du marché, tandis que Magnavox occupait un troisième rang, et Fairchild a complètement quitté le marché en 1979. [7]

Un autre développement critique au cours de cette période a été l'émergence de développeurs tiers. Ray Kassar de Warner Communication ne tenait pas en haute estime les programmeurs d'Atari et une partie de ses décisions de gestion a gardé les noms des programmeurs hors du générique des jeux qu'ils ont créés, ce qui a conduit Warren Robinett à programmer secrètement son nom dans l'un des premiers œufs de Pâques dans son jeu. Aventure. [21] [22] Les politiques de Kassar ont conduit quatre des programmeurs d'Atari, David Crane, Larry Kaplan, Alan Miller et Bob Whitehead, à démissionner et à former leur propre société Activision en 1979, en utilisant leur connaissance du développement pour Atari VCS pour fabriquer et publier leurs propres jeux, avec leur succès éclatant de Piège! en 1982. Atari a intenté une action en justice pour arrêter les activités d'Activision, mais les sociétés ont réglé à l'amiable, Activision acceptant de payer une partie de leurs ventes de jeux en tant que frais de licence à Atari. [23] Un autre groupe de développeurs Atari est parti et a formé Imagic en 1981, suivant le modèle d'Activision. [24]

La domination d'Atari sur le marché a été contestée par ColecoVision de Coleco en 1982. Comme Envahisseurs de l'espace avait fait pour l'Atari VCS, Coleco a développé une version sous licence du hit arcade de Nintendo Donkey Kong en tant que jeu groupé avec le système. Alors que la Colecovision n'a vendu qu'environ 4 millions de consoles au cours de sa vie, contre 30 millions pour l'Atari VCS, son émergence en 1982 a secoué Atari et a ouvert la voie à un certain nombre de faux pas qui ont conduit au crash du jeu vidéo de 1983. [ 25] [7]

Une poignée de jeux de cette période ont été considérés comme des titres marquants dans l'histoire des jeux vidéo, établissant certains des premiers titres des genres populaires. Robinett Aventure, lui-même inspiré de l'aventure textuelle Aventure dans la grotte colossale, est considéré comme le premier jeu d'aventure graphique ainsi que le premier jeu d'action-aventure [26] et le premier jeu de fantasy sur console. [27] Activision Piège!, en plus d'être l'un des titres tiers les plus réussis, a également établi les bases qui seraient utilisées pour les jeux de plate-forme à défilement horizontal. [28] utopie for the Intellivision est le premier jeu de construction de ville et considéré comme l'un des premiers jeux de stratégie en temps réel. [29] [30]

Premiers jeux informatiques pour amateurs

Le fruit du développement de la vente au détail dans les premiers jeux vidéo est apparu principalement dans les salles d'arcade vidéo et les consoles de salon, mais en même temps, il y avait un marché croissant dans les ordinateurs personnels. Ces ordinateurs personnels étaient initialement une activité d'amateur, avec des mini-ordinateurs tels que l'Altair 8800 et l'IMSAI 8080 sortis au début des années 1970. Des groupes comme le Homebrew Computer Club à Menlo Park, en Californie, ont imaginé comment créer de nouveaux matériels et logiciels à partir de ces systèmes de mini-ordinateurs qui pourraient éventuellement atteindre le marché domestique. [31] Des ordinateurs domestiques abordables ont commencé à apparaître à la fin des années 1970 avec l'arrivée de la "Trinité de 1977": le Commodore PET, l'Apple II et le TRS-80. [32] La plupart ont été livrés avec une variété de jeux préfabriqués ainsi que le langage de programmation BASIC, permettant à leurs propriétaires de programmer des jeux simples. [33]

Des groupes d'amateurs pour les nouveaux ordinateurs se sont rapidement formés et des logiciels de jeux pour PC ont suivi. Bientôt, beaucoup de ces jeux, au début des clones de grands classiques tels que Star Trek, puis plus tard des ports ou des clones de jeux d'arcade populaires tels que Envahisseurs de l'espace, grenouille, [34] Pac-Man (voir Pac-Man clones) [35] et Donkey Kong [36] — étaient distribués par divers canaux, tels que l'impression du code source du jeu dans des livres (comme celui de David Ahl Jeux informatiques de base), les magazines (Jeux électroniques et Informatique créative) et des newsletters, qui permettaient aux utilisateurs de saisir eux-mêmes le code. [37] [38] [39]

Alors que la programmation amateur aux États-Unis était considérée comme un passe-temps alors que de plus en plus de joueurs affluaient vers les consoles de jeux vidéo, ces « codeurs de chambre » au Royaume-Uni et dans d'autres parties de l'Europe cherchaient des moyens de tirer profit de leur travail. [40] [41] Les programmeurs ont distribué leurs travaux par l'envoi physique et la vente de disquettes, de cassettes et de cartouches ROM. Bientôt, une petite industrie artisanale s'est formée, avec des programmeurs amateurs vendant des disques dans des sacs en plastique placés sur les étagères des magasins locaux ou envoyés par la poste. [41]

Les jeux mainframe étaient encore développés par des étudiants et d'autres au cours de cette période en utilisant des langages plus puissants offerts sur ces systèmes. Une équipe d'étudiants du MIT, Tim Anderson, Marc Blank, Bruce Daniels et Dave Lebling, s'est inspirée de Aventure dans la grotte colossale pour créer le jeu d'aventure textuel Zork à travers 1977 et 1979, et a formé plus tard Infocom pour republier le titre commercialement en 1980. [42] Les premiers jeux d'aventure graphiques de Sierra On-Line tels que Maison Mystère, utilisant des graphiques simples à côté du texte, a également émergé à la même époque. Voyou, l'homonyme du genre roguelike, a été développé en 1980 par Glenn Wichman et Michael Toy qui voulaient un moyen de randomiser le gameplay de Aventure dans la grotte colossale. [43]

Premiers jeux LCD portables

Couplés à des microprocesseurs bon marché, les jeux électroniques portables ont ouvert la voie aux premiers systèmes de jeux vidéo portables à la fin des années 1970. En 1979, Milton Bradley Company a lancé le premier système portable utilisant des cartouches interchangeables, Microvision, qui utilisait un écran matriciel LCD intégré. Alors que l'ordinateur de poche a connu un succès modeste au cours de la première année de production, le manque de jeux, la taille de l'écran et le crash du jeu vidéo de 1983 ont entraîné la disparition rapide du système. [44]

En 1980, Nintendo a lancé le premier de sa gamme Game & Watch, des jeux électroniques portables utilisant des écrans LCD. [45] Game & Watch a ronronné des dizaines d'autres sociétés de jeux et de jouets pour créer leurs propres jeux portables, dont beaucoup étaient des copies de titres de Game & Watch ou des adaptations de jeux d'arcade populaires. L'amélioration de la technologie LCD a permis aux nouveaux ordinateurs de poche d'être plus fiables et de consommer moins de piles que les jeux LED ou VFD, la plupart n'ayant besoin que de piles de montre. Ils pourraient également être beaucoup plus petits que la plupart des ordinateurs de poche à LED, même assez petits pour être portés au poignet comme une montre. Tiger Electronics a emprunté ce concept de jeu vidéo avec des ordinateurs de poche bon marché et abordables et produit toujours des jeux dans ce modèle à ce jour.

L'industrie des jeux vidéo a connu ses premières grandes difficultés de croissance au début des années 1980, lorsque des maisons d'édition sont apparues, de nombreuses entreprises ayant survécu plus de 20 ans, telles qu'Electronic Arts, parallèlement à des opérations incontrôlables qui ont trompé les développeurs de jeux. Alors que certains jeux du début des années 1980 étaient de simples clones de titres d'arcade existants, les coûts d'édition relativement bas des jeux informatiques personnels permettaient de créer des jeux audacieux et uniques.

Crash du jeu vidéo de 1983

Le succès d'Activision en tant que développeur tiers pour l'Atari VCS et d'autres consoles de salon a inspiré d'autres sociétés de développement tierces à émerger au début des années 1980 en 1983, au moins 100 sociétés différentes prétendaient développer des logiciels pour l'Atari VCS. [7] Cela avait été projeté pour conduire à une surabondance de ventes, avec seulement 10% des jeux produisant 75% des ventes pour 1983 sur la base des estimations de 1982. [46] De plus, il y avait des questions sur la qualité de ces jeux. Alors que certaines de ces entreprises ont embauché des experts en conception et programmation de jeux pour créer des jeux de qualité, la plupart étaient composées de programmeurs novices soutenus par des investisseurs en capital-risque sans expérience dans le domaine. En conséquence, le marché Atari VCS s'est édulcoré avec de grandes quantités de jeux de mauvaise qualité. Ces jeux ne se sont pas bien vendus et les détaillants ont réduit leurs prix pour essayer de se débarrasser de leur inventaire. Cela a eu un impact supplémentaire sur les ventes de jeux de haute qualité, car les consommateurs seraient amenés à acheter des jeux à prix cassés plutôt que des jeux de qualité marqués à un prix régulier. [47]

À la fin de 1983, plusieurs facteurs, notamment un marché inondé de jeux de mauvaise qualité et une perte de contrôle de l'édition, le manque de confiance des consommateurs dans le leader du marché Atari en raison des mauvaises performances de plusieurs jeux de grande envergure, et les ordinateurs personnels émergeant comme une nouvelle plate-forme plus avancée pour les jeux, a provoqué un grave ralentissement de l'industrie nord-américaine du jeu vidéo. Le krach de 1983 a mis en faillite plusieurs sociétés nord-américaines qui produisaient des consoles et des jeux de la fin de 1983 au début de 1984. Le marché américain de 3 milliards de dollars en 1983 est tombé à 100 millions de dollars en 1985, [48] tandis que le marché mondial des jeux vidéo estimé à 42 milliards de dollars en 1982 a chuté. à 14 milliards de dollars en 1985. [49] Warner Communications a vendu Atari à Jack Tramiel de Commodore International en 1984, [50] tandis que Magnavox et Coleco ont quitté l'industrie. Les effets du crash ont également affaibli l'industrie des jeux d'arcade et le marché des jeux informatiques personnels pendant quelques années après le crash.

Le crash a eu quelques effets mineurs sur les entreprises japonaises avec des partenaires américains touchés par le crash, mais comme la plupart des entreprises japonaises impliquées dans les jeux vidéo à ce stade ont une longue histoire, elles ont pu surmonter les effets à court terme. Le crash a ouvert la voie à l'émergence du Japon en tant que leader de l'industrie du jeu vidéo au cours des prochaines années, en particulier avec l'introduction par Nintendo de la nouvelle marque Famicom, la Nintendo Entertainment System, de retour aux États-Unis et dans d'autres régions occidentales en 1985, en maintenant des règles strictes contrôle de la publication pour éviter les mêmes facteurs qui ont conduit au krach de 1983. [51]

L'essor des jeux informatiques

Deuxième vague d'ordinateurs domestiques

Après le succès de l'Apple II et du Commodore PET à la fin des années 1970, une série d'ordinateurs domestiques moins chers et incompatibles est apparue au début des années 1980. Ce deuxième lot comprenait les Commodore VIC-20 et 64 Sinclair ZX80, ZX81 et ZX Spectrum NEC PC-8000, PC-6001, PC-88 et PC-98 Sharp X1 et X68000 et la famille Atari 8 bits, BBC Micro, Acorn Electron , Amstrad CPC et séries MSX. Bon nombre de ces systèmes ont trouvé la faveur sur les marchés régionaux.

Ces nouveaux systèmes ont contribué à catalyser à la fois les marchés des ordinateurs personnels et des jeux, en faisant mieux connaître l'informatique et les jeux grâce à leurs campagnes publicitaires concurrentes. Cela a été le plus notable au Royaume-Uni où la BBC a encouragé l'enseignement de l'informatique et a soutenu le développement de BBC Micro avec Acorn. [52] Entre le BBC Micro, le ZX Spectrum et le Commodore 64, une nouvelle vague de « encodeurs de chambre » a émergé au Royaume-Uni et a commencé à vendre ses propres logiciels pour ces plates-formes, aux côtés de ceux développés par de petites équipes professionnelles. [53] [54] [55] [56] De petites sociétés d'édition et de distribution telles qu'Acornsoft et Mastertronic ont été établies pour aider ces individus et ces équipes à créer et vendre des copies de leurs jeux. Ubisoft a débuté en tant que distributeur en France au milieu des années 80 avant de se lancer dans le développement et l'édition de jeux vidéo. [57] Au Japon, des systèmes comme le MSX et la gamme de PC NEC étaient populaires et plusieurs maisons de développement ont émergé en développant des clones d'arcade et de nouveaux jeux pour ces plates-formes. Ces sociétés comprenaient HAL Laboratory, Square et Enix, qui sont tous devenus plus tard parmi les premiers développeurs tiers de la Nintendo Famicom après sa sortie en 1983. [10]

Parmi les titres notables de cette période, citons le premier Ultime titre de Richard Garriott et le premier Sorcellerie titre de Sir-Tech, deux jeux de rôle fondamentaux sur ordinateur personnel. Le jeu de simulation de commerce et de combat spatial Élite de David Braben et Ian Bell a introduit un certain nombre de nouvelles fonctionnalités graphiques et de gameplay, et est considéré comme l'un des premiers jeux en monde ouvert et bac à sable. [58]

Les jeux dominaient les bibliothèques de logiciels des ordinateurs personnels. Un recueil de 1984 de critiques du logiciel Atari 8 bits utilisait 198 pages pour les jeux contre 167 pour tous les autres. [59] Cette année-là, le marché des jeux informatiques a pris le relais du marché des consoles après le crash de cette année-là, les ordinateurs offraient des capacités égales et, comme leur conception simple permettait aux jeux de prendre le contrôle complet du matériel après la mise sous tension, ils étaient presque aussi simple pour commencer à jouer avec comme consoles. [ citation requise ] En outre, la première vague de jeux vidéo éducatifs commerciaux, tels que Le sentier de l'Oregon et Où est Carmen Sandiego dans le monde ?, est né de la panique morale associée aux jeux d'arcade, utilisant la popularité croissante des ordinateurs personnels pour vendre ces titres comme alternatives aux parents inquiets ainsi qu'à utiliser en classe. [60]

Plus tard dans les années 1980, la prochaine vague d'ordinateurs personnels a émergé, avec le Commodore Amiga et l'Atari ST en 1985 et l'Atari ST. Les deux ordinateurs avaient des capacités graphiques et sonores plus avancées que la génération précédente d'ordinateurs et étaient des plates-formes clés pour le développement de jeux vidéo, en particulier au Royaume-Uni.Les codeurs de chambre à coucher avaient depuis formé des équipes de développement et ont commencé à produire des jeux pour ces systèmes de manière professionnelle. Il s'agit notamment de Bullfrog Productions, fondée par Peter Molyneux, avec la sortie de peuplé (le premier de ces jeux divins), DMA Design avec Lemmings, Psygnose avec L'ombre de la bête, et Team17 avec Vers. [61]

La compatibilité IBM PC

Alors que la deuxième vague de systèmes informatiques domestiques a prospéré au début des années 1980, ils sont restés comme des systèmes matériels fermés les uns des autres tandis que les programmes écrits en BASIC ou d'autres langages simples pouvaient être facilement copiés, des programmes plus avancés nécessiteraient un portage pour répondre aux exigences matérielles de le système cible. Séparément, IBM a sorti le premier de ses ordinateurs personnels IBM (IBM PC) en 1981, livré avec le système d'exploitation MS-DOS. Le PC IBM a été conçu avec une architecture ouverte pour permettre l'ajout de nouveaux composants, mais IBM avait l'intention de garder le contrôle sur la fabrication avec le BIOS propriétaire développé pour le système. [62] Alors qu'IBM luttait pour répondre à la demande pour son PC, d'autres fabricants d'ordinateurs tels que Compaq ont travaillé à l'ingénierie inverse du BIOS et ont créé des ordinateurs compatibles IBM PC en 1983. [63] [64] [65] [66] [67] [ 68] En 1987, les ordinateurs compatibles IBM PC dominaient le marché des ordinateurs domestiques et professionnels. [69]

Du point de vue des jeux vidéo, la compatibilité IBM PC a dynamisé le développement de jeux. Un développeur de logiciels pourrait écrire pour répondre aux spécifications compatibles IBM PC et ne pas se soucier de la marque ou du modèle utilisé. Alors que le PC IBM initial ne prenait en charge que les jeux de texte monochromes, les développeurs de jeux ont néanmoins porté le mainframe et d'autres jeux de texte simples sur le PC, comme Infocom avec Zork. IBM a introduit des contrôleurs d'affichage vidéo tels que le Color Graphics Adapter (CGA) (1981), le Enhanced Graphics Adapter (EGA) (1984) et le Video Graphics Array (VGA) (1987) qui ont étendu la capacité de l'ordinateur à afficher des graphiques en couleur, bien que même avec le VGA, ceux-ci étaient toujours à la traîne par rapport à ceux de l'Amiga. Les premières cartes son dédiées aux compatibles IBM PC ont été lancées à partir de 1987, offrant une entrée et une sortie de conversion de son numérique dépassant de loin les haut-parleurs internes de l'ordinateur, et avec le Sound Blaster de Creative Labs en 1989, la possibilité de brancher un contrôleur de jeu ou similaire. appareil.

En 2008, Sid Meier a classé le PC IBM comme l'une des trois innovations les plus importantes de l'histoire des jeux vidéo. [70] L'avancement des capacités graphiques et sonores de la compatibilité IBM PC a conduit à plusieurs titres influents de cette période. De nombreux titres qui étaient déjà conçus pour les premiers ordinateurs personnels ont ensuite été portés sur un système compatible IBM PC pour tirer parti de la plus grande base de consommateurs, y compris le Sorcellerie et Ultime série, avec de futurs versements publiés pour le PC IBM. Les premiers jeux d'aventure graphiques de Sierra On-Line ont été lancés avec le La quête du roi séries. La première SimCity jeu de Maxis est sorti en 1989. [71]

L'Apple Macintosh est également arrivé à cette époque. Contrairement au PC IBM, Apple a maintenu un système plus fermé sur le Macintosh, créant un système basé sur un système d'exploitation basé sur une interface utilisateur graphique (GUI). En conséquence, il n'avait pas la même part de marché que le compatible IBM PC, mais disposait toujours d'une bibliothèque de logiciels respectable comprenant des jeux vidéo, généralement des ports d'autres systèmes. [62]

Les premiers grands éditeurs de jeux vidéo sont apparus dans les années 1980, prenant principalement en charge les jeux informatiques personnels sur les jeux compatibles IBM PC et les systèmes antérieurs populaires ainsi que certains jeux sur console. Parmi les principaux éditeurs formés à cette époque figuraient Electronic Arts, [72] et Broderbund, tandis que Sierra On-Line a étendu ses propres capacités de publication à d'autres développeurs. [73] Activision, encore en train de se remettre des impacts financiers du crash du jeu vidéo de 1983, s'est étendu pour inclure d'autres propriétés logicielles pour le bureau, se rebaptisant Mediagenic jusqu'en 1990. [23]

Les premiers jeux en ligne

Les systèmes de babillards commutés étaient populaires dans les années 1980 et parfois utilisés pour les jeux en ligne. Les premiers systèmes de ce type datent de la fin des années 1970 et du début des années 1980 et avaient une interface en texte brut rudimentaire. Les systèmes ultérieurs ont utilisé des codes de contrôle de terminal (ce qu'on appelle l'art ANSI, qui comprenait l'utilisation de caractères spécifiques à IBM-PC ne faisant pas partie d'une norme de l'American National Standards Institute (ANSI)) pour obtenir une interface pseudo-graphique. Certains BBS offraient l'accès à divers jeux jouables via une telle interface, allant des aventures textuelles aux jeux de hasard comme le blackjack (généralement joué pour des "points" plutôt que pour de l'argent réel). Sur certains BBS multi-utilisateurs (où plusieurs personnes pouvaient être en ligne à la fois), il existait des jeux permettant aux utilisateurs d'interagir les uns avec les autres.

Logiciel SuperSet créé bécassines, un jeu informatique en réseau en mode texte en 1983 pour tester un nouveau réseau informatique basé sur un ordinateur personnel IBM et démontrer ses capacités. bécassines est officiellement crédité comme étant l'inspiration originale pour NetWare. On pense qu'il s'agit du premier jeu en réseau jamais écrit pour un ordinateur personnel commercial et est reconnu aux côtés du jeu de 1974. Guerre de labyrinthe (un jeu de labyrinthe multijoueur en réseau pour plusieurs machines de recherche) et Spasim (une simulation spatiale multijoueur 3D pour les mainframes à temps partagé) en tant que précurseur des jeux multijoueurs tels que ceux de 1987 Labyrinthe MIDI, et Perte en 1993. En 1995, iDoom (plus tard Kali.net) a été créé pour les jeux qui permettaient uniquement aux jeux en réseau local de se connecter via Internet. D'autres services tels que Kahn, TEN, Mplayer et Heat.net ont rapidement suivi. Ces services sont finalement devenus obsolètes lorsque les producteurs de jeux ont commencé à inclure leurs propres logiciels en ligne tels que Battle.net, WON et plus tard Steam.

Les premières interfaces utilisateur étaient en texte brut, similaires aux BBS, mais elles fonctionnaient sur de gros ordinateurs centraux, permettant à un plus grand nombre d'utilisateurs d'être en ligne en même temps. À la fin de la décennie, les services en ligne disposaient d'environnements entièrement graphiques utilisant des logiciels spécifiques à chaque plate-forme d'ordinateur personnel. Les services textuels populaires comprenaient CompuServe, The Source et GEnie, tandis que les services graphiques spécifiques à la plate-forme comprenaient PlayNET et Quantum Link pour le Commodore 64, AppleLink pour l'Apple II et le Macintosh, et PC Link pour l'IBM PC, qui étaient tous géré par la société qui est finalement devenue America Online et un service concurrent, Prodigy. Les jeux interactifs étaient une caractéristique de ces services, mais jusqu'en 1987, ils utilisaient des affichages textuels et non des graphiques.

Pendant ce temps, les écoles et autres institutions ont eu accès à ARPANET, le précurseur de l'Internet moderne, au milieu des années 1980. Alors que les connexions ARPANET étaient destinées à des fins de recherche, les étudiants ont exploré des moyens d'utiliser cette connectivité pour les jeux vidéo. Donjon multi-utilisateurs (BOUE) a été développé à l'origine par Roy Trubshaw et Richard Bartle à l'Université d'Essex en 1978 en tant que jeu multijoueur mais limité au système central de l'école, mais a été adapté pour utiliser ARPANET lorsque l'école y a eu accès en 1981, ce qui en fait le premier Internet -jeu connecté, et le premier MUD de ce type et un premier titre de jeux en ligne massivement multijoueurs. [74]

La récupération de la console de salon

Consoles 8 bits

Alors que le krach du jeu vidéo de 1983 a dévasté le marché américain, le secteur japonais du jeu vidéo est resté indemne. Cette année-là, Nintendo a présenté le Famicom (abréviation de Family Computer), tandis que le nouveau venu Sega a utilisé son expérience de jeu d'arcade pour concevoir le SG-1000. La Famicom est rapidement devenue un succès commercial au Japon, avec 2,5 millions de consoles vendues au début de 1985. Nintendo souhaitait introduire la console sur le marché faible des États-Unis, mais reconnaissait que le marché était toujours en difficulté depuis le crash de 1983 et que les jeux vidéo avaient toujours un perception négative là-bas. [75] En collaboration avec sa division Nintendo of America, Nintendo a rebaptisé la Famicom en tant que Nintendo Entertainment System (NES), lui donnant l'apparence d'un magnétoscope plutôt que d'un appareil ressemblant à un jouet, et a lancé le système aux États-Unis en 1985 avec des accessoires comme ROB (Robotic Operating Buddy) pour que le système semble plus sophistiqué que les consoles de salon précédentes. [76] La NES a revitalisé le marché américain du jeu vidéo et, en 1989, le marché américain est revenu à 5 milliards de dollars. Plus de 35 millions de systèmes NES ont été vendus aux États-Unis tout au long de sa durée de vie, avec près de 62 millions d'unités vendues dans le monde. [77]

En plus de revitaliser le marché américain, la console Famicom/NES a eu un certain nombre d'autres impacts de longue date sur l'industrie du jeu vidéo. Nintendo a utilisé le modèle du rasoir et des lames pour vendre la console à un coût de fabrication proche tout en profitant des ventes de jeux. [7] Parce que les ventes de jeux étaient essentielles pour Nintendo, il contrôlait initialement toute la production de jeux, mais à la demande de sociétés comme Namco et Hudson Soft, Nintendo a autorisé des développeurs tiers à créer des jeux pour les consoles, mais a strictement contrôlé le processus de fabrication, limitait ces sociétés à cinq titres par an et exigeait des frais de licence de 30% par vente de jeu, un chiffre qui a été utilisé tout au long du développement de la console jusqu'à présent. [78] Le contrôle de Nintendo sur les jeux Famicom a conduit à un marché de contrebande de jeux non autorisés en provenance de pays asiatiques, contre lequel il a essayé de lutter en marquant les jeux authentiques qu'il a approuvés avec le "Nintendo Seal of Approval". Lorsque la NES a été lancée, Nintendo a tiré les leçons de ses propres problèmes de bootleg avec la Famicom et de la sursaturation du marché américain qui a conduit au crash de 1983, et a créé le système de verrouillage 10NES pour les jeux NES qui nécessitaient une puce spéciale pour être présent dans des cartouches pour être utilisable sur les systèmes NES. La 10NES a contribué à freiner, mais n'a pas éliminé, le marché des bootlegs pour les jeux NES. [79] [80] Aux États-Unis, Nintendo of America a mis en place une ligne d'assistance téléphonique spéciale pour fournir aux joueurs de l'aide pour les jeux plus difficiles et a lancé Puissance Nintendo magazine pour fournir des trucs et astuces ainsi que des nouvelles sur les prochains jeux Nintendo. [81]

Le SG-1000 de Sega ne s'est pas aussi bien comporté contre la Famicom au Japon, mais la société a continué à l'affiner, en lançant Sega Mark III (également connu sous le nom de Master System) en 1985. Alors que Nintendo a eu plus de succès au Japon et aux États-Unis, Le Mark III de Sega s'est bien vendu en Europe, en Océanie et au Brésil. [82] [83] [84]

De nombreuses franchises fondamentales de jeux vidéo ont vu le jour pendant la période Famicom/NES et Mark III/Master System, principalement à partir de sociétés de développement japonaises. Alors que Mario était déjà apparu dans Donkey Kong et le Game & Watch et le jeu d'arcade Les frères Mario., Super Mario Bros., fait ses débuts en 1985, a établi Mario comme mascotte de Nintendo ainsi que le premier des Super mario la franchise. [10] Sega a également présenté ses premiers personnages mascottes, le navire Opa-Opa de Zone Fantaisie en 1986 et plus tard remplacé par Alex Kidd via Alex Kidd dans Miracle World en 1986, mais ni l'un ni l'autre n'a obtenu la reconnaissance populaire que Mario avait obtenue. [85] D'autres franchises clés de Nintendo sont nées des jeux LA légende de Zelda et Metroid, tous deux sortis en 1986. Le centre de formulation des jeux de rôle sur ordinateur au tour par tour a été lancé avec Dragon Quête (1986) de Chunsoft et Enix, Final Fantasy (1987) de Square, et Étoile du fantasme (1987) de Séga. Capcom Méga homme (1987) et Konami Castlevania (1986) et Engrenage métallique (1987) ont également des franchises en cours, avec Engrenage métallique également considéré comme le premier jeu d'infiltration grand public. [86]

Avec la domination de Nintendo, le Japon est devenu l'épicentre du marché du jeu vidéo, car de nombreux anciens fabricants américains avaient quitté le marché à la fin des années 1980. [87] Dans le même temps, les développeurs de logiciels du côté des ordinateurs personnels ont reconnu la force des consoles, et des sociétés comme Epyx, Electronic Arts et LucasArts ont commencé à consacrer leur attention au développement de jeux de console [88] En 1989, le marché des cartouches- les jeux sur consoles s'élevaient à plus de 2 milliards de dollars, tandis que ceux des jeux informatiques sur disque étaient inférieurs à 300 millions de dollars. [89]

Consoles 16 bits

NEC a lancé son moteur PC en 1987 au Japon, rebaptisé TurboGrafx-16 en Amérique du Nord. Alors que le processeur était encore un système 8 bits, le TurboGrafx-16 utilisait un adaptateur graphique 16 bits, et NEC a choisi de s'appuyer fortement sur la commercialisation du système en tant que système "16 bits" pour se différencier de la NES 8 bits. Ce stratagème a conduit à l'utilisation de la taille des bits du processeur comme facteur clé dans la commercialisation des consoles de jeux vidéo au cours de la décennie suivante, une période connue sous le nom de « guerre des bits ». [90]

Sega a sorti sa prochaine console, la Mega Drive au Japon en 1988, et rebaptisée Sega Genesis pour son lancement nord-américain en 1989. Sega voulait défier la domination de la NES aux États-Unis avec la Genesis, et la campagne initiale s'est concentrée sur la La puissance 16 bits de la Genesis sur la NES ainsi qu'une nouvelle gamme de jeux de sport développés pour la console. A défaut de faire une brèche significative dans la domination de NES, Sega a engagé Tom Kalinske au poste de président de Sega of America pour mener une nouvelle campagne. Parmi les changements de Kalinske figuraient une réduction significative du prix de la console et le regroupement du dernier jeu de Sega. Sonic l'hérisson, mettant en vedette la nouvelle mascotte de Sega du même nom, avec la console. Les changements de Kalinske ont donné à Genesis l'avantage sur la NES en 1991 et ont déclenché le début d'une guerre des consoles entre Sega et Nintendo. La console 16 bits de Nintendo, la Super Nintendo Entertainment System (SNES) a connu des difficultés lors de son lancement initial aux États-Unis en raison de la force de la Genesis. Cette guerre des consoles entre Sega et Nintendo a duré jusqu'en 1994 lorsque Sony Computer Entertainment a perturbé les deux sociétés avec la sortie de la PlayStation. [91]

Entre autres aspects de la guerre des consoles entre Sega et Nintendo, cette période a apporté une révolution dans les jeux vidéo de sport. Alors que ces jeux existaient depuis les premiers jeux d'arcade et de console, leurs graphismes limités nécessitaient une jouabilité très simplifiée. Lorsque Sega of America a introduit pour la première fois la Genesis aux États-Unis, elle avait obtenu les droits de dénomination de personnalités de premier plan dans divers sports, tels que Pat Riley Basket et Joe Montana Football, mais les jeux manquaient encore de complexité. Electronic Arts, sous Trip Hawkins, souhaitait créer un jeu de football plus réaliste pour la Genesis, qui avait les capacités de calcul pour cela, mais ne voulait pas payer les frais de licence élevés que Sega demandait de développer sur la Genesis. Ils ont réussi à obtenir les droits de nommage de John Madden et à rétro-concevoir la Genesis afin de pouvoir produire John Madden Football, l'un des premiers grands jeux de sport à succès. [92] Electronic Arts s'est ensuite fortement concentré sur les jeux de sport, s'étendant à d'autres sports comme le basekball, le hockey et le golf. [72]

La Neo-Geo de SNK était de loin la console la plus coûteuse lors de sa sortie en 1990. La Neo-Geo utilisait un matériel similaire à celui des machines d'arcade de SNK, donnant à ses jeux une meilleure qualité que les autres consoles 16 bits, mais le système n'était pas commercialement compatible. viable. La Neo-Geo a notamment été la première console de salon prenant en charge les cartes mémoire, permettant aux joueurs de sauvegarder leur progression dans un jeu, non seulement à la maison mais également partagée avec les jeux d'arcade Neo-Geo compatibles. [93]

Les années 1990 ont été une décennie d'innovation marquée dans les jeux vidéo. Ce fut une décennie de transition des graphismes raster aux graphismes 3D et a donné naissance à plusieurs genres de jeux vidéo, notamment le jeu de tir à la première personne, la stratégie en temps réel et le MMO. Les jeux portables sont devenus plus populaires tout au long de la décennie, en partie grâce à la sortie de la Game Boy en 1989. [94] Les jeux d'arcade ont connu une résurgence du début au milieu des années 90, suivi d'un déclin à la fin des années 90 les consoles sont devenues plus courantes.

Cependant, à mesure que les jeux d'arcade déclinaient, l'industrie du jeu vidéo à domicile est devenue une forme de divertissement plus grand public dans les années 1990, mais leurs jeux vidéo sont également devenus de plus en plus controversés en raison de leur nature violente, en particulier dans les jeux de Combat mortel, Piège de nuit, et Perte, conduisant à la formation de l'Interactive Digital Software Association et de leurs jeux de notation en leur signant leurs évaluations ESRB depuis 1994. [95] Les développements majeurs des années 1990 incluent la vulgarisation de l'infographie 3D utilisant des polygones (initialement dans les arcades, puis les consoles de salon et ordinateurs), et le début d'une plus grande consolidation d'éditeurs, de jeux à plus gros budget, d'une taille accrue des équipes de production et de collaborations avec les industries de la musique et du cinéma. Les exemples de ceci incluent l'implication de Mark Hamill avec Commandant d'escadre III, l'introduction de QSound avec des cartes système d'arcade telles que CP System II de Capcom, et les budgets de production élevés de titres tels que Squaresoft Final Fantasy VII et Séga Shenmue.

Transition vers les médias optiques

À la fin des années 1980, les jeux de console étaient distribués sur des cartouches ROM, tandis que les jeux PC étaient expédiés sur des disquettes, des formats qui avaient des limitations de capacité de stockage. Les supports optiques, et en particulier le CD-ROM, ont été introduits pour la première fois au milieu des années 1980 pour la distribution de musique et au début des années 1990, les supports et les lecteurs de CD étaient devenus peu coûteux à intégrer dans les appareils informatiques grand public, y compris pour les consoles de salon. et ordinateurs. [96] En plus d'offrir plus de capacité pour le contenu de jeu, les médias optiques ont permis d'inclure de longs segments vidéo dans les jeux, tels que des vidéos en plein mouvement, ou des cinématiques animées ou pré-rendues, permettant d'ajouter plus d'éléments narratifs aux jeux. [97]

Avant les années 1990, certains jeux d'arcade exploraient l'utilisation de disques laser, le plus notable étant l'antre du dragon en 1983. Ces jeux sont considérés comme des films interactifs et utilisaient des vidéos plein écran à partir du disque laser, incitant le joueur à répondre via les commandes au bon moment pour continuer le jeu. [97] [98] Alors que ces jeux étaient populaires au début des années 1980, le coût prohibitif de la technologie des disques laser à l'époque limitait leur succès. Lorsque la technologie des médias optiques est arrivée à maturité et que son prix a baissé dans les années 1990, de nouveaux jeux d'arcade à disque laser ont émergé, tels que Chien fou McCree en 1990. [97] Pioneer Corporation a lancé la console de jeu LaserActive en 1993 qui n'utilisait que des disques laser, avec des extensions pour jouer à des jeux de la bibliothèque Sega Genesis et NEC TurboGrafx-16, mais avec un prix de base de la console de 1 000 $ et des ajouts. ons à 600 $, la console n'a pas bien fonctionné. [99]

Pour les consoles, les supports optiques étaient moins chers à produire que les cartouches ROM, et des lots de CD-ROM pouvaient être produits en une semaine tandis que les cartouches pouvaient prendre deux à trois mois à assembler, en plus de la plus grande capacité. [100] Des modules complémentaires ont été créés pour que les consoles 16 bits utilisent des supports CD, y compris le PC Engine et le Mega Drive. D'autres fabricants ont fabriqué des consoles à double média, comme la TurboDuo de NEC.Philips a lancé le CD-i en 1990, une console utilisant uniquement des supports optiques, mais l'unité avait des capacités de jeu limitées et une bibliothèque de jeux limitée. [101] Nintendo avait également travaillé avec Sony pour développer un SNES sur CD, connu sous le nom de CD-ROM Super NES, mais cet accord a échoué juste avant son annonce publique, et en conséquence, Sony a continué à développer le Console PlayStation sortie en 1994, qui utilisait exclusivement des supports optiques. [102] Sony a pu capitaliser sur la façon dont le marché japonais a géré les ventes de jeux au Japon pour la PlayStation, en ne produisant qu'un nombre limité de tout nouveau jeu sur CD-ROM avec la possibilité de produire rapidement de nouvelles copies d'un jeu en cas de succès, un facteur qui ne pouvait pas être facilement réalisé avec les cartouches ROM où, en raison de la rapidité avec laquelle les goûts des consommateurs ont changé, presque toutes les cartouches censées se vendre devaient être produites à l'avance. Cela a aidé Sony à dépasser Nintendo et Sega dans les années 1990. [103] L'un des titres clés de la PlayStation qui s'est adapté au format CD était Final Fantasy VII, sorti en 1997, les développeurs de Square voulaient faire passer la série de la présentation 2D de la série à l'utilisation de modèles 3D, et alors que la série était auparavant exclusive aux consoles Nintendo, Square a déterminé qu'il ne serait pas pratique d'utiliser des cartouches pour la distribution tandis que le CD de PlayStation- ROM leur a donné l'espace pour tout le contenu souhaité, y compris les cinématiques pré-rendues. [104] Final Fantasy VII est devenu l'un des titres clés de l'industrie, car il a élargi l'idée des jeux de rôle sur console aux consommateurs de jeux sur console. [97] [105] Depuis la PlayStation, toutes les consoles de jeux à domicile se sont appuyées sur des supports optiques pour la distribution physique des jeux, en dehors de la Nintendo 64 et de la Switch. [100]

Côté PC, les lecteurs de CD étaient initialement disponibles en tant que périphériques pour ordinateurs avant de devenir des composants standard au sein des PC. La technologie du CD-ROM était disponible dès 1989, avec Cyan Worlds Le trou d'homme étant l'un des premiers jeux distribués sur le support. [97] Alors que les CD-ROM ont été un meilleur moyen de distribuer des jeux plus importants, le support a fait son chemin avec les versions de 1993 de Cyan's Myst et Trilobyte's Le 7ème invité, jeux d'aventure qui incorporaient des segments vidéo plein écran parmi des scènes pré-rendues fixes, incorporant le support CD-ROM dans le jeu lui-même. Les deux jeux étaient considérés comme des applications tueuses pour aider à normaliser le format de CD-ROM pour les PC. [106] [107]

Présentation des graphiques 3D

En plus de la transition vers les supports optiques, l'industrie dans son ensemble a connu une évolution majeure vers l'utilisation d'infographies 3D en temps réel dans les jeux au cours des années 1990. Il y avait eu un certain nombre de jeux d'arcade qui utilisaient de simples graphiques vectoriels filaires pour simuler la 3D, tels que Zone de bataille, Tempête, et Guerres des étoiles. Un défi unique dans l'infographie 3D est que le rendu en temps réel nécessite généralement des calculs à virgule flottante, auxquels jusqu'aux années 1990, la plupart des matériels de jeux vidéo n'étaient pas bien adaptés. Au lieu de cela, de nombreux jeux simulaient des effets 3D tels que l'utilisation du rendu de parallaxe de différentes couches d'arrière-plan, la mise à l'échelle des sprites lorsqu'ils se dirigeaient vers ou s'éloignaient de la vue du joueur, ou d'autres méthodes de rendu telles que le mode 7 de la SNES. Ces astuces pour simuler le rendu 3D les graphiques via les systèmes 2D sont généralement appelés graphiques 2.5D.

Le véritable rendu 3D en temps réel utilisant des polygones a rapidement été popularisé par les jeux Sega AM2 de Yu Suzuki Virtua Racing (1992) et Combattant Virtua (1993), tous deux fonctionnant sur la carte système d'arcade Sega Model 1 [108] certains membres du personnel de Sony Computer Entertainment (SCE) impliqués dans la création du crédit original de la console de jeu vidéo PlayStation Combattant Virtua comme source d'inspiration pour le matériel graphique 3D de la PlayStation. Selon l'ancien producteur de SCE, Ryoji Akagawa et le président Shigeo Maruyama, la PlayStation était à l'origine considérée comme un matériel axé sur la 2D, et ce n'est qu'après le succès de Combattant Virtua dans les arcades qu'ils ont décidé de concevoir la PlayStation comme un matériel axé sur la 3D. [109] Le mappage de texture et le filtrage de texture ont été rapidement popularisés par les jeux de course et de combat en 3D. [110]

Les consoles de jeux vidéo domestiques telles que la PlayStation, la Sega Saturn et la Nintendo 64 sont également devenues capables de produire des graphiques 3D à texture mappée. Nintendo avait déjà sorti Renard étoilé en 1993, qui incluait la puce de coprocesseur graphique Super FX intégrée à la cartouche de jeu pour prendre en charge le rendu polygonal pour la SNES, et la Nintendo 64 incluait directement un coprocesseur graphique sur la console.

Sur des ordinateurs personnels, John Carmack et John Romero d'id Software avaient expérimenté le rendu en temps réel de jeux 3D via Réservoir d'aéroglisseur 3D et Catacombes 3-D. Ceux-ci ont conduit à la libération de Wolfenstein 3D en 1992, considéré comme le premier jeu de tir à la première personne car il rendait le monde du jeu suffisamment rapide pour suivre les mouvements du joueur. Cependant, à ce stade, Wolfenstein 3D Les cartes de étaient limitées à un seul niveau plat. [111] Des améliorations viendraient avec Monde souterrain Ultima de Blue Sky Productions, qui incluait des étages de différentes hauteurs et rampes, dont le rendu a pris plus de temps mais était considéré comme acceptable dans le jeu de rôle, et les identifiants Perte, ajoutant des effets d'éclairage parmi d'autres fonctionnalités, mais toujours avec des limitations que les cartes étaient effectivement en deux dimensions et avec la plupart des ennemis et des objets représentés par des sprites dans le jeu. id avait créé l'un des premiers moteurs de jeu qui séparait le contenu des couches de jeu et de rendu, et licenciait ce moteur à d'autres développeurs, résultant en des jeux tels que Hérétique et Hexen, tandis que d'autres développeurs de jeux ont construit leurs propres moteurs basés sur les concepts du Perte moteur, comme Duc Nukem 3D et Marathon. [112] En 1996, les identifiants tremblement de terre était le premier jeu informatique avec un véritable moteur de jeu 3D avec des modèles de personnages et d'objets dans le jeu, et comme avec le Perte moteur, id sous licence le tremblement de terre moteur, conduisant à une nouvelle croissance des jeux de tir à la première personne. [111] En 1997, les premières cartes graphiques 3D dédiées au grand public étaient disponibles sur le marché en raison de la demande de jeux de tir à la première personne, et de nombreux moteurs de jeux 3D ont été créés dans les années qui ont suivi, notamment Unreal Engine, GoldSrc et CryEngine, et établir la 3D comme la nouvelle norme dans la plupart des jeux vidéo sur ordinateur. [111]

Résurgence et déclin des arcades

En Amérique du Nord, les jeux d'arcade, qui avaient connu un lent déclin avec l'augmentation de la popularité des consoles de salon, ont connu une résurgence du début au milieu des années 1990, avec la sortie en 1991 de Capcom Combattant de rue II [113] populariser les jeux de combat compétitifs en tête-à-tête et relancer l'industrie de l'arcade à un niveau de popularité jamais vu depuis l'époque de Pac-Man. [114] Son succès a conduit à une vague d'autres jeux de combat populaires, tels que Combat mortel et Le roi des combattants. Les jeux de sport tels que Confiture NBA est également brièvement devenu populaire dans les arcades au cours de cette période. Cependant, le résultat de la polémique sur la violence dans les jeux vidéo en 1993 de Combat mortel causé une deuxième panique morale sur l'impact des jeux vidéo sur les enfants, et le marché de l'arcade a commencé un lent déclin jusqu'au reste des années 1990. [13]

Les dernières consoles de salon qui étaient désormais capables de jouer à des jeux "d'arcade précis", y compris les derniers jeux 3D, attiraient davantage les joueurs des arcades. De plus en plus de joueurs attendaient que les jeux d'arcade populaires soient portés sur des consoles plutôt que de pomper des pièces dans des bornes d'arcade. [115] Cette tendance s'est accentuée avec l'introduction de périphériques plus réalistes pour les systèmes de jeu sur ordinateur et sur console, tels que les joysticks d'avion à retour de force et les kits de volant/pédale de course, qui ont permis aux systèmes domestiques d'approcher une partie du réalisme et de l'immersion autrefois limités aux arcades. [ citation requise ] Pour rester pertinents, les fabricants d'arcade tels que Sega et Namco ont continué à repousser les limites des graphiques 3D au-delà de ce qui était possible dans les maisons. Virtua Fighter 3 pour le Sega Model 3, par exemple, se distinguait par ses graphismes 3D en temps réel approchant la qualité de la vidéo CGI full motion (FMV) à l'époque. [116] De même, Namco a sorti le Namco System 23 pour rivaliser avec le Model 3. En 1998, cependant, la nouvelle console de Sega, la Dreamcast, pouvait produire des graphismes 3D comparables à la machine d'arcade Sega Naomi. Après avoir produit la carte Hikaru plus puissante en 1999 et Naomi 2 en 2000, Sega a finalement cessé de fabriquer des cartes système d'arcade personnalisées, leurs cartes d'arcade ultérieures étant basées sur des consoles ou des composants PC commerciaux.

Alors que la fréquentation des salles d'arcade diminuait, beaucoup ont été contraints de fermer à la fin des années 1990 et au début des années 2000. Les jeux à prépaiement classiques étaient en grande partie devenus le domaine des amateurs dévoués et comme une attraction tertiaire pour certaines entreprises, telles que les cinémas, les cages de frappeurs, les terrains de golf miniature et les arcades attachées aux magasins de jeux tels que F.Y.E. Le vide laissé par les anciennes arcades d'angle était en partie comblé par de grands centres de divertissement dédiés à fournir des environnements propres et sûrs et des systèmes de contrôle de jeu coûteux inaccessibles aux utilisateurs à domicile. Ces nouveaux titres d'arcade proposaient des jeux de conduite ou d'autres jeux de sport avec des cockpits spécialisés intégrés à la machine d'arcade, des jeux de rythme nécessitant des contrôleurs uniques comme Les fous de la guitare et Danse Danse Révolution, et des jeux de galerie de tir au pistolet léger basés sur le chemin comme Crise du temps. [13] Les établissements d'arcade se sont étendus pour inclure d'autres options de divertissement, telles que la nourriture et les boissons, telles que les franchises Dave & Buster's et GameWorks destinées aux adultes, tandis que Chuck E. Cheese's est un type d'entreprise similaire pour les familles et les jeunes enfants. [13]

Les ordinateurs de poche arrivent à maturité

En 1989, Nintendo a sorti la Game Boy à cartouche, la première grande console de jeu portable depuis la Microvision dix ans auparavant. Le système était inclus Tetris, qui est devenu l'un des jeux vidéo les plus vendus de tous les temps, attirant beaucoup de ceux qui ne joueraient pas normalement à des jeux vidéo sur l'ordinateur de poche. [117] Plusieurs ordinateurs de poche rivaux ont fait leurs débuts au début des années 1990, notamment le Sega Game Gear et l'Atari Lynx (le premier ordinateur de poche avec écran LCD couleur). Bien que ces systèmes soient plus avancés sur le plan technologique et destinés à égaler les performances des consoles de salon, ils ont été entravés par une consommation de batterie plus élevée et moins de support de développeurs tiers. Alors que certains des autres systèmes sont restés en production jusqu'au milieu des années 1990, la Game Boy et ses incarnations successives, la Game Boy Pocket, la Game Boy Color et la Game Boy Advance, étaient pratiquement incontestées pour la domination du marché des ordinateurs de poche dans les années 1990. [118] La famille Game Boy a également introduit les premiers versements dans le Pokémon série avec Pokémon Rouge et Bleu, qui reste l'une des franchises de jeux vidéo les plus vendues pour Nintendo. [119]

Jeux d'ordinateur

Avec l'introduction des graphismes 3D et l'accent mis sur les jeux sur console, les petits développeurs, en particulier ceux travaillant sur des ordinateurs personnels, étaient généralement évités par les éditeurs car ils étaient devenus hostiles au risque. [120] Le shareware, une nouvelle méthode de distribution des jeux de ces petites équipes, est sorti au début des années 1990. En règle générale, un titre de shareware pourrait être demandé par un consommateur, ce qui lui donnerait une partie du jeu gratuitement en dehors des frais d'expédition. Si le consommateur aimait le jeu, il pouvait alors payer pour le jeu complet. Ce modèle a ensuite été étendu pour inclure essentiellement la version "démo" d'un jeu sur le support CD-ROM d'insertion pour le magazine de jeux, puis plus tard sous forme de téléchargements numériques à partir de divers sites comme Tucows. id Software est crédité d'avoir mis en œuvre avec succès l'idée pour les deux Wolfenstein 3D et Perte, qui a ensuite été utilisé par Apogee (maintenant 3D Realms), Epic MegaGames (maintenant Epic Games). [121]

Plusieurs genres clés ont été établis au cours de cette période. Comme mentionné, Wolfenstein 3D et Perte sont les titres formateurs du jeu de tir à la première personne (FPS) que le genre lui-même était passé "Perte clones" jusqu'à environ 2000 lorsque FPS est devenu le terme le plus populaire. [122] Les jeux d'aventure graphiques ont pris de l'importance au cours de cette période, y compris le Myst et Le 7ème invité, plusieurs des jeux d'aventure LucasArts dont le L'île aux singes séries. Cependant, le genre du jeu d'aventure était considéré comme mort à la fin des années 1990 en raison de la popularité croissante du FPS et d'autres genres d'action. [123] Les premiers sims immersifs, des jeux qui donnaient au joueur plus d'agence et de choix grâce à des systèmes de jeu flexibles, sont apparus après l'essor des jeux FPS, avec des titres comme Ultima Underworld : L'Abîme Stygien et Voleur : le projet sombre. Voleur a également élargi l'idée des jeux d'infiltration et a créé l'idée de jeux de « baskets à la première personne » où le combat était moins au centre de l'attention. [124]

Les jeux de stratégie en temps réel ont également gagné en popularité dans les années 1990, avec des titres phares Dune II, Warcraft : Orcs et humains et Command & Conquérir. Les premiers jeux de stratégie 4X (abréviation de "Explore, Expand, Exploit, Exterminate") sont également apparus au cours de cette décennie, popularisés par La civilisation de Sid Meyer en 1991. Seul dans le noir en 1992 a établi de nombreux éléments du genre d'horreur de survie qui étaient dans le jeu sur console Resident Evil. [125] Les jeux de simulation sont devenus populaires, y compris ceux de Maxis commençant par SimCity en 1989, et qui a culminé avec Les Sims, qui a été publié pour la première fois au début des années 2000.

La connectivité en ligne dans les jeux informatiques est devenue de plus en plus importante. S'appuyant sur la popularité croissante des MUD textuels des années 1980, les MUD graphiques comme Habitat utilisé des interfaces graphiques simples à côté du texte pour visualiser l'expérience de jeu. Les premiers jeux de rôle en ligne massivement multijoueurs ont adapté la nouvelle approche graphique 3D pour créer des mondes virtuels à l'écran, en commençant par méridien 59 en 1996 et popularisé par le succès de Ultime en ligne en 1997 et EverQuest et L'appel d'Asheron en 1999. La connexion en ligne est également devenue importante dans des genres tels que FPS et RTS, permettant aux joueurs de se connecter à des adversaires humains par téléphone et par connectivité Internet. Certaines entreprises ont créé des clients pour aider à la connectivité, comme Battle.net de Blizzard Entertainment.

Au cours des années 1990, Microsoft a introduit ses versions initiales du système d'exploitation Microsoft Windows pour ordinateurs personnels, une interface utilisateur graphique destinée à remplacer MS-DOS. Les développeurs de jeux ont eu du mal à programmer pour certaines des versions antérieures de Windows, car le système d'exploitation avait tendance à bloquer leur accès par programmation aux périphériques d'entrée et de sortie. Microsoft a développé DirectX en 1995, intégré plus tard dans Microsoft Windows 95 et les futurs produits Windows, sous la forme d'un ensemble de bibliothèques permettant aux programmeurs de jeux d'accéder directement à ces fonctions. Cela a également permis de fournir une interface standard pour normaliser le large éventail de cartes graphiques et son disponibles pour les ordinateurs personnels à cette époque, contribuant ainsi au développement de jeux en cours. [126]

Consoles de salon 32 et 64 bits

L'introduction par Sony de la première PlayStation en 1994 avait entravé la guerre des consoles entre Nintendo et Sega, et avait également rendu difficile l'entrée de nouvelles entreprises sur le marché. La PlayStation a non seulement apporté la révolution des supports CD-ROM, mais également la prise en charge intégrée du rendu graphique 3D polygonal. Atari a tenté de réintégrer le marché avec l'Atari Jaguar 32 bits en 1993, mais il lui manquait les bibliothèques de jeux proposées par Nintendo, Sega ou Sony. La société 3DO a lancé le multijoueur interactif 3DO en 1993, mais il a également souffert d'un prix plus élevé par rapport aux autres consoles du marché. Sega a beaucoup mis l'accent sur le Sega Saturn 32 bits, sorti en 1984, pour suivre la Genesis, et bien qu'au départ s'en soit bien sorti avec la PlayStation, il a rapidement perdu du terrain face à la plus large gamme de jeux populaires de la PlayStation. La console suivante de Nintendo après la SNES était la Nintendo 64, une console 64 bits avec prise en charge du rendu 3D polygonal. Cependant, Nintendo a choisi de continuer à utiliser le format de cartouche ROM, ce qui lui a fait perdre des ventes par rapport à la PlayStation et a permis à Sony de devenir l'acteur dominant sur le marché des consoles en 2000. [127]

Final Fantasy VII, comme décrit précédemment, était un titre historique dans l'industrie et a introduit le concept de jeux de rôle pour les joueurs sur console. L'origine des jeux vidéo musicaux a émergé avec le titre PlayStation PaRappa le rappeur en 1997, couplé au succès des jeux d'arcade comme beatmania et Danse Danse Révolution. [128] Resident Evil et Silent Hill a formé la base du genre d'horreur de survie actuel. [129] Nintendo a eu ses propres succès critiques avec il d'or 007 de Rare, le premier jeu de tir à la première personne pour une console qui a introduit des fonctionnalités de base pour le genre, et La Légende de Zelda : Ocarina of Time, l'un des jeux les plus acclamés par la critique de tous les temps.

Les années 2000 (la décennie) ont montré l'innovation sur les consoles et les PC, et un marché de plus en plus concurrentiel pour les systèmes de jeux portables. L'impact d'une plus grande disponibilité d'Internet a conduit à de nouveaux changements de gameplay, à des changements dans le matériel de jeu et à l'introduction de services en ligne pour les consoles.

Le phénomène des modifications de jeux vidéo créées par l'utilisateur (communément appelées « mods ») pour les jeux, une tendance qui a commencé au cours de la Wolfenstein 3D et Perte-ère, s'est poursuivie au début du 21e siècle. L'exemple le plus connu est celui de Counter Strike sorti en 1999, c'est toujours l'un des jeux de tir à la première personne en ligne les plus populaires, même s'il a été créé comme un mod pour Demi-vie par deux programmeurs indépendants. Finalement, les concepteurs de jeux ont réalisé le potentiel des mods et du contenu personnalisé en général pour améliorer la valeur de leurs jeux, et ont donc commencé à encourager sa création. Quelques exemples de ceci incluent Tournoi irréel, qui permettait aux joueurs d'importer des scènes 3dsmax à utiliser comme modèles de personnages, et Maxis' Les Sims, pour lequel les joueurs pouvaient créer des objets personnalisés.

En Chine, les consoles de jeux vidéo ont été interdites en juin 2000. Cela a entraîné une explosion de la popularité des jeux informatiques, en particulier des MMO. Les consoles et leurs jeux sont cependant faciles à acquérir, car il existe un marché gris robuste qui les importe et les distribue à travers le pays. Un autre effet secondaire de cette loi a été l'augmentation de la violation du droit d'auteur des jeux vidéo. [130] [131]

Le paysage changeant des consoles de salon

La domination de Sony sur le marché des consoles au début des années 2000 a provoqué un changement majeur sur le marché. Sega a tenté une nouvelle incursion dans le matériel de console avec la Dreamcast en 1998, notamment la première console avec une connexion Internet intégrée pour le jeu en ligne.Cependant, la réputation de Sega avait été ternie par la Saturn, et avec Sony ayant récemment annoncé sa prochaine PlayStation 2, Sega a quitté le marché des consoles matérielles après la Dreamcast, tout en restant dans le développement de jeux d'arcade ainsi que dans le développement de jeux pour consoles. La bibliothèque de Dreamcast propose des jeux révolutionnaires, notamment le série Shenmue qui sont considérés comme une avancée majeure pour le gameplay 3D en monde ouvert [132] et ont introduit le mécanisme d'événement rapide dans sa forme moderne. [133]

Sony a sorti la PlayStation 2 (PS2) en 2000, la première console à prendre en charge le nouveau format DVD et avec des capacités de lecture de disques de films DVD et de disques audio CD, ainsi que de jouer à des jeux PlayStation dans un mode rétrocompatible avec les jeux PS2. Nintendo a suivi la Nintendo 64 avec la GameCube en 2001, sa première console à utiliser des disques optiques, bien que spécialement formatés pour le système. Cependant, un nouveau joueur est entré dans l'image de la console à ce stade, Microsoft avec sa première console Xbox, également sortie en 2001. Microsoft avait craint que la PS2 de Sony ne dépasse l'ordinateur personnel comme point central de divertissement dans le salon, et après avoir développant récemment l'ensemble de bibliothèques DirectX pour normaliser les interfaces matérielles de jeu pour les ordinateurs Windows, a utilisé cette même approche pour créer la Xbox. [134]

La PS2 est restée la plate-forme leader pendant la première partie de la décennie et reste la console de salon la plus vendue de tous les temps avec plus de 155 millions d'unités vendues. C'était en partie à cause d'un certain nombre de jeux critiques publiés sur le système, y compris Grand Theft Auto III, Metal Gear Solid 2, et Final Fantasy X. [135] La Xbox a réussi à gagner la deuxième place des ventes de PS2, mais à une perte significative pour Microsoft. Cependant, pour Microsoft, la perte était acceptable, car cela leur prouvait qu'ils pouvaient rivaliser dans l'espace console. La Xbox a également présenté le titre phare de Microsoft, Halo : le combat a évolué, qui s'appuyait sur la fonctionnalité Ethernet intégrée de la Xbox pour prendre en charge le jeu en ligne. [136]

Au milieu des années 2000, seuls Sony, Nintendo et Microsoft étaient considérés comme des acteurs majeurs dans l'espace matériel des consoles. Tous les trois ont présenté leur prochaine génération de matériel entre 2005 et 2006, en commençant par la Xbox 360 de Microsoft en 2005 et la PlayStation 3 (PS3) de Sony en 2006, suivis de la Wii de Nintendo plus tard dans l'année. La Xbox 360 et la PS3 ont montré une convergence avec le matériel informatique : les deux consoles sont livrées avec une prise en charge des graphiques haute définition, des supports optiques à plus haute densité comme les Blu-ray, des disques durs internes pour le stockage des jeux et une connectivité Internet intégrée. Microsoft et Sony avaient également développé des services numériques en ligne, Xbox Live et PlayStation Network qui aidaient les joueurs à se connecter à des amis en ligne, à établir des correspondances pour des jeux en ligne et à acheter de nouveaux jeux et contenus dans des magasins en ligne. En revanche, la Wii a été conçue dans le cadre d'une nouvelle stratégie de l'océan bleu par Nintendo après les mauvaises ventes de la GameCube. Au lieu d'essayer de rivaliser fonctionnalité pour fonctionnalité avec Microsoft et Sony, Nintendo a conçu la Wii comme une console pour un gameplay innovant plutôt que de hautes performances, et a créé la télécommande Wii, une manette basée sur la détection de mouvement. Titres proposant un gameplay conçu autour de la télécommande Wii, tels que Wii Sports, Complexe sportif Wii, et Wii Fit, est devenu un succès instantané sur la Wii, et la Wii est devenue l'une des consoles les plus vendues sur le marché en quelques années. [137] Le succès des commandes de mouvement de la Wii a en partie conduit Microsoft et Sony à développer leurs propres systèmes de commande de détection de mouvement, le Kinect et le PlayStation Move.

Une mode majeure dans les années 2000 a été la montée et la chute rapides des jeux de rythme qui utilisent des contrôleurs de jeu spéciaux en forme d'instruments de musique tels que des guitares et des tambours pour faire correspondre les notes tout en jouant des chansons sous licence. Guitar Hero, basé sur le jeu d'arcade Les fous de la guitare, a été développé par Harmonix et publié par Red Octane en 2005 sur PS2, et a connu un succès modeste. Activision a acquis Red Octane et a obtenu les droits de publication de la série, tandis qu'Harmonix a été acheté par Viacom, où ils ont lancé Groupe de rock, une série similaire mais ajoutant batterie et voix sur des guitares. Les jeux de rythme sont une propriété très populaire derrière les jeux d'action, représentant 18 % du marché des jeux vidéo en 2008, et ont également attiré d'autres éditeurs dans la région. [138] Alors qu'Harmonix a approché la série en ajoutant de nouvelles chansons en tant que contenu téléchargeable, Activision s'est concentré sur la sortie de nouveaux titres année après année dans le Guitar Hero séries en 2009, ils avaient six Guitar Hero-Titres connexes prévus pour l'année. La saturation du marché, en plus de l'engouement de ces contrôleurs d'instruments, a rapidement fait chuter le marché de 1,4 milliard de dollars en 2008 de 50 % en 2009. [139] En 2011, Activision avait cessé de publier Guitar Hero jeux (bien que retourné une fois en 2015 avec Guitar Hero Live), tandis qu'Harmonix a continué à développer Rocher en arrière après une interruption entre 2013 et 2015.

Nintendo dominait toujours le marché des jeux portables au cours de cette période. La Game Boy Advance, sortie en 2001, a maintenu la position de Nintendo sur le marché avec un écran LCD couleur haute résolution et un processeur 32 bits permettant le portage des jeux SNES et des compagnons plus simples des jeux N64 et GameCube. [140] Les deux principaux ordinateurs de poche suivants, la Nintendo DS et la PlayStation Portable (PSP) de Sony à un mois d'intervalle en 2004. Alors que la PSP se targuait de graphismes et de puissance supérieurs, suivant une tendance établie depuis le milieu des années une conception à faible consommation mais dotée d'une nouvelle interface de contrôle. Les deux écrans de la DS, dont l'un était un écran tactile, se sont avérés extrêmement populaires auprès des consommateurs, en particulier des jeunes enfants et des joueurs d'âge moyen, qui ont été attirés par l'appareil par Nintendo Nintendogs et Âge du cerveau séries respectivement, ainsi que l'introduction de jeux japonais localisés de type roman visuel tels que le As Avocat et Professeur Layton séries vers les régions de l'Ouest. La PSP a attiré une partie importante des joueurs chevronnés en Amérique du Nord et était très populaire au Japon. Ses capacités de mise en réseau ad-hoc fonctionnaient bien dans le contexte urbain japonais, ce qui a directement contribué à stimuler la popularité de Capcom. Chasseur de monstre séries. [141]

MMO, esports et services en ligne

Alors que la connectivité Internet haut débit abordable se répandait, de nombreux éditeurs se sont tournés vers les jeux en ligne pour innover. Les jeux de rôle en ligne massivement multijoueurs (MMORPG) ont présenté des titres importants pour le marché des PC comme RuneScape, EverQuest, et Ultime en ligne, avec World of Warcraft comme l'un des titres les plus réussis. [142] D'autres jeux en ligne massivement multijoueurs à grande échelle ont également été publiés, tels que Seconde vie qui se concentrait principalement sur les interactions sociales avec les avatars de joueurs virtuels et les créations d'utilisateurs, plutôt que sur des éléments de gameplay. [143]

Historiquement, les MMORPG sur console ont été peu nombreux en raison du manque d'options de connectivité Internet groupées pour les plates-formes. Cela a rendu difficile l'établissement d'une communauté d'abonnés suffisamment importante pour justifier les coûts de développement. Les premiers MMORPG de console importants ont été Fantastique Star en ligne sur le Sega Dreamcast (qui avait un modem intégré et un adaptateur Ethernet de rechange), suivi de Final Fantasy XI pour la Sony PlayStation 2 (un adaptateur Ethernet de rechange a été expédié pour prendre en charge ce jeu). [142] Chaque plate-forme majeure publiée depuis la Dreamcast a soit été regroupée avec la possibilité de prendre en charge une connexion Internet, soit l'option disponible en tant que module complémentaire de rechange. La Xbox de Microsoft avait également son propre service en ligne appelé Xbox Live. Xbox Live a été un énorme succès et s'est avéré être une force motrice pour la Xbox avec des jeux comme Halo 2 qui étaient très populaires.

Les premières grandes compétitions d'esports (sports électroniques) ont également commencé dans les années 2000. Pendant que Combattant de rue II et d'autres jeux de combat des années 1990 avaient introduit des compétitions de jeux vidéo organisées plus tôt, les esports professionnels ont émergé de Corée du Sud vers 2000, avec bon nombre de leurs événements autour des jeux de combat actuels et divers titres RTS comme StarCraft et WarCraft III. [144] [145] En 2010, de nombreux tournois internationaux d'esports avaient été établis dans divers genres de jeux. [146]

Jeux par navigateur, occasionnels et sociaux

La fin des années 1990 et le début des années 2000 ont vu la grande accessibilité d'Internet et des nouvelles technologies associées, telles que Java et Adobe Flash. Alors qu'Adobe Flash était initialement destiné à être un outil pour développer des sites Web entièrement interactifs, Flash a perdu la faveur dans ce domaine, mais les développeurs individuels ont trouvé des moyens d'utiliser l'outil pour les animations et les jeux, grâce à la facilité des outils de développement à cette fin. Le site Web Newgrounds a été créé pour aider les gens à partager et à promouvoir leurs œuvres Flash. Alors que ces jeux Flash n'avaient pas la complexité de gameplay des jeux sur consoles ou ordinateurs, ils étaient disponibles gratuitement et suscitaient des idées créatives qui allaient de l'avant, par exemple, Écraser le château directement inspiré du populaire jeu mobile Angry Birds, tandis que le fondateur de Newgrounds, Tom Fulp, s'est associé à l'animateur Dan Paladin pour créer Hominidé extraterrestre en tant que jeu Flash, sur lequel ils ont ensuite intégré un titre plus complet Crashers de château sous le studio The Behemoth. [147]

Flash et d'autres plates-formes intégrées au navigateur ont créé une nouvelle tendance dans les jeux occasionnels, avec une complexité limitée et conçus pour des sessions de jeu raccourcies ou impromptues. [147] Beaucoup étaient des jeux de réflexion, comme celui de Popcap Paré de bijoux et PlayFirst Diner Dash tandis que d'autres étaient des jeux avec un rythme plus détendu et un jeu ouvert. Des sites comme Kongregate et des développeurs comme PopCap, Zynga et King sont devenus des leaders dans ce domaine. [147] Les jeux occasionnels sont également entrés dans des jeux informatiques plus courants avec de nombreux jeux de simulation. Le plus gros succès a été Les Sims par Maxis, qui est devenu le jeu informatique le plus vendu de tous les temps, dépassant Myst. [148]

Alors que les sites de médias sociaux commençaient à se développer, les premiers jeux de réseaux sociaux ont émergé sur les plateformes sociales. Ces jeux, souvent basés sur des mécanismes de jeu occasionnels, reposent généralement sur les utilisateurs pour interagir avec leurs amis via le site de médias sociaux afin d'acquérir une forme d'« énergie » pour continuer à jouer. Ferme heureuse, sorti en Chine en 2008, est considéré comme le premier grand jeu social de ce type. [149] Influencé par la série japonaise de RPG sur console Histoire de saisons, [150] [151] [152] Ferme heureuse a attiré 23 millions d'utilisateurs actifs quotidiens en Chine. [153] [154] Il inspira bientôt de nombreux clones tels que Ferme du soleil, Fermier heureux, Étang à poissons heureux, Ferme de cochon heureux, [150] [155] et les jeux Facebook tels que FermeVille, Ferme Ville, Histoire de pays, Copain de grange, Ranch du soleil, Bonne récolte, Jungle extrême, et Méchant de la ferme. [152] [156] Ferme heureuse servi d'inspiration directe pour FermeVille, qui comptait plus de 80 millions d'utilisateurs actifs dans le monde en 2010. [149] [157]

L'essor du jeu mobile

Séparément, les jeux sur appareils mobiles ont eu un succès limité jusqu'au milieu des années 2000. Nokia avait installé Serpent sur sa gamme de téléphones mobiles depuis le Nokia 6110 en 1997. [158] Des fabricants similaires de téléphones, d'assistants numériques personnels et d'autres appareils incluaient également des jeux intégrés, mais ceux-ci étaient conçus pour passer le temps et ne pas engager. À mesure que la technologie du téléphone s'améliorait, une culture japonaise de la téléphonie mobile s'est développée vers 2003 avec des jeux allant des jeux de puzzle et des titres d'animaux de compagnie virtuels qui utilisent les technologies de téléphone avec appareil photo et de scanner d'empreintes digitales aux jeux 3D avec des graphismes de qualité PlayStation. Les anciens jeux de style arcade sont devenus très populaires sur les téléphones mobiles, qui étaient une plate-forme idéale pour les jeux de style arcade conçus pour des sessions de jeu plus courtes. Namco a tenté d'introduire des jeux mobiles en Europe en 2003. [159] Nokio a sorti son N-Gage, un système de jeu hybride téléphone/portable, en 2003, mais a eu un succès limité par rapport au Game Boy Advance de Nintendo. [160]

Vers 2005, les premiers smartphones étaient disponibles sur le marché, qui offraient une connectivité de données aux côtés des services téléphoniques. Les opérateurs ont autorisé des jeux à être mis en vente dans une vitrine, mais cela n'a pas pris en raison des vitrines disparates et des différences entre les modèles de téléphone, et les jeux ne pouvaient pas être aussi sophistiqués que sur les consoles ou les ordinateurs de poche en raison du matériel limité sur les smartphones . [161] En 2007, Apple, Inc. a présenté son iPhone, qui était technologiquement plus avancé que les autres smartphones du marché, et a dévoilé son App Store en 2008 grâce auquel de nouvelles applications pouvaient être achetées. Avec l'App Store, les développeurs, une fois inscrits en tant que partenaire, pouvaient ensuite développer et publier leurs propres applications via le magasin. Cela a permis aux développeurs de toute taille de participer au marché de l'App Store. [162] Google, qui a développé le système d'exploitation mobile Android concurrent, a publié sa propre version d'un magasin d'applications en 2008, nommé plus tard Google Play en 2012. [163]

L'utilisation des vitrines d'applications d'Apple et de Google pour les applications de jeux a rapidement décollé avec des premiers succès comme Angry Birds et Paré de bijoux. [164] [165] Lorsque Apple a introduit les achats intégrés (IAP) en octobre 2009, un certain nombre de développeurs ont trouvé des moyens de monétiser leurs jeux mobiles de manière unique par rapport aux jeux traditionnels, établissant le modèle freemium où un jeu est généralement gratuit à télécharger et jouer, mais les joueurs sont encouragés à accélérer leur progression grâce aux IAP. Des jeux comme Candy crush saga et Puzzle & amp Dragons, tous deux en 2012, ont établi cette approche en tant que modèles commerciaux hautement rentables pour les jeux mobiles. [166] [167] De nombreux développeurs de jeux de réseaux sociaux ont travaillé soit à intégrer une version mobile à leur version existante, soit à déplacer complètement leur jeu vers la plate-forme mobile, à mesure que les jeux mobiles devenaient plus populaires. Une autre augmentation de la popularité des jeux mobiles est venue de Chine, où la plupart des résidents ne possèdent pas d'ordinateurs et où les consoles importées ont été interdites par le gouvernement à partir de 2000, mais ont finalement été assouplies en 2014 et complètement levées en 2015. [168] Au lieu de cela, la plupart les joueurs en Chine utilisaient des téléphones portables ou accédaient à des jeux sur abonnement via des cafés PC. Les jeux mobiles se sont également avérés populaires et prospères sur le plan financier, avec une multiplication par dix du marché chinois des jeux vidéo entre 2007 et 2013. [169] [170]

Parallèlement à la croissance des jeux mobiles, il y a eu l'introduction de microconsoles, des consoles de salon à faible coût qui utilisaient le système d'exploitation Android pour tirer parti de la vaste bibliothèque de jeux déjà conçue pour les appareils mobiles. [171] Cependant, les jeux mobiles ont également déplacé le marché des consoles portables : la Nintendo 3DS et la PlayStation Vita (les deux versions de 2011) ont enregistré des baisses importantes des ventes par rapport à leurs prédécesseurs, respectivement la Nintendo DS et la PlayStation Portable (les deux versions de 2004), à la suite de la croissance rapide du jeu mobile. Sony a depuis quitté le domaine des consoles portables. [172]

L'industrie du jeu vidéo AAA et l'émergence des jeux indépendants

Les jeux vidéo ont commencé à voir augmenter leurs budgets de développement dans les années 2000 Final Fantasy VII avait un budget estimé à 40-45 millions de dollars hors marketing, [173] tandis que le premier Shenmue le jeu a été estimé à 47-70 millions de dollars. [174] Les grands développeurs ont commencé à aborder des jeux comparables à la réalisation de films hollywoodiens, non seulement en tenant compte des aspects de développement, de distribution et de marketing, mais en intégrant des budgets à la fois pour la cinématographie du jeu, y compris les acteurs professionnels et les propriétés sous licence, et des éléments promotionnels plus importants. Ces nouvelles approches ont encore étendu les budgets de jeu. [175] Semblable aux films à succès, l'industrie du jeu vidéo a commencé à appeler ces jeux à gros budget et les éditeurs et développeurs derrière eux comme " AAA " ou " triple A " à la fin des années 1990 et au début des années 2000. [176]

En raison des budgets plus importants et d'une meilleure technologie, de nouveaux jeux narratifs ont émergé pour incorporer des histoires plus importantes en tant que composants plus directs du gameplay, par exemple en éliminant les scènes coupées pré-rendues au profit de scènes réalisées dans le moteur du jeu. [177] L'incorporation de la narration dans les jeux d'action a en partie entraîné le déclin du genre des jeux d'aventure au début des années 2000. [178] Des exemples de jeux influents de cette période comprennent Half Life 2, Portail, Batman : l'asile d'Arkham, Biochoc, Metal Gear Solid 2, et Resident Evil 4, [177] ainsi que les premières entrées de la longue série Appel du devoir et Assassin's Creed. [179]

Le développement de jeux amateur et homebrew était en place depuis les premiers ordinateurs personnels à la fin des années 1970 et dans les années 1980, avec le passage au shareware par des individus et de petites équipes de développement dans les années 1990, mais l'importance des jeux sur console et l'essor de la technologie des jeux 3D avaient a rendu difficile au départ pour les développeurs individuels de participer de manière compétitive au développement de jeux. La croissance des jeux AAA avec des budgets importants a rendu les éditeurs réticents à prendre en charge des jeux plus petits avec un gameplay non standard ou plus expérimental. [180]

Les jeux indépendants, ou jeux indépendants, ont gagné une part importante du marché dans la seconde moitié des années 2000, qui s'est poursuivie dans les années 2010, et généralement considéré comme le résultat de l'industrie à la recherche d'innovation au-delà des approches sûres et non risquées que le développement AAA avait centré sur. [180] L'intérêt pour les jeux indépendants est né de l'essor de l'industrie des jeux Flash au milieu des années 2000 qui avait attiré l'attention sur les développeurs individuels et petits normalement négligés par les médias. [147] [181] En outre, les petits développeurs ont été mis en évidence par la croissance rapide de l'industrie des jeux mobiles, ce qui leur a permis de terminer également sur les magasins d'applications mobiles avec les plus grands développeurs. [147] [182] Le financement participatif via des sites comme Kickstarter est devenu une voie viable pour les développeurs indépendants pour obtenir des financements à la fin des années 2000, augmentant de façon explosive en popularité au milieu des années 2010, [183] ​​tandis que la distribution à accès anticipé, où les joueurs achètent un non- version encore finale d'un jeu pour aider à jouer, tester et fournir des commentaires, a été démontrée avec succès avec Minecraft en 2009 et utilisé comme modèle pour certains jeux indépendants depuis. [184] Sur les ordinateurs personnels, Valve a ouvert sa plate-forme de contenu numérique Steam pour permettre aux jeux indépendants d'être répertoriés aux côtés des titres triple-A et de plusieurs autres vitrines numériques similaires. [180] Microsoft a lancé la Xbox Live Arcade (XBLA) en 2004 qu'ils ont utilisé pour publier des jeux pour la Xbox et plus tard la Xbox 360 à partir d'éditeurs plus petits et d'équipes indépendantes. Sony et Nintendo ont emboîté le pas avec des programmes de publication de jeux indépendants similaires au début des années 2010. [185] [186] Plusieurs jeux indépendants ont attiré l'attention des médias au cours de cette période, notamment Super Meat Boy, Fez, et Tresser. [187] [188]

La nouvelle décennie a vu l'intérêt croissant pour la possibilité de développer la prochaine génération de consoles conformément au modèle industriel traditionnel d'un cycle de vie de console de cinq ans.Cependant, dans l'industrie, on pensait qu'il y avait un manque de désir pour une autre race de produire une telle console. [189] Les raisons de cela comprenaient le défi et les dépenses massives de création de consoles graphiquement supérieures à la génération actuelle, Sony et Microsoft cherchant toujours à récupérer les coûts de développement sur leurs consoles actuelles et l'échec des outils de création de contenu à suivre le rythme. avec les exigences accrues imposées aux personnes qui créent les jeux.

Le 14 juin 2010, lors de l'E3, Microsoft a dévoilé sa nouvelle console Xbox 360 appelée Xbox 360 S ou Slim. Microsoft a rendu l'unité plus petite et plus silencieuse, tout en installant un disque dur de 250 Go et le WiFi 802.11n intégré. [190] Il a commencé à être expédié dans les magasins américains le même jour, n'atteignant l'Europe que le 13 juillet.

Le système de jeux en nuage OnLive a été l'un des premiers services de jeux en nuage de l'industrie. [191]

Graphiques haute définition dans le matériel de jeu vidéo

Les unités d'affichage à tube cathodique avaient commencé à disparaître progressivement dans les années 2000, remplacées par des téléviseurs et des moniteurs à écran plat peu coûteux qui avaient une résolution d'écran et des taux de rafraîchissement beaucoup plus élevés. Le matériel de jeu vidéo a commencé à introduire la prise en charge de la nouvelle norme d'interface multimédia haute définition (HDMI), permettant des résolutions jusqu'à 4K (3840 × 2160 pixels), ce qui lui-même a souligné le besoin de cartes GPU plus puissantes avec des processeurs plus rapides et une mémoire plus grande. Les moteurs de jeu tels que Unreal, Unity et DirectX ont ajouté la prise en charge d'un mappage de texture amélioré afin de prendre en charge les textures haute résolution pour donner des graphismes photoréalistes dans les jeux.

Microsoft et Sony ont tous deux lancé leurs prochaines générations de consoles, la Xbox One et la PlayStation 4, en 2013. Les deux ont étendu les fonctionnalités de leurs consoles précédentes avec la prise en charge supplémentaire des graphiques haute résolution et une meilleure prise en charge de la distribution numérique de contenu avec un espace de stockage supplémentaire. . La Xbox One a connu un lancement initial raté, car Microsoft voulait exiger des utilisateurs qu'ils soient toujours connectés à Internet, ainsi qu'une utilisation persistante du capteur de mouvement Kinect, ce qui aurait à son tour apporté certains avantages aux joueurs. Cependant, ces décisions ont suscité des commentaires négatifs au cours des mois précédant leur publication en raison de leurs préoccupations en matière de confidentialité, et Microsoft a réorganisé ses politiques. Le Kinect, bien qu'initialement fourni avec la Xbox One, a été rendu facultatif, et un an après son lancement, Microsoft a choisi de mettre fin à la production de Kinect pour la Xbox One.

Nintendo a toujours suivi sa propre voie. La société avait estimé que la Wii avait peut-être perdu une partie des joueurs de base et avait développé la Wii U pour attirer ce groupe. La Wii U, sortie en 2012, comprenait un Wii U GamePad de type tablette qui comprenait des commandes et un écran tactile. qui servait de deuxième écran pendant le jeu, ainsi que la prise en charge des manettes Wii Remote et incluait une rétrocompatibilité avec les jeux Wii. La Wii U a été un échec commercial pour Nintendo après la Wii alors que la Wii s'était vendue à plus de 100 millions d'unités, la Wii U n'en a vendu qu'environ 13 millions au cours de sa vie. Nintendo a attribué cela à la fois au marketing de la Wii U qui n'a pas réussi à expliquer clairement le but du GamePad et qui a fait croire aux consommateurs qu'il s'agissait juste d'un autre système de tablette, et au manque de support tiers sur la console qui a rapidement chuté une fois les premiers numéros de vente de console ont été obtenus. [192] [193] et des raisons de commercialisation. [194]

Nintendo avait déjà travaillé sur sa prochaine console une fois la Wii U sortie, mais a continué à sortir une autre console plus tôt pour récupérer financièrement de la Wii U. [195] Encore une fois, en restant avec leur stratégie de l'océan bleu pour se concentrer sur l'innovation plutôt que la supériorité technique de leurs concurrents, Nintendo a sorti la Nintendo Switch en 2017, l'une des premières consoles hybrides, avec la possibilité d'être jouée comme un appareil portable mais peut également être placée dans une station d'accueil connectée à un téléviseur et jouée comme une console de salon. Le Switch utilise des Joy-Con détachables qui fonctionnent à la fois comme des contrôleurs réguliers et comme des appareils de détection de mouvement comme la télécommande Wii. Parallèlement au Switch, Nintendo a recherché un support tiers pour la console auprès des studios triple-A et des développeurs indépendants. Le Switch s'est avéré être un grand succès, à partir de 2021, il s'agit de la deuxième console de salon la plus vendue de Nintendo après la Wii, et a aidé Nintendo à regagner sa position sur le marché du matériel.

Le marché des ordinateurs de poche a commencé à décliner dans les années 2010, alors que les jeux mobiles l'ont supplanté. Nintendo a continué d'affiner la gamme DS en lançant la Nintendo 3DS en 2011, qui comprenait un écran avec un affichage autostéréoscopique pour créer un effet 3D sans avoir besoin de lunettes spéciales. Sony a sorti la PlayStation Vita en 2012 en tant que successeur de la PSP, qui comprenait un écran tactile avant et un pavé tactile orienté vers l'arrière en plus du contrôle existant. [196] La Vita n'a pas réussi à gagner une part de marché significative, et après que Sony ait abandonné le produit, elle a déclaré qu'elle n'avait aucun plan pour d'autres systèmes portables. Nintendo, d'autre part, a sorti une version modifiée du Switch, le Nintendo Switch Lite, en 2019. Le Switch Lite une version moins chère qui intègre directement le Joy-Con dans l'unité et supprime d'autres fonctionnalités, comme pour créer un appareil qui prend directement en charge le jeu portable, mais par ailleurs entièrement compatible avec la bibliothèque Switch existante.

Dans les ordinateurs personnels, le marché des cartes graphiques s'est concentré sur les progrès réalisés par les leaders de l'industrie NVidia et AMD, qui ont également fourni des GPU pour les nouvelles consoles. À partir de la fin des années 2010, la puissance de ces cartes GPU était utilisée par les "mineurs" de crypto-monnaie, car elles étaient relativement moins chères que d'autres matériels informatiques aux mêmes fins, et créaient une course sur les cartes GPU qui a gonflé les prix et les pénuries de cartes sur périodes Etendues. [197] Les disques à semi-conducteurs (SSD), qui avaient été utilisés dans le passé pour le stockage de cartes flash pour les consoles de jeux vidéo, étaient suffisamment avancés pour devenir des options grand public pour le stockage de grands volumes. Par rapport au disque dur traditionnel (HDD) qui utilisait des pièces électromécaniques, les disques SSD n'ont pas de composants mécaniques et sont capables d'un débit de données beaucoup plus élevé, ce qui en fait des options populaires pour les ordinateurs conçus pour les jeux vidéo.

De nouvelles avancées dans le jeu en ligne : le jeu multiplateforme et le jeu en nuage

Jusqu'aux années 2010, le jeu en ligne pour la plupart des plateformes était limité aux joueurs sur cette même plateforme, bien que certains jeux tels que Final Fantasy XI avait expérimenté avec des modèles limités. Au fur et à mesure que la conception des nouvelles consoles de jeu convergeait vers les ordinateurs personnels et avec les bibliothèques de middleware communes, il est devenu techniquement possible de permettre le jeu multiplateforme entre différentes plates-formes, mais les objectifs commerciaux de Microsoft, Nintendo et Sony, cherchant à garder le contrôle sur leurs services en ligne , a d'abord rejeté cela, notamment par Sony qui avait déclaré vouloir maintenir un environnement familial pour ses services en ligne. [198] [199] Jeux épiques' Fortnite Battle Royale sorti pour la première fois en 2017 s'est avéré un moteur instrumental sur le jeu multiplateforme. Fortnite avait rapidement gagné en popularité au cours de ses premiers mois de sortie, et Epic avait pu prouver la facilité avec laquelle le jeu multiplateforme pouvait être mis en œuvre entre la Xbox, Windows et les plates-formes mobiles avec ses bibliothèques backend. Nintendo a suivi en autorisant le jeu croisé sur le commutateur, et finalement, en 2018, Sony a accepté d'autoriser des jeux sélectionnés tels que Fortnite avoir un jeu multiplateforme. [200] Depuis lors, de nombreux jeux ont gagné ou sont sortis avec une prise en charge du jeu multiplateforme sur les consoles, les ordinateurs et les appareils mobiles. [201]

Les premiers services de jeux en nuage ont vu le jour en 2009. Ces services permettaient aux joueurs de jouer à des jeux où la puissance de traitement était exécutée sur un système informatique dans un emplacement hébergé, tandis que la sortie du jeu et l'entrée du joueur étaient envoyées à ce système via Internet, en utilisant la puissance de l'informatique en nuage. Cela a éliminé le besoin d'une console coûteuse ou d'un ordinateur de jeu dédié pour les joueurs. Les premiers services comme OnLive et Gaikai ont montré que le cloud gaming était possible mais qu'il était très lié à la latence du joueur, car un réseau lent pouvait facilement ralentir les performances du jeu. [202] [203]

Les jeux en nuage sont devenus plus raffinés dans les années 2010, alors que la capacité totale du réseau dans le monde augmentait avec des bandes passantes plus élevées mises à la disposition des consommateurs, en plus des nouvelles technologies pour tenter de surmonter le problème de la latence. Sony a acquis OnLive et Gaikai au milieu des années 2010, et a utilisé le premier comme base pour son service de jeux en nuage PlayStation Now, permettant aux joueurs de jouer à des jeux PlayStation plus anciens sur des consoles plus récentes. Parmi les autres acteurs du cloud gaming qui ont émergé au cours de cette période, citons GeForce Now de NVidia, xCloud de Microsoft, Stadia de Google et Amazon Luna. [204]

Nouveaux modèles de revenus pour les jeux vidéo

Avec l'augmentation des budgets de développement de jeux pour les jeux triple-A, les développeurs et les éditeurs ont cherché des moyens de générer des revenus supplémentaires pour les jeux au-delà de la première vente du jeu. Plusieurs facteurs de la décennie précédente, notamment la croissance du marché des jeux mobiles et l'introduction des achats intégrés, des jeux par abonnement tels que les MMO et le marché de la distribution numérique, ont conduit à de nouvelles voies de revenus récurrents en traitant les jeux comme un service (GaaS). [205]

Des extensions plus importantes et du contenu téléchargeable existaient avant le milieu des années 2000, et les joueurs s'étaient à ce moment-là habitués au modèle par abonnement pour les MMO. Microsoft a permis aux développeurs d'offrir des microtransactions, du contenu vendu à un petit prix généralement inférieur à 5 $, pour leurs jeux sur Xbox 360 vers 2005, l'un des exemples les plus connus étant un ensemble d'armures de cheval pour The Elder Scrolls IV : L'oubli en 2006. Bien qu'il s'agisse principalement d'un article cosmétique dans le jeu, le pack d'armure était l'un des articles les plus populaires vendus pour Oubli d'ici 2009, et cimenté l'idée de microtransactions. [206] [207] [208]

Les jeux qui ont suivi Oubli trouvé des moyens d'inclure du contenu de microtransaction supplémentaire dans les jeux pour augmenter le montant d'argent qu'un seul titre pouvait gagner. [208] Les éditeurs qui produisaient des jeux avec du contenu en ligne ont créé des laissez-passer en ligne spéciaux, tels que le "Project Ten Dollar" d'Electronic Arts, qui nécessitait un achat pour accéder aux fonctionnalités en ligne, ce qui était également destiné à bloquer les ventes secondaires de jeux. Cette approche a été fortement critiquée par les consommateurs et les joueurs, et abandonnée en 2013. Au lieu de cela, les éditeurs ont proposé le modèle de passe de saison, apparaissant pour la première fois dans des jeux comme La Noire et Combat mortel. Sans passe de saison, les joueurs auraient toujours accès à toutes les fonctionnalités fondamentales d'un jeu, y compris le jeu en ligne, mais la passe de saison donnait accès à tout le contenu étendu prévu pour les modes solo et à de nouveaux personnages ou objets et cosmétiques pour les modes en ligne, tous prévus pour être publié généralement dans un délai d'un an, généralement à un prix réduit par rapport à l'achat de chacun individuellement. Un jeu pourrait ainsi offrir des passes de saison répétées année après année et ainsi générer des revenus. [208] Un concept lié à la passe de saison est la passe de combat, introduit pour la première fois dans Dota 2. Dans une passe de combat, il y a un certain nombre d'objets dans le jeu qu'un joueur peut gagner à différents niveaux de la passe de combat, mais l'oblige à relever des défis dans le jeu pour gagner les niveaux dans la passe. Certains pass de combat incluent un niveau d'objets gratuit, mais la plupart intègrent un niveau qui nécessite l'achat du pass. Les passes de combat peuvent être parcourues comme des passes de saison, offrant régulièrement un nouvel ensemble d'articles avec de nouveaux défis et fournissant des revenus récurrents pour un jeu. [208]

Des jeux mobiles et free-to-play, gacha les jeux étaient devenus populaires au Japon au début des années 2010, sur la base du concept de distributeur automatique de jouets à capsules, le premier système connu étant en ÉrableHistoire. Dans le jeu, les joueurs gagneraient de la monnaie qu'ils pourraient utiliser pour gagner un tirage au sort parmi un ensemble d'objets en fonction d'une rareté prédéfinie, souvent dans le but de collecter l'ensemble d'un ensemble d'objets pour obtenir une puissante récompense dans le jeu. Alors que les joueurs peuvent gagner plus de devises grâce à des actions dans le jeu, généralement en broyant, ils peuvent également gagner des devises en dépensant des fonds du monde réel dans le jeu. le gacha le concept s'est étendu aux loot boxes à travers le jeu chinois ZT en ligne, et dans les jeux occidentaux comme FIFA 09 et Team Fortress 2 au début des années 2010, les joueurs gagnaient des loot boxes grâce à des actions dans le jeu, ou qui pouvaient être achetées via des fonds du monde réel, et lorsqu'ils étaient ouverts, ils contenaient une variété d'objets, sélectionnés au hasard en fonction de leur rareté. En 2016, de nombreux jeux de grande envergure incluaient des mécanismes de loot box, mais cela a attiré l'attention des gouvernements et des décideurs du monde entier, craignant que les loot boxes ne ressemblent trop au jeu, car l'argent du monde réel pourrait être utilisé pour les acheter. Étant donné que bon nombre de ces jeux vidéo étaient destinés aux mineurs, certains pays avaient adopté des lois interdisant ou restreignant les jeux avec des mécanismes de loot box en raison de leur nature de jeu. Couplé à une mauvaise mise en œuvre de la mécanique des boîtes à butin dans Star Wars Battlefront II et Electronic Arts FIFA Mode de jeu Ultimate Team, les mécanismes de loot box ont commencé à perdre la faveur des consommateurs à la fin des années 2010. [208]

L'impact de la Chine sur la monétisation a joué un rôle clé au cours de cette période, qui a dépassé les 500 millions de joueurs au milieu des années 2010. Bien que l'interdiction des consoles ait été levée, le gouvernement chinois exigeait toujours que le matériel importé soit vendu par l'intermédiaire de sociétés chinoises et oblige les opérateurs chinois à gérer les jeux en ligne afin de faire respecter les lois du pays sur la censure et les limitations de jeu pour les mineurs. Les entreprises chinoises qui publiaient déjà des jeux dans le pays ont commencé à conclure des partenariats ou d'autres accords avec des entreprises étrangères pour les aider à intégrer leurs jeux et leur matériel dans l'entreprise via le processus d'approbation complexe. Ces sociétés incluent NetEase et Perfect World, mais le plus grand moteur a été Tencent, qui a réalisé de nombreux investissements dans des entreprises étrangères au cours des années 2010, notamment l'acquisition complète de Riot Games et la propriété partielle de Supercell et Epic Games, ainsi qu'une participation minoritaire dans des éditeurs. Ubisoft, Activision Blizzard et Paradox Interactive. En échange, Tencent avait aidé ces entreprises à affiner leurs approches de monétisation en utilisant leur expérience passée avec leurs propres jeux. [209]

Jeux de réalité mixte, virtuelle et augmentée

Les systèmes de réalité virtuelle (VR) pour les jeux vidéo ont longtemps été considérés comme une cible pour la technologie VR et avaient été en développement dès les années 1990, mais avaient été entravés par leur coût élevé et peu pratiques pour les ventes aux consommateurs. L'une des premières tentatives, le Virtual Boy de Nintendo en 1996, utilisait un affichage stéréoscopique monochromatique pour simuler la 3D, mais l'unité était peu pratique et n'a pas réussi à gagner des développeurs, ce qui en a fait un échec commercial pour Nintendo. Des percées dans le matériel de réalité virtuelle grand public ont eu lieu au début des années 2010 avec le développement de l'Oculus Rift par Palmer Luckey. Le Rift a été présenté lors de salons professionnels en 2013 et s'est avéré suffisamment populaire pour amener Facebook à acheter l'entreprise et la technologie pour 2 milliards de dollars en 2014. Peu de temps après, Valve et HTC ont annoncé le HTC Vive, sorti pour la première fois en 2015, tandis que Sony a sorti sa PlayStation. VR en 2016. Valve a ensuite développé sa propre gamme de matériel VR, le Valve Index, sorti en 2019. Alors que de nombreux jeux VR tiraient efficacement parti de la VR par rapport aux jeux "à écran plat" (ceux qui n'avaient pas les capacités VR) pour une expérience immersive, le "killer" de la VR app" est venu par le biais de Demi-vie : Alyx, publié par Valve en 2020. Demi-vie : Alyx a apporté plusieurs nouvelles idées pour intégrer les jeux de tir à la première personne dans une application de réalité virtuelle et a stimulé les ventes de l'Index. [210]

Les jeux de réalité augmentée (AR), dans lesquels le jeu prend une image de jeu vidéo en temps réel et y restitue des graphiques supplémentaires, existaient également avant les années 2010. Certains jeux de console PlayStation utilisaient EyeToy, PlayStation Eye ou PlayStation Camera dans le cadre du jeu, ainsi que les jeux Xbox 360 et Xbox One utilisant le Kinect. La plupart des jeux étaient plus expérimentaux puisque les caméras étaient fixes et limitaient les interactions qui pouvaient être faites. Alors que les consoles portables, y compris la PSP et la gamme Nintendo DS, et les téléphones portables intégraient des capacités de caméra vidéo, de nouvelles possibilités de réalité augmentée se sont ouvertes sur les appareils portables. Les jeux initiaux étaient encore plus expérimentaux et des jouets sans boucles de jeu complètes. Les jeux basés sur la réalité augmentée ont décollé avec la sortie de Pokémon Go en 2016, qui a combiné AR avec des jeux basés sur la localisation. Les joueurs utiliseraient leur appareil mobile pour les guider vers l'endroit où un Pokémon virtuel peut être trouvé, qu'ils ont recherché et tenté de capturer à l'aide de la RA sur la caméra de leur appareil. [211]

Ray-tracing et graphismes photoréalistes

NVidia et AMD ont introduit des cartes graphiques en 2020 avec un support matériel pour le lancer de rayons en temps réel, qui était également un composant majeur introduit avec les prochaines consoles de Microsoft et Sony, la Xbox Series X/S et la PlayStation 5, toutes deux sorties en novembre 2020. Améliorations significatives dans la technologie a également amélioré la capacité d'afficher des textures très détaillées, permettant le photoréalisme dans les scènes de jeux vidéo rendues à des résolutions élevées et des fréquences d'images élevées. Ces changements nécessitaient un plus grand espace de stockage pour la mémoire de texture sur le matériel et une plus grande bande passante entre la mémoire de stockage et le processeur graphique. Les deux nouvelles consoles comprenaient des options SSD spécialisées conçues pour fournir des options de stockage à large bande passante, ce qui avait l'avantage supplémentaire d'éliminer pratiquement les temps de chargement dans de nombreux jeux, en particulier ceux proposant la diffusion en continu dans le jeu pour les jeux du monde ouvert.


Voir la vidéo: Qgis Tutorial 170: Grille vecteur (Octobre 2021).