Suite

7.1.7 : Bilan et questions pour l'avenir - Géosciences

7.1.7 : Bilan et questions pour l'avenir - Géosciences


Aperçu

L'assurance contre les tremblements de terre est un jeu à enjeux élevés impliquant les compagnies d'assurance, les assurés et, dans certains cas, les gouvernements. Parce que les tremblements de terre sont si rares à un endroit donné (au moins dans un laps de temps humain), les consommateurs ont tendance à sous-estimer le besoin d'une couverture catastrophique. Un propriétaire de Tacoma a été cité dans Business Insurance, disant : « Ma prime supplémentaire pour l'assurance contre les tremblements de terre est de 768 $ par an. Ma franchise pour tremblement de terre est de 43 750 $. Plus je regarde cela, plus il semble que mes chances d'avoir une perte couverte sont à peu près nulles. Je paie 768 $ pour ça ? »

La demande d'assurance contre les tremblements de terre augmente après un tremblement de terre catastrophique, alors que la volonté et la capacité des compagnies d'assurance à offrir une telle assurance diminue fortement. L'assurance est, après tout, une entreprise, et pour que l'entreprise réussisse, elle doit gagner de l'argent.

Les compagnies d'assurance pourraient sous-estimer les primes qu'elles devraient facturer dans une région comme le nord-ouest du Pacifique, où un tremblement de terre catastrophique (une zone de subduction ou un tremblement de terre de faille de Seattle plutôt qu'un tremblement de terre de Nisqually) ne s'est pas produit en près de deux cents ans de tenue de registres. Mais les prix des primes peuvent être trop élevés pour attirer les clients dans des endroits qui ont récemment subi des pertes importantes, comme la vallée de San Fernando ou la région de la baie de San Francisco. En effet, tout l'état de Californie pourrait être dans ce correctif. Le CEA propose une police avec une couverture réduite et des primes plus élevées, ce qui amène de nombreuses personnes à abandonner complètement leur assurance tremblement de terre. Pourtant, de nombreux souscripteurs du secteur de l'assurance ne sont toujours pas convaincus que la police réduite est basée sur les coûts.

La qualité de la construction, en particulier les mesures prises contre les secousses sismiques, aura un impact croissant sur les coûts des primes. L'Institute of Building and Home Safety (IBHS), une association de compagnies d'assurances, dispose d'un comité contre les tremblements de terre dont l'objectif est de réduire les pertes potentielles. Cela inclut de décourager les développeurs de construire dans des zones à risque de tremblements de terre et d'autres catastrophes naturelles. Si un projet obtient un sceau d'approbation IBHS, il peut être éligible à des avantages de réduction des risques, y compris des primes inférieures.

Récemment, les législatures de l'Oregon et de Washington ont financé des études de résilience pour estimer ce qu'il faudrait pour réduire le risque énorme encouru par un tremblement de terre dans la zone de subduction. Une grande partie de l'analyse concerne les hôpitaux, les entreprises, les centres de commande et les lignes de vie, y compris les conduites d'eau, les câbles à fibres optiques et les ponts. Parmi les préoccupations : que se passe-t-il si une entreprise sur la côte ne peut pas redevenir rentable parce qu'elle n'est pas en mesure de commercialiser ses produits, auquel cas l'entreprise pourrait déménager dans une zone plus sûre et moins exposée aux tremblements de terre. L'enquête sur la résilience pour l'Oregon a examiné tous les principaux ponts et a conclu que bon nombre de ces ponts sont obsolètes et seraient susceptibles de tomber en panne lors d'un séisme dans la zone de subduction. Malgré ces preuves, la législature de 2015 n'a pas réussi à adopter un projet de loi sur les transports qui aurait commencé à s'attaquer à ce problème.

La Californie a déjà réalisé des études similaires, y compris sa partie de la zone de subduction de Cascadia. Ces résultats ont été présentés aux législatures respectives, mais les gouvernements des États doivent encore engager des ressources suffisantes pour réduire considérablement le risque. S'ils le faisaient, l'exposition au risque des compagnies d'assurance changerait radicalement. Pour les résumés, voir CREW (2013) et les résumés pour l'Oregon et Washington dans les références.

Le gouvernement fédéral n'a toujours pas déterminé quel devrait être son rôle, et les réponses du gouvernement aux ouragans Katrina et Sandy ne sont pas encourageantes. Quelle devrait être la contribution du contribuable général? Les efforts de la FEMA devraient-ils inclure non seulement le soulagement mais le rétablissement ? Aide à la reconstruction plutôt que prêts à taux réduit ? L'assurance contre les tremblements de terre devrait-elle être obligatoire pour les propriétés dont l'hypothèque est garantie par le gouvernement fédéral? Devrait-il être subventionné par le gouvernement, en particulier pour les familles à faible revenu qui sont les plus susceptibles de vivre dans des logements à risque sismique mais ne peuvent pas se permettre les primes si elles sont vraiment basées sur les coûts ? Le manque d'attractivité de la mini-politique du CEA amène de nombreux Californiens à abandonner toute couverture contre les tremblements de terre, ce qui pose un nouveau problème pour l'industrie financière. Des milliers de propriétaires non assurés pourraient simplement renoncer à leurs hypothèques et déclarer faillite si leurs maisons non assurées sont détruites par un tremblement de terre.

De tels problèmes ont tendance à être ignorés par le public et par le gouvernement, sauf dans la période qui suit immédiatement un tremblement de terre. Il existe une fenêtre temporelle étroite (moment propice) pour l'adoption de mesures d'atténuation et l'examen des moyens de faire face aux pertes catastrophiques, y compris l'assurance contre les tremblements de terre. Autorisés par leurs législatures, l'Oregon et Washington ont tous deux conçu des plans de résilience, mais le prix de la résilience est élevé, et jusqu'à présent, les organes directeurs n'ont pas trouvé l'argent nécessaire pour devenir résilients. Le contribuable semble prêt à accepter cette inaction.

La question concernant les dommages causés par le tremblement de terre est : qui paie ? Cette question n'a pas reçu de réponse.


Suggestions de lectures complémentaires

Département californien de la conservation. 1990. Besoins en informations sur les risques sismiques de l'industrie de l'assurance, du gouvernement local et des propriétaires fonciers de Californie. Publication spéciale 108 du Département de la conservation de la Californie.

Cascadia Region Earthquake Workgroup (CREW), 2013: Cascadia Subduction Zone Earthquakes: a magnitude 9.0 tremblements de terre, update 2013, 23 p.

Insurance Service Office, Inc. 1996. Assurance habitation : menaces de l'extérieur, faiblesse à l'intérieur. Série ISO sur les questions d'assurance, 62 p.

Kunreuther, H., et R. J. Roth, Sr. 1998. Payer le prix : le statut et le rôle de l'assurance contre les catastrophes naturelles aux États-Unis. Washington, D.C. : Joseph Henry Press.

Oregon Seismic Safety Policy Advisory Commission (OSSPAC), 2013, The Oregon Resilience Plan: Reducing Risk and Improving Recovery for the Next Cascadia Earthquake and Tsunami : http://www.oregon.gov/OMD/OEM/Pages/index/aspx, résumé 8 p.

Palm, R. et J. Carroll. Illusions de sécurité : réponse aux risques culturels et sismiques en Californie et au Japon. Boulder, CO, Westview Press.

Roth, R. J., Jr. 1997. Bases du tremblement de terre : Assurance : Quels sont les principes d'assurance contre les catastrophes naturelles ? Publication de l'Institut de recherche en génie sismique.

Comité de sécurité sismique de l'État de Washington, Conseil de gestion des urgences, 2012, État de Washington résilient, cadre pour minimiser les pertes et améliorer la récupération à l'échelle de l'État après un tremblement de terre : rapport final et recommandations : Division de la géologie et des ressources terrestres, Circulaire d'information 114, 38 p.


13.2 Astéroïdes et défense planétaire

Tous les astéroïdes ne se trouvent pas dans la ceinture principale d'astéroïdes. Dans cette section, nous considérons quelques groupes spéciaux d'astéroïdes avec des orbites qui approchent ou croisent l'orbite de la Terre. Ceux-ci présentent le risque d'une collision catastrophique avec notre planète, comme la collision il y a 65 millions d'années qui a tué les dinosaures.

Astéroïdes s'approchant de la Terre

Des astéroïdes qui s'éloignent dehors la ceinture principale intéresse surtout les astronomes. Mais les astéroïdes qui viennent vers l'intérieur, en particulier ceux dont les orbites se rapprochent ou traversent l'orbite de la Terre, intéressent les dirigeants politiques, les planificateurs militaires - en fait, tout le monde vivant sur Terre. Certains de ces astéroïdes deviennent brièvement l'objet céleste le plus proche de nous.

En 1994, un objet d'un kilomètre a été ramassé en passant plus près que la Lune, suscitant un vif intérêt dans les médias. Aujourd'hui, il est courant de lire que de petits astéroïdes se rapprochent de la Terre. (Ils ont toujours été là, mais ce n'est que ces dernières années que les astronomes ont pu détecter des objets aussi faibles.)

En 2013, un petit astéroïde a frappé notre planète, traversant le ciel de la ville russe de Chelyabinsk et explosant avec l'énergie d'une bombe nucléaire (Figure 13.13). L'impacteur était un objet pierreux d'environ 20 mètres de diamètre, explosant à environ 30 kilomètres de haut avec une énergie de 500 kilotonnes (environ 30 fois plus que les bombes nucléaires larguées sur le Japon pendant la Seconde Guerre mondiale). Personne n'a été blessé par l'explosion elle-même, bien qu'elle soit brièvement devenue aussi brillante que le soleil, attirant de nombreux spectateurs vers les fenêtres de leurs bureaux et maisons. Lorsque l'onde de choc de l'explosion a ensuite atteint la ville, elle a soufflé les fenêtres. Environ 1 500 personnes ont dû consulter un médecin pour des blessures causées par le verre brisé.

Une explosion atmosphérique beaucoup plus importante a eu lieu en Russie en 1908, causée par un astéroïde d'environ 40 mètres de diamètre, libérant une énergie de 5 mégatonnes, l'une des armes nucléaires les plus puissantes d'aujourd'hui. Heureusement, la zone directement touchée, sur la rivière Tunguska en Sibérie, était inhabitée et personne n'a été tué. Cependant, la superficie de forêt détruite par l'explosion était grande égale à la taille d'une grande ville (Figure 13.13).

Avec toutes les comètes qui s'approchent de notre planète, ces astéroïdes sont connus collectivement sous le nom d'objets géocroiseurs (NEO). Comme nous le verrons (et comme les dinosaures l'ont découvert il y a 65 millions d'années), la collision d'un objet géocroiseur de taille importante pourrait être une catastrophe pour la vie sur notre planète.

Lien vers l'apprentissage

Visitez la compilation vidéo du météore de Tcheliabinsk traversant le ciel de la ville le 15 février 2013, prise par des personnes qui se trouvaient dans la région lorsqu'elle s'est produite.

Lien vers l'apprentissage

Regardez cette vidéo d'une conférence non technique de David Morrison pour regarder "The Chelyabinsk Meteor: Can We Survive a Bigger Impact?" Le Dr Morrison (SETI Institute et NASA Ames Research Center) discute de l'impact de Chelyabinsk et de la façon dont nous en apprenons sur les objets géocroiseurs et nous nous protégeons.

Les astronomes ont insisté sur le fait que la première étape pour protéger la Terre des impacts futurs des objets géocroiseurs doit être d'apprendre quels sont les impacteurs potentiels. En 1998, la NASA a lancé le Spaceguard Survey, dans le but de découvrir et de suivre 90 % des astéroïdes approchant la Terre de plus d'un kilomètre de diamètre. La taille de 1 kilomètre a été choisie pour inclure tous les astéroïdes capables de causer des dommages mondiaux, et pas seulement des effets locaux ou régionaux. À 1 kilomètre ou plus, l'impact pourrait projeter tellement de poussière dans l'atmosphère que la lumière du soleil serait tamisée pendant des mois, provoquant des mauvaises récoltes mondiales, un événement qui pourrait menacer la survie de notre civilisation. L'objectif de Spaceguard de 90 % a été atteint en 2012 lorsque près d'un millier de ces astéroïdes géocroiseurs (NEA) d'un kilomètre ont été trouvés, ainsi que plus de 10 000 plus petits astéroïdes. La figure 13.14 montre comment le rythme des découvertes de l'AEN a augmenté ces dernières années.

Comment les astronomes ont-ils su qu'ils avaient découvert 90 % de ces astéroïdes ? Il existe plusieurs façons d'estimer le nombre total, même avant qu'ils ne soient localisés individuellement. Une façon est de regarder le nombre de grands cratères sur la mer lunaire sombre. N'oubliez pas que ces cratères ont été créés par des impacts tout comme ceux que nous envisageons. Ils sont conservés sur la surface sans air de la Lune, alors que la Terre efface bientôt les empreintes des impacts passés. Ainsi, le nombre de grands cratères sur la Lune nous permet d'estimer la fréquence à laquelle des impacts se sont produits à la fois sur la Lune et sur la Terre au cours des derniers milliards d'années. Le nombre d'impacts est directement lié au nombre d'astéroïdes et de comètes sur les orbites de la Terre.

Une autre approche consiste à voir à quelle fréquence les relevés (qui sont des recherches automatisées de points lumineux faibles qui se déplacent parmi les étoiles) redécouvrent un astéroïde déjà connu. Au début d'une enquête, toutes les NEA trouvées seront nouvelles. Mais à mesure que le levé devient plus complet, de plus en plus de points mobiles enregistrés par les caméras de levé seront redécouvertes. Plus chaque enquête connaît de redécouvertes, plus notre inventaire de ces astéroïdes doit être complet.

Nous avons été soulagés de constater qu'aucun des NEA découverts jusqu'à présent n'est sur une trajectoire qui aura un impact sur la Terre dans un avenir prévisible. Cependant, nous ne pouvons pas parler pour la poignée d'astéroïdes de plus d'un kilomètre qui n'ont pas encore été trouvés, ni pour les plus petits, beaucoup plus nombreux. On estime qu'il y a un million de NEA capables de frapper la Terre qui sont plus petits qu'un kilomètre mais encore assez grands pour détruire une ville, et nos enquêtes ont trouvé moins de 10 % d'entre eux. Les chercheurs qui travaillent avec des orbites d'astéroïdes estiment que pour les astéroïdes plus petits (et donc plus faibles) que nous ne suivons pas encore, nous aurons environ 5 secondes d'avertissement que l'un d'entre eux va frapper la Terre - en d'autres termes, nous ne le verrons pas avant il pénètre dans l'atmosphère. Clairement, cette estimation nous donne beaucoup de motivation pour continuer ces relevés pour traquer le plus d'astéroïdes possible.

Bien qu'entièrement prévisibles sur des périodes de quelques siècles, les orbites des astéroïdes approchant de la Terre sont instables sur de longues périodes car elles sont tirées par les attractions gravitationnelles des planètes. Ces objets finiront par rencontrer l'un des deux destins suivants : soit ils impacteront l'une des planètes telluriques ou le Soleil, soit ils seront éjectés gravitationnellement du système solaire interne en raison d'une quasi-rencontre avec une planète. Les probabilités de ces deux résultats sont à peu près les mêmes. L'échelle de temps pour l'impact ou l'éjection n'est que d'une centaine de millions d'années, très courte par rapport à l'âge de 4 milliards d'années du système solaire. Les calculs montrent que seulement environ un quart des astéroïdes actuels s'approchant de la Terre finiront par entrer en collision avec la Terre elle-même.

Si la plupart de la population actuelle d'astéroïdes s'approchant de la Terre sera éliminée par impact ou éjection dans cent millions d'années, il doit y avoir une source continue de nouveaux objets pour reconstituer notre réserve d'AEN. La plupart d'entre eux proviennent de la ceinture d'astéroïdes entre Mars et Jupiter, où les collisions entre astéroïdes peuvent éjecter des fragments sur les orbites de la Terre (voir Figure 13.15). D'autres peuvent être des comètes « mortes » qui ont épuisé leurs matériaux volatils (dont nous parlerons dans la section suivante).

L'une des raisons pour lesquelles les scientifiques s'intéressent à la composition et à la structure intérieure des NEA est que les humains devront probablement un jour se défendre contre un impact d'astéroïde. Si jamais nous trouvions l'un de ces astéroïdes sur une trajectoire de collision avec nous, nous aurions besoin de le dévier pour qu'il rate la Terre. Le moyen le plus simple de le dévier serait d'y écraser un vaisseau spatial, soit en le ralentissant, soit en l'accélérant, en modifiant légèrement sa période orbitale. Si cela était fait plusieurs années avant la collision prévue, l'astéroïde raterait complètement la planète, faisant d'un impact d'astéroïde le seul danger naturel que nous pourrions éliminer complètement par l'application de la technologie. Alternativement, une telle déviation pourrait être effectuée en faisant exploser une bombe nucléaire près de l'astéroïde pour le faire dévier de sa trajectoire.

Pour obtenir une déviation réussie par l'une ou l'autre technique, nous devons en savoir plus sur la densité et la structure intérieure de l'astéroïde. Un impact d'engin spatial ou une explosion à proximité aurait un effet plus important sur un astéroïde rocheux solide tel qu'Eros que sur un tas de décombres. Pensez à gravir une dune de sable plutôt qu'à gravir une colline rocheuse avec la même pente. Sur la dune, une grande partie de notre énergie est absorbée dans le sable glissant, la montée est donc beaucoup plus difficile et demande plus d'énergie.

Le problème des impacts d'astéroïdes suscite un intérêt international croissant. Les Nations Unies ont formé deux comités techniques sur la défense planétaire, reconnaissant que la planète entière est menacée par les impacts d'astéroïdes. Cependant, le problème fondamental reste celui de trouver des NEA à temps pour que des mesures défensives soient prises. Nous devons être capables de trouver le prochain impacteur avant qu'il ne nous trouve. Et c'est un travail pour les astronomes.


7.1.7 : Bilan et questions pour l'avenir - Géosciences

La structure linéaire d'un texte

La façon la plus évidente de diviser un texte est en une hiérarchie linéaire d'unités, chaque unité étant intégrée dans des unités plus grandes et composée d'une ou plusieurs unités plus petites. La méthode traditionnelle de description des livres bibliques repose sur ce principe d'analyse d'un texte. Longacre (1983b, 285) a postulé que tout texte peut être analysé hiérarchiquement en distinguant huit niveaux d'unités : discours, paragraphe, phrase, clause, expression, mot, radical et morphème. D'une manière générale, les unités d'un niveau inférieur se combinent pour former des unités d'un niveau supérieur, cependant, des niveaux peuvent être sautés afin, par exemple, qu'une phrase puisse être analysée comme étant une combinaison de mots. Cela est dû au fait qu'il est possible d'avoir des constructions unitaires. Il peut y avoir des discours à un paragraphe, des paragraphes à une phrase, des phrases à une clause (généralement appelées "phrases simples"), des phrases à un mot et des mots à morphème. Il est même possible de replier tous les niveaux pour n'avoir qu'un seul morphème de discours, comme lorsqu'on crie « Au feu !

De plus, Longacre (1983b, 279-280) a noté qu'il est possible que des unités se forment de manière récursive. Un paragraphe peut être composé de deux ou plusieurs paragraphes. Un mot peut être composé de deux ou plusieurs mots par exemple, le mot 'football' est fait en combinant les mots 'foot' et 'ball'. La récursivité peut également fonctionner en combinant des éléments qui ne sont pas au même niveau. Un paragraphe peut être composé d'une phrase de sujet plus un paragraphe d'amplification. Un syntagme prépositionnel peut être composé de syntagmes prépositionnels imbriqués de manière récursive (par exemple, "la puissance de l'Esprit du Dieu du ciel"). Ce type de récursivité peut également se produire au niveau des mots (par exemple, 'juste', 'juste' et 'juste').

Longacre (1983b, 280-281) a également noté un troisième type de combinaison d'unités qu'il appelle backlooping. C'est là que les unités de niveau supérieur sont intégrées dans les unités de niveau inférieur. Un exemple typique d'une telle construction est une proposition relative modifiant un groupe nominal (par exemple, "le Dieu qui a fait sortir Israël d'Egypte"). Une autre occurrence courante de bouclage se produit lorsqu'un paragraphe entre guillemets est incorporé dans l'emplacement objet d'une phrase quoti- tive. attend un nom, tel que "le Roi d'Angleterre" couronne " où l'expression " roi d'Angleterre " est marquée d'un morphème possessif comme le serait un nom. Pike (1967, 107) et Longacre (1983b, 280) ont noté Martin Luther King, Jr.'s, "see-how-loin-you-ve-come-ism", où une clause entière est intégrée dans une fente qui prend généralement un radical substantif.

Le côlon comme phrase linguistique

Une question se pose à ce stade de savoir quelle est exactement la phrase déclarative linguistique en grec. Deux marques de fin de ponctuation sont utilisées dans le texte déclaratif par les éditeurs modernes de textes grecs : le point et les deux points.Le point définit la fin de la phrase grecque dans l'usage courant, et le point en relief (également appelé « deux-points ») définit la fin des deux points. Le côlon est à tous égards une phrase linguistique : le noyau est une proposition indépendante et il est modifié par divers types de propositions subordonnées. Dans son ouvrage sur la sémantique grecque du Nouveau Testament, Louw note que « dans cette analyse, le côlon est défini, non pas en termes d'unité sémantique, mais en termes de certaines structures grammaticales spécifiques qui, à bien des égards, sont parallèles à ce qui serait considéré comme des phrases en anglais. " (1982, 95). Il se peut bien que ce que les éditeurs modernes marquent comme une phrase grecque à plusieurs points corresponde à un type simple de paragraphe. Ce même genre de confusion quant à ce qu'est une phrase linguistique existe en anglais. Charles Fries (1952, 10-11) a demandé un jour à un certain nombre de professeurs d'anglais de décider combien de phrases existaient dans un texte pouvant être ponctué à la fois de points et de points-virgules. Ils n'arrivaient pas à se mettre d'accord sur le nombre réel de phrases dans le texte. Malgré l'ambiguïté sur ce qui constitue une phrase, aussi bien en grec qu'en anglais, il semble préférable de choisir les deux points comme phrase linguistique, puisqu'il s'agit de la phrase minimale possible.

Ce côlon marqué dans les éditions actuelles du Nouveau Testament grec Koinè ne doit pas être confondu avec ce que les grammairiens grecs anciens appelaient un kwlon « côlon », car cette unité correspond davantage à la clause moderne (Démétrius, Sur le style I [§1-8]). Le côlon tel qu'il est marqué par les éditeurs modernes a été appelé un periodoV « période » par d'anciens grammairiens tels que Demetrius (Sur le style Je [§10-11]).

Louw (1982) a également choisi de faire du côlon l'unité de choix pour l'analyse du discours dans le Nouveau Testament grec. Outre le fait fondamental que le côlon grec tel qu'il est actuellement marqué semble correspondre à la phrase linguistique, Louw donne une raison supplémentaire d'utiliser la terminologie côlon pour décrire l'unité linguistique analysée : « dans certaines analyses linguistiques le terme phrase (avec l'abréviation S) a été utilisé pour parler de toute chaîne syntaxique qui peut être inférieure ou même supérieure à deux points" (1982, 100).

Cette étude diffère de l'utilisation du terme par Louw sur un seul point : Louw rejette la possibilité d'avoir un côlon composé. Il écrit : « Tout cela signifie que les phrases dites simples et les phrases complexes (celles avec des clauses dépendantes) sont considérées comme des deux-points, tandis que les phrases dites coordonnées (celles dans lesquelles des clauses potentiellement indépendantes sont combinées par des conjonctions de coordonnées) sont considérées comme composé de deux ou plusieurs deux-points » (Louw 1982, 102). Il y a quatre raisons pour ne pas suivre Louw dans son rejet des deux points composés. Premièrement, la ponctuation grecque standard des deux-points dans les éditions actuelles du Nouveau Testament comprend parfois des clauses indépendantes coordonnées au sein d'un seul deux-points. Pour redéfinir le côlon comme le fait Louw, chaque chercheur travaillerait avec des unités différentes. Deuxièmement, Louw veut que « l'homme est allé à Boston et le garçon a joué dans sa chambre » (1982, 101) pour être deux points, alors qu'il comprend que « le cheval et le taureau paissent » (1982, 101) pour être un seul point. avec un sujet composé (bien qu'il soit généralement analysé comme deux phrases noyaux dans la structure profonde) et "mon bon ami est venu et m'a donné un livre" (1982, 97) pour être un seul deux-points avec un prédicat composé. Par contre, un verbe grec peut être un deux-points à lui seul, puisque l'accord du sujet est marqué sur le verbe et peut fonctionner comme un indicateur du sujet de la clause. Ainsi, un prédicat composé peut généralement aussi être analysé comme des clauses composées en grec. Troisièmement, le fait que l'on puisse avoir des sujets composés dans un emplacement sujet et des prédicats composés dans un emplacement prédicat soutiendrait que, par analogie, on pourrait également avoir des clauses composées dans un emplacement de clause de deux-points. Enfin, les preuves indiquent que kai 'et' se produit souvent entre les clauses d'un côlon composé, mais rarement entre les deux-points. Sur 105 instances de kai 'et' où le mot apparaît comme la seule conjonction sous forme non contractée dans I Corinthiens, 95 se produisent dans le côlon et seulement 10 se produisent au début d'un côlon. Ceci est similaire aux découvertes de Levinsohn dans le livre des Actes, où il a découvert que kai 'et' était principalement utilisé pour joindre des éléments au sein de ce qu'il appelait unités de développement (1987, 96-120).

Avec cette brève introduction au concept de quatre types d'encastrement (normal, sauté, récursif et en boucle) et la sélection du côlon grec comme phrase linguistique, il est possible de procéder à l'analyse du texte de I Corinthiens comme une combinaison de unités ou particules. Cette étude se concentrera sur les relations des unités de niveau supérieur, en particulier les paragraphes.

Toutes les phrases d'un paragraphe partagent une sorte de relation les unes avec les autres. En utilisant le tagmeme à quatre cellules de Pike comme descripteur, cette relation peut toujours être décrite en termes de rôle. On en dira plus sur la relation de rôle plus loin dans ce chapitre. Pour le moment, la question doit être posée : existe-t-il des relations entre les phrases qui les lient entre elles dans des paragraphes et pourtant ces relations peuvent être décrites de manière purement structurelle (c'est-à-dire, en termes tagmémiques, peuvent être décrites simplement en utilisant le slot et la classe) ? La réponse est oui. Il existe plusieurs types de paragraphes dans I Corinthiens qui sont marqués par des caractéristiques grammaticales dans la structure de surface.

Premièrement, il y a un paragraphe question-réponse qui, dans sa forme la plus simple, se compose de deux points : le premier une question et le second une réponse. Des exemples de cela dans I Corinthiens incluent 11:22 et 14:15, comme indiqué dans (29).

Deuxièmement, il y a un paragraphe question-commande qui se compose d'une question suivie d'une commande. Ce formulaire fonctionne souvent comme un type de commande conditionnelle. Si la question peut recevoir une réponse affirmative, la commande doit être obéie. Des exemples de ceci incluent 7:18 (bis), 21 et 27 (bis), comme indiqué en (30).

Pour une perspective sur le terrain des différents modèles de cette structure, voir (40) ci-dessous. L'exemple dans 7:21 est celui d'une double commande, la seconde introduite par tous les ' ei 'mais si', avec la clause conditionnelle introduisant une condition supplémentaire, comme indiqué dans (31).

Troisièmement, il y a des paragraphes qui montrent une structure grammaticale chiastique. Des exemples de ceux-ci incluent 9:20-22, 10:7-10 et 13:8-13, comme indiqué ci-dessous dans (51), (52) et (62). De tels paragraphes peuvent être considérés soit comme des structures du point de vue des particules, soit comme des motifs du point de vue du champ. Mais comme les paragraphes non linéaires sont mieux traités du point de vue du champ, ils seront discutés ci-dessous plus en détail dans la section sur le chiasme sous le titre de champ.

Enfin, il existe des paragraphes composés d'unités parallèles, soit des paragraphes intégrés plus petits, soit des phrases linguistiques (deux points). Ceux-ci peuvent être classés selon qu'ils sont composés de deux ou plus de deux unités, appelées ici respectivement binaires ou multiples. Ils peuvent également être classés selon qu'ils sont composés d'énoncés, de questions ou de commandes. Lorsque ces structures parallèles sont composées de deux ou trois deux points, elles sont parfois appelées distiques ou triplets, respectivement.

Il y a trois exemples dans I Corinthiens de paragraphes composés de microparagraphes parallèles, c'est-à-dire de paragraphes de bas niveau dont les seules unités constitutives sont des phrases linguistiques (deux points). Tous les exemples sont binaires, limités à deux unités parallèles. I Corinthiens 15:39-41 est un exemple de deux micro-paragraphes parallèles impliquant des déclarations. La version anglaise d'aujourd'hui (TEV) commence un nouveau paragraphe orthographique au milieu de cette structure, mais cela ne semble pas correspondre au texte grec. I Corinthiens 7:18 et 7:27 sont des exemples de deux micro-paragraphes parallèles impliquant des questions, comme indiqué ci-dessus dans (30).

La plupart des exemples de parallélisme impliquent des deux points plutôt que des microparagraphes. Le plus grand nombre de structures parallèles implique de loin des instructions binaires deux-points. Il y a divers degrés de parallélisme dans I Corinthiens, mais ce qui suit sont des exemples clairs de ce type de micro-paragraphe : 3:5, 14-15 6:12 7:22 9:17 10:21, 23 11:4-5, 8 -9 12h15-16, 26 14h4, 15 et 16h23-24. I Corinthiens 12:26 est montré dans (32) à titre d'exemple.

Il existe également plusieurs exemples de structures parallèles impliquant des questions binaires à deux points. Parmi les exemples les plus clairs figurent 7:16 9:1, 5-6 10:16 11:22 (bis) et 15:55, ce dernier étant montré en (33) comme exemple.

I Corinthians contient également quelques exemples de commandes binaires parallèles des deux points. Parmi ceux-ci se trouvent 7:12-13 10:25 et 27 et 14:28 et 30. I Corinthiens 7:12-13 est montré dans (34) à titre d'exemple.

Passant du parallélisme binaire au parallélisme à deux points, il existe plusieurs exemples de déclarations à trois points dans I Corinthiens. Parmi les plus clairs figurent 4:8, 10 7:32-34 12:4-6 13:1-3 et 15:42-44. I Corinthiens 12:4-6 est donné en (35) à titre d'exemple.

Il existe également cinq exemples de parallélisme dans les questions à deux points : 1:20 9:7 12:17 et 19 12:29 et 12:30. Le second est donné à titre d'exemple en (36).

Tous ces exemples sont des triolets, à l'exception de 12:29, qui contient quatre questions grammaticalement parallèles.

Ainsi, le livre de I Corinthiens contient quatre types de base de paragraphes grammaticalement structurés : question-réponse, question-commande, chiastique et parallèle. Ces unités forment les plus petits types de paragraphes dans I Corinthiens. Idéalement, toute analyse de la structure des paragraphes dans ce livre ne commencerait pas un nouveau paragraphe au milieu de l'une de ces unités. Malheureusement, dans les traductions anglaises, cela n'a pas toujours été le cas, comme nous le verrons bientôt.

À l'aide de techniques analytiques, l'analyse du discours ne fait pas toujours apparaître les mêmes jonctions de paragraphe que celles marquées par les traducteurs et les éditeurs dans un texte. Même les traducteurs et les éditeurs diffèrent entre eux quant à l'endroit exact où un nouveau paragraphe doit commencer. Certains ne commencent pas les paragraphes très souvent, tandis que d'autres commencent les paragraphes assez fréquemment. Une comparaison des débuts de paragraphe entre la nouvelle version américaine standard (NASV) et la version anglaise d'aujourd'hui (TEV), comme indiqué dans le tableau 6, le confirmera. Les traducteurs de la nouvelle version standard américaine commencent les nouveaux paragraphes moins fréquemment que les éditeurs des textes grecs, tandis que la version anglaise d'aujourd'hui commence les nouveaux paragraphes avec une fréquence telle qu'ils coupent les paragraphes grecs structurels et même les frontières des deux points. Cette technique peut être un paragraphe légitime pour une simple traduction en anglais (car les règles de paragraphe en anglais peuvent très bien différer des règles grecques), mais elle est de peu d'utilité pour l'analyste du discours qui essaie de s'appuyer sur la compréhension des autres pour aider à déterminer les limites des paragraphes dans le texte grec.

Le paragraphe orthographique est d'une utilité limitée dans l'analyse du discours car il ignore généralement la nature récursive des paragraphes. La plupart des traductions n'ont qu'un seul niveau d'indication de paragraphe. Une exception est la 26e édition du Nestlé-Aland Novum Testamentum Grèce, qui indique trois niveaux de paragraphes par technique orthographique : les sauts de section principaux sont indiqués par un espacement avant un paragraphe, les sauts de paragraphe principaux sont indiqués par un retrait à partir de la marge gauche et les sauts de paragraphe mineurs sont indiqués par un espacement supplémentaire dans une ligne. Lorsque les traductions n'indiquent qu'un seul niveau de paragraphe, il y a peu d'indications quant à savoir si l'indentation a lieu pour signifier les paragraphes principaux, les paragraphes intermédiaires ou les paragraphes mineurs.

Cependant, comme différentes traductions et éditions indiquent différents niveaux de paragraphes, elles peuvent être comparées pour former une idée générale du niveau relatif des sauts de paragraphe dans un texte. Dans le tableau 6, deux éditions du texte grec de I Corinthiens et sept traductions anglaises sont comparées quant aux sauts de paragraphe. Les sauts dans lesquels sept à neuf des éditions et traductions concordent peuvent être considérés comme des sauts de paragraphe majeurs. De la même manière, les ruptures sur lesquelles il y a un accord entre quatre et six peuvent être considérées comme intermédiaires et les ruptures avec un accord sur seulement un à trois peuvent être considérées comme des ruptures de paragraphe mineures. L'attribution des classifications majeure, intermédiaire et mineure à des groupes de trois est arbitraire basée sur une progression linéaire, cependant, il est raisonnable qu'un changement de sujet que plus d'éditeurs et de traducteurs remarquent soit plus susceptible d'être plus significatif qu'un changement qui moins d'éditeurs et de traducteurs le remarquent.

Le tableau 6 énumère également trois autres indications grammaticales de paragraphe : la présence de vocatifs et du mot idou « voici », l'utilisation de verbes à la première personne dans les deux points précédant et suivant la rupture, et l'utilisation de verbes à la deuxième personne dans les deux points précédant et après la pause. A titre de précision, le terme côlon après la pause est utilisé pour désigner le premier deux-points dans le nouveau paragraphe et le terme deux points précédant la pause est utilisé pour faire référence au dernier deux-points du paragraphe précédent.

Les vocatifs sont couramment utilisés pour signifier le début d'un paragraphe en grec (cf. Miehle 1981, 98 et Longacre 1983a, 3, 13, 22, 25, 30 pour I John ainsi que Hymes 1986, 80 et Terry 1992, 113, 118 pour Jacques). Dix-huit des vingt-cinq vocatifs dans I Corinthiens se trouvent dans les deux points qui commencent les paragraphes. De plus, trois vocatifs (deux en 7:16 et un en 7:24) apparaissent dans les deux points finaux d'un paragraphe. Le premier discours contient non seulement un vocatif ( adelfoi 'frères') dans son premier deux-points en 1:10, mais aussi un vocatif ( adelfoi mou 'mes frères') dans son deuxième deux-points en 1:11. Les trois vocatifs restants (un en 15:31 et deux en 15:55) se trouvent dans le huitième discours dans ce qui est probablement un matériau de pointe (voir le chapitre V de cette étude pour une discussion plus approfondie de la pointe). Le vocatif dans 15:31 est omis par de nombreux manuscrits, probablement parce qu'il n'est pas utilisé à cet endroit à la manière grecque normale de commencer un paragraphe. Il est également possible de traiter marana (araméen pour 'Seigneur') dans 16:22 comme un vocatif, bien qu'il soit peu probable que l'araméen translittéré marana qa 'O Seigneur, viens' soit un paragraphe en soi, comme la New English Bible (NEB) l'imprime.

Le mot grec idou « voici » est une particule utilisée comme une exclamation, pas un vocatif, cependant, il fonctionne souvent de la même manière qu'un vocatif pour marquer le début des paragraphes en grec. Pour cette raison, la version standard révisée (RSV) et la version anglaise d'aujourd'hui (TEV) marquent 15:51 comme début d'un nouveau paragraphe, cependant, il existe des parallèles structurels entre 15:50 et 15:51 qui indiquent qu'ils vont ensemble . Tout paragraphe qui commence à 15:51 doit en effet être un paragraphe mineur.

Dans le texte épistolaire, il est courant que l'écrivain se réfère à lui-même et aux lecteurs. Cela est particulièrement vrai autour des limites des paragraphes où l'auteur est plus susceptible de relier la discussion des principes généraux aux parties concernées. Le tableau 6 indique si les verbes à la première et à la deuxième personne se trouvent dans les deux points suivant ou précédant la limite du paragraphe ou les deux. Leur présence ou leur absence est résumée dans le tableau 7. Le tableau 7 montre qu'il existe une relation directe entre les fins interpersonnelles et le niveau du paragraphe. Parmi les sauts de paragraphe principaux, 56 (84,8%) avaient des verbes à la première ou à la deuxième personne dans les deux points environnants. Les sauts de paragraphe intermédiaires ont montré 23 (79,3%) avec des verbes interpersonnels dans les deux points de chaque côté de la pause. Les sauts de paragraphe mineurs ont montré 41 (73,2%) avec des verbes interpersonnels dans les deux-points environnants. Et les sauts de paragraphe sous-structuraux n'ont montré que 5 (50%) avec des verbes interpersonnels. Ainsi, plus le niveau de paragraphe est élevé, plus les terminaisons verbales interpersonnelles (à la première ou à la deuxième personne) sont susceptibles de se produire dans les deux points environnants. De plus, au niveau du discours, tous les 10 (100 %) des discours de la lettre affichent soit des verbes à la première personne, soit à la deuxième personne dans les deux points entourant le début des discours.

PREMIÈRE ET DEUXIÈME PERSONNE DANS LES LIMITES DE PARAGRAPHE ORTHOGRAPHIQUE
EN I CORINTHIENS

Ainsi, cette tendance aux ruptures de paragraphe est particulièrement vraie pour les ruptures de discours. Le tableau 8 montre les bornes limites pour les débuts des dix discours proposés dans I Corinthiens plus l'introduction et la conclusion. Les dix discours montrent soit la première ou la deuxième personne dans le premier deux-points du discours, la moitié d'entre eux montrant les deux. Seule la limite à 7:1 montre le premier deux-points ne contenant pas de verbe à la première personne. De plus, toutes les limites, à l'exception de 15:1, affichent la première ou la deuxième personne dans les deux points précédents. Et tous les discours commencent par la conjonction grecque de « maintenant ». Il convient de noter que si le début du deuxième discours est choisi à 5:1 au lieu de 4:18, toutes ces généralisations sauf une ne sont pas valides. Cela tend à confirmer la conclusion du chapitre III selon laquelle le deuxième discours commence à 4:18 plutôt qu'à 5:1.

MARQUEURS DES LIMITES DU DISCOURS EN I CORINTHIENS

Frontière Mots d'introduction Vocatif 1ère personne 2ème personne
1:1Int Suivant
1:101 de maintenantfrèresSuivantTous les deux
4:182 de maintenant Tous les deux
7:13 Peri de Maintenant à propos Tous les deux
8:14 Peri de Maintenant à propos Tous les deux
11:25 de maintenant Tous les deuxTous les deux
11:176 de maintenant Tous les deux
12:17 Peri de Maintenant à propos frèresTous les deuxSuivant
15:18 de maintenantfrèresSuivantSuivant
16:19 Peri de Maintenant à propos SuivantTous les deux
16:1210 Peri de Maintenant à propos Tous les deuxPrécédent
16:13Con

Enfin, le tableau 9 présente un résumé des premiers mots pour les sauts de paragraphe aux niveaux majeur et intermédiaire. Il convient de noter que de est la conjonction écrasante de choix pour commencer les paragraphes principaux. Ceci est similaire au résultat que Levinsohn a trouvé en analysant les conjonctions dans le livre des Actes, où il a découvert que de était utilisé pour connecter les segments principaux qu'il a étiquetés unités de développement (1987, 83-96). Le mot gar 'pour' signalant une explication à suivre est le deuxième avec six usages. Il est également significatif que 27 (41 %) paragraphes principaux commencent sans aucune conjonction, alors que seulement 2 (7%) paragraphes intermédiaires ne montrent aucune conjonction au début.

MOTS D'INTRODUCTION POUR LES PARAGRAPHES ORTHOGRAPHIQUES
EN I CORINTHIENS

Il ne faut pas trop insister sur le fait que deux mots sont utilisés pour commencer les paragraphes principaux mais pas les paragraphes intermédiaires. Cela peut seulement signifier qu'ils ne sont pas utilisés assez souvent dans ce texte pour se produire dans ce rôle. Les quatre mots qui commencent les paragraphes intermédiaires mais pas les paragraphes principaux sont plus significatifs. Il est également possible ici que ce manque soit dû à une rareté d'usage. Cependant, les concepts de conséquence ( dio et ouv 'donc') et d'alternative ( h 'ou') qu'incarnent trois des mots suggèrent des idées subordonnées à suivre et sont donc peut-être attendus à un niveau intermédiaire. Quoi qu'il en soit, il est intéressant de noter que oun 'donc' commence trois paragraphes intermédiaires mais pas de paragraphes principaux.

Avantages de l'analyse de la structure constitutive

L'étude des paragraphes orthographiques, bien qu'utile, ne peut amener l'analyste du discours que si loin dans le discours. En général, ces paragraphes sont le résultat de suppositions intuitives des éditeurs et des traducteurs plutôt que d'être basés sur une quelconque analyse structurelle.Pour vraiment examiner la structure du paragraphe en profondeur, il faut se tourner vers une étude des relations entre les paragraphes insérés récursivement. Louw a noté, « en général tout discours total qui est plus long qu'un paragraphe doit évidemment être analysé principalement en termes de relations entre les paragraphes constitutifs » (1982, 98).

Il existe de nombreuses façons d'analyser ces relations dans un texte du point de vue des particules. Mais l'analyse de la structure des constituants présente certains avantages par rapport aux autres méthodes d'analyse. Premièrement, il concentre l'analyse sur le rôle, la relation de base entre les unités de niveau supérieur. L'analyste est obligé d'identifier le rôle que joue chaque unité dans le discours et l'unité primaire à laquelle elle se rapporte. Deuxièmement, il montre clairement le niveau d'intégration de chaque unité dans le discours. Un aperçu montre également le niveau d'intégration, mais l'intégration est basée sur des sujets et des sous-sujets plutôt que sur les relations entre les unités. L'analyse de la structure constitutive, quant à elle, se concentre sur la hiérarchie grammaticale ainsi que sur le conceptuel. Troisièmement, il prend en compte le type de texte et les caractéristiques structurelles des unités (telles que le parallélisme, les formes de questions et les présentations cycliques et chiastiques) à l'étude. Quatrièmement, il trace suffisamment de variables pour permettre à l'analyste de catégoriser les types de paragraphes par type de branchement, niveau d'intégration et type de texte. Et enfin, cela permet à l'analyste de relier les résultats à un graphique de niveau de saillance et de formuler une théorie du classement des verbes pour un texte donné. Lorsque suffisamment de textes ont été analysés, cela permet à l'analyste de formuler des théories sur les niveaux de saillance et le classement des verbes pour différents types de texte et même genres.

Structure des paragraphes constitutifs

Maintenant, les relations entre les paragraphes ne sont pas toujours ouvertement marquées. Au contraire, elles ne sont souvent inhérentes qu'au sens des paragraphes. Pour cette raison, Young, Becker et Pike parlent d'une intrigue généralisée comme « une séquence de créneaux sémantiques » (1970, 319). À un niveau inférieur, on peut également dire que les paragraphes présentent des intrigues (Young, Becker et Pike 1970, 320). Ces tracés sont souvent marqués sur la structure de surface d'un texte par ce qu'on peut appeler indices de l'intrigue. Les indices d'intrigue sont des mots et des phrases qui « indiquent la relation d'une unité linguistique à une autre au sein d'une intrigue spécifique ou de surface » (Young, Becker et Pike 1970, 322). Maintenant depuis le terme parcelle est généralement réservé au type de texte narratif, il est peut-être préférable de se référer à ces marqueurs manifestes comme indices relationnels. Si le paragraphe B est une instance du paragraphe A, il peut très bien commencer par un indice relationnel tel que par example ou alors par exemple. Si le paragraphe B contient une cause pour le paragraphe A ou une raison pour cela, les indices relationnels car, puisque, donc, ou alors En conséquence peut être trouvée dans le texte (Young, Becker et Pike 1970, 322).

Mais même là où de tels marqueurs manifestes n'existent pas, les relations sémantiques entre les paragraphes qu'ils signifient existent. En commentant un diagramme arborescent de structure relationnelle Beekman-Callow de I John, Miehle a noté : « Même aux niveaux inférieurs de la structure, j'ai été davantage motivé par la structure sémantique que par la structure grammaticale » (1981 : 105). C'est là que le tagmeme à quatre cellules de Pike défini dans le premier chapitre de cette étude devient un outil utile. La troisième cellule est celle du rôle, une reconnaissance que la grammaire est plus qu'une syntaxe, elle contient un élément de sémantique même au sein de sa structure.

Par exemple, en grec la catégorie voix est utilisé pour distinguer actif, intermédiaire et passif. Ces catégories ne se réfèrent pas seulement à des formes structurelles, mais à des relations sémantiques au sein des phrases dans lesquelles elles sont utilisées. Or, même lorsque la structure du milieu et du passif est la même, les rapports signifiés par le milieu et le passif sont tout à fait différents. De plus, ces relations sont grammaticales, pas simplement conceptuelles. Il existe une différence sémantique significative, mais pas une différence conceptuelle ultime, entre « La clé a tourné dans la serrure » ​​et « La clé a été tournée dans la serrure ». Dans les deux cas, le locuteur et l'auditeur peuvent conceptualiser une personne qui tourne la clé, même si aucune phrase ne le précise. La différence sémantique est entièrement due à la grammaire, et non à l'image conceptuelle tracée par le choix des mots. L'inclusion du rôle par Pike dans le tagmeme grammatical permet à cet élément sémantique d'être présenté comme une partie intégrante de la grammaire, soulignant ainsi son idée que les unités devraient être traitées comme des composites forme-sens (1982, 111-113).

Longacre a poussé ce concept un peu plus loin en analysant les tagmemes de paragraphe à deux cellules avec ce qui peut être considéré comme Rôle:Classe au lieu du traditionnel Slot:Class. Ceci est cohérent avec le tagmeme à deux cellules puisqu'à l'origine, les deux étaient combinés (par exemple, Slot pouvait être rempli par sujet-acteur, où acteur est un Rôle Pike 1982, 77). Le rôle semble être plus important dans la détermination de la relation que ne le fait la fente. Longacre a donné un traitement assez détaillé de cette méthode d'analyse (1970 1980). Il est bien illustré pour un texte biblique dans son analyse de I John (1983a) et dans le quatrième chapitre de son livre Joseph (1989a, 83-118), une analyse du texte hébreu de Genèse 37 et 39-48.

Plusieurs des différents types de paragraphes qui ont été identifiés à ce jour en fonction du rôle sont répertoriés dans le tableau 10. La terminologie dans le tableau est généralement celle de Longacre, qui étiquette la tête ou le noyau du paragraphe le thèse, bien qu'à une certaine époque il ait utilisé le terme texte pour certaines unités (1989a, 83-118). Toujours à la suite de Longacre (1989b, 450-458), sa terminologie antérieure pour les éléments constitutifs du paragraphe de séquence a été modifiée ici de Build-up (BU) à Sequential Thesis (SeqT). Le terme accumulation s'applique mieux au matériel narratif avant le point culminant, mais même dans ce matériel, un élément de la séquence peut ne pas construire le scénario. De la même manière, le paragraphe de coordonnées est parfois analysé comme deux items plutôt que deux thèses (Longacre 1989a, 116). Les paragraphes d'amplification et de clarification sont similaires, mais le premier donne simplement des informations supplémentaires, tandis que le second le fait afin de clarifier la thèse. Clenendon (1989, 131) a étiqueté le paragraphe de preuve le paragraphe d'attestation. Mais la terminologie suivie ici est actuelle et compréhensible.

La plupart des entrées du tableau 10 sont répertoriées comme des paragraphes de branchement à droite, c'est-à-dire des paragraphes dans lesquels la thèse vient en premier. Les exceptions sont le paragraphe de condition et le paragraphe de citation, qui sont tous deux des branches à gauche, c'est-à-dire les paragraphes dans lesquels la thèse vient en dernier. Il s'agit de l'ordre normal (non marqué) pour ces paragraphes, mais il est possible que les types de paragraphes qui sont normalement à ramification droite soient ramifiés à gauche et vice versa. Il y a trois autres possibilités énumérées dans le Tableau 10. Bien qu'il puisse avoir une introduction comme branche gauche, le paragraphe simple est souvent sans une telle branche, n'ayant qu'une tête ou un noyau. Ensuite, le paragraphe de coordonnées, le paragraphe de dialogue et le paragraphe simultané sont généralement à double titre, bien qu'ils puissent avoir plusieurs titres. Enfin, le paragraphe de séquence est généralement à en-têtes multiples.

De plus, les paragraphes peuvent être classés selon des caractéristiques structurelles telles que celles illustrées dans (29) à (36). Suivant la terminologie de Longacre, le paragraphe question-réponse peut être appelé question-réponse rhétorique ou simplement rhétorique pour faire court, le paragraphe question-commande appelé commande rhétorique, le paragraphe chiastique appelé chiastique, et le paragraphe parallèle intitulé parallèle (1979b, 131). Lorsque les paragraphes ont une structure de commande rhétorique et rhétorique, ils deviennent souvent des ramifications à gauche. Longacre a également identifié devis en cours d'exécution et cyclique paragraphes comme d'autres exemples de ce qu'il appelle stylistique types (1979b, 131). Un paragraphe peut donc être identifié par une combinaison de son type structurel stylistique, de sa direction de branchement, de son type de texte et de sa relation de rôle de base, comme indiqué dans le tableau 10.

Des illustrations de cette méthode d'analyse sont données dans les tableaux 11 (pour I Cor. 1:10-17), 12 (pour I Cor. 2:6-16), 13 (pour I Cor. 3:10-15), 14 (pour I Cor. 6:12-20), et 15 (pour I Cor. 10:23-11:1). Ce sont tous des paragraphes majeurs selon l'étude des paragraphes orthographiques faite ci-dessus.

TYPES DE PARAGRAPHES BASÉS SUR LE RLE

Mais cette méthode d'analyse fournit une image beaucoup plus claire des relations, du niveau d'intégration et même des limites entre les paragraphes qu'une étude des paragraphes orthographiques. Par exemple, le tableau 6 montre des paragraphes mineurs commençant à 2:10 et 2:14 cependant, le tableau 12 montre que 2:10 est en fait un endroit où une série de paragraphes de branchement à droite se termine et la relation revient à un paragraphe de niveau supérieur. De la même manière, 2:14 est la seconde moitié d'un paragraphe antithétique, et le contraste s'est avéré un bon endroit pour marquer un paragraphe orthographique. L'analyse montre également que 2:10b n'est pas un endroit idéal pour marquer un paragraphe orthographique (comme l'ont fait la NIV et l'ONE) car cela obscurcit les relations.

Les sections d'échantillon analysées dans les tableaux 11 à 15 ont été choisies pour donner une section transversale de matériel provenant de différents types de texte. Le tableau 11 montre une combinaison de types de texte, le tableau 12 montre un texte de type de texte principalement persuasif, le tableau 13 a un texte de type de texte principalement explicatif, et les tableaux 14 et 15 sont principalement de type de texte exhortatif. L'attribution du type de texte ici est arbitraire, basée sur une évaluation intuitive de l'objectif. Une représentation graphique du type de texte de cet auteur est présentée à l'annexe A. Les sections analysées ont également été choisies à partir de documents qui ne sont pas de nature pic, de sorte que tout changement dans les marqueurs grammaticaux dû au pic ne sera pas un facteur. Peak sera discuté plus en détail dans le prochain chapitre de cette étude.


Nucléaire

Lisez les déclarations/questions suivantes. Vous devriez être en mesure de répondre à toutes ces questions après avoir lu le contenu de cette page. Je suggère d'écrire ou de taper vos réponses, mais à tout le moins, dites-les à haute voix.

L'énergie nucléaire est un sujet brûlant depuis très longtemps, tant au niveau national qu'international. Il fournit une partie importante de l'approvisionnement mondial en électricité, comme vous le verrez dans l'image ci-dessous.

Fournir

Comme vous vous en souvenez (espérons-le) de la leçon 1, l'énergie nucléaire n'est pas renouvelable. L'uranium est de loin le combustible nucléaire le plus utilisé, bien qu'il existe des alternatives possibles (comme le thorium). Comme pour les autres combustibles non renouvelables, tout l'uranium qui se trouve actuellement sur terre est tout ce que nous aurons jamais, et des estimations peuvent être faites sur les ressources récupérables restantes. Comme vous le verrez dans l'article ci-dessous, aux rythmes de consommation actuels, nous ne serons pas à court d'uranium de sitôt. Mais - au risque de ressembler à un record battu - cela dépend très fortement d'un certain nombre de variables, notamment le maintien de la consommation aux niveaux actuels, l'arrêt de la technologie, l'évolution des estimations des réserves, etc. Si, par exemple, nous agitions une baguette magique et doublions la production nucléaire demain, les réserves estimées dureraient deux fois moins longtemps.

La World Nuclear Association (WNA), une association industrielle, fournit une explication très détaillée des facteurs de complication possibles, mais elle déclare qu'aux taux actuels de consommation, le monde a suffisamment de réserves pour durer environ 90 ans. L'Agence pour l'énergie nucléaire (AEN), comme la WNA, est effectivement un groupe industriel et dispose d'une vaste expertise. Il opère à partir de l'OCDE (vous vous en souvenez de la leçon 1 ?) à Paris. C'est un groupe pro-nucléaire mais très bon pour fournir des données techniques, ainsi que des statistiques. Ils indiquent qu'en 2018, le monde disposait d'environ 130 ans d'approvisionnement en uranium.

Lecture facultative

L'auteur de l'article ci-dessous fournit un certain nombre de raisons pour lesquelles l'énergie nucléaire ne pas jouer un rôle important dans l'avenir énergétique mondial.

Faisabilité

La première centrale nucléaire a été mise en service en 1954 en Russie (alors Union soviétique), et selon l'Association nucléaire mondiale, il y a 443 réacteurs dans le monde et 53 autres en construction. La technologie est désormais bien connue, et malgré le danger extrême posé par les fusions nucléaires, il y a eu très peu d'incidents majeurs. Vous connaissez probablement l'effondrement de Fukushima Daichi qui s'est produit en 2011, et vous avez peut-être entendu parler de Tchernobyl en Ukraine en 1986 (toujours la pire catastrophe nucléaire à ce jour), et peut-être même de Three Mile Island aux États-Unis en 1978. Voici un aperçu partiel liste des accidents nucléaires de l'histoire de l'Union of Concerned Scientists (UCS).

Mais mis à part ce risque pour le moment, l'énergie nucléaire s'est révélée être une source d'électricité viable et continuera probablement à être utilisée dans un avenir prévisible. Entre autres choses, les centrales nucléaires ont généralement une durée de vie utile d'environ 40 à 60 ans, nous sommes donc "enfermés" jusqu'au milieu du siècle au moins. Cela dit, en augmentant l'utilisation de la technologie nucléaire d'aujourd'hui poserait probablement certains problèmes, pour diverses raisons. L'article ci-dessous résume ces raisons et quelques autres pour et contre l'énergie nucléaire.

Problèmes de durabilité

Bon, maintenant pour la partie amusante. L'énergie nucléaire est un sac mélangé en termes de question de durabilité. Le plus grand dilemme pour ceux qui sont préoccupés par le changement climatique anthropique mais sceptiques à l'égard du nucléaire est que l'énergie nucléaire est considérée comme une source sans carbone, et puisqu'elle est responsable d'une partie importante de la production d'électricité à base de combustibles non fossiles dans le monde et est un produit éprouvé et fiable. source, il est considéré par beaucoup comme une bonne option. Notez que bien qu'elle soit considérée comme « sans carbone », l'énergie nucléaire entraîne certains émissions du cycle de vie à cause des matériaux utilisés dans l'exploitation minière, la construction de la centrale électrique, etc. (Les émissions du cycle de vie sont toutes les émissions générées par tous les processus nécessaires à la fabrication d'une source d'énergie, y compris l'extraction de matériaux, la fabrication d'équipements et l'exploitation d'équipements.) Mais selon le National Renewable Energy Laboratory (NREL), un laboratoire national américain , il a approximativement les mêmes émissions de cycle de vie que les sources d'énergie renouvelables.

L'énergie nucléaire est une source d'électricité très fiable, et les centrales électriques peuvent fonctionner à presque pleine capacité de manière constante. Une fois qu'une usine est construite, l'électricité est relativement peu coûteuse à produire. Mais l'énergie nucléaire est très chère en termes de coûts à vie (comme vous le verrez dans l'article ci-dessous), et les déchets des réacteurs nucléaires peuvent rester dangereux pendant des milliers d'années, ce qui peut entraîner d'importantes externalités. Puisqu'ils sont si chers, il y a une incitation à garder une usine en ligne aussi longtemps que possible pour récupérer les coûts, ainsi les gens sont effectivement "enfermés" une fois qu'une usine est construite. Il y a bien sûr le risque d'une autre catastrophe, qui, si rare soit-elle, pourrait être catastrophique. Il y a aussi des problèmes avec les impacts sur l'équité de l'uranium, en particulier en termes d'exploitation minière. Il n'y a pas de réponse facile ici, car il y a des avantages et des inconvénients raisonnables et solides.

À lire maintenant

Le premier article ci-dessous est un bon exemple de pourquoi il vaut la peine de prêter attention aux citations et d'être bien informé sur un sujet, en ce qui concerne la recherche de bonnes sources d'information. L'article se trouve sur un site Web dont je n'avais jamais entendu parler auparavant, donc au début, je me méfiais du contenu. Cependant, ils fournissent des sources légitimes pour les informations présentées, et j'ai suffisamment de connaissances préalables pour savoir que les arguments qu'ils avancent sont légitimes. Dans l'ensemble, c'est un bon résumé de certains des avantages et des inconvénients de l'énergie nucléaire, même si j'ai quelques problèmes mineurs avec le contenu, comme je le décrirai ci-dessous. (Voyez si vous pouvez comprendre ce avec quoi je suis en désaccord.)

  • "Avantages et inconvénients de l'énergie nucléaire." ComprendreSolar.com
  • (Facultatif) "Impossible de rivaliser sur les prix, l'énergie nucléaire est en déclin aux États-Unis." Brian Mann, PRI.
  • (Facultatif) "Nucléaire, sans carbone mais pas de malaise." Fontaine Henry, New York Times.
  • (Facultatif) "L'énergie nucléaire prévient plus de décès qu'elle n'en cause." Mark Schrope, Chemical, and Engineering News.

Avez-vous deviné les deux problèmes que j'ai avec le premier article? Premièrement, l'auteur qualifie le nucléaire de source d'énergie très « efficace ». Si vous vous souvenez des leçons précédentes, l'efficacité d'une centrale nucléaire oscille autour de 35%. C'est pourtant dense en énergie (beaucoup d'énergie en volume), ce qu'il qualifie d'« efficace ». (Bien qu'il mentionne également la densité d'énergie, ce qui prête à confusion.) Le deuxième problème - et plus subtil - que j'ai est l'affirmation selon laquelle le nucléaire est une source d'énergie « bon marché ». Cela était clairement indiqué dans le deuxième article (si vous le lisez) mais est également affirmé par l'EIA. Les centrales nucléaires sont peu coûteuses à exploiter une fois construits, mais ils sont extrêmement coûteux à construire. L'auteur passe sous silence cette partie, mais c'est une considération vraiment importante.

Concernant le coût du nucléaire : Le coût initial élevé fait de l'énergie nucléaire l'un des types d'électricité les plus chers disponibles. Pour une discussion technique à ce sujet, n'hésitez pas à lire cette description de coût actualisé de l'électricité de l'EIA, qui indique que sur la durée de vie de la source d'énergie, le nucléaire est plus cher que la géothermie, l'éolien terrestre, le solaire, l'hydroélectricité et la plupart des types de centrales au gaz naturel.

Résumé

Le nucléaire est un sac mélangé. Résumer:

  • Le nucléaire est fiable et presque sans carbone, mais n'est pas renouvelable.
  • Le nucléaire est relativement peu coûteux à exploiter une fois établi, mais le coût initial élevé en fait l'une des sources d'électricité les plus chères.
  • Parce que les centrales électriques sont si chères à construire, une fois qu'elles sont construites, elles sont généralement utilisées aussi longtemps que possible, aussi longtemps qu'elles peuvent être exploitées de manière rentable. (Je dois récupérer cet investissement !) Nous sommes effectivement « enfermés » une fois qu'ils sont construits.
  • Lorsque des accidents surviennent, ils peuvent être catastrophiques, mais ils sont extrêmement rares.
  • Les déchets des centrales nucléaires sont dangereux pendant des milliers d'années, et à l'heure actuelle, nous n'avons aucun moyen de les éliminer en toute sécurité - ils sont stockés, généralement dans les centrales elles-mêmes. Cela ne s'est pas encore avéré être un problème majeur, mais la société sera confrontée aux déchets pendant des milliers d'années.

Le nucléaire est une source d'énergie très controversée. Il est adopté par beaucoup comme la clé d'un avenir sans carbone, alors que beaucoup pensent que nous devrions nous en éloigner en raison de son danger inhérent et/ou de ses dépenses et/ou de problèmes généraux de durabilité. Il y a des arguments à faire valoir de chaque côté. J'espère que vous aurez une meilleure maîtrise de certains d'entre eux après avoir lu ceci.

Vérifie ta compréhension

Pourquoi sommes-nous « enfermés » dans l'utilisation de l'énergie nucléaire une fois qu'une centrale est construite ?

Facultatif (mais fortement suggéré)

Maintenant que vous avez terminé le contenu, je vous suggère de parcourir la liste d'auto-vérification des objectifs d'apprentissage en haut de la page.


MESSAGES CLÉ

Message clé 1 : Changements observés dans le climat mondial

Le climat mondial change rapidement par rapport au rythme des variations naturelles du climat qui se sont produites tout au long de l'histoire de la Terre. La température moyenne mondiale a augmenté d'environ 1,8 ° F de 1901 à 2016, et les preuves d'observation ne soutiennent aucune explication naturelle crédible pour cette quantité de réchauffement, à la place, les preuves indiquent systématiquement les activités humaines, en particulier les émissions de gaz à effet de serre ou de piégeage de chaleur, comme cause dominante. (Très haute confiance)

Description de la base de preuves

Le message clé et le texte à l'appui résument de nombreuses preuves documentées dans la littérature scientifique sur le climat et sont similaires aux déclarations faites dans les précédentes évaluations nationales (NCA3) 1 et internationales 249. Les effets humains sur le climat ont été bien documentés dans de nombreux articles de la littérature scientifique évaluée par des pairs (par exemple, voir Fahey et al. 2017 18 et Knutson et al. 2017 16 pour plus de détails sur les preuves à l'appui).

La découverte d'un forçage positif de plus en plus fort au cours de l'ère industrielle est étayée par les augmentations observées des températures atmosphériques (voir Wuebbles et al. 2017 10 ) et par les augmentations observées des températures océaniques. 10 , 57 , 76 L'attribution du changement climatique aux activités humaines est étayée par des modèles climatiques, qui sont capables de reproduire les tendances de température observées lorsque le forçage radiatif des activités humaines est inclus et s'écartent considérablement des tendances observées lorsque seuls les forçages naturels sont inclus (Wuebbles et Al. 2017 Knutson et al. 2017, Figure 3.1 10 , 16 ).

Des incertitudes majeures

Les principales incertitudes restantes concernent l'ampleur et la nature précises des changements à l'échelle mondiale, et en particulier régionale, et en particulier pour les événements extrêmes et notre capacité à simuler et à attribuer de tels changements à l'aide de modèles climatiques. Les effets exacts des changements d'affectation des terres par rapport aux effets des émissions de gaz à effet de serre doivent être mieux compris.

La plus grande source d'incertitude dans le forçage radiatif (à la fois naturel et anthropique) au cours de l'ère industrielle est la quantification du forçage par les aérosols. Cette constatation est cohérente avec les évaluations précédentes (p. ex., GIEC 2007, GIEC 2013 249 , 250 ).

Des travaux récents ont mis en évidence le rôle potentiellement plus important des variations de l'irradiance solaire ultraviolette, par rapport à l'irradiance solaire totale, dans le forçage solaire. Cependant, cette augmentation de l'incertitude du forçage solaire n'est pas suffisamment importante pour réduire la confiance que les activités anthropiques dominent le forçage de l'ère industrielle.

Description de la confiance et de la probabilité

Il y a très grande confiance pour une influence humaine majeure sur le climat.

Les évaluations des forçages naturels des changements d'irradiance solaire et de l'activité volcanique montrent avec très grande confiance que les deux forçages sont faibles au cours de l'ère industrielle par rapport au forçage anthropique total. On estime que le forçage anthropique total est devenu plus important et plus positif au cours de l'ère industrielle, tandis que les forçages naturels ne montrent aucune tendance similaire.

Message clé 2 : Changements futurs du climat mondial

Le climat de la Terre continuera de changer au cours de ce siècle et au-delà (très grande confiance). Au milieu du siècle passé, dans quelle mesure les changements climatiques dépendront principalement des émissions mondiales de gaz à effet de serre et de la réponse du système climatique de la Terre au réchauffement induit par l'homme (très grande confiance). Avec des réductions significatives des émissions, l'augmentation de la température mondiale pourrait être limitée à 3,6 °F (2 °C) ou moins par rapport aux températures préindustrielles (grande confiance). Sans réductions significatives, les températures mondiales moyennes annuelles pourraient augmenter de 9 °F (5 °C) ou plus d'ici la fin de ce siècle par rapport aux températures préindustrielles (grande confiance).

Description de la base de preuves

Le message clé et le texte à l'appui résument de nombreuses preuves documentées dans la littérature scientifique sur le climat et sont similaires aux déclarations faites dans les précédentes évaluations nationales (NCA3) 1 et internationales 249. Les projections pour le climat futur ont été bien documentées dans de nombreux articles dans la littérature scientifique évaluée par des pairs (par exemple, voir Hayhoe et al. 2017 24 pour des descriptions des scénarios et des modèles utilisés).

Des incertitudes majeures

Les principales incertitudes restantes concernent l'ampleur et la nature précises des changements à l'échelle mondiale, et en particulier régionale, et en particulier pour les événements extrêmes et notre capacité à simuler et attribuer de tels changements à l'aide de modèles climatiques. Les incertitudes qui subsistent dans la compréhension des rétroactions dans le système climatique, en particulier dans les rétroactions glace-albédo et couverture nuageuse, sont particulièrement importantes. Les améliorations continues de la modélisation climatique pour représenter les processus physiques affectant le système climatique de la Terre visent à réduire les incertitudes. Des programmes de surveillance et d'observation améliorés peuvent également aider à améliorer la compréhension nécessaire pour réduire les incertitudes.

Description de la confiance et de la probabilité

Il y a très grande confiance pour les changements continus du climat et grande confiance pour les niveaux indiqués dans le message clé.

Message clé 3 : réchauffement et acidification des océans

Les océans du monde ont absorbé 93 % de la chaleur excédentaire due au réchauffement induit par l'homme depuis le milieu du XXe siècle et absorbent actuellement plus d'un quart du dioxyde de carbone émis dans l'atmosphère chaque année par les activités humaines, ce qui rend les océans plus chauds et plus acides. (très grande confiance). L'augmentation des températures de surface de la mer, l'élévation du niveau de la mer et l'évolution des régimes de précipitations, de vents, de nutriments et de circulation océanique contribuent à la baisse globale des concentrations d'oxygène dans de nombreux endroitsgrande confiance).

Description de la base de preuves

Le message clé et le texte à l'appui résument les preuves documentées dans la littérature scientifique sur le climat, telles que résumées dans Rhein et al. (2013). 31 Le réchauffement océanique a été documenté dans diverses sources de données, notamment par l'Expérience sur la circulation océanique mondiale (WOCE), 251 Argo, 252 et la température de surface de la mer reconstituée étendue v4 (ERSSTv4). 253 Il existe une confiance particulière dans le réchauffement calculé pour la période depuis 1971 en raison de la couverture spatiale et en profondeur accrue et du niveau de concordance entre les observations indépendantes de la température de la surface de la mer (SST) provenant des satellites, des dériveurs de surface et des navires, et des études indépendantes utilisant des analyses différentes, les corrections de biais et les sources de données. 20 , 33 , 68 D'autres observations telles que l'augmentation de l'élévation du niveau moyen de la mer (voir Sweet et al. 2017 76 ) et la réduction des calottes glaciaires Arctique/Antarctique (voir Taylor et al. 2017 122 ) confirment davantage l'augmentation de la dilatation thermique. Dans le but de prolonger les périodes sélectionnées de 1900 à 2016 et d'analyser les SST régionales américaines, l'ERSSTv4 253 est utilisé. Pour les changements d'échelle de temps du centenaire sur la période 1900-2016, les tendances au réchauffement dans toutes les régions sont statistiquement significatives avec un niveau de confiance de 95 %. Le réchauffement régional de la SST aux États-Unis est similaire entre les calculs utilisant ERSSTv4 dans ce rapport et ceux publiés par Belkin (2016), 254, ce qui suggère une confiance dans ces résultats.

Les preuves des tendances de l'oxygène proviennent de mesures globales approfondies de WOCE après 1989 et de profils individuels avant cela. 43 Les premiers relevés d'oxygène dissous à l'échelle du bassin ont été réalisés dans les années 1920. 255 Le niveau de confiance est basé sur O globalement intégré2 distributions dans une variété de modèles océaniques. Bien que la moyenne mondiale présente une faible variabilité interannuelle, les contrastes régionaux sont importants.

Des incertitudes majeures

Les incertitudes quant à l'ampleur du réchauffement des océans découlent des mesures disparates de la température des océans au cours du siècle dernier. Il y a grande confiance dans les tendances au réchauffement de la température océanique supérieure de 0 à 700 m de profondeur, alors qu'il y a plus d'incertitude pour les profondeurs océaniques plus profondes de 700 à 2 000 m en raison du court enregistrement des mesures de ces zones. Les données sur les tendances au réchauffement à des profondeurs supérieures à 2 000 m sont encore plus rares. Il existe également des incertitudes quant au calendrier et aux raisons des variations décennales et interannuelles particulières du contenu thermique des océans et des contributions que les différents bassins océaniques jouent dans l'absorption globale de chaleur océanique.

Les incertitudes concernant la teneur en oxygène des océans (telle qu'estimée à partir de l'écart intermodèle) dans la moyenne mondiale sont modérées, principalement parce que la teneur en oxygène des océans présente une faible variabilité interannuelle lorsqu'elle est calculée en moyenne à l'échelle mondiale. Les incertitudes concernant les diminutions à long terme de la concentration moyenne mondiale d'oxygène s'élèvent à 25 % dans les 1 000 m supérieurs pour la période 1970-1992 et à 28 % pour la période 1993-2003. Les incertitudes restantes concernent la variabilité régionale entraînée par les tourbillons à mésoéchelle et la variabilité climatique intrinsèque telle qu'ENSO.

Description de la confiance et de la probabilité

Il y a très grande confiance dans des mesures qui montrent des augmentations de la teneur en chaleur de l'océan et du réchauffement de l'océan, sur la base de l'accord de différentes méthodes. Cependant, les données à long terme sur l'absorption totale de chaleur océanique dans les grands fonds sont rares, ce qui conduit à une connaissance limitée du transport de la chaleur entre et à l'intérieur des bassins océaniques.

Une désoxygénation majeure des océans a lieu dans les plans d'eau à l'intérieur des terres, dans les estuaires et dans les zones côtières et océaniques (grande confiance). Au niveau régional, le phénomène est exacerbé par les changements locaux du temps, de la circulation océanique et des apports continentaux aux océans.

Message clé 4 : Élévation du niveau mondial de la mer

Le niveau moyen mondial de la mer a augmenté d'environ 7 à 8 pouces (16 à 21 cm) depuis 1900, avec près de la moitié de cette élévation depuis 1993 à mesure que les océans se sont réchauffés et que la glace terrestre a fondu (très grande confiance). Par rapport à l'an 2000, le niveau de la mer est très susceptible d'augmenter de 0,3 à 1,3 m (1 à 4 pieds) d'ici la fin du siècle (confiance moyenne). La science émergente concernant la stabilité de la calotte glaciaire de l'Antarctique suggère que, pour des scénarios plus élevés, une élévation dépassant 8 pieds (2,4 m) d'ici 2100 est physiquement possible, bien que la probabilité d'un résultat aussi extrême ne puisse actuellement être évaluée.

Description de la base de preuves

De nombreux chercheurs, utilisant différentes approches statistiques, ont intégré des enregistrements de marégraphes pour estimer l'élévation du niveau moyen mondial de la mer (GMSL) depuis la fin du XIXe siècle (par exemple, Church et White 2006, 2011 Hay et al. 2015 Jevrejeva et al. 2009 61 , 73 , 74 , 256 ). Les estimations de taux publiées les plus récentes sont de 1,2 ± 0,2 mm/an 73 ou de 1,5 ± 0,2 mm/an 74 de 1901 à 1990. Ainsi, ces résultats indiquent environ 4 à 5 pouces (11 à 14 cm) d'élévation de la GMSL de 1901 à 1990. Les analyses des marégraphes indiquent que la GMSL a augmenté à un rythme considérablement plus rapide d'environ 0,12 pouce/an (3 mm/an) depuis 1993. , 73 , 74 un résultat étayé par des données satellitaires indiquant une tendance de 0,13 pouce/an (3,4 ± 0,4 mm/an) de 1993 à 2015 (mise à jour de Nerem et al. 2010 75 voir aussi Sweet et al. 2017, 57 Figure 12.3 une). Ces résultats indiquent une augmentation supplémentaire de la GMSL d'environ 3 pouces (7 cm) depuis 1990. Ainsi, l'augmentation totale de la GMSL depuis 1900 est d'environ 7 à 8 pouces (18 à 21 cm).

La conclusion concernant le contexte historique du changement du 20e siècle est basée sur Kopp et al. (2016), 58 qui ont mené une méta-analyse des reconstructions géologiques du niveau régional de la mer (RSL), couvrant les 3 000 dernières années, à partir de 24 emplacements dans le monde, ainsi que des données marégraphiques de 66 sites et des données marégraphiques basées sur les marégraphes. La reconstruction GMSL de Hay et al. (2015). 73 En construisant un modèle statistique spatio-temporel de ces ensembles de données, ils ont identifié le signal global commun du niveau de la mer au cours des trois derniers millénaires, et ses incertitudes. Ils ont trouvé une probabilité de 95 % que le taux moyen de changement de la GMSL entre 1900 et 2000 était supérieur à celui de n'importe quel siècle précédent sur au moins 2 800 ans.

La borne inférieure de la très probable La fourchette est basée sur la poursuite du taux d'augmentation de la GMSL observé, d'environ 3 mm/an. L'extrémité supérieure du très probable La fourchette est basée sur des estimations pour un scénario plus élevé (RCP8.5) à partir de trois études produisant des projections entièrement probabilistes sur plusieurs RCP. Kopp et al. (2014) 77 ont fusionné de multiples sources d'informations expliquant les différents processus individuels contribuant à l'augmentation de la GMSL. Kopp et al. (2016) 58 ont construit un modèle semi-empirique du niveau de la mer calibré sur la reconstruction du niveau de la mer de l'ère commune. Mengel et al. (2016) 257 ont construit un ensemble de modèles semi-empiriques des différents processus contributeurs. Les trois études montrent une dépendance au scénario négligeable au cours de la première moitié de ce siècle, mais une importance croissante dans la seconde moitié du siècle. Une étude de sensibilité de Kopp et al. (2014), 77 ainsi que les études de Jevrejeva et al. (2014) 78 et par Jackson et Jevrejeva (2016), 258 ont utilisé des cadres similaires à ceux de Kopp et al. (2016) 58, mais a incorporé une étude d'élicitation d'experts sur la stabilité de la calotte glaciaire. 259 (Cette étude a été incorporée dans les principaux résultats de Kopp et al. 2014 77 avec des ajustements pour la cohérence avec Church et al. 2013. 56 ) Ces études étendent le très probable gamme pour RCP8.5 aussi haut que 5–6 pieds (160–180 cm voir Kopp et al. 2014, étude de sensibilité Jevrejeva et al. 2014 Jackson et Jevrejeva 2016). 77 , 78 , 258

Comme décrit dans Sweet et al. (2017), 57 Miller et coll. (2013), 260 et Kopp et al. (2017), 77 plusieurs arguments existent qui soutiennent un scénario plausible d'augmentation de la GMSL dans le pire des cas dans la plage de 2,0 m à 2,7 m d'ici 2100. Pfeffer et al. (2008) 261 ont construit un scénario de 2,0 m dans le « pire des cas », basé sur l'accélération de la perte de masse du Groenland, qui supposait une contribution de 30 cm GMSL de la dilatation thermique. Cependant, Sriver et al. (2012) 262 trouvent une limite supérieure physiquement plausible pour une dilatation thermique supérieure à 50 cm (une limite supplémentaire

Contribution maximale de 60 cm d'ici 2100 de l'Antarctique dans Pfeffer et al. (2008) 261 pourrait être dépassé de

30 cm, en supposant le 95e centile pour le taux de fonte de l'Antarctique (

22 mm/an) de l'étude d'élicitation par les experts de Bamber et Aspinall (2013) 259 est atteint d'ici 2100 grâce à une croissance linéaire du taux de fonte. Le Pfeffer et al. (2008) 261 étude n'incluait pas la possibilité d'une diminution nette du stockage de l'eau dans les terres en raison du prélèvement d'eau souterraine Church et al. (2013) 56 trouvent une contribution probable du stockage terre-eau à l'augmentation de la GMSL au 21e siècle de -1 cm à +11 cm. Ces arguments indiquent tous la plausibilité physique d'une élévation de la GMSL supérieure à 8 pieds (240 cm).

Des arguments supplémentaires proviennent des résultats du modèle examinant les effets de l'effondrement des falaises de glace marines et de la fracturation hydraulique de la plate-forme de glace sur les taux de perte en Antarctique. 80 Pour estimer l'effet de l'incorporation des projections de DeConto et Pollard (2016) 80 de la fonte de la calotte glaciaire de l'Antarctique, Kopp et al. (2017) 81 ont substitué l'ensemble corrigé des biais de DeConto et Pollard 80 dans le Kopp et al. (2014) 77 cadre. Cela élève les projections pour 2100 à 3,1 à 8,9 pieds (93 à 243 cm) pour RCP8.5, 1,6 à 5,2 pieds (50 à 158 cm) pour RCP4.5 et 0,9 à 3,2 pieds (26 à 98 cm) pour RCP2 .6. DeConto et Pollard 80 ne sont qu'une étude, non conçue de manière à produire des projections probabilistes, et ces résultats ne peuvent donc pas être utilisés pour attribuer une probabilité qu'ils soutiennent toutefois la plausibilité physique d'une élévation de la GMSL supérieure à 8 pieds.

Plages très probables, 2030 par rapport à 2000 en cm (pieds)

Kopp et al. (2014) 77 Kopp et al. (2016) 58 Kopp et al. (2017) 81 DP16 Mengel et al. (2016) 257
RCP8.5 (supérieur) 11–18 (0.4–0.6) 8–15 (0.3–0.5) 6–22 (0.2–0.7) 7–12 (0.2–0.4)
RCP4.5 (inférieur) 10–18 (0.3–0.6) 8–15 (0.3–0.5) 6–23 (0.2–0.8) 7–12 (0.2–0.4)
RCP2.6 (très faible) 10–18 (0.3–0.6) 8–15 (0.3–0.5) 6–23 (0.2–0.8) 7–12 (0.2–0.4)

Plages très probables, 2050 par rapport à 2000 en cm (pieds)
Kopp et al. (2014) 77 Kopp et al. (2016) 58 Kopp et al. (2017) 81 DP16 Mengel et al. (2016) 257
RCP8.5 (supérieur) 21–38 (0.7–1.2) 16–34 (0.5–1.1) 17–48 (0.6–1.6) 15–28 (0.5–0.9)
RCP4.5 (inférieur) 18–35 (0.6–1.1) 15–31 (0.5–1.0) 14–43 (0.5–1.4) 14–25 (0.5–0.8)
RCP2.6 (très faible) 18–33 (0.6–1.1) 14–29 (0.5–1.0) 12–41 (0.4–1.3) 13–23 (0.4–0.8)

Plages très probables, 2100 par rapport à 2000 en cm (pieds)
Kopp et al. (2014) 77 Kopp et al. (2016) 58 Kopp et al. (2017) 81 DP16 Mengel et al. (2016) 257
RCP8.5 (supérieur) 55–121 (1.8–4.0) 52–131 (1.7–4.3) 93–243 (3.1–8.0) 57–131 (1.9–4.3)
RCP4.5 (inférieur) 36–93 (1.2–3.1) 33–85 (1.1–2.8) 50–158 (1.6–5.2) 37–77 (1.2–2.5)
RCP2.6 (très faible) 29–82 (1.0–2.7) 24–61 (0.8–2.0) 26–98 (0.9–3.2) 28–56 (0.9–1.8)

Des incertitudes majeures

Les incertitudes dans le changement GMSL reconstruit sont liées à la rareté des enregistrements marégraphiques, en particulier avant le milieu du 20ème siècle, et à différentes approches statistiques pour estimer le changement GMSL à partir de ces enregistrements clairsemés. Les incertitudes dans le changement GMSL reconstruit avant le vingtième siècle sont également liées à la rareté des proxys géologiques pour le changement du niveau de la mer, l'interprétation de ces proxys et la datation de ces proxys. L'incertitude dans l'attribution est liée à la reconstruction des changements passés et à l'ampleur de la variabilité non forcée.

Depuis NCA3, plusieurs approches différentes ont été utilisées pour générer des projections probabilistes de l'augmentation de la GMSL, conditionnelles aux RCP. Ces approches sont en accord général. Cependant, de nouveaux résultats indiquent que les secteurs marins de la calotte glaciaire de l'Antarctique sont plus instables que la modélisation précédente ne l'indiquait. Le taux de changements de masse de la calotte glaciaire reste difficile à prévoir.

Description de la confiance et de la probabilité

Ce message clé est basé sur de multiples analyses d'enregistrements de marégraphes et d'altimétrie satellitaire, sur une méta-analyse de plusieurs indicateurs géologiques du changement pré-instrumental du niveau de la mer, et sur des analyses à la fois statistiques et physiques de la contribution humaine à l'élévation de la GMSL depuis 1900.

Il est également basé sur de multiples méthodes d'estimation de la probabilité d'un changement futur du niveau de la mer et sur de nouveaux résultats de modélisation concernant la stabilité de la glace marine en Antarctique.

La confiance est très haut du taux d'élévation de la GMSL depuis 1900, sur la base de plusieurs approches différentes pour estimer l'élévation de la GMSL à partir des marégraphes et de l'altimétrie par satellite. La confiance est haute dans la contribution humaine substantielle à l'augmentation de la GMSL depuis 1900, basée sur des preuves de modélisation statistique et physique. Il y a confiance moyenne que l'ampleur de l'augmentation observée depuis 1900 est sans précédent dans le contexte des 2 700 années précédentes, sur la base d'une méta-analyse d'enregistrements géologiques indirects.

Il y a très haut confiance que la hausse de la GMSL au cours des prochaines décennies sera au moins aussi rapide que ne le laisserait penser la poursuite de la tendance historique au cours du dernier quart de siècle. Il y a confiance moyenne dans la limite supérieure des fourchettes très probables pour 2030 et 2050. En raison d'éventuelles contributions importantes de la calotte glaciaire, il y a faible confiance dans la limite supérieure des fourchettes très probables pour 2100. Sur la base de plusieurs méthodes de projection, il y a grande confiance que les différences entre les scénarios sont faibles avant 2050 mais significatives au-delà de 2050.

Message clé 5 : Augmentation des températures aux États-Unis

La température moyenne annuelle sur les États-Unis contigus a augmenté de 1,2 °F (0,7 °C) au cours des dernières décennies et de 1,8 °F (1 °C) par rapport au début du siècle dernier (très grande confiance). Des augmentations supplémentaires de la température moyenne annuelle d'environ 2,5 °F (1,4 °C) sont attendues au cours des prochaines décennies, quelles que soient les émissions futures, et des augmentations allant de 3 °F à 12 °F (1,6 ° à 6,6 °C) sont attendues d'ici la fin du siècle, selon que le monde suit un scénario futur plus ou moins élevé, avec des changements proportionnellement plus importants dans les extrêmes de haute température (grande confiance).

Description de la base de preuves

Le message clé et le texte à l'appui résument de nombreuses preuves documentées dans la littérature scientifique sur le climat.Des déclarations similaires sur les changements existent dans d'autres rapports (par exemple, NCA3, 1 Impacts du changement climatique aux États-Unis, 263 SAP 1.1 : Tendances de la température dans la basse atmosphère). 264

Les preuves des changements climatiques aux États-Unis découlent de multiples analyses de données provenant d'enregistrements in situ, satellitaires et autres entreprises par de nombreux groupes sur plusieurs décennies. Le principal ensemble de données pour les températures de surface aux États-Unis est nClimGrid, 85 , 152, bien que les tendances soient similaires dans le U.S. Historical Climatology Network, le Global Historical Climatology Network et d'autres ensembles de données. Plusieurs réanalyses atmosphériques (par exemple, 20th Century Reanalysis, Climate Forecast System Reanalysis, ERA-Interim et Modern Era Reanalysis for Research and Applications) confirment un réchauffement rapide à la surface depuis 1979, et les tendances observées suivent de près la moyenne d'ensemble des réanalyses. 265 Plusieurs ensembles de données satellitaires récemment améliorés documentent les changements dans les températures de la troposphère moyenne. 7, 266 Les changements à plus long terme sont décrits à l'aide de plusieurs analyses paléo (par exemple, Trouet et al. 2013, Wahl et Smerdon 2012). 86 , 267

Les preuves des changements climatiques aux États-Unis découlent de multiples analyses de données in situ à l'aide d'indices d'extrêmes climatiques largement publiés. Pour les analyses présentées ici, la source des données in situ est le Global Historical Climatology Network–Daily dataset. 268 Les changements dans les extrêmes ont été évalués à l'aide de stations à long terme avec un minimum de données manquantes pour éviter la variabilité induite par le réseau sur la série chronologique à long terme. La fréquence des vagues de froid a été quantifiée à l'aide du Cold Spell Duration Index, 269 la fréquence des vagues de chaleur a été quantifiée à l'aide du Warm Spell Duration Index 269 et l'intensité des vagues de chaleur a été quantifiée à l'aide du Heat Wave Magnitude Index Daily. 270 Les valeurs d'indice basées sur les stations ont été moyennées dans des cases de grille de 4°, qui ont ensuite été moyennées par zone dans une série chronologique pour les États-Unis contigus. Notez qu'une variété d'autres indices basés sur des seuils et des centiles ont également été évalués, avec des résultats cohérents (par exemple, le Dust Bowl était systématiquement la période de pointe pour la chaleur extrême). Les changements de températures record ont été quantifiés, comme dans Meehl et al. (2016). 13

Les projections sont basées sur les résultats du modèle global et les produits à échelle réduite associés du CMIP5 pour un scénario inférieur (RCP4.5) et un scénario supérieur (RCP8.5). La pondération du modèle est utilisée pour affiner les projections pour chaque RCP. Les paramètres de pondération sont basés sur l'indépendance et la compétence du modèle sur l'Amérique du Nord pour les températures saisonnières et les extrêmes annuels. La moyenne multimodèle est basée sur 32 projections de modèle qui ont été statistiquement réduites à l'aide de la technique des analogues construits LOcalisés. 247 La fourchette est définie comme la différence entre l'augmentation moyenne des trois modèles les plus froids et l'augmentation moyenne des trois modèles les plus chauds. Toutes les augmentations sont significatives (c'est-à-dire que plus de 50 % des modèles montrent un changement statistiquement significatif et plus de 67 % sont d'accord sur le signe du changement). 271

Des incertitudes majeures

Les principales incertitudes pour les données de surface concernent les changements historiques dans l'emplacement des stations, les instruments de température, les pratiques d'observation et l'échantillonnage spatial (en particulier dans les zones et les périodes à faible densité de stations, telles que l'Ouest intermontagneux au début du 20e siècle). De nombreuses recherches ont été menées pour tenir compte de ces problèmes, ce qui a donné lieu à des techniques qui effectuent des ajustements au niveau de la station pour améliorer l'homogénéité de la série chronologique (par exemple, Easterling et Peterson 1995, Menne et Williams 2009 272 , 273 ). De plus, Easterling et al. (1996) 274 ont examiné les différences dans les séries chronologiques moyennées par zone à diverses échelles pour les données de température ajustées en fonction de l'homogénéité par rapport aux données non ajustées et ont constaté que lorsque la zone atteignait l'échelle des régions NCA, peu de différences étaient trouvées. Les enregistrements satellitaires sont également affectés par des changements non climatiques tels que la décroissance orbitale, l'échantillonnage diurne et l'étalonnage des instruments aux températures cibles. Plusieurs incertitudes sont inhérentes aux proxys sensibles à la température, telles que les techniques de datation et l'échantillonnage spatial.

Les modèles climatiques mondiaux sont soumis à une incertitude structurelle et paramétrique, ce qui entraîne une gamme d'estimations des changements futurs de la température moyenne. Ceci est partiellement atténué par l'utilisation de la pondération du modèle et de la mise à l'échelle des modèles. De plus, pratiquement chaque membre d'ensemble de chaque projection de modèle contient une augmentation de la température au milieu et à la fin du siècle. La réduction d'échelle empirique introduit une incertitude supplémentaire (par exemple, en ce qui concerne la stationnarité).

Description de la confiance et de la probabilité

Il y a très grande confiance dans les tendances depuis 1895, sur la base de l'enregistrement instrumental, car il s'agit d'un enregistrement à long terme avec des mesures effectuées avec une précision relativement élevée. Il y a grande confiance pour les tendances basées sur l'accord surface/satellite depuis 1979, car il s'agit d'un record plus court. Il y a confiance moyenne pour les tendances basées sur les données paléoclimatiques, car il s'agit d'un enregistrement long mais avec une précision relativement faible.

Il y a très grande confiance des changements observés dans la température moyenne annuelle et saisonnière et des changements observés dans les températures extrêmes aux États-Unis, car ceux-ci sont basés sur la convergence des preuves provenant de plusieurs sources de données, analyses et évaluations, y compris l'enregistrement instrumental.

Il y a grande confiance que l'éventail des changements projetés de la température moyenne et des températures extrêmes aux États-Unis englobe l'éventail des changements probables, sur la base de la convergence des preuves de la physique de base, des simulations de modèles multiples, des analyses et des évaluations.

Message clé 6 : Modification des précipitations aux États-Unis

Depuis le début du siècle dernier, les précipitations annuelles ont augmenté dans la majeure partie du nord et de l'est des États-Unis et ont diminué dans une grande partie du sud et de l'ouest des États-Unis. Au cours du siècle à venir, des augmentations significatives sont prévues en hiver et au printemps sur les Grandes Plaines du Nord, le Haut-Midwest et le Nord-Est (confiance moyenne). Les augmentations observées de la fréquence et de l'intensité des épisodes de fortes précipitations dans la plupart des régions des États-Unis devraient se poursuivre (grande confiance). L'humidité du sol de surface sur la plupart des États-Unis est susceptible de diminuer (confiance moyenne), accompagnée de fortes baisses du manteau neigeux dans l'ouest des États-Unis (grande confiance) et passe à davantage de précipitations hivernales tombant sous forme de pluie plutôt que de neige (confiance moyenne).

Description de la base de preuves

Le message clé et le texte à l'appui résument de nombreuses preuves documentées dans la littérature scientifique sur le climat et dans les précédentes évaluations nationales du climat (par exemple, Karl et al. 2009, Walsh et al. 2014 88 , 263 ). Les preuves des changements à long terme des précipitations sont basées sur l'analyse des observations quotidiennes des précipitations du U.S. Cooperative Observer Network (http://www.nws.noaa.gov/om/coop/) et présentées dans Easterling et al. (2017), 94 Graphique 7.1. Des travaux publiés, tels que la troisième évaluation nationale du climat et la figure 7.1 94 , montrent d'importantes différences régionales et saisonnières dans le changement des précipitations aux États-Unis depuis 1901.

De nombreux articles ont été rédigés pour documenter les changements observés dans les événements de fortes précipitations aux États-Unis (par exemple, Kunkel et al. 2003, Groisman et al. 2004 275 , 276), qui ont été cités dans le Third National Climate Assessment, ainsi que ceux cités dans cette évaluation. Bien que les analyses basées sur les stations (par exemple, Westra et al. 2013 277 ) ne montrent pas un grand nombre de tendances basées sur les stations statistiquement significatives, la moyenne surfacique réduit le bruit inhérent aux données basées sur les stations et produit des signaux croissants robustes (voir Easterling et al. 2017, 94 figures 7.2 et 7.3). Les preuves des changements à long terme des précipitations sont basées sur l'analyse des observations quotidiennes des précipitations du U.S. Cooperative Observer Network (http://www.nws.noaa.gov/om/coop/) et présentées dans Easterling et al. (2017), 94 Figures 7.2, 7.3 et 7.4.

Les preuves de changements historiques dans l'étendue de la couverture neigeuse et la réduction des années de chutes de neige extrêmes sont cohérentes avec notre compréhension de la réponse du système climatique à l'augmentation des gaz à effet de serre. De plus, les modèles climatiques continuent de montrer de façon constante des baisses futures du manteau neigeux dans l'ouest des États-Unis. Les projections récentes des modèles pour l'est des États-Unis confirment également un futur passage des chutes de neige aux précipitations pendant la saison froide dans les parties les plus froides du centre et de l'est des États-Unis. Chacun de ces changements est documenté dans la littérature évaluée par les pairs et cité dans le texte principal de ce chapitre.

Les preuves d'un changement futur des précipitations sont basées sur les projections des modèles climatiques et notre compréhension de la réponse du système climatique à l'augmentation des gaz à effet de serre, ainsi que sur les mécanismes régionaux à l'origine des changements projetés. En particulier, la figure 7.7 dans Easterling et al. (2017) 94 documente les changements projetés dans le montant de la période de retour de 20 ans en utilisant les données LOCA, et la figure 7.6 94 montre les changements dans les totaux de 2 jours pour la période de retour de 5 ans en utilisant la suite de modèles CMIP5. Chaque figure montre des changements importants dans les événements de précipitations extrêmes tels qu'ils sont définis dans la figure. Cependant, la figure 7.5 94 montre les changements dans les précipitations saisonnières et annuelles et montre où la confiance dans les changements est plus élevée en fonction de la cohérence entre les modèles, et il y a de grandes zones où le changement projeté est incertain.

Des incertitudes majeures

Le principal problème lié à l'incertitude des tendances historiques est la sensibilité des tendances des précipitations observées à la distribution spatiale des stations d'observation et aux changements historiques de l'emplacement des stations, des pluviomètres, du paysage local et des pratiques d'observation. Ces problèmes sont quelque peu atténués par de nouvelles méthodes pour produire des grilles spatiales 152 à travers le temps.

Cela inclut la sensibilité des changements de neige observés à la distribution spatiale des stations d'observation et aux changements historiques de l'emplacement des stations, des pluviomètres et des pratiques d'observation, en particulier pour la neige. Les changements futurs dans la fréquence et l'intensité des systèmes météorologiques provoquant de fortes chutes de neige sont moins certains que les changements de température.

Une question clé est de savoir dans quelle mesure les modèles climatiques simulent les précipitations, qui est l'un des aspects les plus difficiles de la simulation météorologique et climatique. En particulier, les comparaisons des projections du modèle pour les précipitations totales (de CMIP3 et CMIP5 voir Sun et al. 2015 271) par région NCA3 montrent une répartition des réponses dans certaines régions (par exemple, le sud-ouest) de telle sorte qu'elles sont opposées à la réponse moyenne de l'ensemble . La zone continentale des États-Unis se situe dans la zone de transition entre l'assèchement prévu dans les régions subtropicales et l'humidification prévue dans les latitudes moyennes et supérieures. Il existe quelques différences dans l'emplacement de cette transition entre les modèles CMIP3 et CMIP5, et il subsiste donc une incertitude quant à l'emplacement exact de la zone de transition.

Description de la confiance et de la probabilité

La confiance est moyen que les précipitations ont augmenté et haute que les événements de fortes précipitations ont augmenté aux États-Unis. De plus, la confiance est aussi haute que les importantes différences régionales et saisonnières dans les changements documentés ici sont robustes.

Sur la base des preuves des simulations de modèles climatiques et de notre compréhension fondamentale de la relation entre la vapeur d'eau et la température, la confiance est haute que les précipitations extrêmes augmenteront dans toutes les régions des États-Unis. Cependant, sur la base des preuves et de la compréhension des problèmes conduisant à des incertitudes, la confiance est moyen que plus de précipitations totales sont prévues pour le nord des États-Unis et moins pour le sud-ouest.

Sur la base des preuves et de la compréhension des problèmes conduisant à des incertitudes, la confiance est moyen que les précipitations annuelles moyennes ont augmenté aux États-Unis. De plus, la confiance est aussi moyen que les importantes différences régionales et saisonnières dans les changements documentées dans le texte et dans la figure 7.1 d'Easterling et al. (2017) 94 sont robustes.

Compte tenu de la base de preuves et des incertitudes, la confiance est moyen que l'étendue de la couverture neigeuse a diminué aux États-Unis et moyen que les années de chutes de neige extrêmes ont diminué ces dernières années. La confiance est haute que le manteau neigeux de l'ouest des États-Unis diminuera à l'avenir, et la confiance est moyen qu'un passage de la domination de la neige à la domination de la pluie se produira dans les parties du centre et de l'est des États-Unis citées dans le texte, ainsi que que l'humidité du sol en surface (les 10 premiers cm) diminuera.

Message clé 7 : Changement rapide dans l'Arctique

Dans l'Arctique, les températures moyennes annuelles ont augmenté plus de deux fois plus vite que la moyenne mondiale, accompagnées d'un dégel du pergélisol et d'une perte de glace de mer et de masse glaciaire (très grande confiance). On s'attend à ce que la perte de glace glaciaire et de mer à l'échelle de l'Arctique se poursuive d'ici le milieu du siècle, il est très probable que l'Arctique sera presque exempt de glace de mer à la fin de l'été (très grande confiance). Le pergélisol devrait également continuer à dégeler au cours du siècle à venir, et le dioxyde de carbone et le méthane libérés par le dégel du pergélisol ont le potentiel d'amplifier le réchauffement induit par l'homme, peut-être de manière significative (grande confiance).

Description de la base de preuves

Les températures moyennes annuelles de l'air près de la surface en Alaska et dans l'Arctique ont augmenté au cours des 50 dernières années à un rythme plus de deux fois supérieur à la moyenne mondiale. Des études d'observation utilisant des stations d'observation au sol et des satellites analysés par plusieurs groupes indépendants appuient cette conclusion. La sensibilité accrue du système climatique arctique au forçage anthropique est également étayée par des preuves de modélisation climatique, indiquant une solide compréhension de la physique sous-jacente. Ces multiples sources de données fournissent très grande confiance d'un réchauffement accru de l'Arctique avec des impacts potentiellement importants sur les communautés côtières et les écosystèmes marins.

Cet aspect du message clé est étayé par des preuves d'observation provenant de stations d'observation au sol, de satellites et d'analyses de température de modèles de données provenant de sources multiples et de techniques d'analyse indépendantes. 117 , 118 , 119 , 120 , 121 , 136 , 278 Depuis plus de 40 ans, les modèles climatiques ont prédit un réchauffement accru de l'Arctique, indiquant une solide compréhension de la physique sous-jacente et des rétroactions positives à l'origine du réchauffement accéléré de l'Arctique. 26 , 279 , 280 Enfin, des déclarations similaires ont été faites dans NCA3, 1 IPCC AR5, 120 et dans d'autres évaluations spécifiques à l'Arctique telles que l'Arctic Climate Impacts Assessment 281 et le rapport d'évaluation Snow, Water, Ice and Permafrost in the Arctic. 129

Le pergélisol fond, devient plus discontinu et libère du dioxyde de carbone (CO2) et le méthane (CH4). Les données d'observation et de modélisation indiquent que le pergélisol a dégelé et a libéré du CO supplémentaire2 et CH4, indiquant que la rétroaction pergélisol-carbone est positive, ce qui représente un réchauffement supplémentaire d'environ 0,08 °C à 0,50 °C en plus des projections des modèles climatiques. Bien que l'ampleur et le moment de la rétroaction pergélisol-carbone soient incertains en raison d'une gamme de processus mal compris (processus des sols profonds et des coins de glace, absorption de carbone par les plantes, dépendance de l'absorption et des émissions vis-à-vis de la végétation et du type de sol, et rôle du pergélisol rapide processus de dégel tels que le thermokarst), la science émergente et les estimations les plus récentes continuent d'indiquer que cette rétroaction est plus probable sur le côté le plus large de la plage. Les impacts du dégel du pergélisol et de la rétroaction pergélisol-carbone compliquent notre capacité à limiter les futurs changements de température en ajoutant un forçage radiatif actuellement sans contrainte au système climatique.

Cette partie du message clé est étayée par des preuves d'observation du réchauffement des températures du pergélisol et d'un approfondissement de la couche active, des mesures de gaz in situ, des expériences d'incubation en laboratoire du CO2 et CH4 la libération et les études de modèles. 126 , 127 , 282 , 283 , 284 , 285 Les caractéristiques du pergélisol de l'Alaska et de l'Arctique ont réagi à l'augmentation des températures et à la réduction de la couverture neigeuse dans la plupart des régions depuis les années 1980, le pergélisol plus froid se réchauffant plus rapidement que le pergélisol plus chaud. 127 , 129 , 286 De grands réservoirs de carbone du sol (environ la moitié du réservoir mondial de carbone organique souterrain) sont stockés dans le sol du pergélisol, 287 , 288 avec le potentiel d'être libérés. Le dégel du pergélisol rend la matière organique précédemment congelée disponible pour la décomposition microbienne. Les mesures de flux de gaz in situ ont mesuré directement la libération de CO2 et CH4 du pergélisol arctique. 289 , 290 Les conditions spécifiques de décomposition microbienne, aérobie ou anaérobie, déterminent la production relative de CO2 et CH4. Cette distinction est significative car CH4 est un gaz à effet de serre bien plus puissant que le CO2. 17 Cependant, les études d'incubation indiquent que 3,4 fois plus de carbone est libéré dans des conditions aérobies que dans des conditions anaérobies, conduisant à un forçage radiatif 2,3 fois plus fort dans des conditions aérobies. 284 Des données combinées et des études de modélisation suggèrent que l'impact de la rétroaction pergélisol–carbone sur les températures mondiales pourrait s'élever à +0,52° ± 0,38°F (+0,29° ± 0,21°C) d'ici 2100. 124 Chadburn et al. (2017) 291 déduire que la sensibilité de la zone de pergélisol au réchauffement moyen mondial est de 1,5 million de miles carrés (4 millions de km²), contraignant un groupe de modèles climatiques avec la distribution spatiale observée du pergélisol, cette sensibilité est 20 % plus élevée que les études précédentes. Le dégel du pergélisol se produit plus rapidement que les modèles ne le prédisent en raison de processus de sol profond, de coin de glace et de thermokarst mal compris. 125 , 282 , 285 , 292 Une incertitude supplémentaire découle de l'absorption surprenante de méthane des sols minéraux 293 et ​​de la dépendance des émissions vis-à-vis de la végétation et des propriétés du sol. 294 Les données d'observation et de modélisation appuient le message clé selon lequel la rétroaction pergélisol-carbone est positive (c'est-à-dire qu'elle amplifie le réchauffement).

La perte de glace de terre et de mer arctique observée au cours des trois dernières décennies se poursuit, s'accélérant dans certains cas. Un large éventail de preuves d'observation provenant de plusieurs sources de données et de techniques d'analyse indépendantes fournit des preuves cohérentes de déclins substantiels de l'étendue, de l'épaisseur et du volume de la glace de mer arctique depuis au moins 1979, la fonte des glaciers de montagne au cours des 50 dernières années et l'accélération de la perte de masse du Groenland . Un éventail de modèles différents et d'analyses indépendantes indiquent que l'on s'attend à un déclin futur de la glace dans l'Arctique, ce qui entraînera très probablement une fin des étés dans l'Arctique sans glace d'ici le milieu du siècle.

Ce dernier aspect du message clé est étayé par des preuves d'observation provenant de plusieurs techniques d'observation au sol et par satellite (y compris l'altimétrie passive par micro-ondes, laser et radar et la gravimétrie) analysées par des groupes indépendants utilisant différentes techniques pour parvenir à des conclusions similaires. 127, 128, 131, 136, 257, 295, 296, 297.Plusieurs études indépendantes d'analyse de modèles utilisant un large éventail de modèles climatiques et différentes techniques d'analyse indiquent que la perte de glace de mer se poursuivra dans l'Arctique, très probable ce qui fait que les étés tardifs deviennent presque libres de glace au milieu du siècle. 26 , 147 , 149

Des incertitudes majeures

Le manque de données de haute qualité et la résolution spatiale restreinte des données de température de surface et du sol sur de nombreuses régions terrestres de l'Arctique, associés au fait qu'il n'y a pratiquement aucune mesure sur l'océan Arctique central, entrave la capacité de mieux affiner le taux de le réchauffement et limite complètement notre capacité à quantifier et à détecter les tendances régionales, en particulier sur la banquise. Les modèles climatiques produisent généralement un réchauffement de l'Arctique entre deux et trois fois le réchauffement moyen mondial. Une incertitude clé est notre connaissance quantitative des contributions des processus de rétroaction individuelle dans la conduite du réchauffement accéléré de l'Arctique. La réduction de cette incertitude contribuera à restreindre les projections du futur réchauffement de l'Arctique.

Un manque d'observations affecte non seulement la capacité de détecter des tendances, mais aussi de quantifier une rétroaction positive potentiellement significative sur le réchauffement climatique : la rétroaction pergélisol-carbone. Les principales incertitudes sont liées aux processus des sols profonds et du thermokarst, ainsi que la persistance ou la dégradation de la glace massive (par exemple, les coins de glace) et la dépendance du CO2 et CH4 absorption et production sur la végétation et les propriétés du sol. Des incertitudes existent également dans les processus pertinents du sol pendant et après le dégel du pergélisol, en particulier ceux qui contrôlent le stockage du carbone du sol non gelé, l'absorption du carbone par les plantes et l'échange net de l'écosystème. De nombreux processus susceptibles de provoquer un dégel rapide du pergélisol (comme le thermokarst) ne sont pas inclus dans les modèles actuels du système terrestre.

Des incertitudes clés subsistent dans la quantification et la modélisation des processus physiques clés qui contribuent à l'accélération de la fonte des glaces terrestres et marines. Les modèles climatiques sont incapables de capturer le rythme rapide de la fonte des glaces marines et terrestres observée au cours des 15 dernières années. Un facteur majeur est notre incapacité à quantifier et à modéliser avec précision les processus physiques à l'origine de la fonte accélérée. Les interactions entre la circulation atmosphérique, la dynamique des glaces et la thermodynamique, les nuages, et en particulier l'influence sur le bilan énergétique de surface sont des incertitudes clés. Les mécanismes contrôlant la dynamique des glaciers marins, en particulier les rôles du réchauffement atmosphérique, des intrusions d'eau de mer sous les plates-formes de glace flottantes et de la pénétration de l'eau de fonte de surface dans le lit du glacier, sont des incertitudes clés dans la projection de la fonte de la calotte glaciaire du Groenland.

Description de la confiance et de la probabilité

Il y a très grande confiance que la surface de l'Arctique et les températures de l'air se sont réchauffées à travers l'Alaska et l'Arctique à un rythme beaucoup plus rapide que la moyenne mondiale est fournie par les multiples ensembles de données analysés par plusieurs groupes indépendants indiquant la même conclusion. De plus, les modèles climatiques capturent le réchauffement accru dans l'Arctique, indiquant une solide compréhension des mécanismes physiques sous-jacents.

Il y a grande confiance que le pergélisol fond, devient discontinu et libère du CO2 et CH4. Arguments physiques et augmentations observées du CO2 et CH4 les émissions dues au dégel du pergélisol indiquent que la rétroaction est positive. Ce niveau de confiance est justifié sur la base des observations des caractéristiques du pergélisol en évolution rapide.

Il y a très grande confiance que la fonte des glaces des mers et des terres de l'Arctique s'accélère et que la masse de glace des glaciers de montagne diminue, étant donné les multiples sources d'observation et les techniques d'analyse documentées dans la littérature scientifique sur le climat évaluée par des pairs.

Message clé 8 : Changements dans les tempêtes violentes

Les changements induits par l'homme affectent la dynamique atmosphérique et contribuent à l'expansion vers les pôles des tropiques et au déplacement vers le nord des trajectoires des tempêtes hivernales de l'hémisphère nord depuis les années 1950 (confiance moyenne à élevée). L'augmentation des gaz à effet de serre et la diminution de la pollution atmosphérique ont contribué à l'augmentation de l'activité des ouragans de l'Atlantique depuis 1970 (confiance moyenne). À l'avenir, les précipitations des ouragans de l'Atlantique et de l'est du Pacifique Nord (grande confiance) et l'intensité (confiance moyenne) devraient augmenter, tout comme la fréquence et la gravité des « rivières atmosphériques » touchant la côte ouest (confiance moyenne).

Description de la base de preuves

Les tropiques se sont étendus vers les pôles dans chaque hémisphère au cours de la période 1979-2009 (confiance moyenne à élevée) comme le montrent un grand nombre d'études utilisant une variété de mesures, d'observations et de réanalyses. Des études de modélisation et des considérations théoriques montrent que les activités humaines telles que l'augmentation des gaz à effet de serre, l'appauvrissement de la couche d'ozone et les aérosols anthropiques provoquent un élargissement des tropiques. Il y a confiance moyenne que les activités humaines ont contribué à l'expansion observée vers les pôles, compte tenu des incertitudes quant à l'ampleur des tendances observées et d'une possible contribution importante de la variabilité naturelle du climat.

La première partie du Message clé est étayée par les déclarations de la précédente évaluation internationale du GIEC RE5 120 et un grand nombre d'études plus récentes qui ont examiné l'ampleur de l'élargissement tropical observé et diverses causes. 95 , 161 , 298 , 299 , 300 , 301 , 302 , 303 , 304 , 305 Des preuves supplémentaires d'un impact des augmentations de gaz à effet de serre sur l'élargissement de la ceinture tropicale et les déplacements vers les pôles des jets de latitude moyenne sont fournies par le diagnostic des simulations CMIP5 . 306, 307 Il existe des preuves émergentes d'un impact des aérosols anthropiques sur l'expansion tropicale dans l'hémisphère nord. 308 , 309 Des études récentes fournissent de nouvelles preuves sur l'importance de la variabilité interne sur les changements récents de la largeur tropicale. 302, 310, 311

Les modèles s'accordent généralement sur le fait que les cyclones tropicaux seront plus intenses et auront des taux de précipitation plus élevés, au moins dans la plupart des bassins. Étant donné l'accord entre les modèles et le soutien de la théorie et de la compréhension mécaniste, il y a confiance moyenne à élevée dans la projection globale, bien qu'il y ait une certaine limitation sur les niveaux de confiance en raison de l'absence d'une contribution anthropique détectable à l'appui des intensités des cyclones tropicaux ou des taux de précipitation.

La deuxième partie du Message clé est également basée sur de nombreuses preuves documentées dans la littérature scientifique sur le climat et est similaire aux déclarations faites dans les précédentes évaluations nationales (NCA3) 1 et internationales 249. Depuis ces évaluations, des études de réduction d'échelle plus récentes ont encore étayé ces évaluations (par exemple, Knutson et al. 2015 170 ), tout en soulignant que les changements (augmentation future de l'intensité et des taux de précipitation des cyclones tropicaux) peuvent ne pas se produire dans tous les bassins.

Des augmentations de la fréquence et de l'intensité des rivières atmosphériques sont attendues le long de la côte ouest des États-Unis, entraînant la probabilité de conditions d'inondations plus fréquentes, des incertitudes demeurant quant aux détails de la structure spatiale de ces systèmes le long de la côte (par exemple, le nord par rapport au sud de la Californie ). Les preuves de l'attente d'une augmentation de la fréquence et de la gravité des rivières atmosphériques touchant la côte ouest des États-Unis proviennent des études de projection du changement climatique basées sur le CMIP de Dettinger (2011). 163 Warner et al. (2015), 164 Payne et Magnusdottir (2015), 312 Gao et al. (2015), 165 Radić et al. (2015), 313 et Hagos et al. (2016). 314 Le lien étroit entre les rivières atmosphériques et la disponibilité de l'eau et les inondations est basé sur les études d'observation actuelles de Guan et al. (2010), 315 Dettinger (2011), 163 Ralph et al. (2006), 316 Neiman et coll. (2011), 317 Moore et coll. (2012), 318 et Dettinger (2013). 319

Des incertitudes majeures

Le taux d'expansion observé des tropiques dépend de la métrique utilisée. 161 Les liens entre les différentes mesures ne sont pas entièrement explorés. Les incertitudes résultent également de l'utilisation de la réanalyse pour déterminer les tendances et des enregistrements d'observation limités de la libre circulation atmosphérique, des précipitations et de l'évaporation. Les mécanismes dynamiques derrière les changements dans la largeur de la ceinture tropicale (par exemple, les interactions tropicales-extratropicales, les tourbillons baroclines) ne sont pas entièrement compris. Il existe également une compréhension limitée de la façon dont les divers forçages climatiques, tels que les aérosols anthropiques, affectent la largeur des tropiques. La résolution horizontale et verticale grossière des modèles climatiques mondiaux peut limiter la capacité de ces modèles à résoudre correctement les changements latitudinaux de la circulation atmosphérique. Les enregistrements d'observation limités affectent la capacité d'estimer avec précision la contribution de la variabilité naturelle décennale à la variabilité multidécennale sur l'expansion observée des tropiques.

Une incertitude clé dans les cyclones tropicaux (TC) est l'absence d'un signal anthropique détectable à l'appui dans les données historiques pour ajouter davantage de confiance à ces projections. En tant que tel, la confiance dans les projections est basée sur l'accord entre les différentes études de modélisation et la compréhension physique (par exemple, la théorie de l'intensité potentielle pour les intensités de CT et l'attente d'une plus forte convergence de l'humidité, et donc des taux de précipitation plus élevés, dans les CT dans un environnement plus chaud contenant une plus grande quantités d'humidité atmosphérique ambiante). Une incertitude supplémentaire découle de l'incertitude à la fois dans le modèle projeté et dans l'ampleur de la future SST. 170

En ce qui concerne les rivières atmosphériques (RA), une incertitude modeste subsiste quant à l'absence d'un signal anthropique détectable à l'appui dans les données historiques pour ajouter une plus grande confiance à ces projections. Cependant, l'augmentation globale des RA projetée/attendue est basée dans une très large mesure sur très grande confiance que la vapeur d'eau atmosphérique va augmenter. Ainsi, l'augmentation de la vapeur d'eau associée à peu de changement projeté dans la structure/l'intensité du vent indique toujours des augmentations de la fréquence/de l'intensité des RA. Une incertitude modeste survient dans la quantification du changement attendu au niveau régional (par exemple, le nord de l'Oregon par rapport au sud de l'Oregon), étant donné qu'il y a certains changements attendus dans la position du courant-jet qui pourraient influencer le degré d'augmentation pour différents endroits le long de la Côte ouest. L'incertitude dans les projections du nombre et de l'intensité des RA est introduite par des incertitudes dans la capacité des modèles à représenter les RA et leurs interactions avec le climat.

Description de la confiance et de la probabilité

Il y a confiance moyenne à élevée que les tropiques et les caractéristiques connexes de la circulation mondiale se sont étendues vers le pôle est basé sur les résultats d'un grand nombre d'études d'observation, utilisant une grande variété de mesures et d'ensembles de données, qui parviennent à des conclusions similaires. Un grand nombre d'études utilisant une modélisation de complexité différente et des considérations théoriques fournissent des preuves cumulées que les activités humaines telles que l'augmentation des gaz à effet de serre, l'appauvrissement de la couche d'ozone et les aérosols anthropiques ont contribué à l'expansion observée vers les pôles des tropiques. Les modèles climatiques forcés avec ces moteurs anthropiques ne peuvent pas expliquer l'ampleur observée de l'expansion tropicale, et certaines études suggèrent une contribution possiblement importante de la variabilité interne. Ces multiples sources de données conduisent à la conclusion de confiance moyenne que les activités humaines ont contribué à l'expansion observée des tropiques.

La confiance est évaluée comme haute dans les projections de précipitations des cyclones tropicaux et moyen dans les projections d'intensité puisqu'il existe un certain nombre de publications soutenant ces conclusions globales, une théorie assez bien établie, une cohérence générale entre les différentes études, des méthodes différentes utilisées dans les études, et encore un consensus assez fort entre les études. Cependant, un facteur limitant pour la confiance dans les résultats est l'absence d'une contribution anthropique détectable à l'appui dans les données observées sur les cyclones tropicaux.

Il y a confiance faible à moyenne pour l'augmentation de l'occurrence des cyclones tropicaux les plus intenses pour la plupart des bassins, car il existe relativement peu d'études formelles axées sur ces changements, et le changement dans l'occurrence de ces tempêtes serait renforcé par des intensités accrues mais réduit par une diminution de la fréquence globale des cyclones tropicaux.

La confiance dans cette découverte sur les rivières atmosphériques est évaluée comme moyen sur la base de projections qualitativement similaires entre différentes études.

Message clé 9 : Augmentation des inondations côtières

Les changements régionaux dans l'élévation du niveau de la mer et les inondations côtières ne sont pas répartis uniformément à travers les États-Unis Les changements de circulation océanique, le naufrage des terres et la fonte des glaces en Antarctique entraîneront une élévation du niveau de la mer supérieure à la moyenne pour le nord-est et l'ouest du golfe du Mexique dans des scénarios inférieurs et la plupart des côtes américaines autres que l'Alaska dans des scénarios plus élevés (très grande confiance). Depuis les années 1960, l'élévation du niveau de la mer a déjà multiplié par 5 à 10 la fréquence des inondations à marée haute pour plusieurs communautés côtières américaines. La fréquence, la profondeur et l'étendue des inondations causées par les marées devraient continuer d'augmenter à l'avenir (grande confiance), tout comme les inondations plus graves associées aux tempêtes côtières, telles que les ouragans et le nord-est (faible confiance).

Description de la base de preuves

La partie du Message clé concernant l'existence de la variabilité géographique est basée sur une littérature d'observation, de modélisation et théorique plus large. Les différences spécifiques sont basées sur les scénarios décrits par le groupe de travail fédéral interagences sur l'élévation du niveau de la mer. 76 Les processus qui causent la variabilité géographique du changement du niveau régional de la mer (RSL) sont également examinés par Kopp et al. (2015). 320 Les ensembles de données de marégraphes longs révèlent où l'élévation du RSL est en grande partie due au mouvement vertical des terres en raison de l'ajustement glacio-isostatique et du retrait de fluide le long de nombreuses côtes américaines. 321 , 322 Ces observations sont corroborées par des modèles d'ajustement glacio-isostatique, par des observations de satellite de positionnement global (GPS) et par des données géologiques (par exemple, Engelhart et Horton 2012 323 ). La physique de la réponse gravitationnelle, rotationnelle et flexionnelle de l'« empreinte d'équilibre statique » du niveau de la mer à la redistribution de la masse de la glace terrestre vers les océans est bien établie. 324, 325 Les études GCM indiquent le potentiel d'une contribution du Gulf Stream à l'élévation du niveau de la mer dans le nord-est des États-Unis. 326, 327 Kopp et al. (2014) 77 et Slangen et al. (2014) 59 ont pris en compte le mouvement des terres (uniquement l'ajustement isostatique glaciaire pour Slangen et al.), les empreintes digitales et les réponses dynamiques océaniques. La comparaison des projections du changement local du RSL et du changement GMSL dans ces études indique que l'augmentation locale est susceptible d'être supérieure à la moyenne mondiale le long des côtes américaines de l'Atlantique et du Golfe et inférieure à la moyenne mondiale dans la plupart des régions du nord-ouest du Pacifique. Les projections de l'élévation du niveau de la mer dans ce rapport ont été élaborées par un groupe de travail fédéral interagences sur l'élévation du niveau de la mer. 76

La fréquence, l'étendue et la profondeur des inondations côtières provoquées par des événements extrêmes (par exemple, des probabilités d'événements de 5 à 100 ans) par rapport aux infrastructures existantes continueront d'augmenter à l'avenir à mesure que le RSL local augmente. 57 , 76 , 77 , 328 , 329 , 330 , 331 , 332 , 333 Ces projections sont basées sur des études de modélisation des caractéristiques futures des ouragans et des augmentations associées de l'amplification du risque d'onde de tempête majeure. Les probabilités d'inondations extrêmes augmenteront indépendamment des changements dans les caractéristiques des tempêtes, ce qui peut exacerber ces changements. Les projections basées sur des modèles des tempêtes tropicales et des ondes de tempête majeures associées dans l'Atlantique Nord conviennent pour la plupart que les intensités et les fréquences des tempêtes les plus intenses augmenteront au cours de ce siècle. 190 , 334 , 335 , 336 , 337 Cependant, la projection d'une intensité accrue des ouragans est plus robuste à travers les modèles que la projection d'une fréquence accrue des tempêtes les plus intenses. Un certain nombre de modèles prévoient une diminution du nombre total de tempêtes tropicales et d'ouragans dans l'Atlantique Nord, bien que les modèles à haute résolution prévoient généralement une augmentation de l'intensité moyenne des ouragans (par exemple, Knutson et al. 2013 190 ). En outre, il existe des preuves modélisées d'un changement dans les trajectoires des cyclones tropicaux au cours des années chaudes qui minimise l'augmentation des ouragans touchant terre dans le centre de l'Atlantique ou le nord-est des États-Unis. 338

Des incertitudes majeures

Depuis le NCA3, 1 plusieurs auteurs ont produit des études mondiales ou régionales synthétisant le processus majeur qui provoque la divergence des changements mondiaux et locaux du niveau de la mer. Les plus grandes sources d'incertitude dans la variabilité géographique du changement du niveau de la mer sont le changement dynamique du niveau de la mer et, pour les régions où les empreintes digitales du niveau de la mer pour le Groenland et l'Antarctique diffèrent de la moyenne mondiale dans différentes directions, les contributions relatives de ces deux sources aux projections changement du niveau de la mer.

Les incertitudes restent grandes en ce qui concerne le changement précis du risque futur d'un impact côtier majeur à un endroit spécifique à partir des changements dans les caractéristiques et les traces des cyclones tropicaux les plus intenses au-delà des changements imposés par l'élévation locale du niveau de la mer.

Description de la confiance et de la probabilité

En raison des processus physiques énumérés, il y a très grande confiance que le changement RSL variera selon les côtes américaines. Il y a grande confiance dans les différences probables entre le changement RSL et le changement GMSL sous différents niveaux de changement GMSL, sur la base de projections intégrant les différents processus pertinents. Il y a faible confiance que le risque d'inondation à des endroits spécifiques sera amplifié par une tempête tropicale majeure ce siècle.

Message clé 10 : Changements à long terme

Le changement climatique résultant des émissions de dioxyde de carbone d'origine humaine persistera pendant des décennies, voire des millénaires. Les cycles d'auto-renforcement au sein du système climatique ont le potentiel d'accélérer les changements induits par l'homme et même de déplacer le système climatique de la Terre vers de nouveaux états très différents de ceux rencontrés dans un passé récent. Des changements futurs en dehors de la plage projetée par les modèles climatiques ne peuvent être exclus (très grande confiance), et en raison de leur tendance systématique à sous-estimer les changements de température au cours des périodes chaudes passées, les modèles peuvent être plus susceptibles de sous-estimer que de surestimer les changements futurs à long terme (confiance moyenne).

Description de la base de preuves

Ce message clé est basé sur une vaste littérature scientifique récemment résumée par Lenton et al. (2008), 197 NRC (2013), 339 et Kopp et al. (2016). 198 Comme le NRC (2013) 339 le déclare, « Une étude de l'histoire du climat de la Terre suggère l'inévitabilité des « points de non-retour » – des seuils au-delà desquels des changements majeurs et rapides se produisent lorsqu'ils sont franchis – qui conduisent à des changements brusques dans le système climatique » et « Est-ce que tous des points de basculement sont-ils prévus ? Probablement pas. Certains n'auront pas de précurseurs ou pourraient être déclenchés par la variabilité naturelle du système climatique.Certains seront difficiles à détecter, clairement visibles seulement après avoir été franchis et un changement brusque deviendra inévitable. » Comme le GIEC AR5 WG1 Chapitre 12, Section 12.5.5 26 déclare en outre, « Un certain nombre de composants ou de phénomènes au sein du système Terre ont été proposés comme possédant potentiellement des seuils critiques (parfois appelés points de basculement) au-delà desquels des transitions abruptes ou non linéaires vers un un état différent s'ensuit. Collins et al. (2013) 26 résument davantage les seuils critiques qui peuvent être modélisés et d'autres qui ne peuvent qu'être identifiés.

Ce message clé est également basé sur les conclusions du GIEC AR5 WG1, 249 spécifiquement le chapitre 7 196 l'état de l'art des modèles mondiaux est brièvement résumé dans Hayhoe et al. (2017). 24 Ce message clé est également basé sur la tendance des modèles climatiques mondiaux à sous-estimer, par rapport aux reconstructions géologiques, l'ampleur à la fois du réchauffement global moyen à long terme et de l'amplification du réchauffement aux hautes latitudes dans les climats chauds du passé (par exemple, Salzmann et al. 2013, Goldner et al. 2014, Cabballeo et Huber 2013, Lunt et al. 2012 199 , 201 , 340 , 341 ).

Des incertitudes majeures

Les plus grandes incertitudes sont 1) si les éléments de basculement proposés subissent réellement des transitions critiques, 2) l'ampleur et le moment du forçage qui seront nécessaires pour initier des transitions critiques dans les éléments de basculement, 3) la vitesse de la transition une fois qu'elle a été déclenchée, 4) les caractéristiques du nouvel état qui résulte d'une telle transition, et 5) le potentiel d'existence de nouvelles rétroactions positives et éléments de basculement qui sont encore inconnus.

Les plus grandes incertitudes dans les modèles sont structurelles : les modèles incluent-ils tous les composants et relations importants nécessaires pour modéliser les rétroactions et, si oui, sont-ils correctement représentés dans les modèles ?

Description de la confiance et de la probabilité

Il y a très grande confiance dans la probabilité de l'existence de rétroactions positives et d'éléments de basculement basés sur un vaste corpus de littérature publiée au cours des 25 dernières années qui s'appuie sur la physique de base, les observations, les données paléoclimatiques et la modélisation.

Il y a très grande confiance que certains retours peuvent être quantifiés, d'autres sont connus mais ne peuvent pas être quantifiés, et d'autres peuvent encore exister qui sont actuellement inconnus.

Il y a très grande confiance que les modèles sont des représentations incomplètes du monde réel et qu'il n'y a confiance moyenne que leur tendance est de sous-estimer plutôt que de surestimer l'ampleur des changements futurs à long terme.


Voir la vidéo: Correction sujet mathématiques HEC Paris ECE 2016 Problème Partie II Questions u0026