Compétences médiatiques suisses

Nicht kategorisiert

Comment se situent les médias suisses dans une époque de Fake News (fausses nouvelles) et face à l’omniprésence des réseaux sociaux ? Les Fakes News concernant la très controversée origine du coronavirus s’accumulent et se propagent principalement sur les réseaux sociaux à la vitesse d’un feu de brousse. Dans une époque confrontée à l’incertitude des sources et aux fausses informations cela vaut le coup de miser de façon accrue sur les médias suisses afin d’avoir accès à des informations dignes de confiance.

Romina Gilgen, traduit par Frédéric Beloin  | 18.02.2020

Photo: Elijah O’Donnell sur Unsplash

En particulier, dans une société où les médias occupent un rôle central, ce n’est pas sans raison que le quatrième pouvoir politique est utilisé. Dans un contexte idéal les médias permettent un dialogue critique ainsi qu’une réflexion de l’opinion publique à propos de sujets politiques, sociaux, et économiques. Dans une époque de Fake News face à l’importance des réseaux sociaux, le lecteur est cependant de plus en plus contraint à devoir se forger sa propre image de la réalité. Tous les citoyens ne disposent cependant pas de compétences médiatiques ou ne prennent pas le temps de se forger une image plus fondée de la réalité. Le centre de recherche de l’opinion publique et de la société (en allemand fög) de l’université de Zurich s’est penché sur ce problème et a également analysé la qualité des médias suisses. De plus le fög a lancé un nouveau projet afin d’œuvrer pour une plus grande compétence des médias.

« Ce ciblage qui peut aller de Hard News à des thèmes ciblant l’humain, peut être considéré comme principal facteur de perte de diversité des médias suisses. »

Depuis dix ans le fög investi la qualité de rapport de l’information suisse en analysant par exemple le format de SRG ou de NZZ. La compréhension qualitative l’a ancré à la fonction de direction démocratique. C’est seulement grâce à l’aide des médias qu’il est possible de créer une opinion publique. En ce qui concerne les médias d’informations suisses ils comprennent principalement les journaux suisses tels que des magazines ou la télévision ainsi que les émissions radios et site web de News. Au travers ces divers moyens les Hommes peuvent se forger une image comprenant  plusieurs points de vue. En résumé, les médias d’informations doivent  permettre un discours public et la possibilité de se référer à une qualité aussi élevée que possible.

De News dures à des thèmes ciblés sur l’humain

D’après les chercheurs, l’offre des médias suisses perd peu en qualité, de plus tous les aspects de qualité ne sont pas impactés de la même manière. L’information factuelle, la contribution propre rédactionnelle, ainsi que l’effort de transparence des sources démontrent un constant haut niveau de qualité. Les médias suisses perdent en contrepartie en pertinence et en variété. En ce qui concerne les domaines de la qualité de classification ainsi que du relevé et de la diversité du contenu des pertes sont enregistrées. La catégorie Soft News (nouvelles douces) regroupe les rapports sur le Life Style (mode de vie), célébrités et divers thèmes de divertissement. Le domaine des Hard News (nouvelles dures) comprend un changement du centre d’intérêt du rapporteur. Celui-ci peut s’étendre de contextes sociaux plus vastes à des attentions plus particulièrement ciblées sur la personne. Les contributions sur les thèmes ciblant l’humain ont particulièrement augmentés. Par cela nous entendons des sujets du quotidien ou des sujets émotionnels dans lesquels chacun peut avoir une contribution dans une conversation. L’expert Joerg Schneider, associé chercheur au fög, complète les résultats de l’étude : “les médias d’information suisses essayent de réagir face aux réseaux sociaux en montrant des prises de position et des opinions plus diversifiées. Ce ciblage qui peut aller de Hard News à des thèmes ciblant l’humain, peut être considéré comme principal facteur de perte de diversité des médias suisses.

Signification de „fonction de direction démocratique“
Une compréhension qualitative basée sur la fonction de direction démocratique, rend obligatoire d’évaluer tous les médias avec le même standard.  Car un média peut très bien connaitre un succès commercial mais sans pour autant, ou alors très peu, contribuer à la communauté démocratique et politique. En résumé tout se que le marché récompense n’est pas forcément souhaité dans une politique démocratique. Le but du « livre annuel de la qualité des médias » est, et a toujours été de développer un instrument démocratique théorique tout en s’appuyant sur tous les principaux types de médias existant. (fög)

Les valeurs sont importantes

Heureusement tous les aspects de perte de qualité ne sont pas impactés de la même manière. En ce qui concerne le professionnalisme les médias suisses enregistrent de bons scores. Ce professionnalisme est important afin d’instaurer une bonne base de confiance entre les médias et les consommateurs. Le périodique NZZ par exemple écrit que les médias suisses devraient s’appuyer de manière accrue sur la crédibilité et établir le dialogue. Après tout le lecteur doit être traité d’égal à égal. Les lecteurs veulent avant tout s’abonner à un journal lorsqu’une confiance mutuelle est instaurée. Pour cela le média doit avoir les mêmes valeurs que son lecteur. Cela peut s’observer lorsque le média fait preuve de proximité vis-à-vis du lecteur. C’est d’autant plus important dans une ère de Facebook et Twitter.

« Un journalisme professionnel est important afin d’établir des standards de communication publique. D’après Joerg Schneider l’utilisateur doit de la même manière être conscient, qu’il agisse en tant qu’orateur dans l’espace public dès qu’il partage ou commente sur les réseaux sociaux. »

Le média ne doit pas être perçu comme une organisation inapprochable mais tel un ami capable de fournir  d’importantes informations. L‘expert prévient tout de même qu’il est important de faire la distinction entre journaliste et utilisateur. Le journaliste est moins susceptible de se rapprocher d’un ami et doit cependant être un professionnel de la communication. Un journalisme professionnel est important afin d’établir des standards de communication publique. D’après Joerg Schneider l’utilisateur doit de la même manière être conscient, qu’il agisse en tant qu’orateur dans l’espace public dès qu’il partage ou commente sur les réseaux sociaux.

Le temps et l’argent priment

L’importance de contributions, qui font du sens, tel que les commentaires ou les chroniques a augmenté.  Ce n’est fondamentalement pas une mauvaise évolution, cependant lorsqu’elle  s’effectue au détriment de la recherche elle peut être problématique.  Concrètement ce qui est enlevé aux rapports de vérification est donné aux formats subjectifs. Une telle évolution est à apprécier avec précaution, car le danger d’encourager ces recherches nécessitant moins de ressources augmente. L’utilisation intensive de ressources mobilisées dans le journalisme  classique, ne peut plus être garantie en raison des mesures de réduction de coûts omniprésentes Ceci peut avoir des répercussions négatives lorsque ces mesures sont opérées au détriment des rapports sur la pertinence du contenu. Joerg Schneider est lui aussi d’accord avec cette déclaration. « Les ressources manquent» la question que doit se poser la branche des médias est la suivante « comment est-il possible d’injecter plus de ressources dans le journalisme ? » Sur ce point Schneider pense qu’il est important de construire une prise de conscience concernant la qualité des nouvelles. L’expert s’imagine un modèle hybride, dans lequel l’utilisateur pourrait par exemple payer pour certains articles et en contrepartie d’autres articles seraient mis à disposition par les services publics en tant que bien commun.

Les critères de qualité du raisonnement public comprennent:
I)
La Pertinence: Les citoyens doivent débattre des sujets généraux importants
II) L’universalité (multitude): Lorsque la raison prime, tous les avis fondés doivent être autorisés et aucun thème ne doit se voir retirer l’accès au débat public.
III) L´accessibilité: Indépendamment du statut et de l’origine, l´opinion publique doit être accessible à tous.
IV) Rationalité: recherche de la douce violence du meilleur argument (et non la recherche de la polémique ou du discours ad hominem)
Ces critères de qualité de « bon » débats publiques sont d’après le fög toujours valable et constituent aujourd’hui la base de l’organisation démocratique moderne de sociétés civilisées.

Economiser au détriment de la classification  

Les mesures de réduction de coûts se font particulièrement ressentir dans le domaine de la classification. Le réel problème est lié à l’accès facile aux Fake News alors que les offres proposant plus de profondeur coûtent de l’argent. Grâce à l’interaction entre plusieurs aspects différents, la qualité des médias suisses tient le coup. Les ressources journalistiques peuvent en réalité être considérées comme le critère de qualité déterminant. En conclusion il est particulièrement important de fournir suffisamment de ressources financières et personnelles au journalisme informationnel. C’est le seul moyen pour le journalisme informationnel d’assumer ses responsabilités envers la société.

Photo: Artem auf Pexels

Compétence Médiatique – Une matière scolaire pour la vie

Le fög de l’université de Zürich va même un peu plus loin et souhaite avec son projet Newsup.ch enseigner plus de compétences médiatiques à l’école. Par conséquent il a lancé un nouveau projet pour les collégiens et les étudiants de cycle supérieur. Le fög a mis en place une rédaction propre qui a pour but de fournir aux  professeur(e)s le matériel adapté. Ils ou elles peuvent ainsi au moyen de documents préparés en amonts fournir des exemples de différences entre Fake news et informations journalistiques. Joerg Schneider est d’avis que compte tenu des nouveaux médias et de la surabondance d’informations ce ne sont pas seulement les jeunes qui ont besoin de compétences médiatiques, mais tous les utilisateurs et utilisatrices. Ainsi l’utilisateur serait à même de vérifier la véracité des informations.

 » Un journalisme professionnel est important afin d’établir des standards de communication publique. D’après Joerg Schneider l’utilisateur doit de la même manière être conscient, qu’il agisse en tant qu’orateur dans l’espace public dès qu’il partage ou commente sur les réseaux sociaux. « 

Jörg Schneider, Associate Researcher fög, UZH

A l’aide de ce projet le fög souhaite multiplier les résultats de sa recherche dans l’espace publique et en faciliter l’accès. Les individus jeunes sont principalement ciblés. Les adolescents d’aujourd’hui ont grandi avec une utilisation spécifique des médias, ils ne s’informent plus à l’aide de la télévision et des journaux mais au moyen de sites de news, des blogs ou à l’aide des réseaux sociaux. Les rapports d’information s’accordent sur un point : Le danger des réseaux sociaux est que l’on obtient uniquement des informations réduites et préfiltrées.

Distinguer les vraies des fausses News

Les adolescents doivent remettre en question leur propre comportement de consommation, collecter des connaissances sur les systèmes médiatiques, vérifier les sources, afin de se construire une opinion fondée. Ceci peut être résumé par le concept « compétences médiatiques ». Le fög a comme ambition de rapprocher les adolescents en leur donnant l’avantage d’être bien informé.  Les journaux de nouvelles qui d’une part  s’éloignaient et de l’autre part par un format de  nouvelles obsolète n’arrivent plus à atteindre les 16-19 ans qui constituent 56%. Ils doivent adopter une compréhension de la valeur ajoutée et de l’importance d’une telle offre. Ainsi qu’il puisse, dans une époque face au flux d’informations concernant le coronavirus discerner avec une plus grande probabilité quelle information est une Fake news et quelle information ne l’est pas.

Est-ce que tu veux abonner notre bulletin?    Bulletin

Ou tu veux nous soutenir?   Merci beaucoup!

l'autrice

Romina Gilgen

l'expert

Joerg Schneider

Teilen

Qui détermine si effet il y a ?

Nicht kategorisiert

La médecine moderne dispose d’un large éventail de thérapies et de mesures médicales utilisées à titre préventif. Mais qui détermine si effet il y a ? Doris Kopp et Beatrice Minder sont toutes deux spécialistes de l’information au sein de l’institut pour la médecine sociale et préventive (ISPM) à l’université de Berne. Elles nous livrent de quelle manière, grâce à la recherche, on parvient à déterminer avec la plus grande des certitudes si telle ou telle thérapie est efficace ou non. On nomme cela l’évidence scientifique.

Tanya Karrer, traduit par Laurane Girard | 15.01.2020

Vue d’artiste d’un brin d’ADN par Arek Socha sur Pixabay

Celui ou celle qui jette un coup d’œil à l’ordinateur de Doris Kopp et Beatrice Minder de l’institut pour la médecine sociale et préventive (ISPM) de l’université de Berne ressentira un léger vertige. Des enchaînements de mots-clés sans fin et complexes défilent à l’écran. Les deux expertes chercheuses parcourent des banques de données scientifiques telles que PubMed, épluchant quelques 30 millions d’études, à la recherche d’une « véritable aiguille dans une botte de foin », nous confie Kopp. Pour cela, nous avons besoin d’une stratégie de recherche astucieuse, complète sa collègue Minder. Vous avez bien dit banques de données ? Mais qu’en est-il du laboratoire et autres boîtes de Petri ? Kopp rit. Il y a dix ans, lorsqu’elle débuta à l’institut en tant que bibliothécaire, ces mêmes questions lui vinrent à l’esprit. Elle sait aujourd’hui que la recherche ne se pratique pas seulement dans les boîtes de Petri.

« Par leurs recherches, les spécialistes de l’information contribuent à la réussite des travaux de recherche. » Doris Kopp

Elle nomme cela la « recherche desktop ». Cette autre forme de recherche ne se pratique plus directement sur le patient mais se base sur des études scientifiques déjà réalisées ou à l’aide de données de patients anonymisées. Dans ce que l’on appelle les revues systématiques (en anglais : systematic reviews), plusieurs études cliniques sur un thème donné sont comparées entre elles et l’on cherche à en cristalliser une tendance. Dans le meilleur des cas, on obtient une évidence scientifique. Cela signifie que, selon les connaissances actuelles, l’on peut dire avec la plus grande des certitudes qu’un effet, quel qu’il soit se produira ou non. Cela permet également d’identifier si le domaine de recherche concerné nécessite des recherches plus approfondies.

D. Kopp & B. Minder, Spécialistes de l’information de’ ISPM

La quête de l’évidence scientifique est un travail d’équipe

Comment parvient-on à cette évidence ? Minder nous l’explique : « Premièrement, les chercheurs formulent une question. Ils doivent connaître exactement le but de leur recherche. A partir de là, nous épluchons la littérature scientifique du monde entier en quête d’informations sur le thème en question. Une grande partie de ces informations est recensée dans les banques de données. Kopp et Minder formulent leur requête selon les standards internationaux. Les non-spécialistes peuvent se représenter ce processus comme une recherche Google très complexe : différents mots-clés sont liés entre eux par les opérateurs dis booléens, à savoir AND, OR, NOT et autres, et le tout est entré dans le moteur de recherche. Si cette recherche est bien menée, les études concernant le thème défini au départ sont sélectionnées par la banque de données. « Nous identifions alors une vingtaine d’études qui correspondent à nos attentes. Les chercheurs contrôlent ensuite la qualité de ces études et leurs résultats. Kopp nous explique le procédé : « Admettons par exemple que deux études démontrent l’efficacité d’une thérapie, mais que dix-huit autres études affirment que la thérapie en question ne présente aucune efficacité. Avant que l’on puisse dire si une thérapie est efficace ou non, les statistiques respectivement les statisticiens entrent en ligne de compte. Ils calculent entre-autre combien de personnes ont pris part aux études et pondèrent les résultats en conséquence. C’est seulement suite à cette analyse que l’on peut attester de l’évidence ou plus précisément de l’efficacité d’une thérapie ou d’une mesure médicale utilisée à titre préventif ».

Exemple de chaîne de recherche, source: Wiblo avec du matériel de l’UniBe

La recherche doit être compréhensible, transparente et reproductible

Les spécialistes de l’information et leurs recherches au sein de banques de données contribuent largement au succès d’un travail de recherche. Kopp s’en réjouit car depuis peu, elle et sa collègue sont mentionnées en tant que co-auteures dans les rapports de recherche. Les méthodes utilisées pour la recherche dans les banques de données doivent être compréhensibles, transparentes et reproductibles pour les autres chercheurs autour du globe. C’est pourquoi les enchaînements de mots-clés utilisés sont mentionnés dans chaque revue systématique.

Boîte à info
Evidence:
Caractère de ce qui s’impose à l’esprit avec une telle force qu’il n’est besoin d’aucune autre preuve pour en connaître la vérité, la réalité. (…) Fondée sur la constatation des faits. (Petit Robert 2008). Caractère de ce qui est évident, immédiatement perçu comme vrai. (Larousse)
Opérateur de Boole:
Un opérateur de Boole est un opérateur logique, qui opère sur des valeurs de vérité. Il porte le nom de son créateur, George Boole. Le principal champ d’application des opérateurs de Boole est la programmation (Wikipédia).

«C’est seulement après que la recherche ait démontré la responsabilité du Contergan dans ces malformations que les autorités se sont exprimées et ont interdit le médicament.» Beatrice Minder

Alors tout est bien qui finit bien ? Non, pas tout-à-fait. Minder nous fait remarquer que cela prend souvent beaucoup de temps jusqu’à ce que les résultats de ces recherches soient pris en compte dans la pratique quotidienne de la médecine, en hôpital comme au sein de cabinets médicaux par exemple. « Cela est souvent dû au fait que l’évidence scientifique n’est pas claire ou qu’il réside encore des lacunes dans la recherche », pense-t-elle. Minder mentionne l’exemple du Contergan, un calmant qui a été utilisé dans les années soixante. Il est à l’origine du scandale de malformations chez les nouveau-nés. « C’est seulement après que la recherche ait démontré la responsabilité du Contergan dans ces malformations que les autorités se sont exprimées et ont interdit le médicament », complète-t-elle.

Boîte à info
ISPM de l’université de Berne:
L’institut pour la médecine sociale et préventive (ISPM) de l’université de Berne est une organisation aussi bien scientifique qu’académique, comptant des collaborateurs provenant de 23 nations différentes. Il mène une recherche interdisciplinaire dans les domaines de la santé sociale et comportementale, de l’épidémiologie clinique, de la biostatistique et de la santé environnementale.

En tant que mère de deux adolescentes, elle se demande aujourd’hui s’il existe suffisamment d’évidence scientifique concernant la sûreté du vaccin VPH. Elle put s’informer à l’aide du réseau de recherche indépendant Cochrane, lequel s’est spécialisé dans l’évidence scientifique. Tous les feux semblent être au vert pour le vaccin VPH.

Actuellement, la revue systématique est considérée comme la méthode de premier choix afin d’établir quelle thérapie est efficace ou non. De par leur travail de recherche prenant en compte des études fiables, les spécialistes de l’information Doris Kopp et Beatrice Minder jouent un rôle prépondérant aussi bien pour la sécurité des patients que pour l’amélioration des connaissances médicales en général.

Est-ce que tu veux abonner notre bulletin?    Bulletin

Ou tu veux nous soutenir?   Merci beaucoup!

L'auteur

Tanya Karrer

Les expertes UniBe

Doris Kopp & Beatrice Minder

Teilen

Un chevalier très convoité

Nicht kategorisiert

Un groupe de chercheurs de l’Université de Berne planche sur une nouvelle édition du Parzival, le roman en vers de Wolfram von Eschenbach. La dernière date de presque deux cents ans et ne remplit plus les exigences en matière de critique de texte contemporaine.

Anika Ruppen, traduit par Cécile Racine | 01.01.2020

Écriture manuscrite Z Heidelberg, Universitätsbibliothek, Cod. Pal. germ. 364 Vers 1.1

Parzival, ou Perceval, est peut-être le plus célèbre parmi les chevaliers de la littérature du Moyen-Age. Composé entre 1200 et 1210, le récit de ses aventures a laissé plus de traces écrites qu’aucun autre roman de la Légende arthurienne : selon le site du projet (www.parzival.unibe.ch), on connait aujourd’hui pas moins de seize manuscrits, une impression et 72 fragments qui racontent son histoire. La dernière trouvaille en date, un fragment qui se trouve à Mayence, a été faite en 2019 seulement. Il semble peu probable que l’on découvre aujourd’hui encore de nouveaux manuscrits complets. Des fragments de texte peuvent en revanche ressurgir à tout moment des reliures d’anciens manuscrits peu consultés. Ceci grâce à la pratique de la maculature : principalement utilisée autour de 1500, elle consistait à déchiqueter les manuscrits dont les textes n’intéressaient plus, afin d’en utiliser à nouveau le parchemin. La plupart du temps, les bribes et les bandes obtenues ainsi à partir d’anciens documents servaient à renforcer la reliure de nouveaux manuscrits ou impressions. C’est dans ces conditions que certains fragments de textes peuvent rester cachés des siècles dans des manuscrits archivés dans des bibliothèques. Le hasard ou des recherches spécifiques les font finalement ressurgir.

Écriture manuscrite R Bern, Burgerbibliothek, Cod. AA91 61v Vers 308.11

Chef-d’oeuvre lacunaire

Jamais remplacée depuis, la dernière édition de Parzival a été publiée par Karl Lachmann en 1833 ; époque à laquelle l’étude de la poésie médiévale en langue vulgaire connaissait un véritable engouement. Mais ce qui passait alors pour une remarquable performance d’édition ne remplit plus les exigences contemporaines – la méthode utilisée est dépassée par rapport aux standards actuels et s’appuie sur trop peu de manuscrits. Le nombre de textes découverts a entre-temps significativement augmenté, une part importante des sources connues à ce jour n’est ainsi pas prise en compte par l’édition de Lachmann.

«La collaboration avec d’autres disciplines, comme l’informatique ou la biologie de l’évolution, donne un souffle nouveau à notre spécialité.»

Concept tourné vers l’avenir

En 2001, le Dr. Michael Stolz et son équipe de recherche se donnent pour objectif d’élaborer une nouvelle édition critique du Parzival (à l’époque, sous l’égide de l’Université de Bâle, puis pour l’Université de Berne à partir de 2006). En plus d’une édition sous forme de livre imprimé, le projet vise à offrir un accès électronique aux textes historiques du Parzival. Dans ce but, les 89 sources connues à ce jour ont été numérisées et des recherches ont été effectuées sur la façon de les rassembler. « Pour qui entreprend d’en faire une édition, le Parzival a le gros avantage d’avoir déjà été étudié à de nombreuses reprises et en suivant différentes perspectives », explique le Dr. Mirjam Geissbühler, qui a rejoint en 2011 l’équipe de recherche comme collaboratrice scientifique. Grâce à cela, les chercheurs ont pu appuyer leur travail sur l’ensemble des connaissances scientifiques antérieures. L’utilisation de méthodes digitales innovantes offre néanmoins des possibilités entièrement nouvelles en matière de traitement et d’analyse de texte. Le stockage électronique des textes ouvre par exemple de nouvelles perspectives quant à la mise en relation des différents fragments entre eux.

Écriture manuscrite R Bern, Burgerbibliothek, Cod. AA91 55v Vers 282.9

Garantir la précision

Financé par le Fonds national Suisse, le projet suscite un large intérêt. « La banque de données digitale mise en place dans le cadre du projet Parzival est une véritable mine de trésors pour les chercheurs », explique Mirjam Geissbühler, qui s’en est elle-même largement servie pour la rédaction de sa thèse. Elle travaillait alors sur le Manuscrit L, qui contient la légende de Parzival, ainsi que d’autres textes de l’épopée arthurienne et d’Histoire médiévale.

La complexité de la thématique abordée se révèle à mesure que le projet avance. Après quinze ans passés à la numérisation des sources historiques, ainsi qu’à la mise en place d’un texte d’édition basé sur quatre versions parallèles du Parzival, le gros du travail se concentre désormais sur la révision du texte. « Garantir l’homogénéité de ce projet, issu des premiers temps de la digitalisation, constitue un véritable défi. Nous devons travailler avec le plus grand soin » souligne Mirjam Geissbühler pour expliquer l’importance de cette dernière étape du projet. La relecture, selon une ligne éditoriale stricte, et l’uniformisation des textes numérisés pour la nouvelle édition demande une extrême précision de la part des chercheurs.

Écriture manuscrite O München, Bayerische Staatsbibliothek, Cgm 18 1r Vers 3.25

La renommée de la littérature médiévale

Produire une nouvelle édition moderne du Parzival au bénéfice de la Science n’est pas le seul enrichissement apporté par le projet. Ce dernier vise également à rafraîchir l’image quelque peu poussiéreuse de la recherche en littérature médiévale. Selon Mirjiam Geissbühler, « La collaboration avec d’autres disciplines, comme l’informatique ou la biologie de l’évolution, donne un souffle nouveau à notre spécialité. » Le développement technologique rapide permet difficilement de prédire l’aspect que prendront les éléments numérisés du projet au cours des années à venir. C’est pourquoi les chercheurs planchent également sur des solutions durables de sauvegarde des données récoltées. Pour l’heure, la philologie allemande peut néanmoins se réjouir d’une mise à niveau de son domaine de recherche – ainsi que de l’avenir lumineux promis au très convoité chevalier Parzival, dont l’histoire est désormais beaucoup plus facilement accessible à tous.

Est-ce que tu veux abonner notre bulletin?    Bulletin

Ou tu veux nous soutenir?   Merci beaucoup!

L'auteur

Anika Ruppen

L'experte de l'UniBe

Mirjam Geissbühler

Teilen

La glace éternelle et niveau de la mer

Nicht kategorisiert

En 2007, le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) mettait en garde contre la fonte de la calotte glaciaire au Groenland ainsi que dans l’Ouest de l’Antarctique. Une montée du niveau de la mer entre quatre et six mètres en serait la conséquence. Tout cela au cours des prochaines décennies, voire peut-être même seulement des prochains millénaires. Toutefois, les chercheurs de la NGO Climate Central prédisent, dans leur dernière déclaration de novembre, une montée pouvant atteindre jusqu’à deux mètres déjà pour l’année 2100. Les conséquences calculées du réchauffement climatique se sont décalées vers un futur proche dans des délais plus brefs, et la montée du niveau de la mer menace désormais l’humanité déjà dans les décennies à venir. Pendant ce temps, un coup d’oeil dans le passé nous montre comment l’interaction entre la glace et l’océan s’avère fragile.

Martin Zahno et Luisa, traduit par Eloïse Mabillard | 01.01.2020

Ellsworth Mountain Range dans l’Antarctique (Image by skeeze from Pixabay)

Une montée d’un voire deux mètres n’a pas l’air d’être beaucoup, à première vue. Mais pourtant : si le niveau de la mer continue à monter de manière si fulgurante, alors les conséquences deviendront vraiment considérables et perceptibles déjà dans un futur proche. Cela est également souligné par Horst Machguth, professeur de glaciologie à l’université de Fribourg : « Associé à des raz-de-marée, un tel niveau de la mer peut conduire à des inondations catastrophiques. » D’après les calculs les plus récents, de tels évènements extrêmes se produisent non seulement de manière amplifiée, à cause de la quantité d’eau augmentée, mais également et surtout beaucoup plus régulièrement. « Les régions qui se situent à peine au-dessus du niveau de la mer, jusqu’à loin dans l’arrière-pays, courent le danger d’être touchées par de telles inondations. », toujours selon Machguth.
Ainsi, des pays comme le Vietnam, le Bangladesh ou les Pays-Bas, mais aussi des villes telles que Jakarta, Mumbai ou Venise vont être confrontés de manière plus fréquente à des raz-demarée déjà dans les décennies à venir. De tels scénarios avaient déjà été prédits par des chercheurs dans le monde entier au cours des décennies passées. Cependant, la période durant laquelle il pourrait se produire de tels évènements dévastateurs, s’est décalée désormais de manière considérable vers le présent. Il ne s’agit plus de millénaires. Le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) considère ainsi dans son rapport le plus récent datant de Septembre 2019, que la montée du niveau de la mer de six mètres pourrait déjà être atteinte en l’an 2300. Un tel scénario mettrait chacun des près de 700 millions d’habitants de la côte du monde entier devant des problèmes considérables. De grandes régions pourraient ainsi devenir inhabitables de manière permanente. Les conséquences de la montée du niveau de la mer peuvent donc déjà être considérées comme absolument menaçantes pour le futur proche. La situation est d’autant plus préoccupante  lorsque l’on se penche sur les raisons de ce phénomène.

Inlandsis dans l’Antarctique (Image by David Mark from Pixabay)

D’où provient l’augmentation de cette montée des eaux ?

Pour pouvoir comprendre les raisons de ces nouveaux scénarios, nous devons tout d’abord faire la différence entre les glaciers et les inlandsis. Sous le terme d’inlandsis, on sous-entend les énormes masses de glace, qui sont liées au Groenland et à l’Antarctique. Bien que la fonte des glaces en soi n’ait qu’un impact réduit sur la hausse du niveau de la mer, il se trouve que : environ la moitié de la glace, qui fond dans le monde, provient actuellement des glaciers. « Cela est dû avant tout à la grande surface qu’occupent les glaciers à travers le monde » d’après Machguth. L’ablation ou plus précisément la fonte de la glace se produit en premier lieu à la surface de la masse de glace. « Cependant, cela ne durera pas » continue à expliquer le glaciologue. « Même au moment où la plus grande partie des glaciers sera fondue, il restera toujours malgré tout beaucoup de glace dans l’Arctique qui, elle, continuera encore longtemps à faire monter le niveau de la mer. » De même la disparition des glaciers dans le Groenland a plus augmenté durant les années passées que ce que l’on avait présumé dans les rapports de 2007.

« Près de la moitié de la glace qui fond dans le monde, provient actuellement des glaciers. »

Déjà maintenant, l’inlandsis du Groenland contribue de manière considérable à la montée du niveau de la mer, nettement plus que cette glace, qui est attachée à l’Antarctique, à l’heure actuelle. « Les raisons sont différentes », explique Machguth, « d’un côté, il y a de grandes parties du Groenland qui se situent loin au Sud et de l’autre il est important de comprendre que dans l’Arctique il fait nettement plus chaud qu’au pôle Sud. » Selon le glaciologue, cela est entre autre à ramener au fait que le Groenland est entouré de grandes masses continentales. L’Antarctique, de son côté, possède, à travers sa position entourée d’océans, son propre système climatique, dans lequel des températures en dessous du point de congélation règnent aussi pendant les mois d’été.

Infographie de Luisa, WIBLO

Ellsworth Mountain Range dans l’Antarctique (Image by skeeze from Pixabay)

Une montée d’un voire deux mètres n’a pas l’air d’être beaucoup, à première vue. Mais pourtant : si le niveau de la mer continue à monter de manière si fulgurante, alors les conséquences deviendront vraiment considérables et perceptibles déjà dans un futur proche. Cela est également souligné par Horst Machguth, professeur de glaciologie à l’université de Fribourg : « Associé à des raz-de-marée, un tel niveau de la mer peut conduire à des inondations catastrophiques. » D’après les calculs les plus récents, de tels évènements extrêmes se produisent non seulement de manière amplifiée, à cause de la quantité d’eau augmentée, mais également et surtout beaucoup plus régulièrement. « Les régions qui se situent à peine au-dessus du niveau de la mer, jusqu’à loin dans l’arrière-pays, courent le danger d’être touchées par de telles inondations. », toujours selon Machguth.
Ainsi, des pays comme le Vietnam, le Bangladesh ou les Pays-Bas, mais aussi des villes telles que Jakarta, Mumbai ou Venise vont être confrontés de manière plus fréquente à des raz-demarée déjà dans les décennies à venir. De tels scénarios avaient déjà été prédits par des chercheurs dans le monde entier au cours des décennies passées. Cependant, la période durant laquelle il pourrait se produire de tels évènements dévastateurs, s’est décalée désormais de manière considérable vers le présent. Il ne s’agit plus de millénaires. Le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) considère ainsi dans son rapport le plus récent datant de Septembre 2019, que la montée du niveau de la mer de six mètres pourrait déjà être atteinte en l’an 2300. Un tel scénario mettrait chacun des près de 700 millions d’habitants de la côte du monde entier devant des problèmes considérables. De grandes régions pourraient ainsi devenir inhabitables de manière permanente. Les conséquences de la montée du niveau de la mer peuvent donc déjà être considérées comme absolument menaçantes pour le futur proche. La situation est d’autant plus préoccupante  lorsque l’on se penche sur les raisons de ce phénomène.

Inlandsis dans l’Antarctique (Image by David Mark from Pixabay)

D’où provient l’augmentation de cette montée des eaux ?

Pour pouvoir comprendre les raisons de ces nouveaux scénarios, nous devons tout d’abord faire la différence entre les glaciers et les inlandsis. Sous le terme d’inlandsis, on sous-entend les énormes masses de glace, qui sont liées au Groenland et à l’Antarctique. Bien que la fonte des glaces en soi n’ait qu’un impact réduit sur la hausse du niveau de la mer, il se trouve que : environ la moitié de la glace, qui fond dans le monde, provient actuellement des glaciers. « Cela est dû avant tout à la grande surface qu’occupent les glaciers à travers le monde » d’après Machguth. L’ablation ou plus précisément la fonte de la glace se produit en premier lieu à la surface de la masse de glace. « Cependant, cela ne durera pas » continue à expliquer le glaciologue. « Même au moment où la plus grande partie des glaciers sera fondue, il restera toujours malgré tout beaucoup de glace dans l’Arctique qui, elle, continuera encore longtemps à faire monter le niveau de la mer. » De même la disparition des glaciers dans le Groenland a plus augmenté durant les années passées que ce que l’on avait présumé dans les rapports de 2007.

« Près de la moitié de la glace qui fond dans le monde, provient actuellement des glaciers. »

Déjà maintenant, l’inlandsis du Groenland contribue de manière considérable à la montée du niveau de la mer, nettement plus que cette glace, qui est attachée à l’Antarctique, à l’heure actuelle. « Les raisons sont différentes », explique Machguth, « d’un côté, il y a de grandes parties du Groenland qui se situent loin au Sud et de l’autre il est important de comprendre que dans l’Arctique il fait nettement plus chaud qu’au pôle Sud. » Selon le glaciologue, cela est entre autre à ramener au fait que le Groenland est entouré de grandes masses continentales. L’Antarctique, de son côté, possède, à travers sa position entourée d’océans, son propre système climatique, dans lequel des températures en dessous du point de congélation règnent aussi pendant les mois d’été.

Infographie de Luisa, WIBLO

L’Antarctique en tant que facteur de risque

Le fait que l’Antarctique soit toutefois tout sauf un système stable, nous incite à jeter un oeil dans le passé. Entre les deux dernières périodes glacières, pendant la relativement courte période d’environ 1000 ans, le niveau de la mer global s’est élevé jusqu’à 9 mètres et se situait par moments cinq mètres au-dessus du niveau actuel. Cette montée abrupte n’est pas à ramener uniquement à la rapide fonte des glaces, argumente Machguth : « Cet évènement est lié, avec de grandes probabilités, aux énormes processus de vêlage dans l’Ouest de l’Antarctique ». Lors du processus de vêlage, des masses de glace entières se détachent de l’inlandsis et se promènent ensuite sur la mer libre jusqu’à leur fonte complète.

Boîte d’information sur l’Antarctique
L’épaisseur de glace maximale estimée dans la région de la Terre-Adélie est de 4’776 mètres. Avec une surface d’environ 13,924 km2, l’Antarctique est, du point de vue de la superficie, plus grand  que l’Union européenne et près de 337 fois plus grand que la Suisse! De plus dans l’Antarctique, des vents de force supérieure à la moyenne prédominent. Toute l’année, des vents soufflant jusqu’à 300 km/h ne sont pas rares.

Ce qui est menaçant là-dedans, c’est le fait que dans l’Ouest de l’Antarctique, de grandes parties de l’inlandsis existant, contrairement au Groenland, se situent sur la terre ferme qui elle, se trouvent en dessous du niveau de la mer. Au cas où l’Ouest de l’Antarctique viendrait à se déstabiliser, la conséquence pourrait être une fonte subglaciaire. La répercussion d’une
telle fonte subglaciaire ainsi que de la déstabilisation mécanique, serait le vêlage rapide d’énormes masses de glace. Un potentiel de montée du niveau de la mer de l’Ouest de l’Antarctique de sept mètres, donne une représentation menaçante. « De tels scénarios sont cependant à apprécier avec parcimonie, car un évènement si soudain pourrait influencer à son tour des phénomènes globaux, comme par exemple les courants marins, qui ont pour leur part des impacts sur le climat », explique Machguth.

Même si les conséquences d’un tel scénario sont dures à estimer, les impacts à court terme de la montée du niveau de la mer sont déjà visibles aujourd’hui. L’influence que cette montée va avoir sur l’humanité entière, devient désormais peu à peu visible et perceptible. Conséquences d’un processus que l’on ne peut presque plus arrêter, mais que l’on peut au mieux encore endiguer.

Est-ce que tu veux abonner notre bulletin?    Bulletin

Ou tu veux nous soutenir?   Merci beaucoup!

l'auteur

Martin Zahno

L'illustratrice

Luisa Morell

Spécialiste (Université de Berne)

Horst Machguth

Teilen