Abonnez-vous à nos infolettres. Obtenez en plus et assurez-vous de ne rien manquer directement dans votre boîte courriel.

Éducation

Réforme des sciences pures au cégep: des profs dénoncent un sévère recul de la biologie

Craignant de voir le peu de place accordé à leur discipline être réduit encore plus, des professeurs de biologie au cégep dénoncent les conclusions d’un comité d’experts dans une lettre ouverte. «Nous croyons qu’en ce début de 21e siècle, le Québec ne peut pas prétendre former adéquatement sa jeunesse dans les différents domaines scientifiques en marginalisant ainsi certaines disciplines», écrivent-ils.

Ce comité d’experts ne recommande pas de couper dans les cours de bio obligatoires, qui représenteraient 14 % des heures de cours (contre 11 % en ce moment), mais il éliminerait une grande partie des «cours au choix», avec lesquels les étudiants qui se destinent à une formation universitaire en biologie ou dans les sciences de la santé peuvent adapter la formation à leurs besoins. Le résultat final serait qu’une bonne partie de l’offre de cours en biologie disparaîtrait.

Or «une majorité d’étudiants inscrits en Sciences de la nature se dirigent vers les Sciences de la santé et de la vie [après le cégep]», souligne la lettre ouverte.

«Aurions-nous accepté, collectivement, que des étudiants se dirigeant vers [des disciplines comme le génie ou l’informatique] soient obligés de suivre 60 % de leurs heures de cours de sciences en chimie et en biologie et seulement 30 % de leurs heures de sciences en physique et mathématiques?», poursuit le texte.

«Alors on ne fait pas cette sortie-là contre nos collègues des autres départements, parce que toutes les disciplines sont importantes, mais là on se questionne sur la qualité de la formation qu’on va pouvoir offrir à ces étudiants-là», a expliqué au Soleil Frédéric Demers, un des cosignataires et professeur de biologie au Cégep de Sainte-Foy. La lettre ouverte est signée par 25 profs de biologie, tous du Cégep de Sainte-Foy — mais ils tiennent à spécifier qu’ils l’ont fait à titre personnel et sans engager ni leur département, ni leur cégep. S’ils proviennent tous du même cégep, «c’est qu’on arrive vraiment à la fin du processus de révision du programme, alors il a fallu faire vite», explique une autre signataire, Jacinthe Fréchette.

M. Demers et Mme Fréchette reconnaissent qu’il y a une certaine hétérogénéité dans la formation collégiale en science, dont plusieurs universités se sont plaint par le passé — d’où l’idée de couper dans les cours au choix —, mais ils estiment que la biologie n’a pas être sacrifiée de la sorte.

Science

La «bordélisation» de la lumière

SCIENCE AU QUOTIDIEN / «J’ai vu des savons à vaisselle verts, des savons en barre oranges, des savons à main roses, et d’autres de toutes les couleurs, et pourtant leur mousse est toujours blanche. Pourquoi le savon mousse-t-il toujours blanc peu importe sa couleur ?», demande Origène D’Amours, de Magog.

Il y a essentiellement deux choses à savoir pour le comprendre, répond d’emblée le chimiste de l’Université Laval Normand Voyer. La première, commence-t-il, c’est que «quand on parle des colorants, les gens pensent souvent qu’il y en a beaucoup parce que la couleur, c’est ce qu’on voit en premier. Mais en réalité, le colorant ne représente que quelque chose comme 0,001% du total. C’est vraiment une infime partie du produit, pas besoin d’en mettre plus. Alors quand bien même que le savon serait fluo, il n’y a presque pas de colorant dedans. Et en plus, ça prend juste un peu de savon pour faire beaucoup de mousse parce que la mousse, c’est principalement de l’air [ce qui «dilue» le colorant encore plus que le 0,001% de départ, ndlr]. Alors c’est un peu normal qu’on ne puisse pas voir une bulle orange ou verte !»

Bref, quand on regarde une bulle (et une seule), on la voit transparente. Mais alors, la question devient : pourquoi la mousse est blanche, elle ? Si les bulles sont toutes transparentes, comment leur «somme» peut-elle être blanche ? La deuxième chose à savoir dont parle M. Voyer est justement là mais, avant d’y arriver, il faut faire un petit détour...

La lumière, ce sont des ondes électromagnétiques, c’est-à-dire de l’énergie électrique et magnétique qui se propage dans l’espace un peu à la manière des vagues sur l’eau — avec des «crêtes» et des «creux» qui sont séparés par une certaine distance nommée longueur d’onde. L’œil humain est capable de percevoir des longueurs d’onde située entre environ 380 et 740 nanomètres (nm). Autour de 700 nm, nous voyons du rouge ; aux environs de 600 nm, c’est plutôt du orange que nous voyons ; si la distance entre les «vagues» diminue encore un peu (entre 550 et 590 nm environ), alors nos yeux perçoivent du jaune; et ainsi de suite jusqu’aux plus courtes longueurs d’onde perceptibles par l’humain, soit le violet (entre 380 et 450 nm).

La lumière que nous recevons du Soleil (et de la plupart des ampoules électriques «normales») est un mélange de toutes ces longueurs d’onde. Or nos yeux perçoivent ces mélanges comme du blanc, et la clef de l’énigme de la mousse blanche, comme on s’en doute, elle est précisément là.

Si l’on regardait la paroi d’une bulle de savon au microscope, on se rendrait compte qu’elle est composée de deux minces couches de savon qui retiennent une fine couche d’eau entre elles. Quand la lumière passe à travers la paroi d’une bulle, une partie est réfléchie, mais une autre (grosse) partie traverse la paroi et s’en trouve déviée et ce, à des angles qui vont varier légèrement selon la longueur d’onde — ce qui va séparer les couleurs.

Maintenant, imaginez un peu ce qui arrive dans une mousse comptant des centaines, voire des milliers de petites bulles. En un mot comme en cent, si l’on me permet un terme pas-très-technique : c’est le bordel.

«La lumière est réfléchie et dispersée dans toutes les directions possibles, dit M. Voyer. Si bien qu’en bout de ligne, si le bleu est réfléchi partout, si la même chose arrive au rouge et à toutes les autres couleurs, cela donne un mélange et ça, ça fait du blanc.»

Fait intéressant, enchaîne-t-il, c’est la même chose qui arrive dans les nuages : la lumière est «éparpillée» dans toutes les directions en traversant les gouttelettes d’eau, toutes les longueurs d’onde s’en trouvent «remélangées», et le résultat est que les nuages sont blancs.

* * * * *

«Pourriez-vous expliquer si la décennie s’est terminée en 2019 ou si elle va vraiment finir en 2020 ? Il me semble qu’une décennie, ce sont les années 1, 2, 3, 4, 5, 6, 7, 8, 9 et 10. Donc, la deuxième décennie du troisième millénaire devrait finir en 2020, et non en 2019. Ce qui serait logique puisque l’an zéro n’existe pas : à un moment donné, on était au jour 1 de l’an 1. Corrigez-moi si je me trompe», demande Marie-Claude Boivin, de Québec.

Il n’y a effectivement jamais eu d’an zéro puisque l’habitude de compter les années à partir de la naissance du Christ remonte au 8e siècle et qu’en ce temps-là, le zéro n’avait tout simplement pas été inventé. Ni la numération romaine, ni son équivalent grec n’avaient de chiffre pour le zéro. À l’époque, d’ailleurs, l’idée d’avoir un symbole pour désigner le vide était vue comme un peu bizarre : les nombres étaient faits pour compter les choses alors s’il n’y avait rien à compter, à quoi bon adopter un signe ? On a bien trouvé certaines «formes» de zéro dans des documents antiques — les uns laissaient un espace vide, d’autres comme les Babyloniens mettaient une sorte de «symbole bouche-trou», voir ici : http://bit.ly/36Ls956 —, mais il faudra attendre que le mathématicien italien Fibonacci introduise les chiffres indo-arabes en Europe (autour de l’an 1200) pour que le zéro tel qu’on le conçoit aujourd’hui apparaisse en Occident.

Les années de l’«ère chrétienne» ont donc commencé par «1» et, de ce point de vue, Mme Boivin a entièrement raison : techniquement, il n’y a pas de décennie qui s’est terminée ou a commencé le 1er janvier dernier, la prochaine décennie ne débutera vraiment qu’en 2021. C’est d’ailleurs la position du Conseil national de la recherche : «le 3e millénaire et le 21e siècle ont commencé au même moment, à 00h00 le 1er janvier 2001», lit-on sur son site [http://bit.ly/2tJC4cO].

Sauf que les temps ont bien changé depuis que le moine Bède le Vénérable (672-735) a popularisé l'habitude de compter les années à partir de la naissance du Christ, qui était l'«an 1». L’usage du zéro est si universel et acquis chez nous que, culturellement, il nous semble beaucoup plus naturel de commencer les décennies avec un «chiffre rond», comme on dit. De ce point de vue, il n’y a pas grand-sens à rester prisonnier d’une erreur mathématique commise au Moyen-Âge, alors il est aussi défendable de considérer que les années 2020 ont commencé le 1er janvier dernier. Je ne crois pas qu’il ait vraiment de bonne ou de mauvaise réponse à cette question-là.

Science

Pourquoi les skieurs de fond ne connaissent pas la déprime saisonnière

LA SCIENCE DANS SES MOTS / La saison des fêtes est terminée et nous nous retrouvons avec plusieurs mois d’hiver devant nous, sans rien à célébrer. Alors, quoi faire pour éviter le « blues de janvier », aussi appelé déprime saisonnière ?

Notre étude, récemment publiée dans Psychiatry Research, a suivi près de 200 000 skieurs de fond pendant une vingtaine d’années. Nous avons constaté que les skieurs sont 50 pour cent moins susceptibles de souffrir de dépression que la population en général.

Alors, quel est leur secret ? Et comment en bénéficier sans nécessairement enfiler une paire de ski ?

Une mine d’or pour la recherche

En 1922, une course de 90 km a été organisée pour la première fois en Suède, la plus longue distance au monde. Elle a été nommée « Vasaloppet » en l’honneur d’un ancien roi suédois, Gustav Vasa. En Suède, nous avons un penchant pour la tenue de registres. Depuis 1989, il est possible de suivre tous les Suédois qui ont participé à la course. C’est une véritable mine d’or pour la recherche sur l’exercice.

Des études antérieures ont montré que les skieurs de la Vasaloppet sont significativement plus actifs physiquement, ont une meilleure alimentation, fument moins et vivent plus longtemps que la population générale. Dans notre étude, nous avons cherché à déterminer la fréquence de dépression chez ces skieurs par rapport aux personnes du même sexe et du même âge dans la population générale. Au total, l’étude a porté sur près de 400 000 personnes (dont 40 pour cent de femmes), skieurs et non-skieurs.

Psychologie et chimie du cerveau

Nous pensons que le risque de dépression plus faible chez les skieurs est principalement dû à leur mode de vie physiquement actif. Les skieurs passent également beaucoup de temps à l’extérieur, et l’exposition au soleil est associée à un risque réduit de dépression. Cependant, de précédentes études montrent que l’activité physique a un effet plus important par rapport à la seule luminothérapie. Mais les deux mis ensemble pourraient offrir une combinaison puissante pour prévenir la dépression.

De plus, les environnements naturels semblent améliorer notre capacité à faire face au stress.

Mais comme nous ne savons toujours pas ce qui cause réellement la dépression, il est difficile d’évaluer exactement comment l’activité physique en réduit le risque. Il est probable que l’exercice interagit avec les facteurs psychologiques et moléculaires qui y sont liés.

Psychologiquement, l’exercice peut vous distraire de vos pensées négatives. De plus, l’activité physique peut améliorer votre sensation de bien-être parce qu’elle est perçue comme bénéfique par la société.

Mais supposons que le ski attire des gens qui sont déjà très heureux, alors que les personnes plus tristes et susceptibles d’être déprimées ne souhaitent pas en faire. Dans l’étude Vasaloppet, nous avons tenté de contrôler cette donnée par une analyse supplémentaire : nous avons exclu tous les skieurs et les non-skieurs ayant reçu un diagnostic de dépression au cours des cinq premières années qui ont suivi leur adhésion dans l’étude. Même en tenant compte de ce fait, les skieurs avaient toujours un risque de dépression inférieur d’environ 50 pour cent.

Sur le plan physiologique, il a également été démontré que l’exercice a un effet sur l’inflammation et le stress, deux systèmes liés à la dépression. De plus, l’exercice augmente la sécrétion d’endorphines, soit des molécules de « bien-être », dans le cerveau. L’activité physique stimule également les facteurs de croissance neuronale. Cependant, la plupart de ces découvertes ont été faites dans des études faites sur des animaux avec un suivi de courte durée. Elles doivent donc être répétées chez les humains.

Différences de genres

Le risque de dépression était également réduit chez les skieurs et les skieuses par rapport à la population générale. Toutefois, chez les hommes, les skieurs qui terminaient la course plus rapidement avaient un risque encore plus faible de dépression ultérieure comparativement aux hommes plus lents. Cela indique une relation entre le niveau de condition physique et le risque de dépression.

Science

Pour les enfants (surtout les garçons), le dominant, c'est l'homme

PARIS — Dès l'âge de quatre ans, les enfants, surtout les garçons, associent généralement pouvoir et masculinité, selon une étude publiée jeudi dans la revue scientifique Sex Roles.

«Dans les interactions entre des figures masculines et féminines, les enfants ont tendance à associer l'individu qui domine au masculin», explique à l'AFP Jean-Baptiste Van Der Henst, de l'Institut des sciences cognitives Marc Jeannerod, coauteur de l'étude portant sur plus de 900 enfants de 3 à 6 ans.

Sur une feuille, deux enfants sont dessinés. L'un dans une posture de domination, l'autre représentant la subordination. Aucun des deux personnages n'offre le moindre indice sur son genre et pourtant, «à partir de quatre ans, une large majorité d'enfants considère que le personnage dominant est un garçon», rapportent les chercheurs dans un communiqué du CNRS. Qu'ils soient garçons ou filles, qu'ils vivent au Liban, en France ou en Norvège.

«Nous avons été étonnés de ne pas avoir de différence entre les pays, notamment entre le Liban et la Norvège», considérée comme moins inégalitaire sur cette question, avoue Jean-Baptiste Van Der Henst.

Lors d'une autre expérience, les chercheurs ont demandé aux enfants de choisir dans la peau duquel des deux enfants dessinés ils se verraient bien. Résultat : si les garçons ont désigné le dominant, les filles, lorsqu'elles s'imaginaient face à un garçon, se sont indifféremment identifiées à l'un ou l'autre des personnages. «Les petites filles sont moins enclines à considérer que le genre qui domine est celui des garçons», note le chercheur CNRS.

Poursuivant leur recherche, les chercheurs ont ensuite fait le choix de confronter les enfants à des personnages très genrés: une marionnette fille et une marionnette garçon, aux voix identiques. Les deux figurines jouent d'abord ensemble devant les enfants puis disparaissent de leur champ de vision tout en continuant à discuter. Rapidement, l'une impose ses choix à l'autre. «Les garçons avaient tendance à dire que c'était la marionnette garçon qui décidait alors que les filles n'assignaient pas plus la posture de pouvoir à la marionnette garçon qu'à la marionnette fille», résume le chercheur CNRS.

«On a, au niveau global, une tendance à associer masculinité et pouvoir mais avec des variations selon le genre des participants dans certaines expériences», résume-t-il. Pourquoi cette variation ? Dans la première expérience, le pouvoir est exprimé par une posture. «Peut-être que cette forme de pouvoir un peu agressif, coercitif, est davantage associée à quelque chose de masculin», avance Jean-Baptiste Van Der Henst.

Science

Les 5 étapes du deuil, un modèle valide ? Faux

DÉTECTEUR DE RUMEURS / Déni, colère, marchandage, dépression, acceptation. « Les 5 étapes du deuil » sont à ce point entrées dans la culture populaire qu’on a oublié qu’à l’origine, elles ne voulaient pas dire ce qu’on leur fait dire aujourd’hui, expliquent le Détecteur de rumeurs et l’Organisation pour la science et la société.

L’origine

L’auteure de ce modèle est la psychiatre Elisabeth Kübler-Ross. Dans son livre On Death and Dying (traduit sous le titre Les derniers instants de la vie) publié en 1969, elle résume le processus qu’on a fini par appeler «les cinq étapes du deuil». On en parle aussi comme du modèle Kübler-Ross, ou DABDA (du nom anglais des cinq phases).

Aujourd’hui, une recherche «5 phases du deuil» sur Internet fait avant tout ressortir des références aux étapes que traverserait soi-disant une personne après le décès d’un proche. Or, ce n’était pas l’objet de la recherche menée par Kübler-Ross. La psychiatre étudiait plutôt les étapes que doit traverser une personne qui vient d’apprendre qu’elle souffre d’une maladie incurable.

La recherche initiale

La Dre Kübler-Ross a développé son modèle après avoir interviewé plusieurs individus atteints d’une maladie qu’ils savaient être fatale et ce, après qu’elle ait observé, pendant sa résidence en psychiatrie, que le personnel hospitalier accordait peu d’attention aux patients en phase terminale. À l’époque, il y avait peu de connaissances médicales sur la psychologie de ces patients. Kübler-Ross a donc décidé de travailler avec ces derniers et d'enseigner sur ce sujet mal connu.

Son désormais célèbre livre est le fruit de ses années de contacts avec plus de 200 patients. Pour ce qui est des proches endeuillés, elle écrit dans Les derniers instants de la vie que «les membres de la famille sont soumis à des stades d'ajustements différents mais similaires à ceux décrits pour nos patients». Mais les cinq phases du deuil ne sont jamais mentionnées pour la famille du défunt.

Une série d’anecdotes

Il faut souligner que le livre n’avait pas non plus la prétention de fournir une « preuve » que le modèle de la Dre Kübler-Ross expliquait les comportements d'une personne au seuil de sa mort. Il s'agissait simplement d’une suite d'études de cas prenant la forme de conversations avec ces patients.

Depuis la publication du livre, quelques études ont tenté de valider le modèle : la majorité des résultats indiquent qu’il souffre de graves lacunes. Une étude publiée en 1981 s'est attardée, pour des périodes de temps variables, à 193 individus devenus veufs. La conclusion: «le stress du veuvage persiste plusieurs années après la mort du conjoint; ces résultats ne confirment pas l'existence de phases d'adaptation distinctes.» Une recherche du psychologue américain George Bonnano publiée en 2002 s’est concentrée sur 205 individus avant et après la mort de leur époux. Leurs résultats ont démontré que seulement 11 % ont suivi une trajectoire de deuil présumée «normale».

Les études qui semblent soutenir l'existence d'un tel modèle de phases du deuil souffrent souvent de problèmes de méthodologie. Par exemple, cette étude de 2007 portant sur 233 individus en deuil: après sa publication, plusieurs lettres à la rédaction ont critiqué sa méthode et ses résultats. Les auteurs eux-mêmes ont par la suite quelque peu discrédité leurs conclusions en suggérant de renommer et de reconceptualiser les phases du deuil.

L’impact

À ce jour, le livre Les derniers instants de la vie est mentionné plus de 15 000 fois sur Google Scholar. Il est cité à toutes les sauces, depuis le processus d’acceptation chez les personnes atteintes du sida ou de la maladie pulmonaire obstructive chronique, jusqu’à la douleur vécue par les aidants naturels des aînés souffrant de démence, en passant par les amputés, les médecins qui ont été mal évalués par leurs patients… ou les consommateurs déçus par leur iPhone 5.
Trois chercheurs ont prévenu les professionnels de la santé en 2017 : le modèle en cinq phases qui se voulait purement descriptif est devenu, à tort, « prescriptif », c’est-à-dire qu’on y réfère trop souvent comme étant la norme dans le processus de deuil ou d’acceptation de la maladie. Un choix qui, écrivent-ils, peut faire du tort à certaines personnes.

Un an après sa mort survenue en 2004, Elizabeth Kübler-Ross et son co-auteur David Kessler, reconnaissaient dans le livre On Grief and Grieving (Sur le chagrin et sur le deuil) que les cinq phases ne sont pas nécessairement des arrêts linéaires sur une ligne du temps. Elles ne seront pas vécues par tous, et leur ordre peut changer.

* * * * *

Ce texte est une adaptation du billet rédigé en anglais par Ada McVean, publié sur le site de l’Organisation pour la science et la société de l’Université McGill.

Science

Deux découvertes de l’UL au palmarès de Québec Science [VIDÉO]

Des travaux menés à l’Université Laval, au sujet des interactions entre les espèces de poissons ainsi que de la sclérose latérale amyotrophique, se sont frayé un chemin jusque dans le palmarès des 10 découvertes québécoises de l’année de Québec Science, a-t-on appris jeudi quand le magazine a publié sa fameuse «liste».

La sclérose latérale amyotrophique, ou SLA, est causée dans l’immense majorité des cas par une protéine qui se dérègle et s’agglutine sur les neurones moteurs (chargés de transmettre les signaux du cerveau aux muscles). Les gens atteints, entre 2 et 3 cas par 100 000 personnes, ressentent d’abord une faiblesse dans les bras et les jambes, qui dégénère en paralysie puis éventuellement en problèmes respiratoires entraînant la mort, entre deux et cinq ans plus tard. Il n’existe aucun traitement à l’heure actuelle.

On ignore pourquoi cette protéine se dérègle, mais les chercheurs de l’UL Jean-Pierre Julien et Silvia Pozzi, du centre de recherche CERVO, ont mis au point un anticorps qui s’attaque justement à cette protéine corrompue. Dans une étude parue en février dernier dans le Journal of Clinical Investigation, ils ont montré que des souris atteintes de SLA voyaient leur état musculaire s’améliorer et, dans 20 % des cas, leur cognition prendre du mieux aussi. Ces résultats sont extrêmement encourageants, mais soulignons tout de même qu’il reste encore plusieurs étapes à franchir avant les «essais cliniques», qui testeront l’efficacité et la sûreté du traitement sur des patients.

Par ailleurs, une équipe à laquelle appartient le professeur de biologie de l’UL Philippe Archambault a dressé une étonnante «carte» des interactions prédateurs-proies entre plus de 11 000 espèces marines, et a montré que les océans de la planète sont beaucoup plus liés entre eux qu’on le croyait. Les chercheurs s’attendaient à voir une série de zones à l’intérieur desquelles les espèces sont très interconnectées, mais sans avoir beaucoup de liens avec les autres zones. Or ils ont plutôt réalisé que ce que l’on appelle souvent «les océans» est en réalité, du point de vue des interactions entre les poissons, un seul grand océan, concluaient-ils en juillet dans la revue savante Nature – Ecology and Evolution.

Notons que le palmarès de Québec Science en est à se 27e édition cette année. Comme à chaque fois, le public est maintenant appelé à voter pour sa découverte favorite (https ://www.quebecscience.qc.ca/decouverte2019/) et a jusqu’au 14 février pour le faire.

Science

Viande rouge et conflit d'intérêts : cette fois-ci, c'est pour vrai

BLOGUE / Aussitôt qu'elle fut publiée, l'automne dernier, la «célèbre» série d'articles scientifiques disant que la viande rouge n'est pas mauvaise pour la santé fut la cible d'accusations de conflits d'intérêts. Il s'agissait d'allégations sans grand-fondement et lancées avec une étonnante légèreté, mais il y a eu du nouveau dans ce dossier pendant le temps des Fêtes et cette fois-ci, c'est plus sérieux.

Le 31 décembre, les Annals of Internal Medicine (où étaient parus les papiers qui avaient fait tant jaser l'automne dernier) ont publié une correction indiquant que l'auteur principal Bradley Johnston (de l'Université Dalhousie au moment des travaux, et maintenant à l'Université Texas A&M) avait omis de déclarer une subvention de recherche de Texas A&M AgriLife Research, un fonds financé en partie par l'industrie bovine. Cette subvention, qui s'élevait à environ 75 000 $ selon ce que rapportait le Washington Post cette semaine, a servi à financer des travaux de M. Johnston sur les gras saturés et polyinsaturés — les premiers étant plus abondants dans la viande rouge que dans les autres aliments.

Il faut bien préciser, ici, qu'on ne parle pas d'une rétractation, où une revue «dépublie» et retire carrément une étude de ses archives, mais d'un simple addendum. Ça n'est donc pas un revirement dramatique, mais cela vient quand même ajouter un astérisque (un de plus, diront certains) à côté de cette étude. Je ne crois pas que cela change grand-chose au portrait d'ensemble — toute cette histoire de viande rouge me semble toujours être un verre d'eau que l'on voit à moitié vide ou à moitié plein, selon ses préférences, comme je l'écrivais il y a quelques semaines —, mais il vaut la peine de mentionner ce nouvel astérisque, je pense.

Cela dit, je veux aussi insister sur le fait que ces allégations de conflit d'intérêts sont sérieuses cette fois-ci, mais qu'elles ne l'ont pas toujours été dans ce dossier, malheureusement. En octobre dernier, le New York Times avait publié une «nouvelle» accusant M. Johnston d'avoir caché «des liens passés avec l'industrie» du bœuf. Cependant, le NYT n'avait rien trouvé de plus qu'une subvention de recherche remontant à plus de trois ans en arrière (donc les règles de transparence des Annals of Internal Medicine avait été respectées) de la part d'un organisme nommé International Life Sciences Institute (ILSI).

Il s'agit-là d'une organisation très proche de l'industrie alimentaire et financée par elle, et il est vrai qu'elle compte le géant américain du bœuf Cargill parmi ses donateurs, mais ça n'était en soi pas particulièrement concluant puisque Cargill n'est qu'un donateur industriel parmi beaucoup d'autres (dont la plupart n'ont rien à voir avec l'industrie bovine) et que l'ILSI compte aussi dans ses rangs des producteurs de volaille (dont Cargill, d'ailleurs) qui n'ont pas intérêt à voir la viande rouge être «innocentée», bien au contraire.

En outre — et ça, ça ne s'invente pas —, la subvention de l'ISLI n'avait pas servi à des travaux sur le bœuf ou les gras saturés, mais bien à un article sur... le sucre. Ce qui signifie que le NYT avait considéré qu'une subvention pour étudier le sucre remontant à plus de trois ans constituait un conflit d'intérêts pour étudier la viande rouge. Plus tiré par les cheveux que ça, la tête arrache...

Cette fois-ci, les liens avec AgriLife semblent être quelque chose de beaucoup plus réel — donnons le crédit au Washington Post, qui fut le premier sur cette vraie histoire. Mais il n'empêche que tout ceci montre que l'on devrait manier ce type d'accusation avec beaucoup plus de circonspection qu'on le fait trop souvent. Les conflits d'intérêts en science sont une question sérieuse, pas un outil de relation publique dont on peut se servir à sa guise pour discréditer des chercheurs dont les résultats ne font pas notre affaire.

Science

Les Vikings du Groenland victimes d’avoir trop chassé le morse

PARIS - Les Vikings auraient disparu de l’immense Groenland au 15e siècle après avoir décimé les populations de morses qu’ils chassaient pour leur ivoire, selon une étude publiée lundi dans la revue Quaternary Science reviews.

L’île a été colonisée il y a au moins 3000 ans par le peuple inuit de l’Arctique qui a été contraint de partir probablement en raison des conditions climatiques rigoureuses.

Ensuite est arrivé le Viking norvégien Erik le Rouge, considéré à tort comme le fondateur de la première colonie du Groenland vers le 11e siècle.

L’occupation Viking a alors duré jusqu’au 15e siècle environ avant de cesser dans des conditions qui restent encore mystérieuses.

L’une des explications souvent avancées serait que le Groenland, comme le reste de l’Europe du Nord, traversait la période dite du «Petit âge glaciaire» et que les Nordiques sont partis pour trouver des terres plus clémentes.

Mais selon une équipe de chercheur, «la surexploitation des populations de morses» pour l’ivoire de leurs défenses pourrait également avoir joué un rôle.

En analysant de nombreux objets médiévaux, les chercheurs ont mis en évidence que «pendant longtemps, quasiment tout l’ivoire commercialisé en Europe provenait de morses chassés dans des mers exclusivement accessibles depuis les colonies scandinaves du sud-ouest du Groenland».

«Les Scandinaves du Groenland avaient besoin de commercer avec l’Europe pour le fer et le bois, et n’avaient pratiquement que les produits issus des morses à échanger», explique James Barrett de l’université de Cambridge et coauteur de l’étude dans un communiqué.

Mais selon les chercheurs, au fil des siècles, l’ivoire s’est mis à provenir d’animaux plus petits et de plus en plus souvent de femelles. De plus, «des preuves génétiques et archéologiques suggèrent que les morses provenaient de régions de plus en plus septentrionales».

Puis au XIIIe siècle, l’ivoire d’éléphant a inondé les marchés européens, entraînant une chute du prix de l’ivoire de morse et obligeant les Vikings à intensifier leur chasse pour maintenir la viabilité économique des colonies du Groenland.

«Si à la fois, la population des morses et les prix de leur ivoire ont commencé à chuter, cela a dû sérieusement compromettre la résistance des colonies», déclare Bastiaan Star de l’Université d’Oslo, coauteur de l’étude.

Science

Lendemain de veille: voici ce qui se passe dans votre cerveau

LA SCIENCE DANS SES MOTS / Vous êtes-vous réveillés avec une pointe d’anxiété au lendemain du réveillon ? Après deux semaines de célébrations de Noël bien arrosées, il est possible que vous souffriez de l’angoisse post-cuite, un cocktail d’anxiété et de gueule de bois que les anglophones appellent « hangxiety » (contraction des mots hangover pour gueule de bois et anxiety pour anxiété).

Je suis chercheure en neurosciences et je m’intéresse aux effets de l’alcool et de la nourriture sur le fonctionnement du cerveau. Voici comment la consommation d’alcool peut provoquer de l’anxiété après l’effet euphorisant.

De la téquila aux endorphines et la dopamine

Les boissons alcoolisées – vin, bière ou spiritueux – perturbent l’équilibre des neurotransmetteurs dans le cerveau. L’effet peut en être agréable sur le moment, mais beaucoup moins le lendemain.

Cet effet agréable est dû au fait que l’alcool stimule la production d’endorphines, ces opioïdes naturels fabriqués par le cerveau.

Il augmente aussi la production de dopamine, activant le système de récompense du cerveau – qu’on appelle aussi le système mésolimbique. La production de dopamine renforce les comportements qui ont mené à cette euphorie, si bien que ce petit coup de téquila nous donne envie d’en prendre un autre !

Mais l’alcool ne fait pas qu’activer notre système de récompense. Il perturbe aussi l’activité des neurotransmetteurs qui contrôlent le fonctionnement du cerveau. L’imagerie cérébrale prouve que l’alcool diminue l’activité du cortex préfrontal et du lobe temporal, des centres qui régissent la prise de décision, le contrôle de soi et la mémoire.

Anxiété, malaise et stress

L’alcool augmente l’activité inhibitrice des récepteurs GABA (acide gamma-aminobutyrique). Les récepteurs GABA réduisent les activités des neurones et l’alcool exagère cet effet. Un taux élevé de GABA favorise les sentiments de relaxation et de calme, qui nous rendent plus sociables et moins stressés.

Consommé en grande quantité, l’alcool bloque aussi le système glutamique. Le glutamate est le principal neurotransmetteur d’excitation du cerveau, et il joue un rôle important dans la constitution des souvenirs et des émotions.

L’équilibre entre le GABA et le glutamate est indispensable pour permettre à notre cerveau de fonctionner de façon optimale. L’alcool rompt cet équilibre. L’alcool est un agent dépressif pour le système nerveux central, car il augmente le caractère inhibitif du GABA tout en diminuant le caractère d’excitation du glutamate.

Quand notre cerveau perçoit un haut niveau d’acide gamma-aminobutyrique en conjonction avec un faible taux de glutamate, il réagit rapidement afin de compenser ce déséquilibre. C’est cette réaction compensatoire, menant à une baisse du taux de GABA et à une augmentation du taux de glutamate, qui provoque le sentiment d’anxiété, d’inconfort et de stress qui se produit le lendemain.

Oh non… J’ai pas fait ça ?

Après plusieurs boissons alcoolisées, la transmission de glutamate est ralentie dans le lobe temporal médian, la région du cerveau qui contrôle la mémoire.

Les trous de mémoire provoqués par l’alcool sont causés par l’augmentation rapide du taux d’alcool dans le sang, résultat fréquent d’une cuite, qui se définit par l’absorption de quatre boissons alcoolisées pour une femme, et cinq pour un homme, dans un délai de deux heures.

Lorsque l’on est sobre, les souvenirs se constituent dans le cerveau après que l’information ait été transmise de la mémoire à court terme à la mémoire à long terme. Ce processus s’intitule consolidation de la mémoire. C’est ainsi que les souvenirs sont récupérés et mémorisés.

L’alcool entrave cette fonction, ce qui mène à un état de confusion et de doute le lendemain d’une cuite. Le souvenir confus de la soirée précédente (C’est pas vrai, j’ai vraiment fait ça ?) peut provoquer une forte anxiété.

L’alcool a également un impact énorme sur la qualité du sommeil, car il réduit la phase de sommeil paradoxal, celle où se produisent les rêves. Cette phase est indispensable à l’inscription des souvenirs à long terme. Donc une mauvaise nuit de sommeil à la suite d’une beuverie risque de « fragmenter » les souvenirs.

Les timides souffrent davantage

Ce n’est pas tout le monde qui souffre de l’angoisse de la gueule de bois, mais certains en sont plus affectés que d’autres. Selon une récente étude, l’intensité de l’expérience varie en fonction des traits de personnalité. Les timides seraient plus anxieux après une cuite que les gens moins inhibés.

Comment éviter l’angoisse post-cuite

La seule façon de s’assurer de ne pas subir cette expérience est de ne pas consommer d’alcool.

Par contre, en limitant sa consommant d’alcool, on peut réduire les effets de l’angoisse post-cuite. Espacez le boissons en buvant de l’eau, et vous éviterez l’augmentation rapide du taux d’alcool dans le sang, qui affecte votre mémoire. De plus, vous resterez hydraté, ce qui vous évitera le mal de tête du lendemain.

* * * * *

Ce texte est d'abord paru sur le site franco-canadien de The Conversation. Reproduit avec permission.

«La science dans ses mots» est une tribune où des scientifiques de toutes les disciplines peuvent prendre la parole, que ce soit dans des lettres ouvertes ou des extraits de livres.

Science

Les T-Rex nains n’ont sans doute pas existé, conclut une étude

WASHINGTON — Depuis trois décennies, une controverse agite le monde de la paléontologie: existait-il une espèce naine de tyrannosaures?

Un paléontologue du nom de Robert Bakker l’avait affirmé en 1988 en reclassifiant un spécimen découvert en 1942. Exposé au muséum d’histoire naturelle de Cleveland, il devint le premier membre d’une espèce nouvelle baptisée Nanotyrannus.

En 2001, une autre équipe découvrit le fossile presque complet d’un autre petit tyrannosaure près d’Ekalaka, dans le Montana, dans la célèbre formation de Hell Creek. Baptisé Jane, l’animal, à peine plus grand qu’un cheval de trait, fut rapidement décrit comme un Tyrannosaurus rex juvénile.

Mais une minorité de spécialistes continuaient à affirmer qu’il appartenait à cette espèce «pygmée», Nanotyrannus, en se fondant sur la morphologie du crâne et des os, différente de celle des T-Rex adultes.

Dans une étude publiée mercredi par Science Advances, des paléontologues ont procédé à une analyse microscopique de l’intérieur des os du tibia et du fémur de Jane, et d’un autre fossile moins complet, nommé Petey.

Cette technique dite de paléohistologie a confirmé que les deux étaient des individus immatures, et non des adultes.

Par extension, les auteurs jugent peu probable l’existence de Nanotyrannus.

«Les fossiles sont vraiment cool car les os se fossilisent jusqu’au niveau microscopique», explique à l’AFP Holly Woodward, de l’Université de l’État de l’Oklahoma, qui a conduit l’étude. «On peut inférer le rythme de croissance, l’âge et le niveau de maturité».

Les chercheurs ont également pu compter les anneaux des fémurs et tibias comme on les compte dans un tronc d’arbre pour en dériver l’âge: 13 ans pour Jane et 15 ans pour Petey.

L’étude complète ainsi nos connaissances encore limitées sur les 20 ans qui séparent l’éclosion des tyrannosaures de leur âge adulte. Jane, qui ne devait peser qu’une tonne, est morte juste avant la phase de croissance exponentielle, qui l’aurait amenée à la masse adulte d’environ 9,5 tonnes.

«Tout le monde adore les T-Rex, mais on ne sait pas grand chose sur la façon dont ils grandissent», dit Holly Woodward. «C’est sûrement le dinosaure le plus célèbre du monde, mais on n’a principalement que des squelettes très grands».

C’est la conséquence de la frénésie des collectionneurs et du public pour les T-Rex les plus monstrueux possibles, au détriment de spécimens plus petits. Seuls cinq à sept fossiles de T-Rex jeunes seraient aujourd’hui préservés dans le monde, dont certains dans des collections privées et inaccessibles aux chercheurs, regrette-t-elle.

Science

Les incendies en Australie déciment koalas et autres espèces sauvages uniques

SYDNEY — La vie sauvage australienne, réputée notamment pour ses koalas et ses kangourous, mettra des décennies à se remettre des feux de forêt qui dévastent actuellement l’immense île-continent.

Depuis le début en septembre de ces incendies ravageurs, au moins 20 personnes sont décédées et une surface équivalente à deux fois la Belgique est partie en fumée.

Ces feux ont également été meurtriers pour la vie sauvage. Selon une récente étude, ils sont à l’origine de la disparition de près d’un demi-million d’animaux dans un seul État et des décennies seront nécessaires pour que la vie sauvage se reconstitue.

Cette crise a mis l’accent sur le changement climatique responsable, selon les scientifiques, de cette saison des feux plus intense, longue et précoce que jamais.

Le gouvernement australien a été pointé du doigt, accusé de ne pas apporter de réponses à cette crise et de ne pas prendre les mesures nécessaires sur le plan environnemental.

Des images bouleversantes de koalas assoiffés buvant de l’eau dans des bouteilles tenues par des pompiers ou de kangourous totalement paniqués au milieu des flammes, ont fait le tour du monde.

Une étude de l’Université de Sydney estime que dans le seul État de Nouvelle-Galles du Sud, le plus touché par ces feux, 480 millions d’animaux ont été tués depuis septembre.

Ces calculs de taux de mortalité sont très «prudents», ont souligné vendredi dans un communiqué les auteurs de cette étude, et le bilan pourrait être «considérablement plus élevé».

Des milliards de décès d’animaux?

Afin de parvenir à ce chiffre, les chercheurs ont recoupé les estimations concernant la densité de population de ces mammifères dans cet État avec la superficie de végétation ravagée par les feux. Ce nombre comprend les mammifères, les oiseaux et les reptiles mais pas les insectes, les chauves-souris et les grenouilles.

Le nombre d’animaux qui a ainsi disparu «est susceptible d’être beaucoup plus élevé que 480 millions», selon le communiqué.

«La vie sauvage en Nouvelle-Galles du Sud est gravement menacée et et subit la pression croissante de toute une série de menaces, notamment le défrichement et le changement climatique».

Le professeur Andrew Beattie, de l’Université Macquarie près de Sydney, a déclaré à l’AFP que le nombre de décès d’animaux à l’échelle nationale pourrait se chiffrer en milliards «si vous pensez aux mammifères, aux oiseaux, aux reptiles et aux amphibiens et que vous vous comptez les plus gros insectes comme les papillons».

«Nous pouvons être à peu près sûrs que dans de grandes parties ravagées par ces vastes feux, la plupart des animaux sauvages seront morts», a déclaré ce professeur du département de biologie.

«La flore et la faune auront disparu, ce qui inclut les animaux qui forment la chaîne alimentaire des plus grands, auxquels les gens ne pensent souvent pas», a-t-il expliqué.

Les populations de koalas ont été particulièrement touchées parce qu’ils vivent dans les arbres, se nourrissent uniquement de certains types d’eucalyptus et ne peuvent pas s’échapper rapidement des flammes.

Science

Les gadgets connectés en quête de maturité à la grand-messe annuelle des technologies

SAN FRANCISCO — Les télévisions, voitures et autres brosses à dents «intelligentes» seront en quête de sens et de maturité cette année, lors de la grand-messe américaine annuelle des technologies de grande consommation à Las Vegas.

Du 7 au 10 janvier, le Consumer Electronics Show (CES) va accueillir à Las Vegas environ 175 000 visiteurs et plus de 4500 exposants, qui présenteront des écrans toujours plus fins et souples, des robots toujours plus inventifs et des objets toujours plus intimement connectés au corps humain.

Leur défi n’est plus de surprendre — cela fait quelques années qu’ils suscitent au mieux un haussement de sourcil — mais de prouver leur valeur et leur utilité au consommateur, déjà noyé dans le «tout connecté».

«L’industrie parle désormais d’évolution, et non plus de révolution», constate Tuong Nguyen, analyste chez Gartner.

Les accessoires et vêtements connectés ne peuvent plus se contenter de mesurer le rythme cardiaque, les mouvements ou la vue. Ils doivent mettre leur intelligence artificielle (IA) au service de leur utilisateur de façon concrète en les alertant sur d’éventuelles anomalies et en leur indiquant la marche à suivre.

Emotion connectée

Grâce aux assistants vocaux intégrés aux écouteurs, «le restaurant de l’autre côté de la rue pourrait vous lire son menu, par exemple», imagine Simon Forrest de Futuresource.

Même s’ils sont encore loin de comprendre les émotions humaines, certains appareils font déjà «semblant», ajoute-t-il. «Ils prennent un ton joyeux quand votre équipe de football favorite gagne ou dépité quand votre mère est derrière la porte».

Tous ces objets doivent en outre communiquer entre eux, qu’ils fonctionnent avec Siri (Apple), Alexa (Amazon), Google ou un autre assistant vocal.

«Le CES déborde de gadgets et d’appareils pour la maison, certains bizarres et inutiles, d’autres intéressants», commente Bob O’Donnell de Technalysis Research. «Mais c’est très compliqué de tout faire marcher ensemble, ce qui énerve pas mal de gens».

Les grandes marques ont fini par s’en apercevoir: Amazon, Apple, Google et la fondation Zigbee Alliance veulent créer, d’ici fin 2020, une nouvelle norme pour que les équipements de maison connectés puissent parler la même langue.

En 2019, 815 millions d’objets de ce type ont été vendus, selon le cabinet IDC, qui table sur 1,39 milliard en 2023.

AR, VR, ne vois-tu rien venir

D’autres technologies, présentes depuis plusieurs années sur le salon de 250 000 mètres carrés, peinent à trouver leur place dans le quotidien des consommateurs.

La réalité augmentée (AR) et la réalité virtuelle (VR), par exemple, ont percé dans certains secteurs professionnels (comme la formation) mais pas encore dans les maisons.

Les lunettes et casques restent confidentiels, même si la réalité augmentée fait son chemin sur les mobiles, dans certains jeux ou applications publicitaires (pour visionner du maquillage sur son visage ou des meubles dans son salon).

«Il va encore falloir entre cinq et dix ans avant que ça se répande vraiment», estime Tuong Nguyen.

La 5G aussi n’en finit plus d’arriver. Les technologies reposant sur la dernière génération de téléphonie mobile ultra-rapide seront présentes aux CES, mais à un niveau encore loin des attentes, car les infrastructures ne sont pas prêtes.

Son déploiement vient tout juste de commencer aux États-Unis, alors que la Corée du Sud a distancé le reste du monde.

«On est encore au tout début», remarque Carolina Milanesi, analyste chez Creative Strategies. «Cela coûte très cher d’intégrer un module 5G à un appareil».

Vie privée oui, environnement non

Du côté des voitures autonomes aussi, aucun progrès spectaculaire n’est à prévoir. À défaut d’envisager une commercialisation dans un futur proche, les sociétés feront des démonstrations de leurs derniers progrès pour transformer la voiture en salon mobile, et les ordinateurs de bord en interfaces personnalisables et sécurisées.

«On est revenu à cinq ans en arrière : les constructeurs peuvent vendre des systèmes qui vous protègent et vous facilitent la vie, mais vous gardez le contrôle», explique Mike Ramsey, spécialiste de l’industrie chez Gartner.

Que les objets connectés veillent sur votre perron, vos déplacements ou votre santé, la confidentialité des données personnelles seront cette année encore des enjeux essentiels pour les entreprises, voire des arguments de vente.

L’environnement en revanche, fait à peine partie des stratégies de marketing.

Le souci du respect de la planète se retrouve dans certains matériaux recyclés ou l’allongement de la durée de vie de certains appareils, mais «en général ce n’est pas une réelle préoccupation», note Bob O’Donnell.

«Ce salon, c’est plutôt l’extravagance de la tech», abonde Carolina Milanesi. «Ces sujets sérieux ne trouvent pas nécessairement leur place sur la scène du CES».

Science

Percées scientifiques de 2019: la face cachée de l'évolution

En principe, l’évolution des espèces est exclusivement une affaire de gènes. Ceux qui confèrent un avantage sont sélectionnés, et les autres finissent par disparaître. En pratique, c’est vrai aussi, mais il y a tout de même un petit «oui mais...» que le chercheur de l’Université Laval Martin Laporte y a ajouté cette année : l’épigénétique a elle aussi un rôle à jouer.

C’est ce que lui et son équipe ont démontré en octobre dernier dans un article au sujet du grand corégone publié dans Science Advances — texte cosigné par le biologiste Louis Bernatchez, qui dirige le labo où travaille M. Laporte, ainsi que par Jérémy Le Luyer, de l’institut de recherche maritime français «Ifremer».

Le grand corégone est un poisson qui vit dans les lacs au Canada et dans le nord des États-Unis, et c’est une espèce qui est littéralement en train de se scinder en deux, petit à petit : la variante «normale», qui se nourrit d’invertébrés au fond des lacs et qui dépasse souvent les 40 cm et 1 kilo, et la variante «naine», qui se nourrit de plancton et qui atteint rarement les 20 cm et les 100 grammes.

Or il y avait dans tout ceci une sorte de mystère. Pour que deux populations évoluent en deux espèces à part entière, elles doivent être isolées d’une manière ou d’une autre, du point de vue de la reproduction. Mais les deux écotypes du corégone se côtoient dans plusieurs lacs et ils occupent les mêmes habitats, la seule différence étant les endroits où ils se nourrissent : le fond de l’eau pour la variante normale et le large pour la variante naine. En outre, leurs gènes sont encore presque identiques, et les deux populations demeurent tout à fait capables de se reproduire entre elles, même s’il semble qu’elles ne fraient pas aux mêmes endroits. Et pourtant, malgré cette très grande proximité génétique, les croisements donnent quand même des rejetons faiblards qui meurent plus souvent en cours de développement, montrent plus de malformations et d’instabilités génétiques, et produisent un sperme de moins bonne qualité.

Science

Percées scientifiques de 2019: le refuge du froid

Vite de même, c’était si évident que ça ne pouvait même pas se formuler sous la forme d’une question : si le climat se réchauffe, alors les lacs vont forcément se réchauffer eux aussi, de la surface jusqu’au fond. Bien sûr c’est ce qui est en train de se passer, se disait un peu tout le monde. Jusqu’à ce que la biologiste Isabelle Laurion s’en mêle.

«Ça fait longtemps que je m’intéresse à la stratification thermique des lacs et comment ça affecte leur écologie, dit la chercheuse du centre Eau, Terre et Environnement de l’INRS. Et pour moi, c’était clair qu’un réchauffement à la surface ne voulait pas nécessairement dire un réchauffement au fond du lac. Je travaille sur des plans d’eau où la transparence est faible, donc la lumière ne descend pas profondément. Et ça veut dire que la chaleur aussi a du mal à se propager jusqu’au fond. Alors quand ça se réchauffe en surface, ça crée un écart de température, donc une plus grande stabilité de l’eau, ce qui empêche un bon mélange et garde la chaleur en surface.»

Mais dans les milieux de la recherche, l’idée reçue était que le réchauffement devait se faire sentir sur toute la colonne d’eau des lacs. Ce qui étonnait d’autant plus Mme Laurion que le réchauffement planétaire s’accompagne d’une tendance générale au «brunissement» des eaux douces. La chaleur stimule en effet l’activité microbienne des lacs, ce qui augmente la quantité de matière organique dissoute et rend les eaux plus opaques, explique-t-elle. Le fait que la saison de croissance des plantes s’allonge produit le même effet, les changements climatiques rendent plus fréquents les fortes pluies, qui charrient alors plus de matière en suspension.

Mme Laurion et son équipe ont donc décidé d’en avoir le cœur net et ont épluché la littérature scientifique. Ils ont analysé des données portant sur environ 13 000 lacs dans le monde et répertoriées dans des dizaines d’études différentes. Et ils ont trouvé que non seulement le fond des lacs ne se réchauffe généralement pas, mais que la tendance générale est plutôt au refroidissement, surtout dans les lacs dont les eaux deviennent de plus en plus opaques, comme le soupçonnait Mme Laurion. Ces résultats ont été publiés en août dernier dans la revue savante Limnology et Oceanography Letters. Le gros du travail a été réalisé par un postdoctorant de l’Université de Bâle, Maciej Bartociewicz, qui est premier auteur de l’étude, et les travaux furent dirigés par la chercheuse de l’UdeM Roxane Maranger, qui en est l’auteure «sénior».

Ce sont surtout dans les lacs de faible profondeur (0 à 5 mètres) que l’on observe un refroidissement du fond, ont noté Mme Laurion et ses collègues. Dans cette catégorie, sur 21 études analysées, 18 ont trouvé un refroidissement — généralement entre -0,5 et -3°C, mais certains atteignaient -7,5 et même -10°C — 3 n’ont détecté aucune tendance et aucune n’a mesuré de réchauffement. Le mouvement général amène aussi vers un refroidissement dans le fond des lacs de 5 à 20 m de profondeur (17 études penchent de ce côté, contre 5 qui concluent au réchauffement), alors que dans les grands lacs, le fond semblaient suivre le chemin inverse (tendance plutôt au réchauffement).

«Les lacs plus profonds [ndlr : plus de 20 m de profond] sont généralement grands et donc plus exposés aux vents, ce qui crée de la turbulence et favorise le mélange des eaux de différentes profondeurs. Dans le cas des petits lacs, ils donnent moins de prise au vent et ils ont moins d’échange de chaleur, comme l’évaporation [qui va refroidir la surface et ainsi encourager le mélange, ndlr]», explique Mme Laurion. Ces échanges de chaleur sont plus prononcés dans les grands lacs, même si c'est le vent qui cause le plus clair de la turbulence dans leurs cas.

Tout cela n’est par ailleurs pas sans conséquence pour le climat. Jusqu’à la publication de son étude, les milieux de la recherche partaient habituellement du principe que le réchauffement du fond des lacs allait stimuler l’activité microbienne, qui allait alors «consommer» de plus en plus de la matière organique déposée dans les sédiments, ce qui allait en bout de ligne libérer plus de gaz carbonique (CO2). Mais ça n’est pas aussi simple, ont montré Mme Laurion et ses collègues.

En effet, plus la différence de température entre la surface et le fond d’un lac est grande, et plus ses eaux sont stratifiées et stables — elles ont moins tendance à se mélanger. C’est en plein ce qui est en train d’arriver dans les lacs peu profond, avec le fond qui refroidit et la surface qui réchauffe. Or cela implique deux choses. D’abord, que l’activité microbienne sera ralentie, et non accélérée, ce qui est une bonne nouvelle pour la lutte au réchauffement climatique puisque cela permet aux sédiments de stocker plus de carbone.

Mais d’un autre côté, cela signifie également que l’oxygène, que les lacs reçoivent par la surface, a plus de mal à se frayer un chemin jusqu’au fond. Les bactéries vivant là peuvent alors consommer plus d’oxygène que la turbulence n'en amène, et ce sont ensuite d'autres bactéries dites «méthanogènes» — qui rejettent du méthane (CH4) au lieu du CO2 — qui sont avantagées. Si bien qu’une partie du carbone que les petits lacs émettaient autrefois sous forme de CO2 est maintenant libéré sous forme de CH4, dont l’effet de serre est environ 30 fois plus puissant.

Et comme la lacs peu profonds représentent environ 42% de toute la superficie des lacs du monde, ce n’est pas un petit détail. Au final, calculent Mme Laurion et ses collègues, la contribution des lacs au réchauffement aurait été sous-estimée de 9 %.

Science

Le ciel de janvier 2020: à surveiller dans le ciel en 2020

Pluies d’étoiles filantes, planètes brillantes et conjonctions remarquables : coup d’œil sur les phénomène astronomiques qui retiendront notre attention en janvier et au cours des douze prochains mois.

Étoiles filantes

Une pluie de météores par une belle nuit d’hiver… L’idée vous chante? Alors, habillez-vous chaudement et sortez pour ne rien manquer des Quadrantides, qui atteignent leur maximum vers 3h20 du matin dans la nuit du 3 au 4 janvier 2020. Cette pluie est l’une des deux plus fortes de l’année, plus intense encore que les fameuses Perséides du mois d’août; par contre, son activité maximale ne dure que quelques heures. La Lune gibbeuse croissante se couchera vers minuit et laissera ensuite le champ entièrement libre pour l’observation visuelle des météores : en fait, on s’attend à une excellente année pour les Quadrantides, puisque l’heure prévue du maximum favorise les observateurs de l’est de l’Amérique du Nord. La pluie des Quadrantides est reconnue pour ses météores brillants, de vélocité moyenne; son radiant, situé dans la partie nord de la constellation du Bouvier, près du Dragon, s’élève au nord-est en seconde moitié de nuit. Dans un ciel bien noir, loin de la pollution lumineuse, le spectacle pourrait être mémorable, avec une cinquantaine de météores à l’heure autour du maximum. L’autre pluie annuelle majeure, celle des Géminides, se déroulera elle-aussi sous des conditions quasi-idéales à la mi-décembre 2020. Malheureusement, le dernier quartier de Lune jouera les trouble-fête avec les très populaires Perséides, à la mi-août.

Du côté des planètes

Vous l’avez sans doute déjà remarquée : Vénus règne déjà sur nos débuts de soirée depuis quelques semaines. L’éclatante Étoile du soir brille de mille feux, une vingtaine de degrés au-dessus de l’horizon sud-ouest, où elle attire notre regard pendant le crépuscule. Au cours de l’hiver et du printemps, elle glisse graduellement vers la droite le long de l’horizon, du sud-ouest vers le nord-ouest, et gagne encore de la hauteur : en seconde moitié de mars, Vénus dominera le ciel à la tombée de la nuit, plus de 40 degrés au-dessus de l’horizon ouest au début du crépuscule; elle se couchera alors plus de 4 heures après le Soleil. Mais en avril et mai, elle replonge de plus en plus vite vers les lueurs  du Soleil couchant. Après juin, Vénus passe dans le ciel du matin où elle dominera de manière tout aussi resplendissante l’horizon est en fin de nuit et à l’aube, jusqu’à la fin de l’année.

Avec un petit télescope, vous pourrez facilement suivre l’évolution de son aspect : d’ici mai prochain, à mesure que Vénus se rapproche de la Terre et nous tourne le dos, sa taille apparente grossit et la forme de sa partie éclairée par le Soleil change, passant de gibbeuse à quartier, puis à croissant de plus en plus fin. Car Vénus présente des phases, un peu comme la Lune — une observation fascinante que Galilée lui-même a réalisée il y a plus de 410 ans!

La petite Mercure, la planète la plus rapprochée du Soleil, ne s’écarte jamais beaucoup de notre étoile, et les périodes pendant lesquelles elle est aisément visible se limitent à quelques semaines par année. Mercure effectue une première bonne apparition dans le ciel du soir entre le 23 janvier et le 18 février : on la retrouve au-dessus de l’horizon ouest-sud-ouest, 30 à 45 minutes après le coucher du Soleil. Attention : Mercure est nettement plus brillante au début de cette période de visibilité, et elle faiblit rapidement après le 15 février, en même temps qu’elle replonge vers l’horizon; la fenêtre optimale d’observation s’étend du 25 janvier au 15 février. On aura droit à d’autres excellentes apparitions de Mercure plus tard en 2020, notamment en mai-juin (à nouveau dans le ciel du soir) et en novembre prochain (dans le ciel du matin).

Mars est présentement visible en fin de nuit et à l’aube. On la retrouve au-dessus de l’horizon sud-est à compter de 5 heures du matin : on dirait une simple étoile orangée, pas particulièrement brillante à cause de son éloignement actuel. Le matin du 20 janvier, la Lune décroissante s’approche à 4 degrés au-dessus et à droite de Mars et vous aidera à la reconnaître. Mais en dépit de sa discrétion présente, la planète rouge fera beaucoup parler d’elle dans quelques mois, car 2020 est une année d’opposition martienne : de septembre à novembre, elle sera proche de nous, grande au télescope et brillante dans le ciel. Ce sera elle la grande vedette!

Jupiter et Saturne débutent l’année prisonnières des lueurs du Soleil. Jupiter émerge la première pendant l’aube vers la fin de janvier; Saturne suit à son tour quelques semaines plus tard, au courant de février. Les deux planètes sont actuellement voisines dans le ciel et seront à leur meilleur dans les semaines qui entourent leur opposition, en juillet prochain. Comme Jupiter est plus rapide que Saturne dans sa course autour du Soleil (période de révolution de 12 ans contre plus de 29 ans), vous pourrez constater tout au long de l’année que la planète géante rattrape peu à peu la planète aux anneaux. Elles se croiseront au crépuscule le 21 décembre, avec un écart d’à peine 1/10e de degré (cinq fois plus petit que le diamètre apparent de la pleine Lune). On pourra même les admirer en même temps dans l’oculaire d’un télescope : spectaculaire!

Éclipses et occultations

Seules deux éclipses lunaires par la pénombre, à peine détectables à l’œil et peu spectaculaires, seront observables du Québec plus tard au cours de l’année. En revanche, les amateurs aguerris pourront tenter de relever deux défis d’observation liés à de rares occultations planétaires; il s’agit en quelque sorte d’éclipses qui se produisent lorsque la Lune passe devant des planètes du système solaire. Le matin du 18 février, la Lune décroissante occultera Mars, un phénomène qui se déroulera en plein jour, d’où la difficulté technique. Puis, tôt le matin du 19 juin, la brillante Vénus émergera graduellement (en environ 1min 40s) derrière le bord sombre du croissant lunaire. Cette fois, le phénomène se déroulera très bas dans le ciel, moins de 2 degrés au-dessus de l’horizon est-nord-est, environ une heure avant le lever du Soleil.

Rappelons en terminant une réalité qui semble aller à l’encontre de notre intuition : c’est pendant notre hiver boréal que la Terre se trouve le plus près du Soleil! En effet, notre planète atteint son périhélie le 4 janvier 2020 à 21h48 HNE. À ce moment, la distance Terre-Soleil sera de 147 091 144 km, environ 5 millions de kilomètres de moins qu’à l’aphélie le 4 juillet prochain. L’explication des saisons et des variations de température qu’elles engendrent tient principalement à l’inclinaison de l’axe de rotation de la Terre.

Bonne année astronomique 2020, et bonnes observations !

Marc Jobin est astronome au Planétarium Rio Tinto Alcan.

Au Planétarium de Montréal :

Le Planétarium Rio Tinto Alcan vous offre une expérience vertigineuse à travers le cosmos! Consultez notre portail Web sur espacepourlavie.ca.

Science

Percée scientifiques en 2019: une longueur d’avance sur le cancer

«L’idée de base, c’est que plus tôt on dépiste le cancer du sein, meilleures sont les chances de survie. C’est pour ça qu’on a un programme de mammographie pour les femmes de 50 à 69 ans. Sauf que près d’un cas de cancer du sein sur cinq (18 %) est diagnostiqué avant 50 ans, donc avant que ces femmes-là ne deviennent éligibles au programme de mammographie. Alors comment est-ce qu’on fait pour identifier ces femmes-là qui sont plus à risque pour qu’elles puissent bénéficier elles aussi de la mammographie?»

Ça fait plus de 20 ans que Jacques Simard, spécialiste de la génétique du cancer du Centre de recherche du CHU de Québec, travaille sur cette épineuse question. Et en janvier dernier, lui et quelques dizaines de ses collègues de par le monde ont publié deux articles qui, essentiellement, font la somme de tout ce qu’on connaît à propos des facteurs de risque (génétiques ou autre) du cancer du sein, dans les revues savantes Genetics in Medicine et l’American Journal of Human Genetics.

La question n’était pas facile. On connaissait bien sûr les tristement célèbres gènes BRCA1 et BRCA2, qui font partie d’une poignée de «gènes» (même pas une demi-douzaine) qui multiplient le risque de cancer du sein par 5 ou 6 au cours d’une vie. Mais ces gènes ne sont pas très fréquents, étant présents chez environ une femme sur 200, et sont donc très insuffisants pour comprendre le risque génétique des femmes en général. À cet égard, on connaissait aussi un peu plus de 170 emplacements dans le génome qui sont liés à ce cancer et qui sont beaucoup plus répandus dans la population, mais chacun d’eux ne fait qu’une différence minime. Et on savait qu’il restait encore pas mal d’autres gènes impliqués à découvrir puisque ces 170 emplacements n’expliquaient qu’environ 40 % de l’héritabilité de ce cancer.

M. Simard et ses collègues ont donc, dans un premier temps, séquencé le génome de pas moins de 94 000 femmes ayant reçu un diagnostic de cancer du sein et de 75 000 femmes n’en ayant jamais eu, à la recherche de petites «mutations» nommées SNPs (de l’anglais single nucleotide polymorphisms). Et ils ont pu en identifier 313 qui jouaient un rôle sur le cancer du sein dans un sens ou dans l’autre — certains augmentaient le risque, mais d’autres avaient au contraire un effet protecteur.

Modèle statistique

En mettant tout cela ensemble, ils ont obtenu les «scores de risque génétique» les plus précis jamais mis au point jusqu’à présent. Dans ce modèle statistique, les femmes dans le 1 % le plus à risque ont environ 3,5 fois plus de chance que la moyenne de développer une tumeur au sein au cours de leur vie, alors que les «chanceuses» qui ont hérité de suffisamment de gènes protecteurs pour être dans le 1 % le moins susceptible, elles, courent un risque environ 4 fois moindre que la moyenne. C’est cet ouvrage qui est paru dans l’American Journal of Human Genetics.

À partir de là, M. Simard et d’autres de ses collègues ont intégré ces nouvelles données dans un modèle plus général nommé BOADICEA qui, en plus des gènes, tient aussi compte de l’historique familial, des habitudes de vie, etc. «C’est l’aboutissement d’une longue progression qui a pris presque 20 ans. C’est un modèle qui a été développé par mes collègues de Cambridge, dit M. Simard. […] Au début, c’était un outil utilisé par les cliniques d’oncogénétique, qui était fait pour les femmes qui avaient un risque élevé à cause de leur historique familial. Là on vient de faire un pas majeur et ça devient un outil de dépistage populationnel, pour l’ensemble des femmes.»

Stratifier le risque

Ce modèle-là aussi, publié dans Genetics in Medicine, permet de «stratifier» le risque, c’est-à-dire de distinguer les femmes ayant un risque élevé de celles qui ont peu de chance de développer une tumeur dans un sein. «Si on prend juste les questionnaires épidémiologiques [NDLR : sur l’historique familial et les habitudes de vie], ça place 66 % des femmes dans la catégorie «risque modéré» et 1,8 % dans le risque élevé [NDLR : la balance de 32,2 % ayant un risque faible]. Mais avec le modèle complet, c’est 36,6 % qui ont un risque modéré et 9,8 % qui sont à risque élevé [et donc plus de la moitié, 53,6 %, dont le risque est faible», ce qui permet d’identifier beaucoup plus précisément les femmes les plus à risque, indique M. Simard.

Avec ces informations en main, les chercheurs espèrent que les programmes de dépistage du cancer du sein pourront mieux cibler leur «clientèle». Cela pourrait éventuellement signifier, par exemple, d’étendre le programme québécois de mammographie à certaines femmes de moins de 50 ans qui sont plus vulnérables au cancer du sein — mais ce sera aux décideurs politiques de trancher, «nous, on fait juste leur donner l’information», précise M. Simard. À l’inverse, ajoute-t-il, «il y a aussi une proportion de femmes assez importante, entre 10 et 15 %, qui ont un risque beaucoup plus faible que la moyenne. Alors est-ce que leurs médecins pourraient discuter avec elles de passer une mammographie juste aux 2 ou 3 ans au lieu de le faire chaque année? C’est question qui peut se poser».

Le chercheur du CHU de Québec est d’ailleurs justement en train de finaliser un nouveau projet de recherche qui servira justement à tester ce nouveau modèle avec de vraies patientes. «Est-ce que ça nous permet de dépister les cancers du sein plus tôt, à un stade de développement plus hâtif? C’est vraiment l’objectif de ce projet-là, voir si le modèle fonctionne […] et s’il est bien reçu chez les patientes», dit-il.

En entrevue au début de décembre, M. Simard disait être en train de finaliser l’étude-pilote et de préparer le recrutement de patientes de 40 à 69. «C’est dans la région de Québec et dans la région de Lanaudière. Elles n’ont qu’à aller sur le site Web etudeperspective.ca. […] Le recrutement devrait commencer vers le début février.»

Science

La face cachée d’Alexa, de Siri et autres assistants virtuels

LA SCIENCE DANS SES MOTS / Il y a quelques années à peine, les appareils numériques d’assistance vocale comme Alexa de Amazon, Siri de Apple, et l’Assistant de Google semblaient relever de la science-fiction. Mais demain, c’est aujourd’hui, et cet avenir est désormais intégré, amplifié, et omniprésent.

Les assistants virtuels se retrouvent partout : au bureau, à la maison, dans l’auto, à l’hôtel, et dans bien d’autres endroits. Leur évolution récente est spectaculaire. Leurs systèmes opératoires sont propulsés par l’intelligence artificielle (IA). Ils font la cueillette de données en temps réel, et ils sont capables de rassembler des informations de sources diverses – telles que les appareils intelligents et services infonuagiques – de les contextualiser et les interpréter grâce à l’IA. Si une bonne partie du chemin a été parcouru pour développer ces technologies, il reste encore bien du travail à faire dans ce domaine.

Grand nombre des données récoltées et utilisées par ces assistants numériques contiennent des renseignements personnels, parfois identifiables, et parfois de nature délicate. Alexa et les autres assistants virtuels violent-ils le caractère privé et la sécurité de nos données ? Oui. Ces assistants personnels ont une face cachée.

Je suis spécialiste en protection et en gouvernance des données ainsi qu’en intelligence artificielle. Je travaillais auparavant au bureau du Commissaire à l’information et à la protection de la vie privée de l’Ontario.

Un service de conciergerie

Envisageons le scénario suivant. Vous recevez des amis. Votre première invitée arrive, et la caméra de sécurité de votre porche la filme en train de s’approcher de votre maison. Une voix polie lui souhaite la bienvenue et débarre la porte. Une fois entrée, votre assistant personnel lui explique que vous êtes en route et arriverez bientôt. Votre système de son met en marche une sélection des morceaux préférés de votre invitée (à partir de sa liste Spotify qu’elle a mise en partage sur son réseau d’amis). Puis lui demande si elle préfère toujours le café à saveur de citrouille épicée, ou si elle en voudrait plutôt un à la vanille française ou bien encore un colombien. Peu après, votre invitée prend son café sur la machine à café numérique. Son service de conciergerie terminé, votre assistant vocal se tait, alors qu’en vous attendant, votre invitée passe quelques coups de téléphone.

C’est fascinant de s’apercevoir qu’un assistant virtuel peut avec exactitude identifier votre invitée, choisir ses chansons préférées, se souvenir de son café de prédilection tout en gérant les appareils intelligents de votre domicile.

Nos assistants virtuels à l’accueil

Mais en quoi le comportement de votre assistant numérique vous concerne-t-il ?

Les assistants numériques sont capables d’enregistrer nos conversations, nos images, et bien d’autres éléments de notre vie privée, y compris notre localisation, par l’intermédiaire de nos téléphones intelligents. Ils se servent de nos données pour améliorer leur apprentissage automatique au fil du temps. Ils sont programmés et entretenus par des entreprises qui sont constamment à l’affût de nouvelles façons de capturer et d’utiliser nos données.

Comme c’est le cas pour d’autres programmes informatiques, l’enjeu fondamental est que ces appareils peuvent avoir des défaillances, des problèmes de nature technique ou dans le traitement des données. Ils sont également susceptibles d’être piratés à distance, ce qui représente une atteinte à la vie privée de l’usager.

Par exemple, en Oregon, un couple a dû débrancher leur Alexa, car ses conversations privées étaient enregistrées et envoyées à un ami figurant sur sa liste de contacts.

Dans un incident séparé, un Allemand a reçu par erreur 1700 fichiers d’Alexa appartenant à un parfait inconnu. Ces fichiers contenaient son nom, ses habitudes, ses emplois et autres renseignements confidentiels.

La conscience du privilège

La popularité croissante et la disponibilité des assistants virtuels a eu pour effet d’élargir ce qu’on appelle le fossé numérique. On y découvre un paradoxe intéressant, où les usagers qui sont au courant et attentifs au respect de leur vie privée ont tendance à limiter l’utilisation d’outils numériques, alors que ceux qui protègent le moins leur vie privée intègrent de façon beaucoup plus régulière ces assistants personnels dans leur monde numérique.

Les assistants personnels enregistrent les données des usagers soit en continu, soit en attendant une commande de réveil pour se mettre en fonction. Il n’existe pas de limite à la cueillette de données qu’ils peuvent faire. Ils sont capables de recueillir et de traiter des données non autorisées par l’usager, comme sa voix, par exemple.

Dans notre société où sévit ce « fossé numérique », une personne avertie n’intégrerait pas un tel équipement dans son quotidien, alors que d’autres auraient tendance à accepter ou rationaliser ce type de comportement.

Le respect de la vie privée d’autrui

Dans notre époque aux objets omniprésents et à l’accès illimité à l’Internet, comment devrions-nous gérer ce paradoxe et respecter les choix d’autrui ?

Retournons à notre assistant virtuel du début. Il a dû traiter plusieurs sources de données sur l’invitée afin de pouvoir agir comme un « hôte intelligent ».

A-t-il agi pour nourrir ses algorithmes, ou bien pour empiéter sur la vie privée de l’invitée ? Cela dépend à qui l’on pose la question.

Notre éducation, basée sur les bonnes manières, nous pousse au respect des valeurs d’autrui en matière de technologies numériques. Cependant, les implications et la croissance de ces technologies ont été si radicales et si rapides que nous ne sommes pas encore arrivés à revoir nos paramètres sociaux ni nos exigences.

En tant qu’hôtes, par exemple, sommes- - nous tenus d’informer nos invités de la présence de nos objets branchés ? Serait-il poli pour un invité de nous demander d’éteindre ces appareils ? Devrions-nous nous renseigner sur la présence d’intelligence artificielle avant de nous rendre chez un ami, dans un hôtel, ou dans un Airbnb ?

La réponse à toutes ces questions, c’est oui, selon l’expert en étiquette Daniel Post Senning. Ce dernier croit qu’une auto-évaluation aide à mieux comprendre l’étiquette. Aimerions-nous savoir que nous sommes enregistrés lors d’une réunion d’affaires ou une rencontre privée ? Ou qu’on nous demande d’éteindre nos appareils intelligents lorsque nous recevons ? Les règles de l’étiquette sont universelles : il nous faut être respectueux et honnêtes.

Informez vos collègues que vos assistants virtuels peuvent enregistrer leurs voix, leur image et d’autres données personnelles. Demandez à votre hôte de fermer ses appareils si leur présence vous cause de l’inconfort. Mais faites-le avec respect. Il ne faudrait pas lui demander de le faire en présence d’une personne qui serait dépendante de tels outils, en raison de son âge ou d’un handicap, par exemple.

Tous ensemble pour préserver notre vie privée

La vie privée est une norme sociale que nous devons tous ensemble protéger. Tout d’abord, nous devons nous éduquer en matière de cybersécurité et des risques associés aux technologies numériques. Nous devrions également nous tenir au courant des dernières avancées technologiques et y réagir le cas échéant.

Le gouvernement se doit de jouer un rôle essentiel face à ce paradigme complexe. Il nous faut des lois plus fortes en matière de protection de la vie privée en lien avec les assistants virtuels. Pour l’instant, les règles du jeu sont écrites par Amazon, Google et Apple.

D’autres juridictions ont instauré des réglementations, comme celle du Règlement général sur la protection des données en Europe qui, notamment, supervise la cueillette de données sur un éventail d’appareils intelligents. Le Canada devrait suivre leur exemple.

* * * * *

Ce texte est d'abord paru sur le site franco-canadien de The Conversation. Reproduit avec permission.

«La science dans ses mots» est une tribune où des scientifiques de toutes les disciplines peuvent prendre la parole, que ce soit dans des lettres ouvertes ou des extraits de livres.

Science

Percées scientifiques 2019: 4000 ans d'érosion anthropique

L'année 2019 a été riche en découvertes pour la communauté scientifique de la capitale. Chacun dans son domaine, des chercheurs de la région ont écrit de nouveaux chapitre de l'histoire scientifique. Le Soleil vous présente, à raison d'une par jour, les percées les plus marquantes de l'année.

Commençons par une devinette. Si l’on vous demandait depuis combien de temps l’activité humaine a un effet mesurable sur l’érosion des sols à l’échelle mondiale, vous répondriez quoi? 50 ans? 200 ans? Peut-être même un peu plus?

Eh bien non, ce n’est pas un ou deux siècles, ni même «un peu plus» : en fait, cela remonte à (tenez-vous bien) pas moins de 4000 ans, selon une étude parue en octobre dans les Proceedings of the National Academy of Sciences, à laquelle a participé le chercheur Pierre Francus, du Centre Eau, Terre et Environnement de l’INRS.

L’idée de base derrière ce projet de recherche était qu’on savait que l’activité humaine, l’agriculture en particulier, accélérait l’érosion. En défrichant les terres pour les cultiver, on retire le couvert forestier qui gardait le sol en place, et on l’expose donc davantage au vent et au ruissellement. Cela fera immanquablement plus de matières en suspension que les rivières vont charrier vers les lacs, et ceux-ci vont donc accumuler des sédiments à un rythme plus rapide — et cette sédimentation peut donc servir d’indicateur pour mesurer l’érosion. Dans certains cas documentés, ce rythme a même été multiplié par un facteur 10, voire jusqu’à 100!

Or on n’avait jamais fait le portrait d’ensemble de ce phénomène. C’est pourquoi M. Francus et ses collègues d’une équipe internationale ont épluché la littérature scientifique à la recherche de toutes les données permettant d’estimer le rythme de la sédimentation sur des milliers d’années, et ils en ont trouvé pour plus de 600 lacs à travers le monde.

Résultat : à mesure que les glaciers se sont retirés, la sédimentation a ralenti pour se stabiliser il y a environ 8000 ans, parce qu’il y avait moins d’eau de fonte pour «gratter» les sols, pour ainsi dire. Mais à partir de 4000 ans avant aujourd’hui, le rythme de la sédimentation a recommencé à s’accélérer. Les chercheurs ont aussi noté qu’à peu près en même temps, les pollens contenus dans les sédiments ont changé, les pollens d’arbres cédant de plus en plus le pas à des pollens de végétaux associés à des milieux ouverts — ce qui suggère fortement que l’érosion accrue était liée au défrichage.

Dans l’ensemble, M. Francus et ses collègues n’ont pas trouvé une énorme accélération de la sédimentation. Celle-ci s’est amplifiée dans 35 % des lacs à l’étude mais est restée stable dans 39 % des cas et a même régressé dans 26 %. Cependant, c’est probablement dû au fait qu’avec l’agriculture est aussi venu la «gestion des eaux» par des barrages, des digues, etc., qui ont pu empêcher une partie des sédiments de se rendre jusqu’aux lacs étudiés. «Malheureusement, on n’a pas réussi à avoir suffisamment de données sur la gestion des eaux, mais c’est l’interprétation qu’on a retenue, parce qu’à partir du moment où vous avez un ouvrage de retenue des eaux à quelque part, les apports sont diminués en aval», dit M. Francus.

En outre, il note que l’érosion due à l’activité humaine n’a pas augmenté partout en même temps. Par exemple, «on n’a pas trouvé de signal associé à l’agriculture amérindienne [ndlr : même si beaucoup des lacs étudiés se trouvent autour dans le nord-est américain où vivaient des peuples comme les Hurons, qui cultivaient notamment le maïs], mais ça ne veut pas dire qu’elle n’a pas eu d’effet. Ça veut juste dire qu’on ne l’a pas détecté, sans doute parce qu’ils pratiquaient une agriculture plus respectueuse de l’environnement et qu’ils défrichaient moins. D’ailleurs, on a aussi vu des sites néolithiques [en Europe] où l’agriculture a accéléré l’érosion dans un premier temps, mais où les choses sont revenues à la normale par la suite parce que ces gens-là ne cultivaient pas toujours au même endroit, ils se déplaçaient [comme les agriculteurs amérindiens, ndlr]», dit M. Francus.

Dans l’ensemble, il reste tout de même que c’est à partir d’il y a environ 4000 ans que l’activité humaine a commencé à avoir un effet global sur l’érosion des sols de la planète. Et les auteurs semblent d’ailleurs s’en étonner dans leur article puisque, soulignent-ils, c’est «beaucoup plus tôt que les autres signatures de l’anthropocène [ndlr : période géologique où l’activité humaine a des impacts sur la géologie et les écosystèmes à l’échelle mondiale]», dont on fait généralement remonter le début autour de 1860.

«Une donnée qui m’interpelle, dit M. Francus, c’est que il y a 4000 ans, la population mondiale était d’environ 20 millions de personnes. Il y a beaucoup d’incertitude autour de ces chiffres-là, mais c’était autour de ça. […] Alors il n’y a aucune commune mesure entre ce qu’on détecte il y a 4000 ans et tout ce qu’on appelle maintenant l’anthropocène.»

Science

Face à la déforestation, un botaniste sauve la «mémoire verte» de la Colombie

LA CALERA - Dans le deuxième pays le plus riche au monde en biodiversité, la Colombie, un homme arpente des forêts aussi grandioses que dangereuses, armé seulement d’un carnet de notes et d’un sécateur pour préserver plantes et arbres menacés par les tronçonneuses.

«Oui, la lutte est inégale», admet Julio Betancur, qui a voué sa vie à dresser l’inventaire d’espèces depuis disparues ou menacées de l’être.

Science

En 2019, le pas de géant de la thérapie génique

WASHINGTON - L'été dernier à Nashville, une mère de famille américaine s'est fait modifier le génome et a cessé de souffrir.

«Depuis mes 11 ans, j'espérais une guérison», écrit Victoria Gray, 34 ans, à l'AFP.  «Depuis que j'ai reçu les nouvelles cellules, j'ai retrouvé le plaisir de passer du temps en famille sans vivre dans la crainte de douleurs ou d'une urgence.»

Science

Un mystérieux papillon géant échappe aux scientifiques en Centrafrique [PHOTOS]

DANS LA FORÊT DE LA LOBAYE — Suspendu aux branches à près de 40 mètres du sol, Nicolas Moulin scrute l'horizon. Dans les jumelles de cet entomologiste, une mer d'émeraude pétrifiée se déploie à l'infini.

C'est là, quelque part dans la canopée, que se cache le Papilio antimachus, le plus grand papillon de jour d'Afrique, quasiment inconnu de la science. Depuis sa découverte en 1782, personne n'a jamais réussi à observer la chenille et la chrysalide de ce papillon vénéneux dont l'envergure peut atteindre 20 à 25 cm.

Science

Percées scientifiques 2019: petit vaccin, gros effets

L'année 2019 a été riche en découvertes pour la communauté scientifique de la capitale. Chacun dans son domaine, des chercheurs de la région ont écrit de nouveaux chapitre de l'histoire scientifique. Le Soleil vous présente, à raison d'une par jour, les percées les plus marquantes de l'année.

Voilà plus de 10 ans que le vaccin contre le virus du papillome humain (VPH) est offert aux jeunes filles de bien des pays, dont le Québec depuis 2008. Déjà, les premières études sur ses effets laissaient entrevoir des résultats encourageants. Mais la plus récente permet carrément d’espérer un véritable coup de circuit!

Le VPH est une «famille» regroupant environ 170 virus qui, ensemble, figurent parmi les maladies transmises sexuellement les plus fréquentes. Dans la plupart des cas, l’infection ne cause aucun symptôme et disparaît d’elle-même, mais il arrive qu’elle persiste et provoque l’apparition de condylomes. Et comme le virus va «jouer» dans l’ADN des cellules pour se «reproduire», il lui arrive aussi de laisser des traces dans le matériel génétique qui débouchent sur des cancers. Le VPH est d’ailleurs la cause de la quasi-totalité des cancers du col de l’utérus et d’une majorité des cancers anogénitaux et de la gorge. C’est pourquoi bien des pays mènent des campagnes de vaccination massives des jeunes filles (et plus récemment des garçons) dès le primaire.

Maintenant, est-ce que ça marche? En 2015, une équipe internationale dont faisaient partie des chercheurs du Centre de recherche du CHU de Québec (CRCHUQ) avait mis ensemble toutes les données disponibles sur le sujet, un exercice nommé méta-analyse. Et ils avaient constaté un recul des infections, ce qui était encourageant, mais reposait sur des données encore très partielles. Alors ils ont fait une mise à jour importante cette année, sous la direction de Mélanie Drolet (première auteure) et de Marc Brisson (auteur «senior»), tous deux du CRCHUQ. Et les résultats, parus dans la prestigieuse revue médicale The Lancet, donnent le portrait le plus complet jusqu’à présent des effets du vaccin anti-VPH à l’échelle des populations.

«On avait juste 4-5 ans de données dans la première méta-analyse, et là on est rendu à 8-9 dans certains cas, dit M. Brisson. Et c’est particulièrement important parce que ça donne le temps de voir non seulement que le recul des infections se maintient, et même s’amplifie, mais ça nous permet cette fois-ci de mesurer un effet sur les lésions précancéreuses.»

Et oui, ça marche — et pas qu’un peu. En comparant les chiffres avant et après les campagnes de vaccination, les auteurs ont pu montrer que les infections aux VPH-16 et VPH-18 (les souches plus dangereuses du point de vue du cancer du col de l’utérus) ont reculé de pas moins de 83 % chez les jeunes filles de 13-19 ans, et de 66 % chez les 20-24 ans. Les condylomes sont quant à eux entre 54 et 67 % moins nombreux, selon le groupe d’âge.

Et par-dessus tout, les lésions précancéreuses du col de l’utérus, elles, sont 51 % moins nombreuses chez les 13-19 ans et 31 % chez les femmes de 20-24 ans.

Compte tenu du lien bien connu entre ce cancer et le VPH, cette baisse n’est pas particulièrement étonnante — elle était même attendue —, reconnaît Mme Drolet, mais il demeurait important de vérifier si les résultats étaient bien au rendez-vous. «Les essais cliniques [lors de la mise au point du vaccin, ndlr] étaient prometteurs, mais il fallait quand même aller voir si ça se concrétisait dans la population», dit-elle.

«Et une autre chose qui n’était pas mesurable dans les essais cliniques, poursuit-elle, c’était l’immunité de groupe [ndlr : quand une bonne partie de la population est vaccinée contre un virus, celui-ci a plus de difficulté à circuler et les personnes non vaccinées sont donc indirectement protégées]. Ça, c’est un aspect important qu’on est parvenu à démontrer dans cette nouvelle méta-analyse parce qu’on a observé un recul du VPH chez les garçons même s’ils n’étaient pas vaccinés au moment où les données ont été prises. Cet effet-là avait été prédit par des modèles mathématiques, mais là on peut le quantifier pour vrai.»

L’article de The Lancet mentionne en effet que les condylomes ont reculé 48 % chez les garçons de 15-19 ans et de 32 % chez les jeunes hommes de 20-24 ans. «Nos résultats montrent des preuves convaincantes que les programmes de vaccination contre le VPH ont des impacts substantiels», conclut d’ailleurs le texte. Au point où l’on peut désormais envisager l’«élimination du cancer du col de l’utérus en tant que problème de santé publique, dit M. Brisson. Ça ne baissera jamais à zéro [et le VPH ne disparaîtra pas, donc il faudra poursuivre la vaccination, ndlr], mais ce cancer-là pourrait devenir suffisamment rare pour qu’il ne soit plus considéré comme un problème de santé publique».

Mentionnons que l’article de M. Brisson et Mme Drolet figure parmi les 100 recherches qui ont le plus «fait jaser» en 2019, d’après un palmarès de la firme Altmetric, qui se spécialise dans la mesure de l’impact qu’on les études scientifiques sur le Web. La méta-analyse s’y est classée au 92e rang sur un total de 1,3 million de travaux scientifiques.

Science

Sur ces fameux «pets» de vaches...

SCIENCE AU QUOTIDIEN / «On s’inquiète de l’empreinte carbone des animaux, et particulièrement du bœuf. Mais ne devrait-on pas plutôt y voir un cycle? Les plantes captent le carbone dans l’air et les animaux, comme les vaches, mangent les plantes, puis vont retourner une partie du carbone dans leurs déjections et leur respiration, et le cycle va recommencer. Alors pourquoi les vaches seraient un problème? Comment pourraient-elle produire plus de carbone qu’elles n’en consomment?», demande André Rinfret, de Québec.

Si l’industrie bovine pèse plus lourd sur l’environnement que les autres sortes de viandes — qui, elles, pèsent plus lourd que l’alimentation végétale —, c’est en bonne partie parce que comparé aux autres animaux d’élevage, le bœuf convertit moins bien sa nourriture. D’après une étude parue récemment dans les Environmental Research Letters, pour produire 1 kg de viande (et autres parties comestibles), le bœuf doit manger autour de 36 kg de nourriture, alors que ce ratio est beaucoup moindre pour la volaille (4,2 pour 1) et le porc (6 pour 1). Et comme il faut les produire, ces moulées et ces bottes de foin, cela implique qu’à quantité de viande égale, il faut pas mal plus d’«intrants» (plus d’espace, plus d’engrais, plus de carburant pour la machinerie, etc.) pour le bœuf que pour les autres sortes de viande.

En outre, les bovins ont un système digestif particulier qui fermente la nourriture pendant longtemps. À cause de cela, ils n’émettent pas seulement du CO2, mais aussi du méthane (CH4) dans leurs éructations (et non dans leurs flatulences, comme on l’entend souvent), dont l’effet de serre est environ 30 fois plus puissant que le gaz carbonique. Alors les vaches ont beau ne pas rejeter plus de carbone qu’elles n’en consomment, elles en rejettent sous une forme qui est plus dommageable pour le climat.

Tout ça, ça fait une différence et on n’a pas le choix d’en tenir compte. Mais d’un autre côté, M. Rinfret  n’a pas complètement tort de dire que le carbone consommé par les bovins fait partie d’un cycle : éventuellement, le méthane finit par se retransformer en CO2. Cela prend du temps — des années, voir des décennies pour une petite partie — au cours duquel il empire le réchauffement planétaire, mais ce méthane-là faisait déjà partie du cycle du carbone, il ne vient pas s’y ajouter. Or le problème fondamental à la source du réchauffement climatique n’est pas tant le méthane additionnel (même s’il y contribue) que la combustion de pétrole, gaz naturel et charbon. Comme ceux-ci étaient enfouis sous terre depuis des centaines de millions d’années, leur carbone n’était plus en circulation depuis très longtemps, et les brûler vient ajouter du carbone au cycle.

Le cœur de l’affaire, il est surtout là.

* * * * *

«Est-ce que la sphéricité de la Terre explique au moins en partie pourquoi il fait plus froid aux pôles qu’à l’équateur. À cause de cette sphéricité, les pôles sont un peu plus loin du Soleil, dont les rayons doivent traverser une couche d’atmosphère plus épaisse avant d’arriver au sol, qu’ils frappent d’ailleurs à l’oblique. Ou est-ce surtout à cause d’autres facteurs, comme l’albédo ?», demande Yves Goudreault.

Les pôles sont en moyenne un rayon terrestre (6371 km) plus loin du Soleil que l’équateur. De plus, la Terre est inclinée de 23,5°, ce qui vient ajouter (ou enlever, selon la saison) jusqu’à 2500 km environ, pour un maximum de près de 9000 km. Or la distance Terre-Soleil est «dans une autre ligue», comme on dit : près de 150 millions de km. Alors le rayonnement solaire a beau diminuer avec le carré de la distance, ces quelque 9000 km de plus (en hiver) ne peuvent guère faire plus qu’une différence de l’ordre de 0,01 % — et encore, le Soleil ne se lève même pas aux pôles en hiver, alors en pratique ça ne change absolument rien. De toute évidence, la clef est ailleurs.

L’épaisseur de la colonne d’air traversée par les rayons joue un rôle. Mine de rien, à l’échelle de la planète, un peu plus de la moitié (53 %) du rayonnement solaire n’atteint jamais le sol, étant soit réfléchi, soit absorbé par l’atmosphère — et cette proportion est un peu plus élevée aux pôles.

Mais par-dessus tout, c’est l’angle avec lequel les rayons frappent le sol qui fait la différence. À l’équateur, ces rayons frappent presque parfaitement à la verticale alors qu’ils sont obliques aux pôles. On peut se représenter l’effet que cela a en imaginant une lampe de poche que l’on pointerait sur un mur. Si on pointe directement, la lumière aura une forme assez ronde. Mais si on lui donne un angle, alors la forme s’allonge. Cela implique que la même quantité de lumière doit maintenant éclairer une plus grande superficie — et c’est ce qui arrive avec le rayonnement solaire aux pôles. Si l’on ajoute à cela le fait que le Soleil ne se lève tout simplement pas en hiver aux hautes latitudes, cela signifie que les pôles reçoivent en moyenne (sur une année) moins de la moitié de l’énergie par mètre carré qui arrive l’équateur.

Et ce n’est pas tout : ce qu’il advient de ces rayons solaires une fois qu’ils touchent le sol est aussi important. La surface de la Terre réfléchit en moyenne 30 % du rayonnement, dont l’énergie est alors renvoyée vers l’espace. Mais un couvert de neige ou de glace réfléchit beaucoup mieux la lumière : plus de 80 % ! Voilà pourquoi il fait tellement plus froid aux pôles qu’à l’équateur.

Science

LE grand débat de Noël: sapin artificiel ou sapin naturel?

LA SCIENCE DANS SES MOTS / C’est le temps des Fêtes, et au milieu des listes de choses à faire et des préparatifs, certains se demanderont encore une fois s’il est préférable pour l’environnement d’acheter un arbre de Noël artificiel ou d’opter pour la vraie chose.

C’est une bonne question à poser. Nous sommes en pleine urgence climatique et de plus en plus conscients de notre impact environnemental.

Il est donc logique de se demander si le fait de laisser les arbres au sol pour continuer à croître ne contribuerait pas mieux à la lutte contre les changements climatiques.

Une décennie pour grandir ou se maintenir

Un arbre naturel de taille moyenne (de 2 à 2,5 mètres de haut, âgé de 10 à 15 ans) a une empreinte carbone d’environ 3,5 kilogrammes d’équivalent de dioxyde de carbone (CO2e), ce qui équivaut à parcourir environ 14 kilomètres en voiture.

Cette empreinte augmente considérablement si l’arbre est envoyé à la décharge. Lorsqu’il se décompose, il produit du méthane, un gaz à effet de serre plus puissant que le dioxyde de carbone, et génère une empreinte beaucoup plus grande – près de 16 kilogrammes d’équivalent CO2. Si l’arbre est composté ou recyclé, une pratique courante dans de nombreuses grandes villes – l’empreinte environnementale reste faible.

Par comparaison, un arbre artificiel de deux mètres de haut a une empreinte carbone d’environ 40 kilogrammes d’équivalent CO2 basée uniquement sur la production des matériaux.

Différents types de plastiques sont utilisés pour produire des arbres artificiels. Certains, comme le chlorure de polyvinyle, sont très difficiles à recycler et devraient être évités. Les arbres en polyéthylène, qui ont tendance à paraître plus réalistes, ont des prix plus élevées.

La grande majorité des arbres artificiels sont produits en Chine, à Taiwan et en Corée du Sud. L’expédition à partir de ces usines éloignées augmente l’empreinte carbone des arbres.

Un arbre artificiel doit être réutilisé pendant 10 à 12 ans pour correspondre à l’empreinte d’un arbre naturel qui est composté à la fin de sa vie. Même dans ce cas, le recyclage des matériaux des arbres artificiels est si difficile que ce n’est pas une pratique courante. Certains vieux arbres peuvent être réutilisés, mais la plupart des produits artificiels finiront dans un site d’enfouissement.

Brûler des arbres

Cela donne aux Canadiens soucieux de l’environnement une idée des répercussions de leur choix. Mais d’autres facteurs sont également en jeu. Les arbres naturels deviennent rares et plus chers. Aux États-Unis, le prix moyen d’un arbre naturel en 2019 est passé de 75 dollars US en 2018 à 78 dollars US en 2018.

La température a fait des ravages aux arbres de Noël. Aux États-Unis, le temps chaud et l’excès de pluie ont contribué à une pénurie d’arbres, et les incendies de forêt ont endommagé ou détruit certaines fermes. Les vagues de chaleur de 2017 et 2018 ont tué de jeunes semis en Oregon et auront un impact sur l’approvisionnement en arbres dans les années à venir.

Science

Le vaccin contre la grippe donne la grippe? Faux

DÉTECTEUR DE RUMEURS / «Le vaccin contre la grippe donne la grippe» : voilà l’un des mythes les plus persistants entourant ce vaccin et il fait en sorte que plusieurs personnes craignent de se faire vacciner contre l’influenza. Le Détecteur de rumeurs explique ce qu’il en est.

Les vaccins antigrippaux ne transmettent pas la grippe. Le virus de la grippe contenu dans les vaccins offerts sous forme d’injection est inactif, et celui qui est présent dans les vaccins intranasaux est vivant, mais atténué, de sorte qu’il ne peut provoquer l’influenza. De plus, le virus affaibli ne peut se multiplier qu’à des températures froides, comme celles présentes dans le nez: il ne peut donc pas infecter les zones plus chaudes de notre corps, comme les poumons.

Cela dit, certaines personnes peuvent se sentir malades après avoir reçu le vaccin contre la grippe, ce qui peut leur faire croire qu'elles sont tombées malades suite à leur injection. Or, ressentir des effets physiques suite à la vaccination est plutôt dû à la réponse normale du corps au vaccin, ce qu’on appelle la réponse immunitaire. Lorsqu’on reçoit le vaccin, le corps reconnaît le virus de la grippe comme un envahisseur, même s’il est inactif. Il développe alors des anticorps qui attaqueront le virus de la grippe s’il y est à nouveau exposé dans le futur. Cette réponse immunitaire naturelle peut provoquer chez certaines personnes une faible fièvre, des maux de tête, des douleurs musculaires ou de la fatigue, tous des effets secondaires qui peuvent être confondus avec des symptômes de la grippe. On estime que moins de 2% des personnes qui se font vacciner contre la grippe développeront de la fièvre.

D’autre part, ceux qui ressentent de tels symptômes grippaux après avoir reçu un vaccin, peuvent avoir été exposés à la grippe avant d’avoir reçu le vaccin ou dans les deux semaines suivant l’injection, alors que l’immunité contre le virus n’est pas encore complète.

Les vaccins contre la grippe sous forme de vaporisateur nasal contiennent un vaccin vivant atténué contre l’influenza (vaccin quadrivalent FluMistMD). Toutefois, au Québec, ce type de vaccin ne sera pas offert cette saison en raison de la pénurie de médicaments au Canada.

Science

En science, les hommes vantent plus leurs recherches que les femmes

Les hommes scientifiques décrivent leurs recherches avec davantage de superlatifs que les femmes. Même si ça ne le mérite pas nécessairement. Sur la base de plus de 6 millions de titres et de résumés (abstracts) de recherches publiées entre 2002 et 2017, quatre chercheurs concluent que des mots comme «nouveauté», «unique», «prometteur» ou «excellent», reviennent plus souvent lorsque l’auteur principal de la recherche est un homme, plutôt qu’une femme.

L’usage de tels qualificatifs est néanmoins rare dans la recherche en général, les chercheurs étant moins à l’aise avec ce type de vocabulaire. Ainsi, au moins un des 25 termes positifs choisis par les quatre auteurs dont il est question ici ne s’est-il retrouvé que dans 12,2 % des articles de recherche clinique dont le premier ou le dernier signataire était un homme. Mais c’était tout de même plus que les 10,9 % des articles dont le premier ou le dernier signataire était une femme. Et lorsqu’il s’agit de revues en santé à haut facteur d’impact (plus de 10), l’écart s’élargit (12,9 % contre 10,7 %). En revanche, pas de différence significative dans les articles publiés dans les revues à plus faible facteur d’impact.

Les auteurs conviennent que leurs résultats ont leurs limites. L’autopromotion peut prendre différentes formes, et la révision des textes peut elle aussi entrer en ligne de compte: dans un texte publié, on ignore ce qui provient des auteurs ou ce qui a été suggéré ou imposé par la revue, comme le fait remarquer un éditorial du British Medical Journal accompagnant la recherche. Mais ces chiffres s’inscrivent dans un contexte plus large, où l’écart homme-femme dans la recherche reste un sérieux problème : bien que les femmes soient majoritaires au premier cycle universitaire, leur présence diminue à mesure qu’on grimpe dans la hiérarchie, et des recherches récentes ont démontré qu’elles reçoivent des salaires moins élevés et moins de subventions. Or, le fait qu’une recherche soit considérée comme «nouvelle», «unique» ou «prometteuse», peut être un facteur déterminant pour de futures subventions.

L’article est paru dans l’édition de Noël du British Medical Journal, traditionnellement consacré aux recherches plus légères ou, comme cette année, aux «petits mensonges joyeux» (sweet little lies).

Science

La fusée Ariane souffle ses 40 bougies

PARIS — Il y a quarante ans, la fusée Ariane s'élançait pour la première fois au-dessus de la forêt en Guyane française et un nouveau chapitre s'ouvrait pour l'Europe qui gagnait son autonomie dans le jeu spatial mondial où la concurrence n'a cessé de se durcir.

Il est 14h13 heure locale en ce 24 décembre 1979: après de multiples péripéties, Ariane 1 décolle du pas de tir de Kourou, en Guyane française, pour son vol inaugural de qualification (elle ne transportait pas de satellite opérationnel). «Dès le lancement, et lors des allumages et des séparations successifs des trois étages, les spectateurs ont manifesté leur joie quand Ariane s'est élevée dans le ciel dégagé de Guyane», écrivait l'envoyé spécial de l'AFP.

Dans la salle de contrôle du port spatial, Yves Sillard, alors directeur général du CNES (l'agence spatiale française), déclare la mission accomplie, «sans même attendre le diagnostic de satellisation» ; il est «longuement applaudi», raconte la dépêche de l'AFP.

«C'était une réussite totale, elle a causé une joie inexprimable», se souvient aujourd'hui Yves Sillard, interrogé par l'AFP.

«Dans la salle, il y a eu des rires, et des larmes... comme après un exploit sportif !», témoigne, encore ému, Guy Dubau, ancien chef des opérations sur le centre de lancement.

Ses équipes revenaient de loin: quelques jours plus tôt, le 15 décembre, à la stupéfaction générale, la fusée n'avait pas décollé après l'allumage du moteur — un problème de réglage de paramètres que personne n'avait anticipé. «On avait une confiance absolue dans ces moteurs», confie Guy Dubau. Le tir avorté fit l'effet d'un «coup de massue qui a pétrifié les 150 personnes enfermées dans le centre de lancement».

Le fiasco d'Europa

Il ne leur restait que neuf jours pour remettre la fusée en état. "Il a fallu travailler 24 heures sur 24 ! On avait même installé un petit dortoir dans le centre", relate-t-il. La veille de Noël, à la dernière minute, la dernière tentative possible pour raisons techniques, Ariane décolle enfin. «C'était un miracle. Deux heures de plus et le lanceur partait à la poubelle», assure Guy Dubau.

Un échec du premier tir «aurait pu avoir des conséquences dramatiques allant jusqu'à l'arrêt du programme», selon M. Sillard. Car le fiasco de la fusée Europa était encore dans les esprits: ce lanceur développé dans les années 1960 n'a jamais abouti, faute de coordination entre les pays et en l'absence d'un maître d'oeuvre unique. Le programme Europa fut abandonné en 1973, année de la création de l'agence spatiale européenne (ESA). Elle confia cette fois la maîtrise d'oeuvre à un responsable unique, le CNES, qui contribua au nouveau projet pour plus de 60 %.

L'enjeu était de taille: les États-Unis venaient de lancer leur programme de navette spatiale «en expliquant qu'elle permettrait un coût de lancement cinq fois moins cher que les lanceurs conventionnels et que ceux-ci allaient disparaître», rappelle M. Sillard. Ariane devait démontrer le contraire. Mais un climat de scepticisme entoure le projet et c'est la décision des Américains de bloquer le lancement du satellite franco-allemand Symphonie qui accélère les choses.

Le fil d'Ariane

Sous responsabilité française, plus de 50 entreprises originaires de 10 pays travaillent à la réalisation du nouveau lanceur baptisé Ariane, en référence au fil de la mythologie grecque, «celui qui allait nous sortir du labyrinthe de la complexité des discussions européennes», selon Gérard Brachet, ancien ingénieur au CNES dont il prit plus tard les commandes. Avec Ariane 1, pour la première fois dans le monde occidental, le monopole américain sur le lancement des satellites est entamé. L'Europe acquiert son indépendance et s'installe sur l'échiquier spatial mondial. «Ce premier tir nous a donné une crédibilité commerciale», souligne M. Brachet.

«S'il n'y avait pas eu ce tir il y a 40 ans, il n'y aurait pas l'industrie spatiale européenne telle qu'elle existe aujourd'hui», estime Jean-Yves Le Gall, actuel président du CNES.

L'aventure Ariane et ses cinq générations fut globalement un succès en dépit de quelques échecs, comme celui de la première Ariane 5 qui a explosé en vol. D'Ariane 1 à Ariane 5, la puissance de charge transportée a été multipliée par 10, fait valoir Stéphane Israël, le président d'Arianespace, chargée de commercialiser le lanceur. «Cette épopée, c'est la réussite d'un grand projet industriel européen», analyse-t-il.

Mais Ariane est confrontée depuis quelques années à une concurrence bien plus sévère, essentiellement celle de l'Américain Space X, qui défie la compétitivité européenne avec son lanceur réutilisable et bénéficie de puissantes commandes institutionnelles. La contre-attaque s'appelle Ariane 6: le futur lanceur, qui volera en 2020, promet plus de compétitivité grâce à une rationalisation drastique des coûts de fabrication.

Ariane 6 sera polyvalente avec un moteur réallumable permettant de déposer, au cours d'une même mission, plusieurs charges à des orbites différentes; une souplesse prisée des clients à l'heure de la multiplication des satellites miniatures et de leurs applications (météorologie de l'espace, géolocalisation, objets connectés..). Et un moteur potentiellement réutilisable, Prometheus, est dans les tuyaux pour la suite.

Science

La «naissance» de la gastro

SCIENCE AU QUOTIDIEN / «Se pourrait-il que la «gastro» soit une maladie d’origine très récente ? À ma souvenance, ni le concept de «gastro» ni la réalité d’une telle maladie contagieuse n’existaient du temps de la Grande Noirceur, c’est-à-dire avant la Révolution tranquille. Personnellement, j’ai 75 ans et je ne l’ai jamais eue. Je n’ai vu personne l’avoir, même si j’ai fréquenté plusieurs collèges résidentiels ici ou là, suivis d’universités, séjours à l’étranger loin des tout-inclus, etc.», demande Léonce Naud, de Deschambault.

En fait, «ce n’est pas récent du tout : la gastroentérite est causée par des virus, des bactéries et des parasites qui existent depuis des centaines de milliers d’années», dit d’emblée Dr Jasmin Villeneuve, de l’Institut de la santé publique du Québec.

Tenez, en 1952, deux médecins d’un hôpital de Manchester, en Angleterre, écrivaient ceci dans la revue médicale Archives of Disease in Childhood :

«La gastroentérite infantile demeure encore une des problèmes les plus épineux de la pédiatrie. En 1945, les décès dus à la diarrhée et à l’entérite représentaient 11 % de la mortalité infantile totale. Les taux de mortalité ont continué de chuter [depuis le début du XXe siècle, ndlr] et, en 1948, 2304 enfants de moins d’un an, ou 2,88 par 1000 naissances vivantes, ont succombé à cette maladie en Angleterre et au Pays-de-Galles.» (Notons que c’est surtout la déshydratation provoquée par la diarrhée et les vomissements qui cause les décès.)

La gastro a été décrite pour la première fois en 1929 — sous le nom «maladie du vomissement hivernal» —, mais on peut mesurer à quel point elle a touché toutes les époques en consultant un article paru dans la revue savante Alimentary and Pharmacology Therapeutics, qui retrace l’histoire des traitements de la gastro. Ainsi l’expression d’origine anglaise «avoir du guts» remonterait au XIXe siècle, quand la diarrhée faisait des ravages parmi les militaires et en empêchait beaucoup, ceux qui n’avaient pas les intestins assez «solides», de monter au front. Un code d’éthique militaire de la Guerre civile américaine (1861-1865) interdisait même «de tirer sur les hommes qui sont en train de répondre à l’appel urgent de la Nature» !

Et pour tout dire, on trouve même des descriptions de la gastroentérite «d’une précision étonnante» dans les écrits le célèbre médecin de la Grèce antique Hippocrates (460-370 av. J-C.), s’émerveillaient récemment deux chercheurs dans une revue médicale.

Alors pourquoi des gens comme M. Naud n’en auraient jamais entendu parlé pendant leur jeunesse ? Il semble clair pour le Dr Villeneuve que les niveaux de sensibilisation de l’époque n’étaient pas ceux d’aujourd’hui, tant chez le personnel médical que dans la population en général. «Dans les années 60, on n’allait consulter le médecin que quand c’était vraiment très grave», dit Dr Villeneuve.

Dans le même ordre d’idée, rappelons qu’à cette époque un peu tout le monde allait se baigner dans le fleuve Saint-Laurent malgré une contamination bactériologique qui interdirait toute baignade de nos jours. Imaginez, à la plage de l’Anse au Foulon, une des plus populaires à Québec dans les années 70, les comptes de bactérie pouvaient atteindre 2000 à 3000 «unités formant des colonies» par 100 ml (ufc/100 ml, c’est la manière «classique» de mesurer la concentration de bactéries dans l’eau) alors que la norme actuelle pour la baignade est de 200 ufc/100 ml au maximum.

À cet égard, dit Dr Villeneuve, «il y a une théorie qui dit que l’exposition fréquente aux agents pathogènes fait qu’on finit par développer une sorte d’immunité. Ça peut varier d’un individu à l’autre, mais si les gens étaient plus exposés dans le temps, peut-être que leurs symptômes étaient moins sévères qu’aujourd’hui. Et comme on oublie plus facilement les maladies bénignes qu’on a eues que les fois où on était cloué au lit pendant des jours, on peut imaginer que des gens [de cette époque] auraient oublié leurs gastros parce que ça ne les rendait pas très malades. Mais la gastro n’en existait pas moins, c’est sûr».

Une autre possibilité, pourrait-on ajouter, est que la gastro est une sorte de «maladie générique» qui en recouvre plusieurs. Comme l’a dit Dr Villeneuve en début d’article, elle être causée par bien des microbes différents, ce qui peut aussi lui faire porter bien des noms différents. Ainsi, l’infection alimentaire fréquente nommée salmonellose, qui doit son nom à la bactérie en cause (salmonelle), est souvent considéré comme une forme de gastroentérite, puisque ses symptômes sont semblables. La dysenterie est elle aussi une un type de gastro, qui est connu depuis longtemps d’ailleurs — l’empereur byzantin Constantin IV, par exemple, en est mort en l’an 685. Et c’est sans compter d’autres noms que la maladie a pu porter dans le passé, comme «grippe d’estomac».

Bref, s’il demeure possible que M. Naud ait un système immunitaire exceptionnel qui l’a protégé de la gastro toute sa vie durant (c’est la grâce qu’on lui souhaite), on peut aussi raisonnablement penser qu’il en a eu quelques unes pendant sa jeunesse, mais qu’elles n’étaient pas appelées de cette manière. Soulignons à cet égard que le microbe le plus souvent derrière les cas de gastro, soit les norovirus, n’ont été identifiés qu’à la suite d’une éclosion particulièrement sévère dans une école primaire de Norwalk, en Ohio… en 1968.

Science

La forêt amazonienne est la plus menacée du Brésil? Faux

DÉTECTEUR DE RUMEURS / La forêt amazonienne est sans doute la plus connue du monde. Mais elle n’est pas la forêt brésilienne présentant la plus grande biodiversité, pas plus qu’elle n’est la plus menacée du Brésil. Le Détecteur de rumeurs explique pour quelles raisons ce titre revient à la forêt atlantique.

Un plus grand nombre d’espèces au kilomètre carré qu’en Amazonie
La mata atlântica — son nom en portugais — se trouve en majeure partie au Brésil, avec une petite portion en Argentine et au Paraguay. Comme elle s’étire le long de la côte Atlantique sur plus de 5000 km, et qu’elle court du bord de mer jusqu’à des sommets de 2700 m, d’importantes variations des précipitations — de moins de 1000 mm à plus de 4000 mm par an — et des températures — de 0°C à 40°C — y sont enregistrées chaque année.

Science

Lecture obligatoire: la «matière noire» de la nutrition

BLOGUE / Si la grande abondance des études en nutrition qui paraissent chaque semaine vous donne le tournis, alors tenez-vous loin du dernier numéro de la revue savante «Nature – Food», sous peine de vous évanouir...

On y trouve en effet cet article qui, en plus d'être absolument captivant, conclut que la science de l'alimentation a grossièrement simplifié son propre objet d'étude en concentrant ses efforts de recherche sur quelques dizaines de nutriments alors qu'il en existe des milliers.

Il y a de bonnes raisons d'avoir consacré autant d'études à ces nutriments, écrit le trio d'auteurs de la région de Boston, parce qu'on sait qu'ils sont importants pour la santé (graisses, sucres, protéines, vitamines, etc.). Mais il n'empêche : pour un aliment comme l'ail, par exemple, les bases de données en nutrition comme celle du ministère américain de l'agriculture ne donnent des concentrations chiffrées que pour 67 composés chimiques, alors qu'on sait que l'ail en contient plus de 2300 ! Dans l'ensemble, la recherche en nutrition est centrée autour d'environ 150 nutriments, mais on en dénombre un total de plus de 26 000 — et même ça, c'est un portrait très incomplet.

Il est évident, plaident les auteurs, qu'un angle mort de cet ordre nous fait passer à côté de beaucoup de choses importantes. Par exemple, des résultats récents ont trouvé qu'on composé nommé oxyde de triméthylamine (TMAO) était associé à une mortalité plus élevée chez la patients atteints du cœur. Le TMAO provient de composés présents dans le lait, les poissons et les viandes ; ces substances sont transformées par la flore intestinale en un précurseur du TMAO, lequel est ensuite converti en TMAO dans le foie. On connaît 6 de ces composés qui finissent en TMAO, mais un seul (la choline, qu'on trouve surtout dans les produits animaux) est suivi et mesuré dans les bases de données nutritionnelles, déplorent les auteurs.

Bref, il semble que la nutrition soit un peu dans la même situation que l'astronomie, qui n'a étudié jusqu'à présent que la «matière ordinaire» même si elle ne compose que 5 % de l'Univers — le reste, soit la matière sombre (27 %) et l'énergie sombre (68 %), est pour l'instant impossible à observer directement. Les quelque 150 nutriments sur lesquels les chercheurs ont concentré leurs efforts jusqu'à maintenant ne représentent qu'environ 5 % de la diversité chimique de la nourriture, et il reste donc encore toute la «matière sombre» à étudier, illustre le trio d'auteurs — dont deux sont d'ailleurs physiciens...