Hockey

Vérification faite: une échappée, un but automatique?

L’affirmation «T’es vraiment mauvais. Bravo, tu as fait perdre la partie à tout le pays.» Le capitaine de l’équipe canadienne au Championnat mondial de hockey junior, Maxime Comtois, a été la cible de virulentes attaques sur les réseaux sociaux après avoir échoué sur un tir de punition en prolongation contre la Finlande, mercredi — le Canada a ensuite perdu le match. Le message sous-entendu dans la plupart des cas est qu’on est en droit de s’attendre à ce qu’un lancer de punition soit converti, comme si le fait de marquer était la règle en pareille circonstance. Alors voyons voir.

Les faits

Depuis la saison 2005-2006, la LNH règle les matches nuls par des tirs de barrage. Techniquement, ceux-ci ne sont pas des «lancers de punition» (accordés pendant la partie quand une faute est commise sur un joueur en échappée), mais l’exercice est le même : on laisse le joueur seul contre le gardien, le temps d’un tir. Alors cela nous donne un échantillon de plusieurs milliers de lancers pour juger si c’est vraiment la norme de compter en pareilles circonstances.

Et la réponse est non. Sur 13 380 tirs de barrage pris depuis 2005-2006 dans la LNH, seulement 4420 ont été convertis, une proportion de 33 %.

Si l’on veut vraiment comparer des pommes avec des pommes et s’en tenir strictement aux lancers de punition, le portrait ne change pas. Depuis 2005-2006, 40 attaquants de la LNH se sont vus accorder au moins 4 tirs de punition, mais ils n’ont marqué que 27 % du temps : 63 buts en 233 occasions. Pourtant, la plupart des 40 hockeyeurs sur cette liste sont ou étaient d’excellents joueurs offensifs.

Le Verdict

Non, on ne peut pas vraiment s’attendre à ce qu’un lancer de punition donne automatiquement un but. Le taux de réussite, autour de 30 %, est nettement supérieur à celui des lancers «réguliers» (9 à 10 % en général), mais il reste que les gardiens ont le dessus deux fois plus souvent que les attaquants en échappée. La norme, ce serait donc plutôt ça.

Retour sur 2018

Percées scientifiques: en attendant les Anglais...

Du rempart Beaucours, il ne reste qu’un peu plus de 30 centimètres de haut, peut-être 60 cm par endroits. Mais il y avait longtemps qu’on la cherchait, cette «première fortification historique» de la Ville de Québec, érigée par les Français en 1692. Et ce qu’on a découvert cette année pourrait bien devenir une référence en la matière.

Le point de départ de cette découverte, relate l’archéologue et superviseur des fouilles Jean-Yves Pintal, c’est un simple particulier qui voulait se construire dans l’arrondissement historique. Dans ce secteur, des travaux archéologiques doivent précéder toute construction, et une première firme est intervenue, en 2016.

«Ils ont découvert des maisons du XIXe siècle, mais aussi des pieux en bois qui ont été datés à 1692. Alors on savait que c’était un site riche en archéologie, mais ce n’était pas une découverte comme telle, même si on savait que la première fortification avait été construite dans ce coin-là. C’était juste un indice qu’il pouvait y avoir quelque chose.»

En effet les pieux du XVIIe siècle, retrouvés épars et pas fichés en terre, ne voulaient pas dire grand-chose en eux-mêmes puisque «tout le monde était encouragé à avoir une palissade à l’époque, pour se protéger», dit M. Pintal. Pour en avoir le cœur net, le ministère de la Culture a commandé la poursuite des travaux — et c’est à ce moment que M. Pintal, qui est consultant, fut chargé des travaux.

«Alors on creuse à la pelle mécanique et, à mesure qu’on creuse, on trouve du matériel de plus en plus ancien. Et éventuellement, on arrive dans un sol très noir qu’on ne voyait pas ailleurs. On donne un petit coup de pelle là-dedans et boum : on trouve un fragment de pieux. Et ce bois-là, en plus, avait été équarri à la hache, alors déjà, ça nous donnait une idée que ça pouvait être ancien.»

L’équipe de M. Pintal délaisse alors la pelle mécanique et prend des outils manuels, et dégagera éventuellement deux poutres parallèles séparées par environ 1,2 mètre. La structure était très inhabituelle, mais il était clair qu’il s’agissait de fondation, dit-il : «Ils ont creusé la terre, ils ont mis deux grosses poutres de bois. Puis ils ont mis un premier niveau de sable entre les deux, et ensuite une couche gravelle, et après des traverses en bois pour assujettir le tout.»

«Je suis allé creusé à aux deux bouts du terrain pour voir si ça se continuait, et c’était le cas, poursuit-il. […] On a demandé à Parcs Canada, où travaillent de grands experts des fortifications, et eux non plus n’avaient jamais vu ça, mais ils étaient d’accord que cela ne pouvait être que les fortifications.»

Ces deux poutres, explique-t-il avec son collègue Vincent Lambert, formaient la fondation du rempart. L’espace entre les deux était rempli de terre et l’ouvrage traversait ce qui est maintenant la haute-ville d’une falaise à l’autre. L’idée était de protéger le flanc ouest de la ville, qui a toujours été son point faible, ce qui pressait d’autant plus que la France était entrée en guerre en 1689 et que le général anglais William Phips avait pris Port-Royal (Acadie) en 1690.

De ce qui a été érigé sur cette fondation, il ne reste plus rien parce qu’une trentaine d’années après la construction, le gouvernement colonial a décidé de bâtir un autre rempart plus loin en se servant des matériaux du premier. «D’un point de vue militaire, ils ne pouvaient pas laisser le premier rempart en place. Des ennemis auraient éventuellement pu s’en servir», dit M. Lambert. N’en restent essentiellement que les plans d’ingénieurs, qui ont été conservés, mais qui demeurent assez théoriques et qui ne disent rien des ajustements qu’il a fallu faire sur le terrain.

Bastion à orillon

On sait toutefois que la fondation découverte cette année supportait un «bastion», soit une partie de fortification conçue pour accueillir et protéger des soldats qui font feu sur l’ennemi. Le rempart comptait deux bastions et deux demi-bastions à chaque bout, reliés par des «courtines» (des murs). La forme du bastion découvert soulève d’ailleurs bien des questions, dit M. Lambert : «C’est un bastion à orillon, donc en forme de pique au lieu d’être en pentagone. C’est un choix d’autant plus difficile à comprendre qu’il impliquait de faire des sections courbes, alors il a fallu qu’ils travaillent très fort pour faire ça avec du bois. Ça aurait été beaucoup plus facile à faire avec de la pierre et de la maçonnerie, on ne comprend pas trop ce choix-là pour l’instant.»

Comme il s’agit de la seule fortification en bois connue qui a été érigée autour d’une ville au XVIIe siècle, le rempart Beaucours devient d’office une sorte de «référence scientifique», de point de comparaison pour d’autres découvertes du même genre. D’autant plus que «ce mode de construction-là n’est pas documenté ailleurs», dit M. Pintal.

Par ailleurs, ces fouilles pourraient bien servir à d’autres disciplines que l’histoire et l’archéologie. «Le sol noir qu’on a rencontré s’est formé à partir du moment où mer s’est retirée [à la fin de la dernière glaciation, NDLR]. On a recueilli jusqu’à l’argile, dit M. Pintal. Alors on espère qu’en analysant ça, on pourra reconstituer la végétation de Québec depuis 10 000 ou même

11 000 ans — si on est chanceux, parce qu’à l’heure actuelle, on remonte jusqu’à 9000 ans. À Québec, surtout après le retrait des glaciers et de la mer, la région était très sèche et très venteuse, alors il n’y avait pas beaucoup de végétation qui s’accumulait au début. Mais comme ce site a une forme de cuvette, on aurait peut-être des chances de remonter très loin. Et on pourra aussi reconstituer la végétation au centre-ville de Québec [au XVIIe et XVIIIe siècle], ce serait vraiment intéressant.»

Retour sur 2018

Percées scientifiques: gène, sois beau et tais-toi

Au départ, le plan semblait infaillible, et même facile : pour remédier au déclin de diverses populations de saumons en Amérique, il n’y avait qu’à en élever en pisciculture, puis à relâcher les saumoneaux en rivière. Pour être sûr d’ensemencer les bons poissons aux bons endroits, on n’aurait qu’à capturer des saumons dans une rivière, les faire s’accoupler et remettre leur progéniture dans la même rivière. Simple comme «bonjour».

Mais voilà, cela n’a pas fonctionné aussi bien que prévu, en bonne partie parce que les saumons d’élevage ne s’en tirent pas très bien dans la nature. Même quand leurs parents sont des poissons sauvages, ceux qui naissent dans des bassins sont de moins bons nageurs, en moyenne, et montrent des comportements moins bien adaptés à la vie sauvage (ils évitent moins bien les prédateurs, par exemple) que ceux qui naissent en rivière. Et Louis Bernatchez, spécialiste de la biologie des poissons de l’Université Laval, croit bien avoir mis le doigt sur ce qui cloche.

L’explication classique voulait que le séjour en pisciculture exerce une sélection sur les jeunes poissons, faisant mourir les plus aptes à vivre en nature. «Mais le paradoxe là-dedans, c’est que les taux de survie en élevage tournent autour de 80 à 90 %, ce qui est beaucoup plus élevé qu’en nature. Alors on disait aussi que le problème pouvait justement être qu’il n’y avait pas de sélection en élevage», dit M. Bernatchez. Or une sélection, peu importe où elle s’opère, aurait dû laisser une trace, une différence entre le génome des saumons d’élevage et celui des poissons sauvages. Mais on ne trouvait rien, pas de gène plus fréquent ou plus rare chez les uns ou chez les autres.

D’où l’idée qu’a eue M. Bernatchez de tester une autre avenue : l’épigénétique. Celle-ci est un ensemble de mécanismes qui servent à moduler l’expression de chaque gène. Par exemple, on sait que les cellules sont capables de «coller» des molécules nommées groupes méthyl (CH3-) sur certains gènes précis, et que les gènes qui sont très «méthylés» ne sont pas exprimés, ou en tout cas beaucoup moins.

C’est essentiel pour n’importe quel organisme complexe — les cellules de la peau, par exemple, ne remplissent pas le même rôle que les neurones et ne doivent donc pas exprimer les mêmes gènes avec la même force. Et cela peut aussi servir de mécanisme d’adaptation, car l’environnement peut influer sur l’épigénétique.

Alors M. Bernatchez et son équipe (dont certains appartiennent à l’Ifremer, à Pêches et Océans et à l’Université de Victoria) se sont rendus à l’embouchure de deux rivières de Colombie-Britannique où se trouvent des élevages, mais où des saumons cohos remontent naturellement aussi. Notons que dans les deux cas, les piscicultures ne font se reproduire que des saumons natifs de la rivière. Dans chacun des cours d’eau, ils ont capturé 10 saumons de chaque origine (élevage ou sauvage), puis ils ont examiné les marques épigénétiques que portait leur génome.

«Muets»

Et les résultats, publiés en décembre 2017* dans les Proceedings of the National Academy of Sciences, sont éloquents : même si les poissons d’élevage avaient essentiellement les mêmes gènes que leurs congénères sauvages, plusieurs d’entre eux avaient été rendus plus ou moins «muets», pour ainsi dire, par l’élevage. «On ne sait pas vraiment pourquoi il serait avantageux de ne pas exprimer ces gènes-là en captivité», dit M. Bernatchez, mais il est clair que plusieurs d’entre eux jouent des rôles importants.

Par exemple, les chercheurs ont trouvé que plusieurs gènes impliqués dans la régulation des ions et des fluides étaient plus «muets» chez les saumons d’élevage. Or ces gènes sont particulièrement importants lorsque les jeunes poissons quittent l’eau douce de leur rivière natale pour rejoindre l’océan — et des études antérieures suggéraient que les saumons d’élevage ont plus de difficulté à s’adapter à l’eau salée. De la même manière, certains des gènes les plus méthylés (donc «désactivés») que M. Bernatchez a trouvés sont impliqués dans la «communication neuromusculaire», «ce qui suggère fortement que la performance de nage des saumons cohos d’élevage pourrait être réduite», lit-on dans l’article des PNAS. Dans ce cas-là aussi, on avait déjà des études qui suggéraient que les poissons d’élevage étaient moins mobiles. D’autres différences significatives ont également été mises au jour.

Bref, tout indique que la clé de l’énigme n’était pas dans les gènes eux-mêmes, mais l’épigénétique : quels gènes se taisent et lesquels s’expriment.

«Ce sont des résultats qui ont suscité beaucoup d’intérêt et qui ont motivé d’autres chercheurs à entreprendre des travaux du même genre afin d’aller une coche plus loin que ce qu’on a fait, dit M. Bernatchez. (…) De manière générale, on a encore beaucoup de choses à apprendre sur l’épigénétique, par exemple sur ce qui peut se transmettre aux générations suivantes, sur ce qui est réversible et ce qui ne l’est pas, etc. Mais c’est clair que l’épigénétique a potentiellement de gros rôles à jouer dans bien des contextes.»

* Comme les études publiées en fin d’année ont plus de chances de passer inaperçues lors de la sélection de notre top 5, nous étendons toujours la période éligible au mois de décembre de l’année précédente.

Retour sur 2018

Percées scientifiques: un vrai travail de fourmi sur les oiseaux

L’année 2018 a été riche en découvertes pour la communauté scientifique de la capitale. Chacun dans son domaine, des chercheurs de la région ont écrit de nouveaux chapitres de l’histoire scientifique. Le Soleil vous présente, à raison d’une par jour, les percées les plus marquantes de l’année.

Il y a une raison pour laquelle les ouvrages comme le deuxième Atlas des oiseaux nicheurs du Québec, terminé cette année, sont publiés seulement une fois tous les 25 ans, environ. Et elle est très simple : «Les observateurs ont passé autour de 100 000 heures sur le terrain, et ça ne comprend même pas leur temps de déplacement, qui fut long dans bien des cas parce qu’on se rendait dans des régions très éloignées, ni le temps pour saisir les données, etc. Alors on parle de centaines de milliers d’heures que les gens ont investies là-dedans», dit Michel Robert, qui a codirigé le projet.

Biologiste au Service canadien de la faune (dans les bureaux du fédéral sur D’Estimauville), M. Robert explique que l’idée d’un atlas comme celui-là est de «faire le suivi de la répartition et de l’abondance relatives des oiseaux du Québec, mais à grande échelle, à l’échelle du Québec méridional au complet. C’est d’avoir une image globale de comment les espèces d’oiseaux se répartissent et de comment ça a évolué.»

Or le premier (et le seul jusqu’à maintenant) atlas du genre pour le Québec avait été publié en 1995 — et encore, avec des observations de terrain datant de 1984 à 1989. Compte tenu de toutes les perturbations qui ont pu affecter l’habitat des oiseaux depuis (réchauffement planétaire, changements dans les pratiques agricoles, étalement urbain, coupes forestières, etc.), il était grand temps de mettre ces données à jour.

Plus de 1800 bénévoles — tous très versés en ornithologie — ont visité 4000 «parcelles» à de nombreuses reprises entre 2010 et 2014, sur un territoire allant des basses terres du Saint-Laurent jusqu’en Abitibi et sur la Basse-Côte-Nord. Environ 45 % de ces parcelles ont reçu plus de 20 heures d’observation. Pas pour rien que la publication d’un ouvrage de ce genre est l’équivalent ornithologique du passage d’une comète...

«Il y a une grande différence entre les observations qu’on fait pour ses loisirs et ce genre de projet-là, dit Marie-Hélène Hachey, elle aussi du Service canadien de la faune et qui a codirigé l’ouvrage. Ça oblige à s’arrêter pour savoir si les oiseaux qu’on voit ou qu’on entend nichent à cet endroit ou s’ils sont seulement de passage. Est-ce que l’oiseau est en train de chanter? Est-ce qu’il défend son territoire? Il y avait une trentaine d’indices pour évaluer s’il nichait.»

Des perdants et des gagnants

En ce qui concerne les tendances que ces nouvelles observations ont permis de dégager, les 25 dernières années ont fait des perdants et des gagnants, notent M. Robert et Mme Hachey. «Dans des cas comme le cardinal rouge [+ 178 % depuis 1989], le dindon sauvage [+ 1700 %] et la grue du Canada [population minuscule en 1989, multipliée par 250 depuis], ce sont de véritables explosions», dit cette dernière. On pense que le cardinal a grandement bénéficié des hivers plus doux et de l’habitude, maintenant très répandue, d’installer des mangeoires. Le dindon sauvage a pour sa part été introduit par le gouvernement et comme il a des taux de reproduction très élevés [comme le cardinal, d’ailleurs], il s’est répandu rapidement dans le sud du Québec une fois qu’il y a pris pied.

Beaucoup de rapaces ont aussi vu leur population augmenter depuis 25 ans, en bonne partie parce qu’on a utilise moins de DDT et d’autres insecticides dits «organochlorés», qui fragilisaient la coquille des œufs des rapaces. Mais les facteurs varient d’une espèce à l’autre. Ainsi, dit M. Robert, «pour l’urubu à tête rouge, qui est beaucoup plus présent qu’avant, il y a deux éléments qui sont souvent mentionnés. Le premier, c’est la présence plus nombreuse de cerfs de Virginie, qui se font frapper par les autos. Ça aide beaucoup l’urubu — et le grand corbeau aussi d’ailleurs, un autre oiseau en augmentation. Il y a aussi la perte d’habitats dans le nord-est des États-Unis qui est parfois mentionnée, parce que certains pensent que ça aurait déplacé les populations vers le sud du Québec.»

Mais tous les oiseaux ne s’en tirent pas aussi bien. «Beaucoup d’espèces qui vivent dans les milieux humides sont en déclin, dit Mme Hachey. Les milieux humides sont de plus en plus rares et dans les basses terres, c’est particulièrement problématique.»

De la même manière, des changements profonds dans nos façons de faire de l’agriculture ont fait des «perdants» parmi les oiseaux depuis 25 ans. Une quantité étonnante de terres agricoles ont été abandonnées et sont retournées à l’état de forêt. Parmi celles qui restent, les pâturages ont perdu beaucoup de terrain pour céder la place à de grandes monocultures intensives comme celle du maïs. Bien des espèces nichant au sol y ont perdu leur habitat — d’autant plus que les champs de soya et de maïs laissent la terre à nu au printemps, quand les oiseaux reviennent du sud, ce qui en fait essentiellement des déserts. De nouveaux pesticides semblent également contribuer au problème, notamment les néonicotinoïdes, que ce soit en empoisonnant les oiseaux ou en éliminant les insectes qui leur servent de nourriture. Si bien qu’au final, plusieurs espèces d’oiseaux champêtres qui étaient abondants il n’y a pas si longtemps sont maintenant menacées d’extinction, et certaines comme la pie-grièche migratrice ne se rencontrent pratiquement plus au Québec.

«Jusque dans les années 30 ou 40, on pratiquait une agriculture vivrière au Québec, avec une famille par ferme, quelques vaches et des chevaux. Dans ce type de campagne-là, on pouvait trouver jusqu’à quatre ou cinq nids de pie-grièche migratrice en une seule journée. Mais là, dans le deuxième Atlas, on a trouvé un seul nid dans tout le Québec. […] C’est une espèce qui est associée aux aubépines, et il y en avait beaucoup dans les pâturages», explique M. Robert.

Le deuxième Atlas des oiseaux nicheurs du Québec sera en librairie le printemps prochain.

Science

La Terre n'arrêtera pas de tourner, mais...

SCIENCE AU QUOTIDIEN / «Comme on voit toujours la même face de la lune, certains disent que c’est parce qu’elle ne tourne pas sur elle-même. Si c’est vrai, il s’agirait d’une rare exception parce qu’à ma connaissance tous les astres tournent sur eux mêmes, non ? Et j’ai aussi lu quelque part que la vitesse de rotation de la Terre ralentissait petit à petit, si bien que dans quelques millions d’années, elle s’arrêterait complètement et que sa face constamment exposée au Soleil serait brulée tandis que l’autre serait gelée. Qu’en est-il ?», demande Ghislain Gauthier.

Si la Lune ne tournait pas sur elle-même, il s’agirait en effet d’une exception fabuleusement rare. Les astres — qu’il s’agisse de planètes, de lunes ou d’étoiles — se forment lorsque des nuages de gaz et/ou de poussières flottant dans l’espace finissent par s’effondrer sous l’effet de leur propre gravité. Ces nuages vont alors tourner sur eux-mêmes, puis former un disque qui tourne sur lui-même, puis le disque va petit à petit se transformer en sphère. Et le «produit final», la planète, conserve cette rotation.

J’imagine que l’Univers est trop vaste pour qu’on puisse dire qu’il n’existe absolument aucun astre sans rotation. Mais à partir de ce qu’on sait des étoiles, planètes, lunes et astéroïdes que l’on a observés jusqu’à maintenant, la règle est que tous les objets ont une rotation. Et notre Lune n’y fait pas exception.

On peut avoir l’impression contraire parce qu’on en voit toujours la même face, mais c’est simplement parce que sa rotation est synchronisée avec sa «révolution», comme disent les physiciens : elle prend le même temps pour faire un tour sur elle-même (environ 28 jours) qu’elle n’en met pour faire le tour de la Terre (28 jours aussi). Ce n’est pas un hasard s’il en est ainsi — et l’explication nous permettra au passage de comprendre pourquoi il est vrai que la rotation terrestre ralentit peu à peu.

La Terre et la Lune sont d’énormes masses assez rapprochées (à l’échelle cosmique, s’entend) et qui exercent une forte gravité l’une sur l’autre. Cette gravité, bien sûr, explique pourquoi la Lune continue de tourner autour de notre planète, mais elle fait un petit quelque chose de plus : des effets de marée. Sur Terre, on les voit avec le niveau de la mer, mais la gravité lunaire ne fait pas qu’attirer des masses d’eau. La croûte terrestre se soulève également d’environ 30 centimètres au passage de la Lune, ce qui crée une sorte de «bourrelet» de matière qui se déplace au rythme de la rotation de la Terre et de la révolution lunaire.

Maintenant, il y a deux choses à souligner à propos de ce «bourrelet». La première, c’est qu’il représente un surplus de masse, qui exerce donc un surplus de force gravitationnelle. Comparé à la totalité de la gravité terrestre, ce n’est pas grand-chose, mais cela reste une force qui agit. La seconde, c’est que ce bourrelet est toujours légèrement décalé, légèrement en avance par rapport à la Lune parce que la Terre tourne sur elle-même en 24 heures, alors que la Lune met 28 jours à compléter un tour de la Terre.

Et ce dernier point est capital : comme l’orbite lunaire va dans le même sens que la rotation terrestre, cela signifie que le petit surplus de force gravitationnelle du bourrelet fait accélérer la Lune.

Compte tenu des distances et des masses impliquées, l’accélération est infinitésimale. Pour vous donner une idée, sachez que plus un satellite file rapidement sur sa course orbitale, plus il s’éloigne de sa planète — et l’accélération dont on parle ici fait s’éloigner la Lune au rythme de… 3 cm par année. C’est comparable à la vitesse à laquelle poussent les ongles, alors la distance Terre-Lune est d’environ 380 000 km. Presque rien, quoi.

L’accélération de la Lune n’est cependant qu’un des deux côtés d’une même médaille. Car ultimement, d’où vient l’énergie qu’il faut pour la faire orbiter plus vite ? De la rotation terrestre, sur laquelle notre satellite naturel agit comme une sorte d’ancre. À mesure que la Lune accélère, la Terre tourne de moins en moins vite sur elle-même. Encore une fois, c’est infinitésimal, mais c’est suffisant pour faire une différence notable sur de longues périodes.

Des géologues ont d’ailleurs été capables d’en prendre des mesures très concrètes. On connaît en effet des roches qui se sont formées par l’accumulation de sédiments dans des circonstances telles que l’on peut encore discerner, même des millions d’années plus tard, l’effet de chaque marée individuelle. En analysant les caractéristiques des couches de sédiments que chaque cycle de marée a laissé derrière lui dans des roches de l’Australie, un chercheur a pu estimer que chaque journée durait environ 22 heures il y a 620 millions d’années — et même autour de 18 heures il y a 2,45 milliards d’années.

La Terre a eu le même genre d’effet de marée sur la Lune, et en a ralenti la rotation jusqu’à la synchroniser avec sa révoltuion. La différence est que comme la Terre est beaucoup plus massive, elle exerce des forces plus grandes sur la Lune, et son inertie (sa résistance aux forces exercées par la Lune) est plus importante. C’est pourquoi la Terre n’a pas encore synchronisé sa rotation avec l’orbite lunaire. Cela finira éventuellement par arriver, mais il faudra être patient : on estime que cela prendra encore… 50 milliards d’années.

Pour en savoir plus :

- George E. Williams, «Geological Constrait on the Precambrian History of Earth’s Rotation and the Moon’s Orbit», Reviews of Geophysics, 2000, https://bit.ly/2BW1q8P

- Fraser Cain, «When Will Earth Lock to the Moon ?», Universe Today, 2016, https://bit.ly/2AZupaf

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Auto

Vérification faite : Combien d’électricité pour un litre d’essence?

L’affirmation: Notre chronique «Science au quotidien» de lundi dernier a fait beaucoup réagir. Nous y répondions à la question d’un lecteur qui voulait savoir combien d’électricité il faudrait pour alimenter le parc automobile du Québec si nous passions tous au tout-électrique demain matin. En mettant les choses au pire, nous calculions que cela représenterait environ un huitième de la production totale d’Hydro-Québec — ce qui est beaucoup, mais quand même assez facilement gérable. De nombreux lecteurs nous ont ensuite écrit pour nous dire que nous avions oublié de compter l’électricité qu’il faut dépenser pour extraire le pétrole, le raffiner et transporter l’essence. Certains ont avancé le chiffre de 2 kilowatts-heure par litre de carburant, d’autres 4 kwh/l et même 6 ou 7 kwh/l. Les uns parlaient uniquement du raffinage, les autres de l’ensemble de la chaîne. Mais l’idée était toujours la même : l’électricité épargnée en abandonnant le pétrole compenserait presque entièrement la consommation des voitures électriques. C’est d’ailleurs là une thèse qui court depuis longtemps sur les réseaux sociaux, alors il vaut la peine d’y regarder de plus près.

Les faits

L’origine de cette croyance, parce qu’il semble bien que ce soit surtout cela, remonterait à un tweet du fondateur de Tesla, l’homme d’affaires Elon Musk, selon une brève enquête menée en 2011 par le Council on Foreign Relations (CFR, https://on.cfr.org/2BEIwDk). Le hic, c’est que les 6 kwh/l dont parlait alors
M. Musk référaient aux dépenses totales en énergie (et pas seulement en électricité) de l’industrie pétrolière et des raffineries.

Et les chiffres donnent raison au CFR. En 2006, d’après des données gouvernementales américaines (https://bit.ly/2rdnaXO), les raffineries américaines ont dépensé un grand total de 1 million de kWh pour raffiner 15 millions de barils de pétrole par jour — un peu moins de la moitié de ce volume finissait en carburant. Mais l’électricité représente seulement 15 % de cette énergie, le plus clair était des combustibles fossiles que l’industrie fait brûler. Finalement, cela fait 0,4 kWh/l pour le raffinage.

Même si l’on tient compte de tout le «cycle de vie» de l’essence, la facture d’électricité reste faible. D’après un rapport de la Commission européenne paru en 2013, pour chaque baril de pétrole qui sort du sol, on doit «sacrifier» environ 20 % de son énergie pour l’extraire du sol, le transporter, le raffiner et, enfin, distribuer le carburant. Cela représente environ 4 kwh par litre d’essence, mais le plus clair (environ 16 % sur les 20) de cette énergie est dépensée lors de l’extraction et du raffinage, soit des étapes où l’industrie tire très principalement son énergie des hydrocarbures (pour la machinerie, pour chauffer le pétrole lors du raffinage, etc.), et non de l’électricité.

Le Verdict

Faux. Entre le moment où l’on sort le pétrole du sol et celui où l’automobiliste fait le plein, il y a bel et bien quelques kwh qui sont dépensés pour chaque litre d’essence produite, mais ce sont presque entièrement des combustibles fossiles, et non de l’électricité, qui fournissent cette énergie. Ça peut faire un argument de plus pour l’auto électrique, mais c’est une autre histoire...

Environnement

Gazoduc: pas de bénéfice environnemental?

L'AFFIRMATION: «Si [le gaz canadien] vient remplacer en Europe, par exemple, des machines ou des usines qui fonctionnent avec du charbon ou du mazout, là, il peut y avoir un gain net en matière de GES [gaz à effet de serre, ndlr] qui peut être intéressant», a déclaré récemment le député péquiste Sylvain Gaudreault à l’agence QMI (Quebecor), en réaction à l’annonce d’un projet de gazoduc qui traverserait l’Abitibi pour amener du gaz naturel des Prairies jusqu’à une future usine de liquéfaction, au Saguenay. Dès le lendemain, cependant, Le Devoir citait «des experts» disant que les bénéfices environnementaux «seront pratiquement nuls». Alors voyons voir…

LES FAITS

Le gaz naturel est principalement constitué de méthane (CH4). Comme il y a moins d’atomes de carbone dans le méthane que dans d’autres combustibles fossiles, en particulier le charbon, le gaz naturel émet environ deux fois moins de CO2, principal responsable du réchauffement climatique, lorsqu’on le brûle. D’après des chiffres du GIEC, pour chaque kilowatt-heure d’électricité produite, une centrale au gaz émet l’équivalent de 370 grammes de CO2, contre 760 g/kWh pour une centrale au charbon. À cause de cela, le gaz naturel est souvent décrit comme un «pas dans la bonne direction» : il faudra éventuellement s’en passer parce qu’il pollue mais, en attendant, il permet de réaliser des gains environnementaux s’il remplace le charbon.

Science

Auto électrique : va-t-on manquer de watts-heure ?

SCIENCE AU QUOTIDIEN / «On parle beaucoup, ces temps-ci, de remplacer les voitures à essence par des voitures à l'électricité. Et c’est tant mieux : notre planète a bien besoin que la pollution diminue. Mais je n'ai jamais vu d'étude qui évaluerait la quantité d'électricité qui serait nécessaire si tous les véhicules routiers fonctionnaient à l'électricité. Au Québec, on se targue d'avoir beaucoup d'électricité mais déjà, lors de grands froids, nous sommes en déficit ! En outre, je me pose de sérieuses questions sur la capacité des provinces et États voisins, qui n’ont pas nos réserves d’électricité propre, de répondre à cette demande. Auront-elles besoin de construire des centrales nucléaire, au gaz ou au charbon ?», demande Gilles Lamontagne, de Leclercville.

D’après la version 2018 de L’état de l’énergie au Québec, un rapport publié annuellement par la Chaire de gestion du secteur de l’énergie des HEC, les voitures et les camions légers parcourent en moyenne 13 500 km par année dans la Belle Province. Histoire de faire un calcul conservateur (au sens de «pessimiste»), mettons les choses au pire et arrondissons à 15 000 km/an.

Ce même rapport indique qu’il y avait 5,2 millions de véhicules personnels en 2014. Toujours dans le même esprit conservateur, supposons que nous sommes rendus à 6 millions de véhicules personnels aujourd’hui. Cela nous fait collectivement un grand total de 15 000 km/an*véhicule x 6 000 000 véhicules = 90 milliards de km parcourus au volant de nos bagnoles chaque année.

Maintenant, combien d’énergie consomme un véhicule électrique pour une distance donnée ? Pour les modèles 2018, on trouve sur le site de Ressources naturelles Canada des chiffres allant de 15,5 kilowatt-heure (kWh, donc l’énergie dépensée par 155 ampoules de 100 W qui seraient allumées pendant 1 heure complète) par 100 kilomètres à 20 kWh/100 km pour les véhicules tout-électriques les plus populaires, comme la Chevrolet Bolt, la Hyundai Ioniq EV et la Nissan Leaf. Mais encore une fois, soyons pessimistes (après tout, il est plus énergivore de rouler en hiver dans la neige) et prenons le cas le plus gourmand, soit l’utilitaire-sport de Tesla, le Model X P100D, qui «brûle» 25 kWh/100 km.

Si tout le parc automobile du Québec était converti en tout électrique et qu’il consommait autant que le SUV de Tesla, cela nous ferait une consommation totale de 90 milliards de km/an x 25 kWh/100 km = 22 500 000 000 kWh. Rendu là, autant éliminer quelques zéros inutiles et exprimer cette quantité d’énergie en «térawatts-heure» : 22,5 TWh.

Est-ce beaucoup ? Est-ce que les fameux «surplus» d’Hydro-Québec, que l’on dit énormes, pourraient couvrir cette nouvelle demande ? Eh bien non : dans son Plan d’approvisionnement 2017-2026, la société d’État évalue ses surplus annuels à… 10 TWh. C’est clairement insuffisant pour couvrir ces futurs besoins. Et pour tout dire, ces 22,5 TWh représenteraient une part substantielle de la production totale d’Hydro-Québec, qui fut de 177 TWh l’an dernier. Ce qui indique qu’il y aurait du travail à faire pour alimenter autant de voitures électriques.

Mais cela ne constituerait pas un obstacle infranchissable non plus, dit le physicien de l’Université de Montréal Normand Mousseau, qui a codirigé la Commission sur les enjeux énergétiques du Québec. Cela «ne représente que le huitième de la consommation totale d’électricité au Québec. Il suffirait d’un peu d’efficacité énergétique dans l’utilisation de l’électricité pour le chauffage ou de réduire les exportations qui ne sont pas rentables (hors heures de pointe) pour fournir cette énergie. On exporte plus de 30 TWh par année», m’a-t-il écrit lors d’un échange de courriels.

Il y aurait aussi des économies à faire ailleurs, lit-on dans le rapport que M. Mousseau a cosigné en 2014, et qui donneraient un coup de pouce. Qu’on en juge simplement par ce passage (entre autres) : «À Montréal, 39 % des citoyens qui demeurent à moins de 1 kilomètre de leur travail utilisent tout de même leur voiture pour s’y rendre. Dans l’ensemble du Québec, cette proportion atteint 48 %.»

On peut aussi, par ailleurs, imaginer que ce n’est pas forcément Hydro-Québec qui ajoutera de la puissance afin de recharger les voitures électriques. Avec le prix des panneaux solaires et des batteries qui chute continuellement depuis des années, bien des particuliers pourraient éventuellement s’installer leurs propres systèmes de recharge.

Mentionnons enfin que oui, il est vrai que nos voisins des autres provinces et de la Nouvelle-Angleterre n’ont pas la chance d’avoir une géographie aussi propice à l’hydroélectricité que nous, et que par conséquent leur production d’électricité est très dépendante des combustibles fossiles et du nucléaire. Cependant, il faut savoir que le nucléaire ne produit presque pas de gaz à effet de serre — donc en ajouter ne serait pas un problème, du moins pas de ce point de vue. Mais de toute manière, les énergies renouvelables sont déjà la principale source de nouvelle capacité électrique aux États-Unis. D’après des données gouvernementales, il s’est installé pour environ 11 gigaWatts de solaire et d’éolien chez l’Oncle Sam en 2017, contre à peu près 8,5 GW de centrales au gaz naturel (il n’y en a pas eu de nouvelle au charbon). Notons qu’il y a eu plus de centrales aux combustibles fossiles qui ont cessé leurs opérations l’an dernier (10,5 GW) qu’il n’y en a eu de nouvelles qui entraient en fonction.

Entendons-nous, les États-Unis sont encore loin de tirer la majeure partie de leur électricité de sources renouvelables, mais sur la question de la production à ajouter pour alimenter un éventuel parc auto tout-électrique, que pose M. Lamontagne, disons qu’il y a déjà un bout de chemin de fait.

Science

Bonne pour le cœur, l'huile de poisson?

SCIENCE AU QUOTIDIEN / «En lisant les journaux de lundi, j’ai vu des contradictions dans des reportages qui traitaient pourtant des deux mêmes études. Le Washington Post titrait : «Les suppléments d’huile de poisson protègent le cœur», alors que le New York Times indiquait : «Les suppléments de vitamine D et d’huile de poisson inefficaces pour prévenir le cancer et les maladies cardiaques». Alors où est l’erreur ? Qui a raison ?», demande Gérard Bélanger, de Québec.

Ces deux grands journaux américains furent loin d’être les seuls à se contredire au sujet de cette paire d’études. La chaîne CNN a titré sur son site : «Les suppléments d’oméga-3 et de vitamine D ne préviennent pas le cancer ou les maladies du cœur, selon une étude». De ce côté-ci de la frontière, la manchette de CBC se lisait : «La vitamine D réduit le risque de mourir du cancer, l’huile diminue les chances d’attaque cardiaque, suggère une étude», et le texte de l’agence Reuter publié par la société d’État parlait même d’une réduction «dramatique» des risques de crise cardiaque. L’Associated Press, elle, parlait plutôt de «résultats mitigés». Alors voyons ce qui a bien pu se passer pour que la presse tire ainsi dans toutes les directions.

Le 10 novembre dernier, le prestigieux New England Journal of Medicine a publié deux articles du groupe de recherche VITAL (acronyme bien imparfait pour Vitamin-D and Omega-3 Trial), qui détaillaient les résultats d’un vaste essai clinique au sujet des effets protecteurs des suppléments d’omégas-3 d’origine marine (l’huile de poisson) et la vitamine D. Leur consommation a littéralement explosé dans les années 2000, ayant été multipliée par 10 pour les suppléments d’huile de poisson et par 4 pour la vitamine D, justement parce qu’on entend souvent dire qu’ils sont «bons pour le cœur» et/ou qu’ils préviennent le cancer.. On parle ici d’un marché qui représente plusieurs dizaines de milliards $ à l’échelle mondiale.

Or, c’est un brin désespérant, les bases scientifiques sur lesquelles s’appuyaient toutes ces ventes de pilules ne sont pas très solide, pour ne pas dire «pas solides du tout», explique un éditorial du NEJM qui a accompagné le duo d’articles. Plusieurs études comparant des populations — ce qui n’est pas idéal — avaient trouvé que celles qui mangent plus de poisson avaient moins de problèmes cardiaques. On avait des essais cliniques — le «nec plus ultra» de la recherche médicale et nutritionnelle — sur des gens qui présentaient un risque élevé d’avoir des problèmes cardiovasculaires, mais pas d’essai clinique en bonne et due forme sur la population en général. Et ce genre d’essai existait au sujet de la vitamine D, mais ils étaient de faible envergure.

Ce sont ces «trous» que VITAL visait à remplir : plus de 25 000 personnes ont participé à l’essai clinique. Certains ont reçu des suppléments de vitamine, d’autres des suppléments d’huile de poisson, d’autres ont pris les deux, et un dernier groupe n’a reçu que des placebos. Tout ce beau monde a été suivi pendant une période d’un peu plus de 5 ans.

Malgré ce que suggère la confusion médiatique, les résultats sont on ne peut plus clairs. Chez ceux qui ont pris des oméga-3, 3 % ont subi des accidents cardiovasculaires majeurs, contre 3,2 % pour le groupe placebo. Pour les diagnostics de «cancers invasifs», les taux sont de 6,3 % et 6,2 %. Aucune de ces différences n’est significative sur le plan statistique. Le portrait est le même pour la vitamine D : les taux d’accidents cardiovasculaires (3,1 % dans le groupe contrôle vs 3,2 % dans placebo) et de cancers invasifs (6,1 % vs 6,4 %) sont statistiquement identiques.

Les deux articles et l’éditorial du NEJM qui les accompagnaient sont explicites sur ce point : «la supplémentation en huile de poisson et en vitamine D dans cet essai clinique n’a pas réduit l’incidence de cancers invasifs ni (…) d’accidents cardiovasculaires majeurs.» Difficile d’être plus clair.

Ce qui a créé de la confusion malgré tout, c’est manifestement le fait que les chercheurs de VITAL ont pris plusieurs mesures différentes pour jauger l’effet des suppléments, dont certaines semblent avoir donné des résultats positifs. Ainsi, les oméga-3 ont été associés à une baisse de 28 % pour un sous-type précis d’«accidents cardiovasculaires majeurs», soit l’infarctus du myocarde. Pour sa part la vitamine D, si elle n’a pas réduit le nombre de cancers invasifs, semble avoir amoindri de 17 % les décès dû aux cancers.

Cependant, ces «bienfaits» apparents viennent avec un avertissement dans les articles du NEJM : il s’agissait de mesures dires secondaires, et il y en avait plusieurs. Or en statistique quand on fait des comparaisons, on doit faire des tests pour déterminer si les différences entre deux groupes (ici, le groupe traité et le groupe placebo) sont significatives. Mais il y a toujours une possibilité d'erreur, alors plus on fait de comparaisons, plus on risque de produire des «faux positifs» — les tests disent que la différence est réelle alors qu’elle est due au hasard. Il existe des outils statistiques pour contourner ce problème, mais les articles du NEJM mentionnent qu’ils ne s’en sont pas servis et ils avertissent d’«interpréter ces [mesures secondaires] avec prudence».

De toute évidence, cette subtilité statistique a échappé à plusieurs de mes collègues. La vraie conclusion de cet essai clinique, c’est que non, les suppléments de vitamine D et d’huile de poisson ne protègent aucunement contre le cancer ou les maladies cardiaques.

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Éditorial

La dernière claque

ÉDITORIAL / Ceux qui comptaient sur les tribunaux pour que les bagarres disparaissent de notre sport national ont de quoi être déçus. Les quelque 19 millions $ que les ex-hockeyeurs viennent d’arracher à la Ligue nationale (LNH) ne sont guère plus que des pinottes. Et pour les joueurs, une dernière taloche. Une autre.

La poursuite intentée par 300 joueurs, dont une centaine d’anciens de la LNH, alléguait que la ligue n’avait pas adéquatement protégé ses joueurs et ne les avait pas bien informés au sujet des commotions cérébrales et de leurs séquelles parfois permanentes pouvant aller jusqu’à l’encéphalopathie traumatique chronique (ETC), une maladie neurodégénérative. Lundi, il a été annoncé que les ex-hockeyeurs avaient accepté des compensations de 22 000 $, plus la couverture de frais médicaux jusqu’à concurrence de 75 000 $.

Ce sont des broutilles pour des cas semblables. En mai dernier, un tribunal américain avait refusé que ces 300 joueurs et quelque 5000 autres unissent leur cause dans un recours collectif à cause de différences dans les lois de différents États au sujet des suivis médicaux. Cela a grandement limité les ressources disponibles pour la poursuite, qui était la plus grande à laquelle la LNH faisait face. Les ex-hockeyeurs ont donc dû se contenter des frais médicaux, essentiellement.

La LNH était parfaitement dans son droit de se défendre de la sorte. Mais au-delà des avocasseries, le fond moral de l’affaire ne nous en semble pas moins transparent : cette ligue-là traîne un lourd passé d’incurie à l’égard des blessures à la tête.

Il y a, certes, un risque inhérent à la pratique de tout sport, même ceux qui n’impliquent pas de contact physique. Mais toute ligue demeure responsable de faire ce qui peut raisonnablement être fait pour minimiser ces risques. Or pendant très longtemps, la LNH a laissé persister une culture où les joueurs restaient dans un match après une commotion. Sans compter le fait qu’elle était (et est toujours) la seule ligue majeure à tolérer les bagarres.

En 2011, après que trois de ses anciens bagarreurs (ayant tous un historique de dépression possiblement lié à de multiples commotions) soient morts par suicide ou par overdose en l’espace de quatre mois, le commissaire Gary Bettman s’était dit d’avis, dans des courriels révélés par la poursuite, que ces ex-joueurs avaient simplement des prédispositions pour les problèmes qui les affligeaient, et que leur profil de bagarreur était une conséquence de ces prédispositions, pas une cause.

Or les premières études liant l’ETC et la boxe datent des années... 1920. On veut bien croire que les pugilistes et les hockeyeurs ne sont pas exposés de la même manière, mais il ne fallait pas un prix Nobel pour voir le lien potentiel, voire probable, avec les commotions à répétition subies au hockey, surtout chez les spécialistes du combat. Une simple recherche Google permet de trouver des articles scientifiques remontant aux années 90 qui mentionnent un lien entre l’ETC et le hockey professionnel.

Malgré cela, le resserrement (par ailleurs bienvenu) des règles pour limiter les coups à la tête n’est encore que tout récent. Et bien qu’il y ait moins de batailles qu’avant, les joueurs qui se battent ne sont toujours pas expulsés, et encore moins suspendus — ce qui est une forme de tolérance. Pendant des décennies, la LNH a eu les moyens de mettre ses connaissances à jour sur les commotions. Il faut vraiment qu’elle ait choisi de regarder ailleurs pour ne pas agir. Et c’est en ce sens qu’elle est moralement, à défaut de légalement, responsable du sort de ces anciens joueurs.