Jean-François Cliche
Quelle pente peut gravir un tramway ?

Science

Quelle pente peut gravir un tramway ?

SCIENCE AU QUOTIDIEN / «Le tracé sous-terrain du futur tramway, sous le quartier Saint-Jean Baptiste, a été présenté aux résidants et aux médias récemment. À la question «Pourquoi un tunnel alors qu’il serait tellement plus simple (et meilleur marché !) d'emprunter la Côte d’Abraham ?», la réponse de la Ville fut que cette pente est trop forte pour les tramways modernes. Mais comment expliquer alors que les tramways anciens, dès 1897 et jusqu’en 1948, la montaient sans problème ? La véritable raison ne serait-elle pas que cela Ville veut sauvegarder l’espace déjà dédié à l’automobile ?», demande Michel Beaulieu, de Québec.

Effectivement, le tramway qui a circulé dans les rues de Québec pendant la première moitié du XXe siècle gravissait la côte d’Abraham sans problème, même si son inclinaison est d’environ 10 %, avec des pointes à 12 % pour se rendre jusqu’à la Place D’Youville. Or dans ce dossier, on a souvent entendu la Ville défendre l’idée d’un tunnel sous le quartier Saint-Jean-Baptiste en disant que les tramways dits «modernes» ne peuvent monter des pentes de plus de 6 ou 7 %. Alors depuis quand les «trams» ont tant de difficulté avec les côtes ?

Quand on tente de se figurer ce qui peut empêcher un train ou un «tram» de franchir une pente, on se dit naturellement que ce doit être une question d’adhérence, que les roues de métal doivent finir par glisser sur les rails métalliques. Mais en réalité, explique le spécialiste des transports collectifs de l’École polytechnique Pierre-Léo Bourbonnais, c’est d’abord et avant tout une question de puissance — même si l’adhérence peut finir par être un problème elle aussi, surtout dans certaines conditions météos. Pour peu qu’ils soient conçus de la bonne manière, «en théorie les trams peuvent grimper 12 %, voire 14 %, mais cela engendre des coûts supplémentaires et cela demeure assez rare», dit-il.

À Lisbonne, par exemple, le tramway grimpe des pentes allant jusqu’à 13,8 % et dans la ville autrichienne de Linz, 11,6 %. Et ils le font uniquement par l’adhérence entre leurs roues et les rails, sans recourir à des systèmes spéciaux comme des chaînes qui tirent les wagons vers le haut ou à des crémaillères (des roues dentelées qui s’imbriquent à un rail spécial, dentelé lui aussi, placé dans les côtes particulièrement abruptes).

Pour développer suffisamment de puissance, cependant, les tramways doivent être munis de plusieurs «essieux moteurs». Les essieux, ce sont essentiellement les «barres» qui relient deux roues, sous les voitures. Ils peuvent être «passifs» et servir simplement à supporter le poids du véhicule. Ou ils peuvent être «moteurs» : la puissance du moteur leur est transmise, ce sont eux qui font avancer la voiture.

Or, indique M. Bourbonnais, «de nos jours, pour des questions d’accessibilité universelle, on utilise de plus petites routes et de l’équipement plus petit pour avoir un plancher bas intégral sur toute la longueur du véhicule», ce qui empêche de placer des essieux moteurs sous le véhicule, car ils sont plus volumineux que les essieux «passifs» et prennent trop de place.

Ce ne sont pas donc «les tramways» en général qui ne peuvent pas grimper des pentes comme la côte d’Abraham, mais seulement les trams dits «modernes», dont on garde le plancher aussi bas que possible pour accommoder les personnes âgées et à mobilité réduite. Les autres, pour peu que leur conception le permet, en seraient tout à fait capables.

Ou du moins, ils le seraient du seul point de vue de l’inclinaison, car il y a par ailleurs bien d’autres facteurs qui entrent en ligne de compte. En plus de la côte, ajoute M. Bourbonnais, «négocier les virages dans les pentes pour monter en Haute-Ville est [...] très complexe. C’est pour cette raison que le tunnel, bien que coûteux, réduit considérablement la complexité du tracé». Quiconque connaît un tant soit peu le secteur sait en effet très bien qu’il y aurait eu des virages prononcés à négocier en pleine pente, notamment à la jonction entre la côte d’Abraham et Honoré-Mercier, puis entre Honoré-Mercier et René-Lévesque.

«Limiter les courbes dans les pentes raides [aurait demandé] un réaménagement important à Québec à mon avis», explique M. Bourbonnais, ce qui n’aurait pas forcément été plus simple à faire qu’un tunnel puisqu’il s’agit d’un secteur très densément construit.

En outre, m’a indiqué la porte-parole de la Ville Stéphanie Gaudreau, «lors de la phase d’avant-projet, différents scénarios ont été envisagés pour la montée de la Basse-Ville vers la Haute-Ville, dont une insertion en surface dans la côte d’Abraham et un passage en souterrain dans le secteur de la Place D’Youville. Cette option n’a pas été retenue en raison de son impact sur la circulation dans la côte d’Abraham et sur l’accès à l’autoroute Dufferin-Montmorency. La Ville considère que le tracé actuel en souterrain est celui qui permet d’assurer la meilleure exploitation possible du tramway tout en réduisant les impacts d’insertion dans un secteur historique et en maintenant les conditions de circulation actuelles»

Donc oui, comme le soupçonne M. Beaulieu, un tunnel sert aussi à «sauvegarder l’espace déjà dédié à l’automobile», mais ce n’est vraiment qu’une partie de l’explication.

Jean-François Cliche
COVID-19 : la «Suède d’Asie»

Science

COVID-19 : la «Suède d’Asie»

SCIENCE AU QUOTIDIEN / «Pourquoi le Japon a-t-il eu si peu de cas confirmés et de morts liés à la COVID-19 comparativement au Canada, qui pourtant possède seulement le tiers de la population du Japon ?», demande Michel Jacob, de Trois-Rivières.

Aux dernières nouvelles, le Japon n’avait pas encore atteint le cap des 18 000 cas ni celui des 1000 décès. C’est effectivement beaucoup moins que les quelque 100 000 cas confirmés et plus de 8000 décès constatés au Canada. Au pro rata de la population (127 millions au Japon, 38 millions au Canada), le contraste est encore plus saisissant : 141 cas et 8 décès par million d’habitants au Japon, contre 2630 et 210 ici. Et c’est sans rien dire du Québec : 6350 cas confirmés et 616 décès par million.

Comme on l’a déjà vu dans cette rubrique, il est toujours hasardeux de comparer les statistiques entre différents pays ou provinces parce que les efforts de dépistage et les définitions de «décès liés/causés par la COVID-19» ne sont pas les mêmes partout. D’ailleurs, le premier ministre nippon Shinzo Abe a été critiqué en début de pandémie parce que son pays faisait relativement peu de tests, «échappant» ainsi de nombreux cas. Alors il est possible qu’une partie de l’épidémie soit passée inaperçue puisque les dernières données disponibles au sujet de la mortalité (toutes causes confondues) notaient environ 1000 décès de plus qu’à l’habitude juste dans la capitale, Tokyo, rapportait l’agence Bloomberg la semaine dernière. Partout où l’épidémie a frappé, on a noté une hausse notable de la mortalité générale. Alors peut-être bien, oui, que l’ampleur des dégâts a été un peu sous-estimée au Japon.

Mais on n’a clairement pas juste affaire à un tour de passe-passe méthodologique, ici. La surmortalité d’avril à Tokyo, pourtant la ville la plus durement touchée du pays, n’était qu’environ 12 % par-dessus la moyenne des quatre dernières années, et 7 % supérieure au nombre de décès survenus en avril 2019. C’est beaucoup, beaucoup moins pire que dans les pays qui ont été les plus durement frappés par la COVID-19. En Angleterre et au Pays-de-Galles, par exemple, la surmortalité a dépassé les 100 % dans la seconde moitié d’avril, au plus fort de l’épidémie. Si le Japon avait «regardé ailleurs» en limitant le dépistage, les stats de mortalité générale auraient facilement révélé l’entourloupe. On voit ici que ce ne fut pas (ou assez peu) le cas.

Alors pourquoi le coronavirus a-t-il eu tant de mal à se répandre là-bas ? Le Japon est un cas très intrigant, il faut le dire : une sorte de «Suède d’Asie», au sens où le gouvernement Abe n’a pas imposé un confinement massif et obligatoire comme ailleurs. Un état d’urgence a été déclaré, mais rien qui s’approchait de ce qu’on a connu ici — pas de restriction légale dans les mouvements de la population, la plupart des commerces sont restés ouverts, etc.

Sauf que… Après des débuts prometteurs, la Suède s’est hissée parmi les pays où l’on déplore le plus de mort à chaque jour : elle est montée jusqu’à 10 décès quotidiens par million d’habitants et se situait toujours au-dessus de 3 aux dernières nouvelles. Le Japon, lui, n’a jamais dépassé les 0,25 mort par million et par jour, et se maintient très proche du zéro absolu depuis plusieurs semaines.

Jean-François Cliche
Nicheuse en série

Science

Nicheuse en série

SCIENCE AU QUOTIDIEN / «J’ai remarqué un couple de roselins au début du printemps dans notre petit cèdre, juste devant ma fenêtre, et j’ai pu observer toutes les étapes allant de la couvaison jusqu’à la sortie du nid le 5 mai dernier. Je croyais qu’ils avaient quitté le nid pour de bon avant de voir deux mâles tourner autour du nid et se chamailler, alors que la femelle semble être restée dans le nid. Est-il possible qu’ils fassent une deuxième couvaison? Et pourquoi y a-t-il deux mâles ?», demande Marie-Chrystel Marier, de Sherbrooke.

Il y a deux sortes de roselins que l’on voit fréquemment au Québec : le roselin pourpré et le roselin familier. Selon Marie-Hélène Hachey, biologiste pour l’organisme Québec Oiseau et co-auteure de l’Atlas des oiseaux nicheurs du Québec (un ouvrage colossal paru l’an dernier), nous avons affaire ici à un nid de roselin familier. La vidéo ci-bas, filmée par Mme Marier, ne montre que la femelle et les petits à leur sortie du nid, mais elle est suffisante pour l’identification. La tête du roselin familier femelle est plus terne que celle du roselin pourpré femelle — et cette dernière a une barre blanche de chaque côté de la tête, que n’a pas le roselin pourpré femelle.

En outre, le roselin pourpré ne fait qu’une seule couvée par année et construit généralement son nid dans des arbres plus grands que le cèdre de Mme Marier et plus loin du tronc. Le roselin familier, lui, fait son nid dans des arbustes (entre autres) et on le voit plus fréquemment en ville.

«C’est [un oiseau] vraiment intéressant parce que la femelle construit des nids «à répétition» et que le mâle nourrit seul les jeunes», commente Mme Hachey. C’est la femelle qui construit le nid toute seule, puis qui «s’occupe d’incuber les œufs, poursuit-elle. Elle couve aussi les oisillons jusqu’à ce qu’ils soient en mesure de quitter le nid. Quand les jeunes sont sortis du nid (stade fledglings), la femelle part construire un autre nid et le mâle s’occupe de nourrir les jeunes un certain temps.»

Il arrive tout de même assez fréquemment que la femelle reste dans son nid et fasse une seconde couvée avec le même mâle, mais elle finit souvent par «aller voir ailleurs», pour ainsi dire. Le nombre de nids et de couvées varie d’une région à l’autre mais, on a observé au Michigan des femelles faire jusqu’à 6 nids et autant de couvées dans une seule saison, selon les informations que m’a fournies Mme Hachey. Là-bas, aucun couple n’est resté ensemble pour plus de trois couvées.

«Bref le mâle roselin qui a été observé pourrait s’occuper des jeunes laissés derrière par la femelle (si celle-ci n’est visible nulle part). Quant au deuxième mâle, il peut se trouver là seulement par hasard. Mais qui sait, il pourrait lui aussi nourrir les jeunes», dit Mme Hachey.

Celle-ci indique par ailleurs qu’il existe sur Facebook un très bon groupe québécois d’«entraide ornithologique», si je puis dire, où les gens peuvent mettre leurs vidéos et leurs questions : «Des oiseaux à la maison» [https://www.facebook.com/groups/Des.oiseaux.a.la.maison/]. Cela pourra aider pour de futures observations ou questions.

Jean-François Cliche
La COVID-19 peut-elle laisser des séquelles psychologiques ?

Science

La COVID-19 peut-elle laisser des séquelles psychologiques ?

SCIENCE AU QUOTIDIEN / «Mon père de 96 ans est officiellement rétabli de la COVID-19 depuis le 24 mai, après 3 semaines à l’hôpital et une semaine malade à sa résidence. Il n’a jamais été aux soins intensifs. Cependant, il aurait dû débuter un peu de physiothérapie la semaine dernière mais a catégoriquement refusé à chaque essai. On nous dit qu’il crie de le laisser tranquille, qu’il est malade et trop fatigué. Il a même fait peur à une préposée avec son attitude. Ça ne ressemble pas du tout à mon père, qui a toujours été un homme aimable, cohérent et actif. Alors est-ce que la COVID-19 laisse des traces psychologiques ? Ou une espèce de traumatisme ?», demande Suzanne Perrault, de Saint-Lambert.

La revue médicale The Lancet a publié à la mi-mai une revue des études sur les conséquences psychologiques liées à trois coronavirus graves : le «syndrome respiratoire aigu sévère» (SRAS), qui a infecté 8000 personnes et en a tué environ 800 en 2002-2003 ; le syndrome respiratoire du Moyen-Orient (MERS), apparu en 2012 avec un taux de létalité de 35 % ; et la fameuse COVID-19 à laquelle on a affaire depuis quelques mois. Il n’y a presque pas de travaux publiés sur cette dernière pour l’instant mais, écrivent les auteurs du Lancet, si la COVID-19 suit à peu près le même cours que le SRAS et le MERS, il semble que la «plupart des patients devraient récupérer sans éprouver de maladie mentale».

Cependant, cette étude a aussi trouvé des symptômes d’anxiété, de dépression et de stress post-traumatique (SPT) chez une proportion importante des survivants, même une fois remis du SRAS ou du MERS. Un an après avoir reçu leur congé de l’hôpital, 29 % montraient des symptômes «de niveau clinique» pour la dépression, 34% pour l’anxiété et autant pour le SPT. On parle ici de symptômes comme une humeur maussade, de l’insomnie, de l’irritabilité, etc. Si bien que les auteurs de l’étude avertissent les médecins de garder un œil sur cet aspect de la chose.

Et ce n’est pas particulièrement étonnant, souligne Geneviève Belleville, chercheuse en psychologie à l’Université Laval qui mène des travaux sur (notamment) le syndrome de stress post-traumatique. «Le SPT qui serait causé par une maladie ou un séjour à l’hôpital, c’est une chose qui existe, c’est clair. Même chose pour la dépression : ce sont des réactions qu’on peut avoir quand on est exposé à un danger qui met notre vie en péril», dit-elle. Ça n'a rien de spécifique à la COVID-19, mais celle-ci comme n'importe quelle autre maladie grave peut déboucher sur des séquelles psychologiques.

Mme Belleville ne peut pas se prononcer sur un cas individuel, mais elle note que la perte de plaisir et d’intérêt envers les choses de la vie peut être un symptôme de dépression. L’irritabilité, elle, peut à la fois être un symptôme de dépression et de STP. «La capacité d’avoir du plaisir et de ressentir émotions positives est toujours très affectée quand on a ce genre de trouble», dit-elle.

Si (et je dis bien «si», parce que c’est au personnel médical à se prononcer) le père de Mme Perrault souffre bien d’un de ces problèmes, il serait loin — mais alors là très, très loin — d’être la première personne qui sort d’un hôpital déprimée, anxieuse ou plus ou moins traumatisée. Que ce soit à cause de la maladie elle-même, le fait de frôler la mort, le séjour prolongé en milieux hospitaliers (qui malgré les meilleurs efforts du personnel ne sont pas des endroits particulièrement gais) ou d’autres choses encore, plusieurs études l’ont constaté. Celle-ci, par exemple, a trouvé que 34 % de patients âgés admis dans une unité de soins cardiaques intensifs montraient des signes significatifs de dépression pendant leur hospitalisation, mais que un mois après leur sortie, ils n’étaient plus que 17 % à en souffrir. Cet autre article paru en 2018 a trouvé que sur près de 5000 patients admis aux soins intensifs pour diverses raisons au Royaume-Uni de 2008 à 2010, plus de la moitié montraient des «signes significatifs» de dépression, d’anxiété ou de SPT. Et l’on pourrait allonger cette liste pendant longtemps : quand on est hospitalisé, c’est habituellement parce que quelque chose va très mal, alors il n’y a rien d’anormal à en sortir plus ou moins amoché mentalement. — même si on n’est pas passé par les soins intensifs, comme le père de Mme Perrault.

La bonne nouvelle, c’est que ces problèmes se traitent, et ce, à tous les âges. «C’est malheureusement un stéréotype important, déplore Mme Belleville : on va souvent supposer que le changement d’humeur chez une personne âgée est causé par le vieillissement et qu’il n’y a donc rien à faire. Mais ce n’est pas vrai, surtout quand il ne semble pas y avoir de cause physiologique derrière, comme un début de démence. Chez une personne âgée qui a un niveau de santé acceptable, il n’y a pas de raison de ne pas traiter les troubles de santé mentale. (…) Ça se traite, peut importe l’âge. Il peut y avoir des médications qui vont être données avec plus de prudence à cause de la fragilité qui vient avec la vieillesse, mais si on parle de psychothérapie, ça se fait même à un âge avancé.»

Jean-François Cliche
Les poules urbaines sont-elles des sources fréquentes de maladies ?

Science

Les poules urbaines sont-elles des sources fréquentes de maladies ?

SCIENCE AU QUOTIDIEN / «On sait que la plupart des virus qui infectent les humains viennent de contacts rapprochés avec des animaux d’élevage ou sauvages. Alors est-ce que la nouvelle mode d’élever ses propres poules (en ville comme en campagne) ne constitue pas un risque supplémentaire d’apparition de nouveaux virus ? Quelles sont les mesures à prendre pour éviter que les poules nous transmette des maladies ?», demande Mathieu Frégeau, de Québec.

En ces temps de pandémie, la question qui vient le plus spontanément à l’esprit est sans doute : est-ce que les poules peuvent être un vecteur de la COVID-19 ? Et la réponse est clairement non. Les virus nous infectent en s’accrochant à des récepteurs présents à la surface de certaines cellules, mais ce sont des êtres extrêmement spécialisés qui ne sont capables de s’agripper qu’à un seul type de récepteur très particulier — dans le cas de la COVID-19, c’est un récepteur nommé ACE-2. Or les poules n’ont pas de récepteur qui ressemble suffisamment au ACE-2 humain pour pouvoir attraper et transmettre cette maladie.

«Il y a quand même d’autres coronavirus qui affectent les oiseaux, précise Jean-Pierre Vaillancourt, professeur de médecine vétérinaire à l’Université de Montréal et spécialiste des «zoonoses», ces maladies qui sautent de l’animal à l’humain. Chez le poulet, ça crée une bronchite. Chez la dinde, c’est une infection entérique [ndlr : qui affecte les intestins]. Mais ces coronavirus n’ont rien à voir avec la COVID-19, qui est très différente.»

Il y a bien sûr d’autres virus respiratoires que les poules peuvent porter et qui, eux, peuvent s’attaquer à l’humain — les fameuses éclosions de «grippe aviaire», dont on entend parler de temps à autre, en sont un exemple. «Mais bien franchement, si j’avais à manipuler des poules urbaines, ce ne serait pas ma première préoccupation, dit M. Vaillancourt. C’est techniquement possible qu’elles soient infectées, mais les probabilités sont extrêmement minces. D’abord, la vaste majorité des influenzas aviaires ne sont pas zoonotiques [ndlr : elles n’infectent pas les humains]. Quand elles le sont, ça fait toujours de grosses histoires, mais c’est très, très rare et on n’a pas ces souches-là ici. (…) Et il y aurait plusieurs autres virus des poules urbaines qui pourraient potentiellement nous rendre malades, mais on est dans des probabilités tellement infimes que les gens en santé publique ne s’en préoccupent pas.»

Non, s’il y a des microbes auxquels il faut vraiment faire attention quand on élève des poules dans sa cour arrière, ce ne sont pas des virus, mais plutôt des bactéries, dont deux en particulier, avertit le chercheur : la salmonelle et les campylobacters. La première est connue du public parce qu’elle est une cause fréquente de gastro-entérite [diarrhée, fièvre, crampes abdominales, etc.). Il s’agit d’une bactérie qui vit (parfois) dans l’intestin des oiseaux, mais qui peut également se retrouver sur leurs pattes, leurs plumes et un peu partout dans leurs cages, surtout si on ne les nettoie pas régulièrement.

La salmonelle n’est pas très présente dans les poulaillers, mais suffisamment pour justifier que l’on prenne des mesures préventives, comme retirer les excréments chaque jour si possible, bien se laver les mains après avoir manipulé les volatiles, etc. (Voir ce guide du Ministère de l’agriculture pour plus de détails.) Une étude américaine n’a détecté la salmonelle que dans 2 % des poulaillers urbains de la région de Boston, et encore pas une souche très préoccupante pour l’humain, mais une étude australienne est arrivée au chiffre de 10,4 %.

Jean-François Cliche
La COVID-19 survit bien dans l’eau (mais on ne l'attrapera pas en nageant)

Science

La COVID-19 survit bien dans l’eau (mais on ne l'attrapera pas en nageant)

SCIENCE AU QUOTIDIEN / «Est-ce que le virus de la COVID-19 peut survivre dans l’eau non chlorée comme celle des lacs ? Son enveloppe «graisseuse» le fait-il flotter en surface pour lui permettre ensuite d’infecter les personnes qui profitent d’une bonne baignade ?», demande Paule Boisseau, de Québec. De son côté, Marie Morneau, elle aussi de Québec, aimerait savoir : «Quand les piscines vont rouvrir, privées comme publiques, est-ce que le fait qu’on y mette du chlore assurera la sécurité des baigneurs contre la COVID-19 ?»


De manière générale, oui, la «famille» des coronavirus (qui inclut la COVID-19, mais bien d’autres aussi, dont quatre virus bénins qui donnent le rhume) survit bien dans l’eau douce, du moment qu’elle n’est pas trop polluée. Une étude parue en 2009 dans la revue savante Food and Environmental Virology a trouvé qu’il faut environ 10 jours pour que 99,9 % des coronavirus soient éliminés dans l’eau du robinet à 23 °C, et plus de 100 jours lorsque l’eau est maintenue à 4 °C. D’autres travaux du même genre parus la même année dans Water Research ont pour leur part conclu que, dans l’eau d’un lac, il faut de 10 à 15 jours avant que 99 % des coronavirus ne meurent dans l’eau d’un lac.

Maintenant, est-ce que cela signifie que la baignade en lac ou dans les piscines publiques — si celles-ci finissent pas réouvrir — sera dangereuse ? Essentiellement, non, parce que «le virus est tellement dilué dans ces conditions-là que les risques sont infinitésimaux», répond le chercheur de l’Institut Armand-Frappier (INRS) et spécialiste des coronavirus Pierre Talbot.

Comme les autres coronavirus humains, la COVID-19 se transmet très principalement par les gouttelettes que les malades expulsent quand ils toussent, éternuent ou autre. Quand une gouttelette arrive sur la main de quelqu’un ou sur une surface solide, elle reste entièrement en place avec tous les virus qu’elle contient. Mais quand elle tombe dans l’eau, c’est une autre histoire : la gouttelette étant elle-même presque entièrement composée d’eau, elle va se mélanger à celle de la piscine ou du lac, et les virus qu’elle contient vont alors se disperser au lieu de rester tous concentrés au même endroit. Alors si un baigneur passe par là, la quantité de virus qu’il risque d’avaler a toutes les chances d’être infime, insuffisante pour provoquer la maladie.

En outre, les lacs sont de grandes étendues d’eau fréquentées par relativement peu de gens, ce qui réduit encore plus les risques. Les piscines, elles, sont bien sûr plus densément occupées, mais leur eau est chlorée et les microbes y meurent rapidement.

Cela ne signifie pas que toute contamination est impossible dans l’eau chlorée. On connaît des virus qui ont la capacité de se transmettre dans les piscines publiques, surtout lorsque l’eau n’est pas convenablement traitée. Mais en général, ce ne sont pas les coronavirus qui le font.  L’an dernier, l’International Journal of Environmental Research and Public Health a publié une revue de toutes les éclosions virales associées à des piscines publiques et documentées dans la littérature médicale depuis les années 1950. Aucune n’impliquait de coronavirus. Il s’agissait surtout de virus qui se propagent principalement par la voie oro-fécal, comme les entérovirus et les norovirus (sources très fréquentes de gastroentérites) et l’hépatite A. Seule exception : les adénovirus, qui peuvent eux aussi provoquer des gastros mais également des infections respiratoires. Cependant, les adénovirus sont connus pour être très résistants hors du corps humain, ce qui n’est pas (du tout) le cas des coronavirus.

Bref, dans les piscines publiques, c’est beaucoup plus la proximité des baigneurs entre eux (tant dans l’eau qu’à l’extérieur, dans les vestiaires, dans la file d’attente pour le plongeon, etc.) que la présence du virus dans l’eau qui peut être problématique.

Jean-François Cliche
Les asymptomatiques deviennent-ils immunisés ?

Science

Les asymptomatiques deviennent-ils immunisés ?

SCIENCE AU QUOTIDIEN / «Ma fille de bientôt 13 ans se demandait récemment : est-ce qu’une personne qui est uniquement porteuse du virus (donc asymptomatique) peut ré-attraper la COVID-19 ? Aura-t-elle des anticorps même si elle n’a jamais développé la maladie ?», demande Joëlle Fournier, de Montréal.

Voilà une belle question sur laquelle une étude est justement parue la semaine dernière dans le Journal of the American Medical Association (JAMA). Pendant trois semaines, des chercheurs ont fait passer des tests sérologiques, qui détectent les anticorps, à 13 patients (dont un cas confirmé de COVID-19) et 25 travailleurs d’une unité d’hémodialyse pédiatrique. En bout de ligne, seulement trois de ces 38 personnes ont développé des symptômes de la COVID-19 mais, à la fin de l’étude, 14 avaient été «séroconvertis», c’est-à-dire qu’ils avaient forcément eu le virus puisqu’ils avaient des anticorps. L’un d’entre eux avaient même eu trois tests PCR (qui détecte le matériel génétique du virus, et non les anticorps) négatifs au cours de l’étude, signe qu’il avait une charge virale très faible, mais il avait quand même des anticorps.

On ignore si ces gens ont été infectés par le jeune patient qui a testé positif en début d’étude ou s’ils ont attrapé le coronavirus ailleurs, mais l’essentiel pour répondre à la question de Mme Fournier est que 11 participants de l’étude sont devenus «séropositifs» même s’ils ont fait une COVID-19 sans aucun symptôme. Et ce n’est pas particulièrement étonnant, remarquez, parce qu’on connaît d’autres cas de séroconversion chez des asymptomatiques. Dans une étude parue en 2010 sur 226 membres du personnel soignant d’un hôpital militaire de Singapour, 39 avaient développé des anticorps à la grippe AH1N1, dont 31 n’avaient montré aucun symptôme.

Maintenant, la question à 1000 $ (minimum) est celle-ci : le fait d’avoir des anticorps protège-t-il contre une ré-infection ? Et si oui, pour combien de temps ? Dans le cas de l’influenza, on sait que les anticorps empêchent de ré-attraper la grippe — du moins, tant que le virus n’a pas muté suffisamment pour ne plus être reconnu par le système immunitaire. Mais qu’en est-il de la COVID-19 ?

Il est possible que les asymptomatiques ne produisent pas autant d’anticorps que ceux qui font une forme plus grave de la maladie. En mars dernier, une petite étude chinoise a trouvé que les patients atteints de la COVID-19 qui étaient dans un état critique produisaient plus d’anticorps que ceux qui avaient une forme modérée de la maladie. Mais l’échantillon était minuscule (9 patients) et des niveaux élevés d’anticorps ne sont pas toujours associés à une meilleure immunité. À suivre, donc.

Pour l’instant, voici ce qu’on sait au sujet de la protection que confèrent les anticorps à la COVID-19 :

- Il n’existe à l’heure actuelle aucun cas avéré de ré-infection. Il y a bien eu cette histoire de près de 300 patients sud-coréens qui avaient testés positifs plusieurs semaines après leur rémission complète, mais il s’est avéré que les tests avaient simplement détecté des fragments de virus, pas des virus actifs ou contagieux. À l’heure d’écrire ces lignes, on approche des 4,5 millions de cas confirmés et de 1,6 millions de guérisons à l’échelle mondiale depuis le début de la pandémie. L’absence de réinfections confirmées parmi eux n’est pas, en soi, une preuve formelle, mais cela montre qu’on a eu beaucoup d’occasions d’en trouver et que si on n’y est pas arrivé malgré une surveillance assez serrée (même si ça varie d’un pays à l’autre), cela suggère que les réinfections, si elles existent, sont très rares.

- Il n’y a pas encore eu d’études qui ont tenté de réinfecter des humains guéris, mais il y en a une, faite sur des macaques, qui a trouvé que les singes ne ré-attrapaient pas la maladie une fois guéris. C’est très bon signe, mais il s’agit cependant d’une très petite étude (4 macaques au total) qui n’a pas encore été révisée ni publiée par une revue scientifique, alors il faut la considérer avec prudence.

- On ignore pour l’instant combien de temps l’immunité va durer. La pandémie n’est vieille que de 5 à 6 mois, alors il est impossible de savoir avec certitude si le corps resteras protégé pendant 1 ou 2 ans, voire plus. Il va falloir attendre avant d’être fixé. Dans le cas du plus proche parent connu de la COVID-19, soit le virus du syndrome respiratoire aigu sévère (SRAS), les anticorps sont restés en forte concentration dans le sang pendant 4 à 5 mois après la guérison, lit-on dans un «tour d’horizon» sur l’immunité paru lundi dernier dans le JAMA. Près de 90% des patients avaient toujours des anticorps au bout de deux ans, et environ la moitié après trois ans. Cependant, on sait que les réinfections sont possibles pour au moins trois des quatre «coronavirus humains» (qui circulent chez l’espèce humaine depuis des temps immémoriaux et qui donnent généralement juste des rhumes très bénins), soit parce que l’immunité qu’ils induisent est de courte durée ou parce que les gens peuvent être exposés à des variantes génétiques différentes de ces virus.

Alors il faudra attendre encore avant d’être certain, mais pour l’instant, tout indique que les asymptomatiques font des anticorps et que les «séroconvertis» sont bel et bien protégés contre une ré-infection.

Jean-François Cliche
Non, toujours pas de COVID-19 au Québec en janvier

Science

Non, toujours pas de COVID-19 au Québec en janvier

SCIENCE AU QUOTIDIEN / Tout au long de la crise de la COVID-19, mes collègues de Québec Science et du Centre Déclic et moi-même tentons de répondre à vos questions sur le coronavirus, en tenant compte des découvertes les plus récentes. Mais les connaissances sur cette maladie avancent très vite, alors il vaut la peine de revisiter certaines questions lorsque de nouvelles données deviennent disponibles.

À la fin de mars, je répondais à un lecteur de Sherbrooke qui me demandait si la bronchite qu’il avait faite au début de l’hiver ne pourrait pas avoir été causée par la COVID-19 même si le premier cas confirmé au Québec ne remonte qu’au 27 février. Après tout, faisait-il valoir, avant cette date il se peut que le personnel soignant ait présumé que les cas de pneumonie ne pouvaient pas être causés par le coronavirus et qu’il ne valait pas la peine de faire de test. Des cas auraient pu leur échapper comme ça.

La réponse, grosso modo, était qu’au contraire, le Laboratoire de santé publique et beaucoup d’hôpitaux du Québec ont commencé à testé les cas de «pneumonie atypique» dès la mi-janvier et n’ont rien trouvé. En outre, après le premier cas confirmé du 27 février, il s’est passé plusieurs jours avant qu’un second cas ne survienne (5 mars), puis encore quelques jours pour voir apparaître les cas 3 et 4, tous deux confirmés le même jour (9 mars). Il est possible que quelques cas isolés aient été manqués à la fin de février, mais cette séquence est entièrement cohérente avec un vrai début d’épidémie — si la maladie avait couru longtemps avant le début de la surveillance, on aurait très rapidement trouvé des «grappes» de cas. C’est ce qui est arrivé en Italie, quand le premier cas confirmé (20 février) a été suivi de 35 autres dans les 24 heures suivantes.

Malgré cela, de nombreuses personnes m’ont ensuite écrit pour me dire qu’elles doutaient de ces explications et qu’elles étaient sûres d’avoir fait la COVID-19 en décembre ou en janvier — certaines ont même fait remonter leur «infection» jusqu’en septembre, mais passons.

Or de nouveaux faits pertinents sont apparus à la fin de la semaine dernière. Une équipe du CHU de Sherbrooke et du CIUSSS de l’Estrie a réanalysé 1440 échantillons respiratoires recueillis entre le 1er janvier et le 20 février derniers. Il s’agissait d’échantillons pris pour des tests d’influenza, mais comme il s’agit des mêmes fluides qui servent à détecter la COVID-19, les chercheurs dirigés par le microbiologiste-infectiologue Alex Carignan ont pu s’en servir pour voir si le coronavirus était arrivé en Estrie plus tôt qu’on le croyait.

Résultat : non, aucun des quelque 1400 échantillons n’était positif à la COVID-19. Il aurait été intéressant (et encore plus convaincant) d’avoir des ré-analyses comme celle-là ailleurs au Québec, particulièrement dans la région de Montréal qui fut la première et la plus durement touchée, mais j’ai vérifié auprès de plusieurs autres CIUSSS du Québec et il semble qu’aucun d’eux n’ait fait cet exercice — les capacités de tests sont comptées ces temps-ci, me dit-on.

Dommage, mais bon, cela nous fait tout de même un «point de donnée» supplémentaire sur cette question.

Sur ce même thème par ailleurs, je ne peux m’empêcher de vous recommander la lecture d’un dossier que mon collègue de Radio-Canada Nael Shiab a publié jeudi. Essentiellement, il a eu accès à des données (dénominalisées et agrégées pour ne pouvoir identifier personne) de localisation de près de 8 millions de cellulaire au Québec depuis février à avril. Et ces données suggèrent que, comme l’ont supputé certains analystes, le moment où la semaine de relâche est tombée pourrait effectivement avoir joué un rôle important dans l’épidémie au Québec.

Les déplacements entre le Québec et les autres provinces, qui étaient d’environ 98 000 par jour en février, ont atteint les 150 à 200 000 par jour pendant la relâche. Même chose pour les déplacements entre les régions du Québec : environ 340 000 par jour en février, puis entre 500 et 650 000 pendant la relâche. Et c’est environ 10 jours plus tard, le temps que les nouveaux infectés passent la période d’incubation, développent la maladie et la transmettent dans leurs milieux, que l’épidémie a connu une véritable explosion, passant de quelques dizaines de nouveaux cas par jour à plusieurs centaines.

Jean-François Cliche
COVID-19 : ça se confirme pour la perte de goût et d’odorat

Science

COVID-19 : ça se confirme pour la perte de goût et d’odorat

SCIENCE AU QUOTIDIEN / Chaque jour, mes collègues du Centre Déclic et de Québec Science et moi-même répondons à vos questions sur la COVID-19 au meilleur des connaissances du moment. Mais avec les efforts de recherche considérables qui sont consacrés au coronavirus actuellement, ces connaissances-là évoluent très vite. Alors voici deux petites mises à jour, histoire de vous tenir au courant des tout derniers développements !

Langue et pif

La COVID-19 altère-t-elle la capacité de goûter et de sentir ? À la fin mars, les autorités sanitaires québécoises ont décidé d’inclure l’«anosmie» parmi les symptômes possibles de ce coronavirus même s’il n’y avait pas encore d’étude disponible à ce sujet — les témoignages d’experts, bien qu’anecdotiques, étaient suffisamment nombreux pour cela, jugeait-on. À la mi-avril, dans un texte sur les symptômes «bizarres» que la COVID-19 provoque, nous écrivions qu’une étude qui venait d’être publiée avait trouvé qu’environ 70 % des patients atteints de la COVID-19 rapportaient une perte de goût et/ou d’odorat, contre seulement 15 à 20 % de ceux qui n’avaient pas ce virus mais qui présentaient des symptômes semblables à une grippe. L’étude était toutefois petite, comprenant seulement 59 personnes ayant le coronavirus.

Et à la fin d’avril, le Journal of the American Medical Association a publié une autre étude portant sur 202 patients qui ont testé positif au SRAS-CoV2. Résultat : près des deux tiers (64 %) ont eu le goût et/ou l’odorat altéré par la maladie. Notons que cela ne pouvait pas s’expliquer complètement par le fait qu’ils avaient le nez bouché, puisque seulement 35 % ont rapporté ce symptôme.

Alors la piste de la perte de goût et d’odorat semble se confirmer.

En aérosol ?

Normalement, cette étude-là parue lundi dans Nature et qui a trouvé de l’ARN (une forme de matériel génétique) de la COVID-19 dans l’air autour des hôpitaux ne mériterait pas une «mise à jour». Pas à elle seule, en tout cas. Mais elle a connu un tel écho médiatique qu’il vaut la peine d’y revenir brièvement.

L’étude en elle-même est intéressante parce qu’elle ajoute des données pour répondre à la très importante question de savoir si ce coronavirus se transmet surtout par gouttelettes (qui retombent assez rapidement au sol) ou s’il voyage aussi sous forme d’«aérosols», soit des particules beaucoup plus fines qui restent dans l’air longtemps et qui peuvent se rendre beaucoup plus loin que des gouttelettes. Les auteurs ont pris des échantillons d’air en divers endroits dans et autour d’hôpitaux chinois et les ont soumis à des outils de détection extrêmement sensibles. Ils ont alors trouvé l’ARN de la COVID-19 dans plusieurs endroits, en particulier les plus passants.

À première vue, tout cela semble vouloir dire que oui, ce coronavirus voyage sous forme d’aérosols, ce qui serait une très mauvaise nouvelle puisque cela le rendrait plus contagieux qu’on le croit. Le hic, cependant, c’est que cette étude est beaucoup moins concluante que ce que bien des médias en ont fait. D’abord, comme ses auteurs eux-mêmes le précisent, il y a une différence entre trouver de l’ARN du virus et trouver des virus actifs dans l’air. Le simple fait de détecter un peu de matériel génétique de la COVID-19 dans l’air n’est donc pas une preuve que le virus se transmet par aérosols.

En outre, comme l’a indiqué le professeur de médecine de l’Université McMaster Zain Chagla, la même technique a déjà été détecté l’ARN d’autres microbes dans l’air comme l’influenza alors qu’on sait que ces maladies ne sont pas aérosolisables. En outre, dit-il, on connaît certains cas particuliers de contagion qui sont plus cohérents avec une transmission par gouttelette qu’avec la théorie de l’aérosol — notamment une éclosion dans une centre d’appel en Corée du Sud, où un seul étage avait été touché alors qu’on s’attendrait à ce qu’un virus en aérosol se propage à plusieurs étages.

Jean-François Cliche
COVID-19 : des nouvelles des chats et des maringouins…

Science

COVID-19 : des nouvelles des chats et des maringouins…

SCIENCE AU QUOTIDIEN / Les connaissances sur la COVID-19 évoluent très vite. Même s’il en reste beaucoup à apprendre sur le virus, les publications savantes se succèdent à un rythme effréné depuis quelques semaines. Alors même si mes collègues du Centre Déclic, de Québec Science et moi-même tentons de vous fournir quotidiennement les réponses les plus à jour possible aux questions que vous nous envoyez, il arrive que de nouvelles études deviennent disponibles après la publication de nos réponse.

Il n’y a rien eu jusqu’à présent qui contredise les réponses que nous vous avons données (c’est parfois même plus des confirmations qu’autre chose), mais j’ai quand même trouvé dans tout cela quelques mises à jour qu’il est intéressant de faire. Les voici.

Le plasma des guéris

Le 15 mars, j’écrivais qu’il était en principe possible d’utiliser le plasma (la partie liquide du sang) de gens guéris de la COVID-19 afin de traiter des patients gravement atteints, parce que leur plasma sanguin contient des anticorps efficaces contre la maladie. L’histoire de la médecine est pleine d’exemples de la sorte, mais je notais aussi qu’il n’y avait encore aucune étude en bonne et due forme publiée sur la sérothérapie (le nom de ce type de traitement) pour la COVID-19 en particulier.

Eh bien il y en a maintenant au moins deux, même si elles sont petites. L’une est parue dans le Journal of the American Medical Association le 27 mars et portait sur 5 patients dans un état critique. L’autre a été publiée dans les Proceedings of the National Academy of Sciences le 18 mars, sur un échantillon de 10 patients «sévèrement atteints». Toutes deux ont constaté une nette amélioration de l’état de leurs patients

Il demeure difficile d’utiliser ce genre de traitement à grande échelle mais à part ça, oui, il semble ça marche aussi bien qu’on pouvait s’y attendre.

Animaux de compagnie

Nous vous disions le 26 mars que les chats et les chiens n’étaient pas des vecteurs de la COVID-19, ou du moins que même dans le pire des cas, ils en étaient des vecteurs extrêmement improbables. Cela reste vrai, mais une étude parue la semaine dernière dans Science a conclu que le virus semble parfaitement capable de se multiplier chez le chat — mais pas le chien. Quelques jours plus tôt, la revue savante Nature publiait des résultats très comparables.

Alors si le virus peut survivre et se reproduire à l’intérieur du chat, cela ouvre en théorie (et insistons sur l’aspect théorique) la porte à une transmission à l’humain. Cependant, nuance le microbiologiste de l’Institut Armand-Frappier (INRS) et spécialiste des coronavirus Pierre Talbot, il n’y a rien là-dedans qui devrait faire paniquer les propriétaires de chat. «Ce n’est pas parce que les chats sont susceptibles au SRAS-CoV2 [ndlr : le nom du virus qui donne la COVID-19] qu’ils vont le transmettre facilement à leur maîtres», dit-il.

Il y a toutes sortes de raisons qui pourraient faire que les chats portent le virus sans pour autant infecter l’humain. On ignore encore tout de cette question, mais on peut imaginer par exemple que leurs voies respiratoires sont plus vulnérables que les nôtres, ou que comme ils sont beaucoup plus petits que les humains, ils ne peuvent tout simplement pas émettre autant de gouttelettes infectieuses que nous, ni les projeter sur la plupart des surfaces que nous touchons le plus (comptoirs, poignées de porte, rampes, etc.).

Ce sera à suivre, donc.

De sang et de moustiques

Mardi dernier, j’écrivais qu’il était très, très improbable que la COVID-19 soit transmise par les moustiques parce que la «pompe» qui leur sert à aspirer n’injecte pas le sang des victimes précédentes dans celui des nouvelles. Il existe tout de même une possibilité pour qu’un moustique pique une personne infectée et en pique une autre tout de suite après, ce qui peut faire passer un peu de sang de l’un à l’autre. Mais même à ce compte, me signalait le virologue de l’UQAM Benoît Barbeau, les chances de contamination à la COVID sont pratiquement inexistantes.

Or en plus de cela, m’a signalé le chercheur de l’Université Laval Sylvain Moineau la semaine dernière, il semble que ce coronavirus ne circule pas (ou en tout cas très peu) dans le sang. Une étude parue au début du mois dans Nature a en effet regardé différentes parties du corps pour voir s’il y avait d’autres endroits de réplications hors des voies respiratoires, et n’a trouvé «aucun virus dans le sang et l’urine». Ce qui rend donc encore plus invraisemblable la possibilité déjà infinitésimale d’une transmission par les moustiques.

Et ça, c’est un dossier qu’absolument personne n’aura à suivre cet été — et c’est tant mieux...

Jean-François Cliche
Le «matériel semi-vivant»...

Science

Le «matériel semi-vivant»...

SCIENCE AU QUOTIDIEN / «Nous savons que le coronavirus se transmet par contact des mains infectées avec le visage. Mais pendant que le coronavirus est sur les mains, est-il en mesure de se déplacer d’une quelconque façon ? Pourrait-il, par exemple, partir de la paume et se rendre au bout de l’index ?», demande Guy Drouin, de Québec.

Un virus peut «être déplacé» par le frottement de la main sur une surface, par le vent, par de l’eau qui coulerait sur la peau, etc., mais non, il ne peut absolument pas se déplacer par lui-même pour la simple et bonne raison qu’un virus n’est pas vraiment «en vie» — du moins pas à part entière.

Il y a une chose que tous les être vivants ont en commun, de la plus humble bactérie jusqu’à l’espèce humaine : un métabolisme, c’est-à-dire la capacité de se renouveler à partir de ce qu’ils trouvent dans leur environnement. Quand nous mangeons, par exemple, nous digérons les aliments afin de les transformer en source d’énergie et en «partie de nous-mêmes», pour fabriquer les protéines et les autres molécules qui nous composent, pour grandir quand on est enfant, pour guérir une blessure, pour entretenir l’organisme. Les plantes font pareil quand elles transforment de l’eau et du CO2 en sucre lors de la photosynthèse, et elles se servent également des sels minéraux qu’elles tirent du sol en même temps que l’eau comme de «briques» pour se construire. Et la même chose vaut pour les bactéries.

Bref, toutes les cellules vivantes du monde sont de véritables usine de transformation chimique. Le métabolisme, c’est ça.

Or les virus ne sont pas des cellules. Ils viennent en diverses tailles (entre 20 et 300 nanomètres) et formes (l’Ebola, par exemple, est filiforme alors que le virus de la COVID-19 est une sorte de sphère recouverte de «pics» à sa surface). Mais ce ne sont pas des cellules. Un virus, c’est essentiellement un peu de matériel génétique entouré d’une capsule de protéines. Et encore, jamais beaucoup : beaucoup de virus n’ont que quelques protéines différentes, et les plus complexes qu’on connaisse n’en ont qu’entre 100 et 200 alors que le corps humain en contient des dizaines, voire des centaines de milliers (on n’en est pas encore sûr). Certains virus, comme la COVID-19 d’ailleurs, ont également une enveloppe de lipides, alors que d’autres n’en ont pas.

Mais aucun n’a de métabolisme. Un virus, ça ne se nourrit pas, ça ne transforme rien, ça ne dépense pas  d’énergie. De ce point de vue, il n’y a pas vraiment de différence entre un virus et un caillou : les deux sont inertes. Alors il est rigoureusement impossible qu’un virus se déplace par lui-même.

Tout ce qu’un virus peut faire (et même là, ce n’est pas vraiment lui qui le fait mais la cellule qu’il infecte), c’est d’entrer dans une cellule grâce aux protéines à sa surface, qui agissent comme des «clefs», puis de placer son matériel génétique dans le noyau, où la cellule conserve son ADN. À partir de ce moment-là, la machinerie cellulaire sera détournée au profit du virus : la cellule va se mettre à produire des copies virales, qui pourront ensuite infecter d’autres cellules.

De ce point de vue-là, il faut le dire, les virus sont «plus vivants» ou «moins inertes» que les cailloux, qui ne sont pas capables d’infecter des cellules. Le fait de contenir du matériel génétique les rend aussi sujets à la sélection naturelle, ce qui les approche encore un peu du domaine du vivant. Mais dans l’ensemble, ils sont dans une espèce de zone grise, que l’on voit bien dans les expressions plus ou moins torturées que les biologistes emploient pour les décrire, comme «matériel semi-vivant», «organismes à la marge du vivant», «non vivant», etc.

Jean-François Cliche
Pour en finir avec la «covid-19 de laboratoire»

Science

Pour en finir avec la «covid-19 de laboratoire»

SCIENCE AU QUOTIDIEN / «Que penser de l’information qui circule actuellement voulant que ce sont des chercheurs français et chinois qui auraient créé le virus de la covid-19 il y a quelques années et qui auraient déposé le brevet suivant : http://bit.ly/2Uj2ls5. Pour ma part, je crois qu’il s’agit d’une fake news, mais n’ai pas les arguments nécessaires pour démentir cette information auprès de mes proches», demande Violette Tardif, de Québec.

Il s’agit effectivement d’une fake news de calibre olympique qui circule sous une forme ou sous une autre depuis des semaines, et ce en plusieurs langues et dans bien des pays parce que pour peu qu’on y mette un brin d’imagination, on peut trouver beaucoup de brevets qui «prouveraient» que la covid-19 aurait été créée en laboratoire. Par exemple, une vidéo YouTube fort populaire ces jours-ci prétend que l’«invention» serait l’œuvre de l’Institut Pasteur en France, et elle appuie sa thèse sur un brevet uniquement français. Dans la version que me soumet Mme Tardif, c’est à la fois en France et en Chine que le fameux coronavirus aurait été fabriqué. Et j’ai aussi vu passer une autre version invoquant un brevet uniquement américain, qu’un parano (particulièrement malpoli, d’ailleurs) a mis sur ma page Facebook il y a quelques semaines.

Tous ces brevets ont un point en commun, qui fait s’écrouler les échafaudages intellectuels que sont ces thèses conspirationnistes : ils concernent tous le coronavirus apparu en 2002-03 et responsable du SRAS (syndrome respiratoire aigu sévère), et pas du tout celui qui cause la covid-19.

Quand on les lit attentivement, on se rend aussi compte que ce qui est breveté n’a rien à voir avec la «création» d’un nouveau pathogène. Ainsi, celui que m’envoie Mme Tardif indique : «La présente invention est relative [au SRAS], à des molécules d'acide nucléique issues de son génome, aux protéines et peptides codés par lesdites molécules d'acide nucléique ainsi qu'à leurs applications, notamment en tant que réactifs de diagnostic et/ou comme vaccin» (mes soulignements). Le brevet américain, qui date de 2007, ne fait aucune mention d’un pathogène qui aurait été «mis au point», mais parle plutôt d’«un coronavirus humain nouvellement isolé a été identifié comme la cause du SRAS». Ces documents-là traitent explicitement de la découverte d’un virus, pas d’une fabrication, et leurs auteurs ne font que revendiquer la propriété intellectuelle d’une partie de son génome et des protéines associées.

Oui mais, me répondront sans doute certains conspirationnistes, le SRAS de 2002 est justement un proche parent du coronavirus actuel. Leurs noms officiels sont même «SRAS-cov» (pour le SRAS) et «SRAS-cov2» (pour la covid-19). C’est la pure vérité, certes, mais cela ne veut pas dire que ces brevets concernent les deux à la fois : ils portent explicitement et uniquement sur le SRAS.

Maintenant, pourquoi y a-t-il eu tant de ces brevets (ou demandes de) ? Au début des années 2000, quand le SRAS est apparu, infectant 8000 personnes et fauchant près de 800 d’entre elles, les règles entourant les brevets n’étaient pas les mêmes qu’aujourd’hui et il n’était pas clair si le séquençage d’un gène constituait une «invention» brevetable ou non. Bien qu’il y eut un bon niveau de coopération internationale dans la recherche sur le SRAS, on assista néanmoins à une sorte de «course» pour breveter ses gènes. Cela se faisait aussi à propos d’autres microbes par ailleurs, et un débat faisait déjà rage sur ce qui était brevetable ou non. Être le premier à séquencer un gène confère-t-il la propriété intellectuelle de ce gène ? Est-il dans l’intérêt public que chaque vaccin et test diagnostique fabriqué par la suite à partir de ce gène/protéine doive verser un sorte de «droit d’auteur» à ses découvreurs ? Et de toute manière, s’agit-il vraiment d’une «invention» ou est-ce que la simple découverte de ce qui existait déjà n’est juste pas brevetable ?

Dès le départ, des experts comme le juriste australien Matthew Rimmer ont dénoncé cette situation comme nuisant à l’accès aux soins et à l’avancement de la recherche, qui demande une bonne coopération. En outre, écrivait M. Rimmer en 2004 dans le Melbourne Journal of International Law, l’application et la défense de brevet consomment beaucoup de ressources pour des institutions de recherche. La plupart des pays ont modifié leurs lois sur le brevetage dans les années qui ont suivi.

Pour en revenir à la covid-19 elle-même, mentionnons enfin qu’une étude parue la semaine dernière dans Nature – Medicine a qualifié d’«improbable» l’idée qu’il soit issu de manipulations faites en laboratoire. Ces virus ont des protéines à leur surface qui servent à «s’accrocher» à nos cellules pulmonaires pour les infecter ; or à ce jeu, celles de covid-19 sont «bonnes, mais sans plus», a vulgarisé un des auteurs sur son compte Twitter. On en connaît de bien meilleures, alors des savants voulant fabriquer un virus «efficace» pour nous rendre malades auraient assurément fait un autre choix.

En outre, une conception en labo serait partie d’un «modèle de base», un «virus de départ» qui aurait ensuite été modifié, si bien que diverses parties de son génome seraient identiques au «modèle». Mais l’étude de Nature – Medicine conclut à cet égard que «les données génétiques montrent de manière irréfutable que SRAS-cov2 n’a pas été fabriqué à partir d’aucun modèle viral précédemment utilisé». Les auteurs estiment, comme pratiquement toute la communauté scientifique d’ailleurs, que l’on a affaire à un virus qui était présent dans un réservoir animal (sans doute la chauve-souris) et qui aurait fait le saut vers l’espèce humaine récemment, mais ils disent ignorer si le virus a muté chez l’animal avant de passer à l’humain ou s’il fait le saut d’abord et s’est adapté par la suite.

Dans tous les cas, il faudrait en finir avec ces histoires de fabrication en labo, qui ne collent pas du tout à la réalité.

Jean-François Cliche
Coronavirus: les anticorps des patients guéris peuvent-ils être utiles ?

Science

Coronavirus: les anticorps des patients guéris peuvent-ils être utiles ?

SCIENCE AU QUOTIDIEN / «Comme il y a des gens qui guérissent du coronavirus, on peut dire sans crainte de se tromper qu’ils ont développé les anticorps nécessaires à cette guérison. Alors ne pourrait-on pas, à partir d’une analyse sanguine, identifier ces anticorps afin d’en faire soit un vaccin ou à tout le moins un médicament contre ce virus ?», demande Martin Paradis, de Saint-Martin-de-Beauce.

Les anticorps sont des protéines que le système immunitaire fabrique afin qu’ils «s’accrochent» à un pathogène (virus, bactérie, toxine) et le désactive. Alors techniquement, on ne peut pas fabriquer un vaccin à partir d’anticorps : les vaccins sont plutôt des microbes affaiblis ou morts, voire souvent des «morceaux» de microbe que l’on présente au système immunitaire afin qu’il apprenne à produire ses propres anticorps.

Maintenant, que se passerait-il si on injectait les anticorps de patients guéris du COVID19 à quelqu’un ? Si c’est une personne saine que l’on inocule, il ne se passera pas grand-chose — les anticorps lui conféreront une immunité temporaire qui s’estompera rapidement, à mesure qu’ils seront éliminés par l’organisme. Mais si c’est un malade atteint du coronavirus, alors… eh bien ça peut marcher, ça peut être un traitement efficace. D’ailleurs, pas plus tard que jeudi dernier, le quotidien chinois Global Times annonçait qu’un avion avait décollé de Shanghai à destination de Rome avec, à son bord, du personnel soignant et «31 tonnes de matériel médical, incluant du plasma de patients guéris du coronavirus, afin d’aider l’Italie à combattre la pandémie de COVID19». Le plasma est la partie liquide du sang, ce qu’il reste quand on a retiré du sang toutes les cellules (globules rouges et cellules immunitaires) et les plaquettes. Les anticorps font partie du plasma et combattront la maladie si on les injecte à quelqu’un.

Il n’est pas encore tout à fait acquis, notons-le, que cela donnera de bons résultats contre le coronavirus. Greg Poland, spécialiste américain des maladies infectieuses, notait récemment dans une entrevue au magazine médical StatNews que «nous avons seulement quelques rapports encourageants, mais anecdotiques provenant de Chine. Rien n’a encore été publié [dans la littérature scientifique]. Mais cela vaut certainement le coup d’essayer».

Il faut dire que la technique est loin d’être nouvelle. En fait, le tout premier Prix Nobel de médecine fut accordé en 1901 au chercheur allemand Emil von Behring pour avoir mis au point la «sérothérapie», soit le traitement avec le plasma (ou «sérum») de patients guéris. Dès 1890, il a démontré qu’on pouvait sauver des animaux de laboratoire de la diphtérie et du tétanos en leur inoculant le plasma d’autres animaux qui avaient survécu à ces maladies. Et une première application à l’humain est survenue l’année suivante, quand il traita avec succès un enfant atteint de diphtérie.

Au début du XXe siècle, la sérothérapie était déjà devenue un traitement relativement répandu. Mais la fabrication de sérum à grande échelle fut toujours un problème. Les rats de laboratoire étaient trop petits pour en produire suffisamment pour traiter un seul patient humain, si bien qu’on utilisait plutôt des chevaux. Mais même à ce compte, il était impossible d’obtenir des quantités vraiment importantes.

Par la suite, avec l’arrivée massive des antibiotiques à partir des années 1940, la sérothérapie a été plus ou moins délaissée en médecine. Les antibiotiques fonctionnaient tout aussi bien (et même mieux dans certains cas) et ils étaient, eux, plus disponibles, plus pratiques et moins chers.

Ce n’est que dans les années 1970 que l’on découvrit enfin un procédé industriel pour fabriquer des anticorps dits «monoclonaux» — c’est-à-dire tous identiques, à la différence des anticorps variés que contient le plasma. Mais, encore une fois, cela restait souvent très dispendieux et les quantités produites n’étaient pas si grandes.

En outre, c’étaient habituellement des souris que l’on infectait pour ensuite isoler leurs anticorps et les reproduire. Or, les anticorps des souris diffèrent des nôtres, si bien que le système immunitaire humain les reconnaît comme des corps étrangers et les attaque. À cause de cela, les anticorps de souris ont une «demi-vie» de 2 à 3 jours dans le corps humains — ce qui signifie que leur nombre diminue de moitié à tous les 2-3 jours, et cela réduit pas mal leur effet thérapeutique. Heureusement, on a fini par trouver des moyens de les «humaniser»  — suffisamment pour allonger leur demi-vie à 20-23 jours.

Si la thérapie par anticorps finit par être un outil de lutte contre le COVID-19, c’est probablement plus du côté de la fabrication industrielle d’anticorps monoclonaux que des injections de plasma que l’aide viendra. D’ailleurs, en plus du «candidat-vaccin» que Medicago a annoncé la semaine dernière et qui a beaucoup retenu l’attention des médias, l’entreprise biopharmaceutique a aussi indiqué qu’elle mis au point des anticorps contre le COVID-19.

Medicago utilise des plantes qu’elle parvient à «manipuler» de manière à leur faire produire de grandes quantités de «protéines complexes», comme les anticorps et les protéines virales qui servent de vaccin, explique Nathalie Charland, directrice des affaires scientifiques et médicales de l’entreprise. Les feuilles sont ensuite récoltées et les anticorps sont isolés et purifiés.

Si tout se passe bien dans les essais cliniques à venir (ce qui n’est jamais gagné d’avance, notons-le), ces anticorps pourront éventuellement servir de traitement ou, à tout le moins, de petit «coup de pouce» pour certains patients.

«C’est ce qui avait été fait [avec le plasma de convalescents] pour Ebola : l’idée, c’est que même si on n’est pas capable d’avoir des anticorps efficaces à 100% ou en quantité suffisante pour éliminer complètement le virus chez un patient, si on peut au moins réduire la charge virale [ndlr : la «dose» de virus en circulation dans l’organisme], c’est mieux que rien, ça peut améliorer les chances de guérison», dit Mme Charland.

Une histoire à suivre, donc…

Jean-François Cliche
Vers la «fin de la civilisation»?

Science

Vers la «fin de la civilisation»?

SCIENCE AU QUOTIDIEN / «J'ai été fort surpris de lire récemment un article citant Dominic Champagne qui disait :  «Une des sommités climatiques au monde, John Schellnhuber, nous dit que la différence entre 2 °C et 4 °C de réchauffement, savez-vous c’est quoi? Pis c’est pas une joke! C’est la fin de la civilisation humaine !» Ça me semble un peu gros comme affirmation, non ?», demande Daniel Bouchard, de Québec.

Hans Joachim Schellnhuber, de son vrai nom, est effectivement une (très) grosse pointure de la climatologie : spécialiste de la physique atmosphérique, directeur et fondateur du réputé Institut de recherche de Potsdam sur les effets des changements climatiques, coauteur d’une série de rapports de la Banque mondiale de 2012 sur les effets d’un réchauffement de 4 °C, etc.

Je n’ai toutefois trouvé nulle part de citation de lui annonçant la «fin de la civilisation» si le réchauffement atteint les 4 °C. Les rapports de la Banque mondiale pressent ardemment de tout mettre en œuvre pour ne pas dépasser les 2°C, mais n’utilisent pas ce genre de langage apocalyptique. Ce que j’ai trouvé de plus proche est la préface d’un rapport passablement alarmiste de 2018, What Lies Beneath, rédigé par deux militants qui ne sont pas des scientifiques. M. Schellnhuber y écrit que le document amène une «nouvelle perspective» sur la «crise existentielle» que constituent les changements climatiques, et qu’il peut être intéressant de la considérer même si elle se situe «à la marge» de la communauté scientifique. «C’est particulièrement vrai quand ce qui est en jeu est la survie même de notre civilisation, où les méthodes d’analyse conventionnelles peuvent devenir dépassées», avertit-il. Mais il ne mentionne pas le seuil des 4 °C dans ce texte.

[Erratum, 10 mars 2020 : À la suite de la publication de cette chronique, Dominic Champagne m'a signalé que M. Schellnhuber a bel et bien fait le lien entre la fin de la civilisation humaine et l'écart de 2 à 4°C, lors d'une conférence en 2011. Vérification faite, je dois lui donner raison sur ce point puisque des sources fiables, que je n'avais pas trouvées initialement, le mentionnent. Les sources que j'avais consultées pour la rédaction de cette chronique, plus récentes, ne faisaient pas ce lien explicitement, même si elles traçaient un portrait très sombre de l'avenir, comme je l'ai mentionné. J'ai donc retiré de la présente chronique un paragraphe où je disais que M. Champagne devait avoir mal interprété les propos du célèbre climatologue, et je l'ai remplacé par cet erratum. Je maintiens l'essentiel de mon propos, soit qu'un réchauffement de 4°C amènera des conséquences graves sans aller forcément jusqu'à la fin de la civilisation, mais je présente tout de même mes excuses à M. Champagne pour ce passage erroné.]

Cela dit, cependant, rien de tout cela ne signifie qu’un réchauffement de 4 °C serait bénin : entre «pas la fin de la civilisation» et «pas grave», il y a une sacrée marge. Certains balaient parfois ces projections avec des boutades du genre : «au lieu de faire -20 en janvier, il va faire -16°C», mais c’est beaucoup, beaucoup plus que ça. Pour donner une idée de ce que cela représente, il suffit de mentionner que lorsque la Terre sort d’un âge glaciaire, elle se réchauffe généralement de 4 à 7 °C. Imaginez un peu, un écart de 4 degrés à l’échelle planétaire peut faire la différence entre une calotte glaciaire qui descend sur le Québec et le climat tempéré comme nous avons de nos jours. À cette différence près que cette fois-ci, il n’y a pas de glacier qui recouvre le tiers ou la moitié de l’hémisphère nord : nous sommes déjà sortis de la dernière glaciation, alors le 4°C (si on en arrive là) va s’ajouter au reste. C’est énorme.

Les travaux de M. Schellnhuber, entre bien d’autres, le démontrent amplement. Par exemple, à 2 °C, on s’attend à ce que le niveau des océans monte d’environ 20 cm d’ici 2100, mais à 4 °C, ce serait plutôt 50 à 100 cm «avec plusieurs mètres de plus qui s’ajouteront dans les siècles suivants» à cause de la fonte des glaciers du Groendland et de l’Antarctique, lit-on dans un rapport publié en 2012 par la Banque mondiale. Tout cela implique le déplacement de millions, voire de centaines de millions de personnes.

De même, l’Académie nationale des sciences des États-Unis (NAS) prévoyait en 2011 que pour chaque degré de réchauffement mondial, le maïs devrait perdre 11 % de sa productivité chez l’Oncle Sam [http://bit.ly/39sHfhg]. Pour le soya, la productivité resterait à peu près stable à +2°C, mais chuterait de près de 30 % à + 4 °C.

Ces prévisions, il faut le souligner, ne valent pas pour toute la planète, mais seulement pour le «Corn Belt», soit les états du Mid-West, et elles présument que les cultivars utilisés ne changeront pas ou ne seront pas adaptés. En outre, les conséquences du réchauffement ne seront pas uniformément les mêmes partout : certaines régions deviendraient plus arides, d’autres plus humides, d’autres subiraient plus d’ouragans, etc. Ainsi, d’un point de vue agricole, les changements climatiques n’ont pas été que négatifs jusqu’à maintenant dans le sud du Québec, où la «saison de croissance» (température quotidienne moyenne de 5 °C ou plus pendant au moins 6 jours consécutifs) a allongé de quelques jours à deux semaines depuis 1971, et l’on prévoit d’ici 2050 un rallongement supplémentaire de 10 à 30 jours selon l’intensité qu’aura le réchauffement, lit-on dans un rapport du consortium québécois de recherche en climatologie Ouranos (p. 23 sur 115).

Mais rien ne dit qu’on n’atteindra jamais un seuil où les retombées positives de ce type seront annulées par d’autres conséquences, même dans des régions plus nordiques comme les nôtres. Et à l’échelle globale, tant la NAS que la Banque mondiale et nombre d’autres sources s’attendent à ce que les changements climatiques réduisent la productivité agricole dans l’ensemble,à cause de sécheresses et de canicules plus fréquentes, de ravageurs plus abondants, etc. [http://bit.ly/2vKVZth]. Et plus le réchauffement sera intense, plus sévères seront les conséquences.

Rien de tout cela, je le répète, ne signifie que la «fin de la civilisation» arrivera d’ici la fin du siècle. Ça veut juste dire qu’il ne faut pas sous-estimer non plus ce que représente un réchauffement de 4°C : c’est énorme et, si l’on se rend jusque là, il faudra s’attendre à devoir gérer de graves répercussions.

Jean-François Cliche
Faut-il avoir peur du COVID-19 ?

Science

Faut-il avoir peur du COVID-19 ?

SCIENCE AU QUOTIDIEN / «Pourquoi faut-il craindre le coronavirus davantage que la grippe saisonnière ? J’ai lu récemment que notre bonne vieille grippe saisonnière avait déjà tué 10 000 personnes aux États-Unis depuis l’automne, des gens de tous âges. Alors pourquoi cette panique mondiale et tous ces reportages sur le coronavirus chinois ? Si les médias du monde entier et l’OMS nous faisaient des rapports quotidiens sur les ravages de la grippe, ne serions-nous pas totalement paniqués à chaque année ?», demande Flore Fournier, de Saint-Augustin-de-Desmaures.

Grosso modo, il y a deux choses qui font (ou défont) la gravité d’une épidémie : la facilité du pathogène à se transmettre entre humains et la sévérité des symptômes qu’il engendre.

Ces dernières semaines, on a vu circuler un indicateur couramment utilisé en épidémiologie, le poétiquement nommé «R0», qui est le nombre moyen de personne(s) que chaque malade va infecter. Pour la grippe saisonnière, une étude canadienne toute récente a trouvé un R0 de près de 1,5 [http://bit.ly/3ae6mEt], ce qui signifie que chaque personne grippée refile son virus à 1,5 autres personnes en moyenne. À cet égard, le COVID-19 semble un peu plus contagieux que la grippe : l’OMS a publié un R0 entre 1,4 et 2,5 en janvier, et plusieurs équipes de recherche dans le monde sont arrivées à des R0 oscillant généralement entre 2 et 3.

Il y a, remarquez, des virus qui sont beaucoup plus contagieux que ça — la rougeole, par exemple, a un R0 de 12 à 18 ! Mais tout de même : «un peu plus transmissible que la grippe», ça n’est pas banal non plus puisque l’influenza est elle-même «très contagieuse de par son mode de transmission (gouttelettes et aérosols) et sa courte période d’incubation (1-4 jours avec une moyenne de 1-2 jours). Elle peut aussi être transmise 24 h avant le début des symptômes», m’a dit le chercheur du CHUQ Dr Guy Boivin, titulaire de la Chaire sur les virus en émergence, lors d’un échange de courriels.

Voilà donc déjà un motif objectif d’inquiétude. Bien sûr, si ce COVID-19 se comportait comme la plupart des autres coronavirus humains (hormis le SRAS et le MERS, qui sont très graves), c’est-à-dire s’il ne provoquait qu’un rhume très bénin, ce nouveau virus pourrait bien avoir un R0 de 50, il n’y aurait pas de quoi fouetter un chat. Cependant, tout indique pour l’instant qu’il est beaucoup plus virulent que ça.

Certes, en nombre absolu, l’influenza fait chaque année beaucoup plus de victimes que le COVID-19 : juste aux États-Unis, la grippe a tué entre 16 000 et 41 000 personnes cette année, estime la santé publique américaine, ce qui est de l’ordre de 10 fois plus que le coronavirus chinois sur toute la planète (un peu plus de 2800 victimes en date de jeudi). Mais il faut garder à l’esprit que l’influenza circule très, très largement et a infecté bien plus de gens (lire : des centaines de millions dans le monde) que le COVID-19 (moins de 100 000).

Alors c’est plutôt par le taux de mortalité, et non par le nombre absolu de décès, qu’il faut juger de la sévérité d’une maladie. Et de ce point de vue-là aussi, le coronavirus chinois semble plus grave que la grippe saisonnière. Celle-ci tue bon an mal an entre 0,05 et 0,1 % des gens qu’elle infecte, surtout chez les jeunes enfants et les personnes très âgées, indique Dr Boivin. Par comparaison, le taux de décès du COVID-19, contre lequel pratiquement personne n’a d’anticorps puisqu’il vient d’apparaître, est de 3,4 %, selon les dernières données disponibles.

Ce chiffre, notons-le, est sans doute exagéré parce que quand un nouveau pathogène apparaît, les premières statistiques portent souvent surtout sur des hospitalisations et «échappent» de nombreux cas bénins. Ce fut le cas, par exemple, de la grippe porcine de 2009 : les premières statistiques provenant du Mexique (premier pays touché) suggéraient un taux de mortalité effarant de 10 % alors qu’en réalité, il fut éventuellement revu à 0,1 % quand des chiffres plus fiables devinrent disponibles.

C’est vraisemblablement ce qui arrive présentement avec le COVID-19. «Il faudra des bonnes études séroépidémiologiques, avec mesure des anticorps spécifiques, pour régler cette question», dit Dr Boivin. Mais mener de telles études prend du temps, alors il faudra attendre encore avant d’être fixé pour de bon.

Cependant, il y a quand même un aspect très intéressant des chiffres de l’OMS qui n’a pas attiré l’attention qu’il mérite jusqu’à maintenant : le taux global de mortalité est clairement grossi par la province de Hubei, qui est le ground zero de l’épidémie. Dans cette province chinoise, 65 600 personnes ont été officiellement diagnostiquées, dont 2641 sont décédées, ce qui donne un taux de mortalité de 4 %. Dans le reste de la Chine, cependant, on recense 106 décès pour 13 000 malades, donc un taux de seulement 0,8 %. Et hors de la Chine, le virus a fauché 57 personnes sur 3664 cas, ou 1,5 %.

Il est difficile de savoir pourquoi le taux de mortalité est quatre fois plus élevé dans Hubei que partout ailleurs. Peut-être que le réseau de surveillance de la province a été submergé par l’épidémie et que de nombreux cas bénins n’ont pas été comptabilisés. Peut-être que les services de santé ont été débordés et ne soignent pas aussi efficacement qu’à l’habitude. Peut-être est-ce un mélange des deux, ou autre chose complètement. Mais quoi qu’il en soit, «le taux de mortalité (…) dans la province de Hubei est sans doute exagéré», estime Dr Boivin. Le vrai taux, quand on le saura, sera vraisemblablement plus proche du 1 % que l’on observe ailleurs en Chine et dans le monde que du 4 % de Hubei.

Or 1 %, c’est peu et c’est beaucoup à la fois. C’est considérablement moins que les deux derniers coronavirus qui ont fait le saut chez l’humains, soit le SRAS (10 % de mortalité) et le MERS (35 %), ce qui est toujours ça de pris. Mais c’est aussi 10 à 20 fois plus que la grippe — et ce, pour un virus qui se transmet encore mieux que l’influenza. Alors sans être aussi effrayant que d’autres épidémies dans le passé, ce COVID-19 semble bien mériter le «traitement particulier» que les autorités de santé publique lui accorde. Ce qui n’empêche pas, par ailleurs, que certains médias en «beurrent» un peu épais, mais c’est une autre question…

Jean-François Cliche
Pipelines : pourquoi ne pas passer par la baie d’Hudson?

Science

Pipelines : pourquoi ne pas passer par la baie d’Hudson?

SCIENCE AU QUOTIDIEN / «Pourquoi est-ce qu’on ne construirait pas un pipeline entre Fort McMurray et le port de Churchill, dans la baie d’Hudson? Ça ferait autant l’affaire du Québec, qui ne semble pas vouloir d’un pipeline, que de l’Alberta, qui cherche des sorties sur la mer pour son pétrole. Churchill est un port en eau profonde. Et puis, pour ce qui est des glaces, lorsqu’il passera 10 ou 20 pétroliers par semaine aller-retour, le chenal n’aura pas le temps de regeler, quitte à y faire passer une couple de brise-glace en plus. Alors ça vaut la peine d’y penser, non?», demande Ernest Laplante, de Notre-Dame-du-Nord.

L’idée peut a priori sembler un peu saugrenue, puisque elle implique de traverser la baie et le détroit d’Hudson, qui sont couverts de glace un bon six mois par année, voire plus proche des côtes. Mais le fait est qu’avec le réchauffement climatique, la «saison des eaux libres» allonge considérablement. D’après une étude récente parue dans la revue savante Elementa, la baie et le détroit d’Hudson ont été libres de glace pendant respectivement 130 et 132 jours par année en moyenne entre 1981 et 1985 ; de 2010 à 2014, on en était à 155 et 178 jours.

Pas étonnant, donc, que l’idée refasse surface périodiquement dans certains médias du Canada anglais comme le Financial Post [http://bit.ly/2Oyse5e]. D’ailleurs, pas plus tard que mercredi dernier, le premier ministre de la Saskatchewan Scott Moe en a parlé comme d’une possibilité à explorer [http://bit.ly/2UAax9c], c’est tout dire.

Alors qu’est-ce qui «accroche» ? Pourquoi l’industrie des sables bitumineux fait-elle malgré tout des pieds et des mains pour faire passer de longs et controversés pipelines par le sud ? Eh bien pour plusieurs raison, en fait. Le première est que contrairement à l’image «classique» que la plupart des gens ont de la banquise, faite d’un seul bloc solide et inamovible, en réalité seule une petite partie de la glace marine est immobile. Il s’agit d’une bande relativement mince de banquise qui est rattachée physiquement à la côte, mais elle ne s’avance au maximum que sur quelques dizaines de kilomètres dans la mer alors que la baie d’Hudson, elle, fait plus de 900 kilomètres d’est en ouest et à peu près autant du nord au sud. Le reste, lit-on dans l’article d’Elementa, soit «la vaste majorité de la glace, (…) forme une sorte de «banquise mobile» — de la glace flottante qui dérive au gré des courants et des vents».

C’est donc dire que même en supposant qu’une douzaine de pétroliers par semaine fassent l’aller-retour avec des brise-glace, le chenal qu’imagine M. Laplante se refermerait souvent très rapidement, pas parce qu’il «gèlerait» mais parce qu’il serait bouché par les glaces mobiles que le vent et les courants y pousseraient

Et puis, ajoute le chercheur de l’Université du Manitoba et co-auteur de l’étude d’Elementa David Babb, avec qui j’ai pu échanger par courriels, «la glace marine se forme par morceaux qui interagissent un peu comme des plaques tectoniques, si bien que lorsque le vent les presse les unes sur les autres, elles peuvent former de grosses crêtes [difficiles à passer même pour un brise-glace, ndlr]».

Remarquez, rien de tout cela ne signifie qu’il est impossible de naviguer par là en hiver. Pourvu qu’un navire soit dûment équipé (coque renforcée et de la bonne forme, puissance de moteurs pour manœuvrer à travers les glaces, etc.), c’est tout à fait faisable, et il y a même des cargos qui en sont capables. D’ailleurs, mentionne M. Babb, «l’entreprise canadienne FedNav possède trois vraquiers qui transitent en hiver par le Labrador et la baie Déception, dans le détroit d’Hudson, pour transporter du minerai».

Alors oui, des bateaux conçus de manière appropriée peuvent se frayer un chemin à travers les banquises, même épaisses. Mais, autre problème, les meilleures formes de coque pour briser la glace ne sont pas idéales, loin s’en faut, pour naviguer dans les eaux libres, qu’elles fendent moins efficacement, ce qui augmente le temps de transport et les coûts de carburant. Il existe des pétroliers qui sont faits pour allier les deux, ayant une proue pour les eaux libres et une poupe pour les glaces, qu’ils brisent en marche-arrière, mais ils sont rares et couteux. Et comme il arrive même aux brise-glace de rester coincer, il faudrait vraisemblablement «escorter» tous les pétroliers, sans compter que dans tous les cas, naviguer à travers les glaces prend toujours beaucoup plus de temps qu’en eaux libres, ce qui ajoute aux coûts. Au final, estime M. Babb, c’est probablement en grande partie pour des raisons économiques qu’il n’y a pas de pétrole qui passe par la baie d’Hudson.

Enfin, soulignons qu’il y a une autre facette à toute cette histoire, moins technique et plus sociale, mais tout aussi importante que la glace : on aurait tort de penser qu’il n’y a qu’au Québec que la venue d’un pipeline provoque de l’opposition. En 2017, quand des politiciens albertains avaient proposé de racheter le port de Churchill en vue d’y faire transiter du pétrole, bien des habitants de la place avaient regimbé, y compris le président de leur chambre de commerce, parce qu’une partie importante de l’économie locale repose sur l’écotourisme qu’un pipeline et le passage fréquence de pétroliers géants viendraient mettre en péril, craint-on là-bas [http://bit.ly/2vgWWck].

Le port appartient depuis 2018 à une coalition locale comprenant les Premières Nations, qui auraient elles aussi leur mot à dire dans tout cela. Bref, même en présumant que le passage des pétroliers à l’année longue soit techniquement et économiquement faisable, d’un point de vue politique la construction d’un pipeline ne serait pas forcément beaucoup plus facile à réaliser dans le nord du Manitoba qu’elle ne le fut au Québec.

Jean-François Cliche
Les hauts et les bas du thermostat

Science

Les hauts et les bas du thermostat

SCIENCE AU QUOTIDIEN / «J’aimerais comprendre une chose que tout le monde dit vraie, mais que personne n’explique. On nous demande de baisser le thermostat l’hiver pour économiser de l’énergie. Pour ceux qui chauffent à l'électricité, je peux comprendre. Mais moi, je chauffe au mazout. Si je garde la température de la maison à 21°C et la descend à 17°C la nuit ou quand je quitte, je ne vois pas de quelle façon on économise. Quand il fait froid, la maison se refroidit rapidement et aussitôt que la température baisse de 1°C sous le réglage, la fournaise repart — qu’il fasse 20 ou 16°C n’y change rien. Alors où est l’économie dans tout ça?», demande Thérèse Boileau, de Gatineau.

Il est vrai que c’est un clou sur lequel Hydro-Québec tape assez souvent, et le fait est qu’à peu toutes les sources crédibles à cet égard disent la même chose, du ministère américain de l’énergie [http://bit.ly/3b05Fjm] au Centre pour l’énergie durable en Angleterre [http://bit.ly/2OfJig4] en passant par le CAA [http://bit.ly/2OvWpKn]. Alors qu’est-ce qui met tout ce savant monde d’accord ?

Il y a deux clefs à connaître pour le comprendre. La première et sans doute la principale pour répondre directement à la question de Mme Boileau, c’est que «la consommation d’énergie est directement proportionnelle à l’écart de température entre l’intérieur et l’extérieur», dit Étienne St-Cyr, chef de l’équipe d’ingénierie d’Hydro-Québec chargée du dossier de l’efficacité énergétique. Il y a une tonne de facteurs (vents, ensoleillement, etc.) qui entrent en ligne de compte dans la facture de chauffage, nuance-t-il, mais un facteur fondamental est que maintenir sa maison à, disons, 30°C au-dessus de la température extérieure demande deux fois plus d’énergie que de soutenir une différence de 15°C.

Faisons donc un petit calcul rapide. D’après le site de HQ, une maison moyenne consomme annuellement environ 22 000 kiloWatt-heure (l’équivalent d’une ampoule de 100 W qui serait allumée pendant 220 000 heures). De ce total, environ 57 %, ou 12 500 kWh, servent à chauffer la maison. Alors supposons que cette maison maintient sa température à 21°C et que le plus clair de ses besoins de chaleur, autour de 10 000 kWh, sont concentrés sur quatre mois, de décembre à mars inclusivement. Comme il fait en moyenne autour de -8°C à l’extérieur au cours de ces quatre mois, on parle ici de dépenser 10 000 kWh pour maintenir un écart de 29°C entre «le dedans» et «le dehors» pendant 120 jours — ou si l’on préfère, 3,5 kWh pour chaque heure passée à 29°C au-dessus de la température extérieure.

Maintenant, comme l’a dit M. St-Cyr, c’est l’écart avec l’extérieur qui détermine la dépense en énergie, alors si on baisse le chauffage à 17°C, l’écart passe de 29 à 25°C. Et la dépense en énergie diminue proportionnellement pour s’établir à 3,5 kWh x 25/29 = 3 kWh par heure. Pour une nuit de 8 heures, cela représente donc une économie de 0,5 kWh x 8 = 4 kWh et, sur les 120 jours de décembre à mars, cela monte à 480 kWh. Mine de rien, voilà une économie de 4,8 % de la dépense de chauffage pour ces quatre mois — et ajoutons que cela vaut pour l'électricité comme pour le mazout.

Certes, comme le dit Mme Boileau, il est évident que la fournaise va repartir de temps en temps, même quand on règle le thermostat à 17°C. Il ne peut en être autrement puisque c’est plus chaud que l’extérieur et que toute bâtisse, même les mieux isolées, perd de sa chaleur petit à petit. Mais comme l’écart est plus faible (25°C vs 29°C), la fournaise démarrera un peu moins souvent et un peu moins longtemps à chaque fois. On peut aussi aller chercher des économies supplémentaires en faisant la même chose pendant le jour, quand toute la maisonnée est au bureau et/ou à l’école, mais «il y a peut-être moins de gains à faire là parce que la différence de température avec l’extérieur est moindre, il y a l’ensoleillement qui peut chauffer la maison, etc.», note M. St-Cyr.

La deuxième clef pour comprendre tout ceci déborde un peu de la question de Mme Boileau, mais j’ai souvent entendu des gens se demander si les économies réalisées ne seraient pas annulées par le surplus d’énergie qu’il faut dépenser pour réchauffer la température au niveau voulu à la fin de la nuit. Et il est vrai que cela demande un «effort de fournaise» supplémentaire, mais cette dépense-là est très loin d’annuler toutes les économies

D’abord, il ne faut pas oublier que lors de la «descente» de 21 à 17°C, le chauffage ne fonctionne absolument pas : on n’a pas à maintenir la température, on la laisse chuter, ce qui représente une économie additionnelle qui est grosso modo équivalente au surplus à fournir lors de la «remontée», de 17 à 21°C. Cela laisse donc entières les économies faites entre les deux.

Et encore, précise M. St-Cyr, si on compare à l’énergie qu’il faut pour maintenir la maison à 21°C, il y a même une économie (infime, mais quand même) à faire dans ce petit jeu de yo-yo. En d’autres termes, si on laisse la température baisser et que, sitôt atteints les 17°C, on replace immédiatement les réglages à 21, on dépensera un peu moins d’énergie que si on laisse le thermostat à 21°C tout ce temps.

«La différence est vraiment minime, concède M. St-Cyr, et c’est pour ça qu’on recommande de baisser la température pour des périodes de 3 à 5 heures au minimum, mais elle est là.»

Jean-François Cliche
Comment gâcher un party d’astronautes

Science

Comment gâcher un party d’astronautes

SCIENCE AU QUOTIDIEN / «La NASA doit résoudre plusieurs problèmes avant de pouvoir envoyer des humains sur la planète Mars, dont l’épineuse question : comment protéger les astronautes des radiations solaires et des rayons cosmiques ? Sur Terre, nous sommes protégés des radiations solaires et des rayons cosmiques par le champ magnétique terrestre. Alors pourquoi ne pas induire un champs magnétique autour du vaisseau spatial équivalent au champs magnétique terrestre ? Est-ce parce que la demande en énergie électrique serait trop grande ?», demande Jacques Blouin, de Québec.

La Terre reçoit un flux continuel de rayonnement provenant en partie du Soleil (le «vent» et les «tempêtes» solaires), et en partie des confins de l’Univers (le rayonnement cosmique). À certains égards, ces radiations ressemblent à de la radioactivité, au sens où ce sont des ondes électromagnétiques ou des particules (électrons, protons, etc.) qui sont tellement énergétiques qu’elles peuvent arracher des électrons à des molécules ou même briser des molécules — voire carrément briser le noyau des atomes.

Quand quelqu’un est exposé à ce «rayonnement ionisant», comme on l’appelle, il peut arriver que la molécule brisée s’adonne à être un brin d’ADN. Nos cellules ont les outils qu’il faut pour «réparer» ces bris, mais ces réparations viennent toujours avec un risque d’erreur qui peut, dans certains cas, transformer la cellule saine en cellule cancéreuse. Sur le plancher des vaches, l’atmosphère et la magnétosphère terrestre bloquent ce rayonnement, mais la première n’a qu’une centaine de kilomètres d’épaisseur et la seconde n’agit que sur quelques dizaines de milliers de kilomètres. Voilà pourquoi on doit protéger les astronautes des radiations.

Mais ce n’est pas une mince tâche. C’est surtout le rayonnement cosmique qui est problématique, parce que les protons qui viennent du Soleil, moins énergétiques, sont dangereux mais plus faciles à arrêter. La manière la plus simple de procéder serait de construire un vaisseau aux parois très épaisses — autour de 1 mètre —, mais le tout serait évidemment beaucoup trop lourd pour un voyage spatial.

C’est en partie à cause de cela qu’il y a maintenant un bon demi-siècle que l’on évoque l’idée de générer un champ magnétique. Historiquement, le principal obstacle était que pour imiter l’effet du champ magnétique terrestre, on devait soit générer des champs magnétiques à des échelles impossibles sur un vaisseau spatial — de l’ordre de 100 km —, soit avoir des champs si intenses qu’ils demandaient trop d’énergie à maintenir, plus que ce qu’on pouvait stocker sur un vaisseau.

Ces problèmes semblent avoir en partie résolus grâce à de nouvelles technologies d’aimant, mais les mots-clefs, ici, sont vraiment «en partie». D’après une revue des différentes alternatives publiée en 2016 dans la revue savante Frontiers in Oncology [http://bit.ly/2TTC2Ko], la technologie la plus efficace avait une masse de… 137 tonnes. Et encore, elle laissait passer des doses de radiation d’environ 100 milliSievert par année (mSv/an, le Sievert étant une unité de rayonnement ajusté pour tenir compte de la dangerosité des différents types de rayonnement et de la sensibilité variables des organes touchés). Il s’agit d’une dose de radiation très élevée, et même inacceptable. Par comparaison, la norme canadienne pour les travailleurs de l’industrie du nucléaire est de 50 mSv/an — et encore seulement pour une année, la dose sur 5 ans ne devant pas dépasser 100 mSv.

Parmi les autres possibilités analysées dans l’article, la technologie la plus légère pesait «seulement» 35 tonnes, mais celle-là laissait passer des doses de radiation de 240 mSv/an. Loin d’être idéal…

Hormis l’ajout de blindage et d’une magnétosphère artificielle, une autre possibilité est d’essayer de réduire le temps de vol, mais augmenter la vitesse demande plus de carburant et donc de masse au lancement.

Pour les enthousiastes des voyages interplanétaires, cela vient d’autant plus gâcher le party que c’est aussi une forme de radiation dont on connaît mal l’impact biologique. Contrairement aux formes de radiation qu’on connaît bien parce qu’on s’en sert en médecine, soit principalement les rayons X et les électrons, ces radiations-là sont surtout faites de protons et de noyaux d’atomes. Ce qui les rend difficile à étudier parce qu’il faut des machines énormes et dispendieuses pour accélérer ces particules à des énergies comparables à ce qu’on voit dans l’espace. De plus, les rats étant plus petits que les humains, les radiations les plus énergétiques leur passent carrément au travers sans trop faire de dommage — donc on ne peut pas s’en servir pour étudier l’effet de ces radiations.

Bref, en un mot comme en cent : la protection des «marsonautes» contre les radiations est encore un point de blocage majeur.

Autres sources :

- s.a., The radiation showstoppe for Mars exploration, Agence spatiale européenne, 2019, http://bit.ly/2RMpphy

- s.a., How NASA Will Protect Astronauts From Space Radiation at the Moon, 2019, https://go.nasa.gov/3aEgMye

Jean-François Cliche
L’essence tombera-t-elle du ciel un jour ?

Science

L’essence tombera-t-elle du ciel un jour ?

SCIENCE AU QUOTIDIEN / «On parle beaucoup d’urgence climatique mais aucun programme clair n’est proposé, à l’exception d’une augmentation de taxes carbone donnant un permis de polluer pour les plus riches. Cependant, il y a des entreprises comme Carbon Engineering Ltd au Canada et BFS en France qui proposent des technologies pour capter le CO2 directement dans l’air et le transformer en carburant. Alors quelle est l’efficacité réelle de ces technologies ? Est-ce que c’est «pour vrai» ou est-ce que c’est une autre fabulation de l’internet ?», demande Stéphan Raymond, de Québec.

«La question est un peu compliquée parce que la capture directe du CO2 dans l’air est plus récente que d’autres approches. Ça fait une dizaine d’années qu’on en parle, ce qui est relativement court comparé à la séquestration géologique du carbone, par exemple. Et encore, il y a des projets en séquestration, mais toujours rien à des échelles suffisamment grandes pour avoir un effet notable», dit d’emblée Louis-César Pasquier, chercheur au centre Eau, Terre et Environnement de l’INRS qui mène justement des travaux sur le stockage et l’utilisation du CO2.

Les technologies de capture directe du CO2 dans l’air — à ne pas confondre avec les technologies qui prennent le CO2 «à la source», dans des cheminées industrielles — fonctionnent bien dans l’ensemble, leurs principes scientifiques sont prouvés, mais «ces compagnies-là sont rendues à faire la démonstration concrète de leurs technologies, parce qu’elles n’ont pas encore été mises en place à grande échelle», ajoute M. Pasquier.

Mine de rien, c’est une étape qui peut s’avérer plus ardue qu’on s’y attendrait à priori. «C’est toujours plus facile des faire des choses de manière contrôlée dans une éprouvette que dans des équipements industriels beaucoup plus grands», indique-t-il.

Mais il y a quand même des progrès qui se font et des technologies qui sont testées très concrètement, hors des labos. La firme Carbon Engineering dont parle M. Raymond, par exemple, a une usine-pilote en Colombie-Britannique qui fonctionne depuis 2015. Il s’agit essentiellement d’un gros ventilateur qui pousse de l’air au-dessus d’un bassin contenant des composés chimiques qui réagissent avec le CO2, qui est alors «capturé».

Dans un article paru dans la revue savante Joule en 2018 [http://bit.ly/2QZsWKl], la compagnie a détaillé les résultats de ses trois premières années d’activités et, si certains aspects étaient vraiment très encourageants, d’autres forçaient plutôt au réalisme. Ainsi, le projet-pilote a été capable d’extirper du CO2 de l’atmosphère à un coût variant (selon les configurations choisies, les sources d’énergie, etc.) entre 94 et 232 $ la tonne, ce qui est déjà une énorme amélioration sur les quelque 600 $/t que calculait en 2013 l’American Physical Society pour la capture directe.

Et comme Carbon Engineering entend éventuellement convertir à grande échelle ce CO2 en carburant, certains observateurs ont tout de suite annoncé que cela laissait entrevoir un avenir pas si lointain où l’essence serait carboneutre.
Mais d’un autre côté, les quantités d’énergie que cela prend pour extirper ce carbone de l’atmosphère montrent que cela ne peut pas être une solution miracle applicable mur-à-mur — pas à l’heure actuelle, en tout cas. «Le nerf de la guerre, ça va être l’énergie parce que pour faire du carburant, il faut remonter la pente énergétique», dit M. Pasquier, qui fait référence au fait que l’énergie contenue par le carburant doit bien venir de quelque part.

Par exemple, l’article de 2018 montre que dans la «configuration» de l’usine pour transformer le CO2 capturé en carburant, Carbon Engineering a dû dépenser 1535 kiloWatts-heure en gaz naturel et en électricité pour chaque tonne de gaz carbonique capturé. Pour donner une idée de ce que cela représente en vue d’une éventuelle production à très grande échelle, supposons que l’on veuille utiliser cette technologie pour rendre tous les transports routiers du Québec «carboneutres». En 2017, les voitures et camions circulant dans la Belle Province ont émis 27 millions de tonnes de CO2, alors avec l’usine de Carbon Engineering, il faudrait dépenser autour de 41 téraWatts-heure (TWh) pour retirer tout ce de CO2 de l’atmosphère. Pour fin de comparaison (et même si une partie du gaz naturel n’est pas facilement remplaçable par de l’électricité dans ce procédé), c’est une quantité d’énergie supérieure à toutes les exportations d’Hydro-Québec, qui sont d’environ 36 TWh par année, et cela représente une bonne part de ses ventes annuelles totales, qui tournent autour de 210 TWh. C’est considérable.

Et encore, ce n’est même pas toute l’énergie qu’il faudrait dépenser pour produire du carburant — juste celle qu’il faut pour extraire le gaz carbonique de l’air. Selon ce que spécifie l’article de Joule, il faudrait ensuite fournir d’autre énergie pour faire ce que les chimistes appellent l’«électrolyse de l’eau», qui consiste à séparer les atomes d’hydrogène et d’oxygène des molécules d’eau (H2O). On ferait ensuite réagir cet hydrogène avec le carbone du CO2 pour faire des hydrocarbures (du carburant). Il y aura donc encore de grosses dépenses énergétiques à prévoir. Ce n’est pas pour rien, note M. Pasquier, que l’usine de Carbon Engineering est situé à côté d’une rivière : c’est pour avoir accès à une source d’énergie renouvelable.

Et tout cela a un coût. Dans la configuration pour produire du carburant, qui n’est pas la plus onéreuse à 100$ la tonne, juste la capture du CO2 représente une dépense de 23¢ par litre. Sans compter, encore une fois, les étapes suivantes.

Cela ne signifie pas que la capture du gaz carbonique directement dans l’air n’a aucun avenir, remarquez bien. Le fait que des gens comme Bill Gates aient investi de fortes sommes dans ces technologies, sans être une garantie, montre le sérieux de l'affaire. Mais cela implique que, pour l’instant, ces technologies ne sont pas encore «matures». Et que quand elles le seront, il se peut bien qu’elles répondent plus à des besoins de niche — Carbon Engineering vise le marché du carburant d’avion, illustre M. Pasquier — qu’à une demande plus générale.

Jean-François Cliche
La «bordélisation» de la lumière

Science

La «bordélisation» de la lumière

SCIENCE AU QUOTIDIEN / «J’ai vu des savons à vaisselle verts, des savons en barre oranges, des savons à main roses, et d’autres de toutes les couleurs, et pourtant leur mousse est toujours blanche. Pourquoi le savon mousse-t-il toujours blanc peu importe sa couleur ?», demande Origène D’Amours, de Magog.

Il y a essentiellement deux choses à savoir pour le comprendre, répond d’emblée le chimiste de l’Université Laval Normand Voyer. La première, commence-t-il, c’est que «quand on parle des colorants, les gens pensent souvent qu’il y en a beaucoup parce que la couleur, c’est ce qu’on voit en premier. Mais en réalité, le colorant ne représente que quelque chose comme 0,001% du total. C’est vraiment une infime partie du produit, pas besoin d’en mettre plus. Alors quand bien même que le savon serait fluo, il n’y a presque pas de colorant dedans. Et en plus, ça prend juste un peu de savon pour faire beaucoup de mousse parce que la mousse, c’est principalement de l’air [ce qui «dilue» le colorant encore plus que le 0,001% de départ, ndlr]. Alors c’est un peu normal qu’on ne puisse pas voir une bulle orange ou verte !»

Bref, quand on regarde une bulle (et une seule), on la voit transparente. Mais alors, la question devient : pourquoi la mousse est blanche, elle ? Si les bulles sont toutes transparentes, comment leur «somme» peut-elle être blanche ? La deuxième chose à savoir dont parle M. Voyer est justement là mais, avant d’y arriver, il faut faire un petit détour...

La lumière, ce sont des ondes électromagnétiques, c’est-à-dire de l’énergie électrique et magnétique qui se propage dans l’espace un peu à la manière des vagues sur l’eau — avec des «crêtes» et des «creux» qui sont séparés par une certaine distance nommée longueur d’onde. L’œil humain est capable de percevoir des longueurs d’onde située entre environ 380 et 740 nanomètres (nm). Autour de 700 nm, nous voyons du rouge ; aux environs de 600 nm, c’est plutôt du orange que nous voyons ; si la distance entre les «vagues» diminue encore un peu (entre 550 et 590 nm environ), alors nos yeux perçoivent du jaune; et ainsi de suite jusqu’aux plus courtes longueurs d’onde perceptibles par l’humain, soit le violet (entre 380 et 450 nm).

La lumière que nous recevons du Soleil (et de la plupart des ampoules électriques «normales») est un mélange de toutes ces longueurs d’onde. Or nos yeux perçoivent ces mélanges comme du blanc, et la clef de l’énigme de la mousse blanche, comme on s’en doute, elle est précisément là.

Si l’on regardait la paroi d’une bulle de savon au microscope, on se rendrait compte qu’elle est composée de deux minces couches de savon qui retiennent une fine couche d’eau entre elles. Quand la lumière passe à travers la paroi d’une bulle, une partie est réfléchie, mais une autre (grosse) partie traverse la paroi et s’en trouve déviée et ce, à des angles qui vont varier légèrement selon la longueur d’onde — ce qui va séparer les couleurs.

Maintenant, imaginez un peu ce qui arrive dans une mousse comptant des centaines, voire des milliers de petites bulles. En un mot comme en cent, si l’on me permet un terme pas-très-technique : c’est le bordel.

«La lumière est réfléchie et dispersée dans toutes les directions possibles, dit M. Voyer. Si bien qu’en bout de ligne, si le bleu est réfléchi partout, si la même chose arrive au rouge et à toutes les autres couleurs, cela donne un mélange et ça, ça fait du blanc.»

Fait intéressant, enchaîne-t-il, c’est la même chose qui arrive dans les nuages : la lumière est «éparpillée» dans toutes les directions en traversant les gouttelettes d’eau, toutes les longueurs d’onde s’en trouvent «remélangées», et le résultat est que les nuages sont blancs.

* * * * *

«Pourriez-vous expliquer si la décennie s’est terminée en 2019 ou si elle va vraiment finir en 2020 ? Il me semble qu’une décennie, ce sont les années 1, 2, 3, 4, 5, 6, 7, 8, 9 et 10. Donc, la deuxième décennie du troisième millénaire devrait finir en 2020, et non en 2019. Ce qui serait logique puisque l’an zéro n’existe pas : à un moment donné, on était au jour 1 de l’an 1. Corrigez-moi si je me trompe», demande Marie-Claude Boivin, de Québec.

Il n’y a effectivement jamais eu d’an zéro puisque l’habitude de compter les années à partir de la naissance du Christ remonte au 8e siècle et qu’en ce temps-là, le zéro n’avait tout simplement pas été inventé. Ni la numération romaine, ni son équivalent grec n’avaient de chiffre pour le zéro. À l’époque, d’ailleurs, l’idée d’avoir un symbole pour désigner le vide était vue comme un peu bizarre : les nombres étaient faits pour compter les choses alors s’il n’y avait rien à compter, à quoi bon adopter un signe ? On a bien trouvé certaines «formes» de zéro dans des documents antiques — les uns laissaient un espace vide, d’autres comme les Babyloniens mettaient une sorte de «symbole bouche-trou», voir ici : http://bit.ly/36Ls956 —, mais il faudra attendre que le mathématicien italien Fibonacci introduise les chiffres indo-arabes en Europe (autour de l’an 1200) pour que le zéro tel qu’on le conçoit aujourd’hui apparaisse en Occident.

Les années de l’«ère chrétienne» ont donc commencé par «1» et, de ce point de vue, Mme Boivin a entièrement raison : techniquement, il n’y a pas de décennie qui s’est terminée ou a commencé le 1er janvier dernier, la prochaine décennie ne débutera vraiment qu’en 2021. C’est d’ailleurs la position du Conseil national de la recherche : «le 3e millénaire et le 21e siècle ont commencé au même moment, à 00h00 le 1er janvier 2001», lit-on sur son site [http://bit.ly/2tJC4cO].

Sauf que les temps ont bien changé depuis que le moine Bède le Vénérable (672-735) a popularisé l'habitude de compter les années à partir de la naissance du Christ, qui était l'«an 1». L’usage du zéro est si universel et acquis chez nous que, culturellement, il nous semble beaucoup plus naturel de commencer les décennies avec un «chiffre rond», comme on dit. De ce point de vue, il n’y a pas grand-sens à rester prisonnier d’une erreur mathématique commise au Moyen-Âge, alors il est aussi défendable de considérer que les années 2020 ont commencé le 1er janvier dernier. Je ne crois pas qu’il ait vraiment de bonne ou de mauvaise réponse à cette question-là.

Jean-François Cliche
Sur ces fameux «pets» de vaches...

Science

Sur ces fameux «pets» de vaches...

SCIENCE AU QUOTIDIEN / «On s’inquiète de l’empreinte carbone des animaux, et particulièrement du bœuf. Mais ne devrait-on pas plutôt y voir un cycle? Les plantes captent le carbone dans l’air et les animaux, comme les vaches, mangent les plantes, puis vont retourner une partie du carbone dans leurs déjections et leur respiration, et le cycle va recommencer. Alors pourquoi les vaches seraient un problème? Comment pourraient-elle produire plus de carbone qu’elles n’en consomment?», demande André Rinfret, de Québec.

Si l’industrie bovine pèse plus lourd sur l’environnement que les autres sortes de viandes — qui, elles, pèsent plus lourd que l’alimentation végétale —, c’est en bonne partie parce que comparé aux autres animaux d’élevage, le bœuf convertit moins bien sa nourriture. D’après une étude parue récemment dans les Environmental Research Letters, pour produire 1 kg de viande (et autres parties comestibles), le bœuf doit manger autour de 36 kg de nourriture, alors que ce ratio est beaucoup moindre pour la volaille (4,2 pour 1) et le porc (6 pour 1). Et comme il faut les produire, ces moulées et ces bottes de foin, cela implique qu’à quantité de viande égale, il faut pas mal plus d’«intrants» (plus d’espace, plus d’engrais, plus de carburant pour la machinerie, etc.) pour le bœuf que pour les autres sortes de viande.

En outre, les bovins ont un système digestif particulier qui fermente la nourriture pendant longtemps. À cause de cela, ils n’émettent pas seulement du CO2, mais aussi du méthane (CH4) dans leurs éructations (et non dans leurs flatulences, comme on l’entend souvent), dont l’effet de serre est environ 30 fois plus puissant que le gaz carbonique. Alors les vaches ont beau ne pas rejeter plus de carbone qu’elles n’en consomment, elles en rejettent sous une forme qui est plus dommageable pour le climat.

Tout ça, ça fait une différence et on n’a pas le choix d’en tenir compte. Mais d’un autre côté, M. Rinfret  n’a pas complètement tort de dire que le carbone consommé par les bovins fait partie d’un cycle : éventuellement, le méthane finit par se retransformer en CO2. Cela prend du temps — des années, voir des décennies pour une petite partie — au cours duquel il empire le réchauffement planétaire, mais ce méthane-là faisait déjà partie du cycle du carbone, il ne vient pas s’y ajouter. Or le problème fondamental à la source du réchauffement climatique n’est pas tant le méthane additionnel (même s’il y contribue) que la combustion de pétrole, gaz naturel et charbon. Comme ceux-ci étaient enfouis sous terre depuis des centaines de millions d’années, leur carbone n’était plus en circulation depuis très longtemps, et les brûler vient ajouter du carbone au cycle.

Le cœur de l’affaire, il est surtout là.

* * * * *

«Est-ce que la sphéricité de la Terre explique au moins en partie pourquoi il fait plus froid aux pôles qu’à l’équateur. À cause de cette sphéricité, les pôles sont un peu plus loin du Soleil, dont les rayons doivent traverser une couche d’atmosphère plus épaisse avant d’arriver au sol, qu’ils frappent d’ailleurs à l’oblique. Ou est-ce surtout à cause d’autres facteurs, comme l’albédo ?», demande Yves Goudreault.

Les pôles sont en moyenne un rayon terrestre (6371 km) plus loin du Soleil que l’équateur. De plus, la Terre est inclinée de 23,5°, ce qui vient ajouter (ou enlever, selon la saison) jusqu’à 2500 km environ, pour un maximum de près de 9000 km. Or la distance Terre-Soleil est «dans une autre ligue», comme on dit : près de 150 millions de km. Alors le rayonnement solaire a beau diminuer avec le carré de la distance, ces quelque 9000 km de plus (en hiver) ne peuvent guère faire plus qu’une différence de l’ordre de 0,01 % — et encore, le Soleil ne se lève même pas aux pôles en hiver, alors en pratique ça ne change absolument rien. De toute évidence, la clef est ailleurs.

L’épaisseur de la colonne d’air traversée par les rayons joue un rôle. Mine de rien, à l’échelle de la planète, un peu plus de la moitié (53 %) du rayonnement solaire n’atteint jamais le sol, étant soit réfléchi, soit absorbé par l’atmosphère — et cette proportion est un peu plus élevée aux pôles.

Mais par-dessus tout, c’est l’angle avec lequel les rayons frappent le sol qui fait la différence. À l’équateur, ces rayons frappent presque parfaitement à la verticale alors qu’ils sont obliques aux pôles. On peut se représenter l’effet que cela a en imaginant une lampe de poche que l’on pointerait sur un mur. Si on pointe directement, la lumière aura une forme assez ronde. Mais si on lui donne un angle, alors la forme s’allonge. Cela implique que la même quantité de lumière doit maintenant éclairer une plus grande superficie — et c’est ce qui arrive avec le rayonnement solaire aux pôles. Si l’on ajoute à cela le fait que le Soleil ne se lève tout simplement pas en hiver aux hautes latitudes, cela signifie que les pôles reçoivent en moyenne (sur une année) moins de la moitié de l’énergie par mètre carré qui arrive l’équateur.

Et ce n’est pas tout : ce qu’il advient de ces rayons solaires une fois qu’ils touchent le sol est aussi important. La surface de la Terre réfléchit en moyenne 30 % du rayonnement, dont l’énergie est alors renvoyée vers l’espace. Mais un couvert de neige ou de glace réfléchit beaucoup mieux la lumière : plus de 80 % ! Voilà pourquoi il fait tellement plus froid aux pôles qu’à l’équateur.

Jean-François Cliche
La «naissance» de la gastro

Science

La «naissance» de la gastro

SCIENCE AU QUOTIDIEN / «Se pourrait-il que la «gastro» soit une maladie d’origine très récente ? À ma souvenance, ni le concept de «gastro» ni la réalité d’une telle maladie contagieuse n’existaient du temps de la Grande Noirceur, c’est-à-dire avant la Révolution tranquille. Personnellement, j’ai 75 ans et je ne l’ai jamais eue. Je n’ai vu personne l’avoir, même si j’ai fréquenté plusieurs collèges résidentiels ici ou là, suivis d’universités, séjours à l’étranger loin des tout-inclus, etc.», demande Léonce Naud, de Deschambault.

En fait, «ce n’est pas récent du tout : la gastroentérite est causée par des virus, des bactéries et des parasites qui existent depuis des centaines de milliers d’années», dit d’emblée Dr Jasmin Villeneuve, de l’Institut de la santé publique du Québec.

Tenez, en 1952, deux médecins d’un hôpital de Manchester, en Angleterre, écrivaient ceci dans la revue médicale Archives of Disease in Childhood :

«La gastroentérite infantile demeure encore une des problèmes les plus épineux de la pédiatrie. En 1945, les décès dus à la diarrhée et à l’entérite représentaient 11 % de la mortalité infantile totale. Les taux de mortalité ont continué de chuter [depuis le début du XXe siècle, ndlr] et, en 1948, 2304 enfants de moins d’un an, ou 2,88 par 1000 naissances vivantes, ont succombé à cette maladie en Angleterre et au Pays-de-Galles.» (Notons que c’est surtout la déshydratation provoquée par la diarrhée et les vomissements qui cause les décès.)

La gastro a été décrite pour la première fois en 1929 — sous le nom «maladie du vomissement hivernal» —, mais on peut mesurer à quel point elle a touché toutes les époques en consultant un article paru dans la revue savante Alimentary and Pharmacology Therapeutics, qui retrace l’histoire des traitements de la gastro. Ainsi l’expression d’origine anglaise «avoir du guts» remonterait au XIXe siècle, quand la diarrhée faisait des ravages parmi les militaires et en empêchait beaucoup, ceux qui n’avaient pas les intestins assez «solides», de monter au front. Un code d’éthique militaire de la Guerre civile américaine (1861-1865) interdisait même «de tirer sur les hommes qui sont en train de répondre à l’appel urgent de la Nature» !

Et pour tout dire, on trouve même des descriptions de la gastroentérite «d’une précision étonnante» dans les écrits le célèbre médecin de la Grèce antique Hippocrates (460-370 av. J-C.), s’émerveillaient récemment deux chercheurs dans une revue médicale.

Alors pourquoi des gens comme M. Naud n’en auraient jamais entendu parlé pendant leur jeunesse ? Il semble clair pour le Dr Villeneuve que les niveaux de sensibilisation de l’époque n’étaient pas ceux d’aujourd’hui, tant chez le personnel médical que dans la population en général. «Dans les années 60, on n’allait consulter le médecin que quand c’était vraiment très grave», dit Dr Villeneuve.

Dans le même ordre d’idée, rappelons qu’à cette époque un peu tout le monde allait se baigner dans le fleuve Saint-Laurent malgré une contamination bactériologique qui interdirait toute baignade de nos jours. Imaginez, à la plage de l’Anse au Foulon, une des plus populaires à Québec dans les années 70, les comptes de bactérie pouvaient atteindre 2000 à 3000 «unités formant des colonies» par 100 ml (ufc/100 ml, c’est la manière «classique» de mesurer la concentration de bactéries dans l’eau) alors que la norme actuelle pour la baignade est de 200 ufc/100 ml au maximum.

À cet égard, dit Dr Villeneuve, «il y a une théorie qui dit que l’exposition fréquente aux agents pathogènes fait qu’on finit par développer une sorte d’immunité. Ça peut varier d’un individu à l’autre, mais si les gens étaient plus exposés dans le temps, peut-être que leurs symptômes étaient moins sévères qu’aujourd’hui. Et comme on oublie plus facilement les maladies bénignes qu’on a eues que les fois où on était cloué au lit pendant des jours, on peut imaginer que des gens [de cette époque] auraient oublié leurs gastros parce que ça ne les rendait pas très malades. Mais la gastro n’en existait pas moins, c’est sûr».

Une autre possibilité, pourrait-on ajouter, est que la gastro est une sorte de «maladie générique» qui en recouvre plusieurs. Comme l’a dit Dr Villeneuve en début d’article, elle être causée par bien des microbes différents, ce qui peut aussi lui faire porter bien des noms différents. Ainsi, l’infection alimentaire fréquente nommée salmonellose, qui doit son nom à la bactérie en cause (salmonelle), est souvent considéré comme une forme de gastroentérite, puisque ses symptômes sont semblables. La dysenterie est elle aussi une un type de gastro, qui est connu depuis longtemps d’ailleurs — l’empereur byzantin Constantin IV, par exemple, en est mort en l’an 685. Et c’est sans compter d’autres noms que la maladie a pu porter dans le passé, comme «grippe d’estomac».

Bref, s’il demeure possible que M. Naud ait un système immunitaire exceptionnel qui l’a protégé de la gastro toute sa vie durant (c’est la grâce qu’on lui souhaite), on peut aussi raisonnablement penser qu’il en a eu quelques unes pendant sa jeunesse, mais qu’elles n’étaient pas appelées de cette manière. Soulignons à cet égard que le microbe le plus souvent derrière les cas de gastro, soit les norovirus, n’ont été identifiés qu’à la suite d’une éclosion particulièrement sévère dans une école primaire de Norwalk, en Ohio… en 1968.

Jean-François Cliche
Pas de consanguins chez les épinettes

Science

Pas de consanguins chez les épinettes

SCIENCE AU QUOTIDIEN / «Lorsque qu’on parle de planter 2 milliards d’arbres comme l’a promis Justin Trudeau pendant la dernière campagne fédérale, ou même plus simplement de reboiser un grand territoire comme l’industrie forestière le fait, est-ce que cela soulève des enjeux particuliers de génétique ? Est-ce qu’on peut ou doit s’assurer que ces arbres ne soient pas tous «cousins» ?», demande Joël-Étienne Myre, de Saint-Ambroise.

Vues par des mammifères comme nous, les plantes peuvent sembler un peu (pas mal) bizarres, sinon carrément dévoyées, du point de vue de la reproduction. Imaginez un peu, non seulement elles sont capables de fertiliser de proches parents, mais plusieurs espèces ont la faculté de s’auto-féconder : puisque chaque plante possède à la fois des gamètes mâles et des gamètes femelles, chez certaines espèces les individus n’ont théoriquement pas besoin d’être deux pour se reproduire. Les parties mâles et femelles d’un même spécimen peuvent s’assembler et produire alors, littéralement, des clones.

Cette faculté a ses avantages, disons-le. Dans ce grand jeu de massacre qu’on appelle la sélection naturelle, le but ultime est toujours de transmettre autant de ses gènes que possible aux générations futures. Or ceux qui s’accouplent à deux ont une progéniture qui ne partage que 50 % des gènes de chaque parent, alors que c’est 100 % pour les individus qui s’autofécondent. En outre, cela «libère» ces derniers des pollinisateurs, ce qui peut être utile quand les insectes se font rares. Sur le plan de l’évolution, ce n’est pas rien !

Mais il n’empêche : «se débrouiller tout seul», pour ainsi dire, vient aussi avec des inconvénients, et des gros. À long terme, dans la nature, c’est toujours la diversité qui l’emporte, parce que plus il y a de différences au sein d’une population, plus il y a de traits qui peuvent conférer un avantage, une protection contre une maladie, etc. — et c’est comme ça qu’une espèce finit par s’adapter et se perpétuer.

Pour cette raison, beaucoup de plantes ont fini par produire des gamètes mâles et femelles qui, chez un même individu, sont complètement ou partiellement incompatibles entre elles : les individus qui s’auto-fécondent produisent des graines stériles et/ou des rejetons faiblards ayant peu de chance de survivre et de se reproduire à leur tour. «Pour la consanguinité, c’est le même principe pour les humains et pour les arbres : au bout de deux ou trois générations, on a des problèmes de vigueur», dit le chercheur en génomique forestière de l’Université Laval Jean Bousquet.

Le Service canadien des forêts (SCF) l’a d’ailleurs testé concrètement au début des années 1960, en «forçant» une vingtaine d’épinettes blanches à s’auto-féconder. Résultats : plus de 90 % des graines produites étaient «vides», soit un taux entre 5 et 22 fois plus élevé que pour la pollinisation «croisée» (à deux individus). De plus, les rares graines viables germaient moins bien et celles qui y parvenaient malgré tout avaient des taux de survie moindres que les semis croisés — même si tous avaient été cultivés dans les mêmes conditions. En bout de ligne, le SCF a tout de même obtenu des épinettes blanches matures, mais les effets de l’auto-pollinisation ne sont jamais disparus : au bout de 17 ans, les spécimens avaient en moyenne une taille 45 % plus courte et des troncs d’un diamètre 64 % plus étroit que les individus «normaux», provenant du croisement d’arbres non-apparentés.

Alors oui, souligne M. Bousquet, il y a bel et bien des «enjeux génétiques» dont il faut tenir compte quand on plante de grandes quantités d’arbres. D’une part pour assurer la diversité génétique de la population, mais aussi pour que les semis soient aussi bien adaptés que possible à la région où ils seront plantés. C’est la raison pour laquelle les choix de graines pour le reboisement sont très encadrés.

«Bon an mal an, indique le chercheur, il se plante au-delà de 600 millions d’arbres au Canada, alors c’est déjà pas mal plus que les 2 milliards sur 10 ans qu’a promis Justin Trudeau. (…) Au Québec, on en plante autour de 125 à 130 millions par année. Ça ne remplace pas toutes les coupes, mais quand même une assez bonne partie, et on espère que le reste va repousser tout seul.»

Ces semis proviennent de pépinières industrielles, dit-il, et «il y a un très fort contrôle qui est exercé sur la production pour qu’ils soient exempts de maladie, d’abord, mais aussi pour avoir un bon mélange d’espèces, une bonne diversité génétique et des arbres bien adaptés au climat où ils seront plantés. Il y a même un système de certification pour ça (…) et ils ont même des marqueurs génétiques pour vérifier que la diversité génétique est suffisante. Dans ces semis-là, la consanguinité est à peu près au même niveau que dans les forêts naturelles, donc de l’ordre de 1%».

On trouve de ces pépinières dans à peu près toutes les régions du Québec et elles cultivent des graines d’arbres de leurs environs, ce qui permet de s’assurer que non seulement les espèces sont les mêmes, mais que l’on a affaire à des souches qui sont adaptées au climat local. Le contraste avec la situation qui prévaut en horticulture ornementale montre d’ailleurs très bien pourquoi il est important de ne pas planter n’importe quoi, souligne M. Bousquet.

«En horticulture, il n’y a pas vraiment de certification ni de contrôle sur ce que vous plantez, déplore-t-il. On va vous vendre un cultivar avec un nom souvent évocateur, mais même les gens qui vous le vendent ne peuvent pas vraiment vous dire d’où il vient. Souvent, ces graines et semis-là viennent des États-Unis ou de la région de Niagara et sont mal adaptés à notre climat. On voit beaucoup de ces petites épinettes qui viennent de l’Oregon et qui vont sécher tout d’un coup, parce qu’il a fait trop froid ou parce que l’hiver est arrivé trop tôt. (…) C’est un peu comme du McDo : on plante, ça dure 5-10 ans, puis on replante après.»

Jean-François Cliche
L’acte de naissance de la climatologie

Science

L’acte de naissance de la climatologie

SCIENCE AU QUOTIDIEN / «On ne parle plus de changements climatiques, mais d’urgence climatique déclarée par le GIEC [Groupe intergouvernemental d’experts sur le climat, ndlr]. Or leurs calculs sont basés sur des mesures remontant au début du XXe siècle et même à 1850, en pleine Révolution industrielle. Et on parle ici de mesures pour la planète entière. Mais depuis quand pouvons-nous mesurer précisément la température de la planète ? Et comment pouvons-nous être sûrs que nos comparaisons avec les époques précédentes sont fiables ?», demande Bertrand Bouchard, de Beauport.

Mesurer le temps qu’il fait à l’échelle de la Terre n’est pas une mince tâche. D’après l’Organisation météorologique mondiale, on peut compter de nos jours sur un «réseau» mondial de pas moins de 10 000 stations météo «de surface» (au sol), 1000 stations dans les airs, autant de bouées dérivantes en mer et une centaine de bouées fixes, sans compter les données recueillies par des centaines de radars météo, quelque 7000 navires et 3000 avions commerciaux, de même que 16 satellites météorologiques et une cinquantaine de satellites de recherche. Mais il n’en a évidemment pas toujours été ainsi.

L’invention du thermomètre remonte autour de l’an 1600, et il n’a pas fallu grand-temps avant qu’on s’en serve pour faire de la météo. La plus ancienne série de mesures de température prises quotidiennement (et même plusieurs fois par jour) que l’on connaisse a débuté en Angleterre en 1659 — et elle est toujours active à ce jour ! On y voit d’ailleurs assez clairement une tendance au réchauffement, mais elle souffre de deux problèmes majeurs. Le premier, c’est que comme toutes les autres mesures météorologiques, elle ne vaut que pour une région particulière, le centre de l’Angleterre dans ce cas-ci. Pas moyen de déduire une température moyenne pour le globe au complet à partir de ça (j’y reviens).

Le second problème, c’est que ces mesures n’ont pas toutes été prises au même endroit et de la même manière, mais sont plutôt une collection de séries maintenues par des amateurs (il n’y avait pas de «pros», à l’époque), indépendamment les uns des autres. Le pionnier britannique de la climatologie Gordon Manley (1902-1980) les a toutes mises ensemble et a tant bien que mal comblé des «trous» là où les séries ne se chevauchaient pas. Et même quand elles se chevauchaient, on les considère comme peu fiables jusque autour de 1770 — avant cela, la norme était de placer les thermomètres non pas dehors, mais à l’intérieur, dans des pièces non chauffées, ce qui les rendait moins sensibles aux changements de la «vraie» température extérieure.

Les problèmes de ce genre étaient d’ailleurs répandus à l’époque. Dans un fascinant article sur les débuts de la météorologie au Québec, la chercheuse de McGill Victoria Slonosky note elle aussi que jusqu’à la fondation du Service météorologique du Canada en 1871, les seules séries de mesures dont on dispose étaient surtout des initiatives individuelles de qualité variable. Leurs séries ne se chevauchent pas toutes (entre les mesures du naturaliste Jean-François Gauthier, au milieu du XVIIIe siècle, et celles du Britannique Alexander Spark, il y a un trou de près de 50 ans !), les mesures ne furent pas toutes prises de la même manière ni aux mêmes heures, etc. En outre, ce n’est pas avant le milieu du XIXe siècle que l’usage d’abris à thermomètre (pour les protéger de l’influence des vents et de l’exposition directe au soleil) ne s’est vraiment généralisé, note Mme Slonosky.

Mais quand même : avec le temps, non seulement les techniques se sont améliorées et standardisées, mais le nombre de stations météorologiques a également explosé, un peu partout dans le monde. Si bien que quelque part entre le milieu et la fin du XIXe siècle, la température a commencé à être mesurée de manière suffisamment fiable et sur une superficie suffisamment grande pour que, aux yeux des climatologues, l’on puisse en tirer une moyenne planétaire satisfaisante.

Certains disent que les incertitudes demeurent trop grandes avant 1880, d’autres «osent» se rendre jusqu’aux années 1850. Dans tous les cas, ce n’est ni parfait, ni aussi précis et complet que les mesures que l’on prend maintenant. Comme le montre la carte ci-dessous, il restait encore de vastes zones d’ombre où l’on n’avait très peu, sinon pas du tout de mesures — notamment les pôles, le bassin versant de l’Amazone et de grands pans d’Afrique. Mais dans l’ensemble, les climatologues considèrent qu’à partir de la fin du XIXe siècle, on a assez de données prises dans assez d’endroits pour donner une idée raisonnablement précise de la température mondiale.

Jean-François Cliche
La baie d’Hudson, cimetière des marées

Science

La baie d’Hudson, cimetière des marées

«SCIENCE AU QUOTIDIEN / «L'année dernière, des collègues qui étaient au Nunavik, sur le bord de la baie d’Hudson, m’ont demandé de leur fournir l’heure de la prochaine marée haute pour planifier leurs travaux. Mais en arrivant sur le site de Pêches et Océans Canada, j’ai été un peu mystifiée. J’ai l’habitude de voir quatre marées par jour, à intervalle assez régulier. Or, dans le graphique des marées, l’oscillation n'était pas régulière et même qu’à certains moments, il semble n’y avoir que deux marées par jour. Le même phénomène semble prévaloir pour tout l’est de la baie d’Hudson. Avez-vous une explication ?», demande Christine Lambert, qui travaille en aménagement de la faune à Rimouski.

Quiconque observera les graphiques ci-contre, qui présentent les marées sur 7 jours à Québec et à Akulivik, se rendra tout de suite compte que la marée n’y fonctionnent pas du tout de la même manière. Dans la Vieille Capitale, le niveau de l’eau monte et descend avec la régularité d’une horloge, littéralement. Mais sur la côte est de la baie d’Hudson, c’est une tout autre histoire : certains jours, la marée semble «coller» à la hausse pour ensuite redescendre brièvement, d’autres jours elle semble carrément chaotique, et d’autres jours encore elle prend un rythme plus normal.

Vraiment, si le village d’Akulivik était une personne et que son graphique des marées étaient un électrocardiogramme, son médecin l’enverrait directement à l’urgence…

Cela peut paraître très étonnant puisque l’on entend souvent que les marées sont dictées par la gravitation de la lune et du soleil. Et c’est tout à fait vrai, dit Denis Lefaivre, chercheur en prévisions océaniques à Pêches et Océans Canada : «L’influence de la lune est à peu près deux fois plus forte que celle du Soleil, c’est pour ça qu’on a deux cycles de marée par jour.» Un cycle quand la lune est de «notre» côté de la Terre et qu’elle attire l’eau, et un autre quand elle est du côté opposé — ce qui, contrairement à ce qu’on penserait intuitivement, donne alors une marée haute parce que la lune attire la Terre et que les océans de l’autre côté de la planète restent à la traîne, un peu comme l’eau qui s’accumule à l’arrière d’un contenant quand on le tire vers soi.

Bref, la gravitation de la lune et du soleil sont le «moteur» qui fait monter et descendre le niveau des océans. À cet égard, d’ailleurs, la marée et les voitures sont assez comparables. Le moteur a, en effet, une grande influence sur l’expérience de conduite, mais celle-ci dépend également d’une foule d’autres facteurs très locaux, comme l’endroit où on va, la météo à cet instant précis, le fait de rouler sur de l’asphalte ou de la gravelle, etc. Et il en va de même avec les marées, qui ne se manifestent pas partout de la même façon parce qu’au-delà de leur «moteur», plusieurs facteurs locaux vont agir dessus, comme la forme des côtes, la profondeur de l’eau, la bathymétrie (soit le «relief» des fonds marins), etc.

Or dans le cas de la baie d’Hudson et en particulier de la côte du Nunavik, ces facteurs-là sont particulièrement nombreux, influents et complexes. Les marées, comme on l’a déjà vu dans cette rubrique, sont des ondes qu’on peut se représenter comme des sortes de «vagues» pas très hautes (quelques dizaines de centimètres de haut) mais qui s’étendent sur des milliers de kilomètres, et qui se déplacent d’est en ouest. Comme toutes les vagues, l’onde de marée peut être bloquée, déviée ou déformée par les obstacles qu’elle rencontre. Et quand elle arrive dans l’Arctique canadien, la marée se heurte justement à deux obstacles importants : la côte du Labrador et l’île de Baffin.

Le seul endroit où cette «vague» peut passer est le détroit d’Hudson, à la pointe nord du Québec — et encore ce passage de 70 km à 100 km n’est pas très large à l’échelle d’une marée. Cela a pour effet de «concentrer» l’onde, ce qui amplifie beaucoup les marées dans ce secteur (de même que dans la baie d’Ungava). Par exemple dans le village inuit de Kangiqsujuaq, du côté québécois du détroit d’Hudson, la différence entre la marée basse et la marée haute est considérable : pas moins de 6 à 7 mètres ces jours-ci [http://bit.ly/336qogc]. Cela provoque aussi des «courants de marée» particulièrement forts dans le détroit, pouvant atteindre de 10 à 15 km/h. L’explorateur anglais John Davis, qui est passé par là en 1587, a d’ailleurs noté dans son journal de bord qu’«à notre grande admiration, nous avons vu l’océan tomber dans [la baie d’Hudson] comme un grand déversoir, rugissant et créant des tourbillons comme le courant d’une rivière qui force son chemin entre les piliers d’un pont» [http://bit.ly/2qBK2n6].

Ce qui se passe ensuite est encore plus singulier. La marée ne monte pas partout dans la baie en même temps, mais monte d’abord dans le nord-ouest, sur les côtes du Nunavut, pour ensuite descendre vers le sud (la côte manitobaine) et éventuellement revenir vers l’est et, finalement, le nord. Bref, l’onde ne peut pas poursuivre sa route vers l’est et est redirigée par les berges.

Chemin faisant, note M. Lefaivre, elle perd beaucoup de son énergie par friction. «Comparé au Golfe du Saint-Laurent, dit-il, la baie d’Hudson est trois fois plus grande mais elle est moins profonde.» L’onde s’amenuise donc au fond et sur les berges, si bien qu’il n’en reste plus grand-chose une fois rendu à Akulivik — où son amplitude varie d’ailleurs de seulement 10 à 30 cm, selon le moment du mois. «Et je peux même vous dire qu’en hiver, quand la glace fige et que le couvert est complet, il n’y a presque plus de marée là parce que la friction se fait alors non seulement par le fond, mais par la surface aussi», ajoute M. Lefaivre.

Ce qui se passe concrètement dans chacun des villages du Nunavik hudsonien peut varier selon les conditions locales — il y a une grande île en face d’Akulivik, Puvirnituq est au fond d’une baie, Inukjuak est au fond d’une baie plus petite et «protégée» par un chapelet d’îles, etc. —, ce qui rend la chose difficile à expliquer concrètement ici. Mais comme l’explique M. Lefaivre, nous sommes devant un système où «les résonances [ndlr : des facteurs qui, selon le moment du mois, vont se conjuguent ou s’annuler] sont fortes» et complexes, ce qui donne des marées en apparence capricieuse, ou du moins très changeantes.

+

Jean-François Cliche
Non, la pilule contraceptive ne cause pas l’autisme

Science

Non, la pilule contraceptive ne cause pas l’autisme

SCIENCE AU QUOTIDIEN / «J’aimerais savoir si des études sérieuses ont déjà été faites concernant la pilule contraceptive et le grand nombre d’enfants autistes que nous observons depuis plusieurs années. La comparaison avec les décennies antérieures est inquiétante. Alors est-ce que le fait d’avoir déréglé le cycle des femmes depuis les 50 dernières années est en partie responsable de ce phénomène ?», demande Bernard Boucher, de La Tuque.

En 2000-01, l’Institut de santé publique du Québec comptait environ 0,7 autiste pour chaque tranche de 1000 enfants de 1 à 17 ans. En 2014-15, le même INSPQ en comptait près de 5 par 1000. Aux États-Unis, les niveaux sont plus élevés parce que la méthodologie diffère, mais la tendance est la même : l’Oncle Sam est passé de 7 autistes par 1000 enfants en 2000 à presque 17 par 1000 en 2014.

Il est absolument indéniable qu’il y a beaucoup plus de diagnostics d’autisme qu’avant, tout le monde s’entend là-dessus. Mais si l’on me permet un euphémisme de calibre olympique, disons que l’idée de mettre la faute de la pilule contraceptive, elle, ne rallie pas autant de gens…

En fait, il semble n’y avoir eu qu’un seul chercheur qui ait lancé cette hypothèse à deux reprises dans la revue Medical Hypotheses, en 2014 et en 2015, constatent les spécialistes de l’autisme Isabelle Soulières, de l’UQAM, et Baudouin Forgeot d’Arc, de l’UdeM. Il s’agit, précise ce dernier, d’une revue «qui accueille volontiers des idées très spéculatives», et l’auteure en question admet elle-même qu’il n’existe pas d’étude à ce sujet.

Hormis ces deux articles, «je ne crois pas avoir jamais vu d’étude là-dessus ni entendu qui que ce soit parler de ça dans des congrès», ajoute Mme Soulières.

Et ce silence n’est pas très étonnant, quand on y pense. D’abord, au fondement même de ce lien contraception-autisme, il y a quelque chose qui ne fonctionne tout simplement pas : les dates. Les premières observations que des fortes doses de progestérone empêchaient l’ovulation remontent aux années 30 chez des animaux de laboratoire. Le contexte légal de l’époque, qui interdisait la contraception et la recherche à son sujet, a repoussé le premier essai clinique de pilule contraceptive jusqu’en 1954 — et encore, il fut réalisé à Porto Rico. L’usage de «la pilule» commença a se répandre vers 1960, mais d’abord sous couvert de «régulariser» les menstruations car le contrôle des naissances ne fut vraiment légalisé qu’à la fin des années 60 au Canada et aux États-Unis. La démocratisation de la pilule prit véritablement et définitivement son envol à partir des années 70, d’après un texte paru dans Canadian Family Physician en 2012 — et dont la lecture est absolument fascinante, je dois dire.

Si vraiment la contraception orale était une cause un tant soit peu importante d’autisme, alors la hausse des cas devrait remonter aux années 70, ou au plus tard aux années 80. Or comme on l’a vu plus haut, l’explosion des diagnostics a plutôt débuté autour de l’an 2000. Et l’incohérence est d’autant plus forte, ajoute Mme Soulières, que les doses d’hormones étaient beaucoup plus élevées dans le passé qu’elles ne le sont de nos jours. La première pilule contraceptive mise sur le marché, la poétiquement nommée Enovid 10, contenait 9,85 milligrammes (mg) de progestérone synthétique et 150 microgrammes (µg) d’œstrogène, mais il est rapidement apparu que de telles doses produisaient trop d’effets secondaires. Par comparaison, les doses d’aujourd’hui tournent plus autour 0,1 à 3 mg de progestérone et entre 20 et 50 µg d’œstrogène. Alors si la pilule était une cause d’autisme, la tendance à la hausse aurait dû être compensée au moins en bonne partie, sinon carrément inversée, par la réduction du dosage.

Et c’est sans compter le fait que pratiquement toutes les études sur les causes de l’autisme indiquent qu’il s’agit d’un phénomène très principalement génétique. Une revue des études de jumeaux, qui visent à mesurer la part que jouent les gènes et l’environnement, a constaté en 2016 qu’entre 64% et 91% de l’autisme était «hérité» des parents. D’autres études récentes sur la même question ont elles aussi conclu que l’autisme est génétique à environ 80 %. Alors il est impossible que des facteurs environnementaux n’expliquant que 20 % du phénomène multiplient par 7 la fréquence de l’autisme, comme on l’a vu au Québec depuis 2000 — et c’est encore plus invraisemblable si l’on parle d’un seul de ces facteurs environnementaux, car la contraception n'en serait qu'un parmi d'autres.

Alors, si ce n’est pas l’environnement et que les gènes de grandes populations dans plusieurs pays ne peuvent pas changer tous en même temps en seulement quelques années, comment expliquer la hausse fulgurante de l’autisme depuis 20 ans ? La recherche n’a pas trouvé toutes les réponses encore, mais les preuves s’accumulent autour de l’idée qu’il s’agit de simples changements dans les diagnostics et le dépistage. Au fil du temps, la définition de ce qu’est l’autisme a été élargie et inclut désormais beaucoup plus de gens que dans les années 80 et 90. En outre, ajoute Mme Soulières, «il y a 20 ans, les milieux de l’éducation ne savaient pas c’était quoi, l’autisme, et n’alertaient pas la famille, alors que maintenant, les éducatrices, les profs, les psychoéducatrices et même le personnel des CLSC sont beaucoup plus à l’affût. Ces gens-là pensent plus facilement à l’autisme qu’avant quand le parent arrive et dit : mon enfant ne parle pas encore, mon enfant fait des crises, etc.»

D’ailleurs, pas plus tard qu’en août dernier, une équipe internationale dont Mme Soulières faisait partie a publié un article dans le Journal of the American Medical Association – Psychiatry qui a recensé les études sur l’autisme parues entre 1966 et 2019, afin d’examiner plus particulièrement les différences (capacité à reconnaître les émotions, taille du cerveau, etc.) entre ceux que les chercheurs considéraient autistes et ceux qui étaient rangés du côté des «normaux» ou «neurotypiques». Et les résultats ont montré que plus le temps avançait, plus la différence entre «autistes» et «non-autistes» s’amenuisait — ce qui suggère fortement que les diagnostics d’autisme incluent désormais beaucoup plus de gens qu’avant.

Jean-François Cliche
Comment remplir ses épaulières

Science

Comment remplir ses épaulières

SCIENCE AU QUOTIDIEN / «Depuis plusieurs années, on entend parler de jeunes hockeyeurs professionnels de 18, 19 ou 20 ans qui augmentent leurs poids en l’espace d’un été, en prenant uniquement des produits légaux. J’ai toujours été surpris de les entendre affirmer qu’ils doivent prendre du poids pour ainsi être prêt au camp d’entrainement de septembre, puis annoncer fièrement qu’ils ont augmenté leur masse musculaire d’une dizaine de livres pendant l’été. L’entrainement physique et les suppléments alimentaires légaux suffisent-ils vraiment pour obtenir de tels résultats?», demande Bernard Plourde, de Québec.

De manière générale, non, prendre 5 à 8 kilogrammes (10-15 livres) en l’espèce de deux ou trois mois n’est pas possible, répondent Jonathan Tremblay, spécialiste de l’encadrement des athlètes de haut niveau de l’Université de Montréal, et Anthony Karelis, qui mène des recherches sur l’exercice physique et le métabolisme à l’UQAM. Tous deux s’entendent pour dire qu’un athlète sérieux, qui s’entraîne plusieurs fois par semaine et se nourrit adéquatement (lire : bien et beaucoup), peut prendre autour de 0,5 à 1 kilo par mois (1 à 2 livres), sans plus.

«Si on parle de 10 ou 15 livres en deux mois, alors là je soupçonnerais qu’il peut y avoir eu des substances interdites qui ont été prises», dit M. Tremblay. Mais attention avant de sauter aux conclusions, avertit-il, car la période sur laquelle la prise de poids d’un athlète professionnel s’étale n’est pas toujours bien connue du public, ce qui peut faire partir le «moulin à rumeurs» inutilement. Le cas du joueur de centre des Canadiens de Montréal Jesperi Kotkaniemi a été évoqué récemment parce que le jeune homme, âgé de 19 ans, s’est présenté cet automne au camp d’entraînement avec une dizaine de livres de plus que l’année précédente. De là, plusieurs internautes et commentateurs ont conclu qu’il avait dû se muscler la charpente au cours de l’été, alors que c’est plutôt sur un an qu’il a pris ce poids — et M. Tremblay en sait quelque chose puisqu’il travaille avec l’équipe.

La règle générale en cette matière, dit pour sa part M. Karelis, c’est que «c’est très difficile d’ajouter de la masse musculaire. Si on parle de quelqu’un qui s’entraîne quatre ou cinq fois par semaine, alors oui, ça devient réaliste de penser gagner une ou deux livres par mois peut être réaliste».

Et encore, ajoute son collègue de l’UdeM, «il faut que la nutrition soit adéquate, sinon l’athlète ne prend pas de poids. (…) C’est important que l’alimentation soit riche en protéines, que les repas soient pris aux bons moment, généralement autour des entraînements avec une portion avant le sommeil (souvent double), etc.» Bref, pour atteindre le rythme de 1 kg par mois, non seulement il faut s’entraîner dur, mais l’alimentation devient pratiquement un travail à elle seule. «Il faut le planifier, il faut manger tout ça, ça prend du temps», dit M. Tremblay.

Pour M. et Mme Tout-le-Monde qui n’ont pas le temps de manger ni de s’entraîner autant que des athlètes professionnels, les gains en masse musculaire tournent souvent plus autour de 1 kg par six mois, dit M. Karelis — mais il peut y avoir de grands écarts individuels, dûs notamment aux gènes et au profil hormonal de chacun.

Alors pourquoi est-ce à ce point difficile de gagner de la «masse maigre», comme disent les nutritionnistes (parce qu’on s’entend que pour la «masse grasse», c’est pas mal moins compliqué) ? On n’a pas encore de réponse complète et définitive, dit M. Karelis. Mais une hypothèse probable est que certains mécanismes d’«économie d’énergie» hérités de lointains ancêtres pourraient être à l’œuvre. «Si on regarde la chose à l’inverse, il ne semble pas y avoir de saturation pour les gras, explique-t-il. Le corps en veut, il «aime» consommer de la nourriture et les tissus adipeux peuvent stocker des graisses presque sans limite. Le muscle, lui, fait le contraire : il n’emmagasine pas d’énergie, il en dépense. Même quand on est au repos, les muscles dépensent de l’énergie, alors plus ta masse musculaire est grosse, et plus ton métabolisme de base (ndlr : la quantité d’énergie que le corps dépense lorsqu’il est au repos complet, juste pour respirer, faire battre le cœurs, faire fonctionner les organes, envoyer des signaux nerveux, etc.) va augmenter. Alors s’il est à ce point difficile de gagner de la masse musculaire, c’est peut-être une question de survie : le corps veut consommer et stocker, pas dépenser.»

Enfin, M. Tremblay indique que ce n’est habituellement pas uniquement du muscle que les athlètes prennent dans un premier temps. «Habituellement, ça va leur prendre une diète riche en calories et ça, ça fait gagner d’un peu de tout : du muscle, bien sûr, mais aussi de l’eau et des graisses. (…) Souvent, on va d’abord chercher à juste leur faire gagner du poids en premier, et ensuite on va travailler à convertir ça en muscles», dit-il.

Jean-François Cliche
Dix milliards de générations avant nous

Science

Dix milliards de générations avant nous

SCIENCE AU QUOTIDIEN / Dans le livre de David Suzuki L'Équilibre sacré, il est mentionné : «toutes les formes de vie présentes aujourd’hui sur la planète descendent d’une même cellule, née dans les océans voilà peut-être 3,8 milliards d’années». Je trouve cette information vraiment extraordinaire. J’aimerais savoir si elle est acceptée par tous les scientifiques du domaine. Pourriez-m’en dire un peu plus ?», demande Daniel Mercier.

Si l’on remonte dans le temps, on finira par arriver à l’époque où les premiers Homo sapiens modernes sont apparus, il y a environ 150 000 ans. Tous les humains actuels, absolument tous, descendent de cette petite population qui vivait en Afrique — c’est ce que l’on nomme notre «dernier ancêtre commun», ou DAC pour faire court. Si l’on remonte encore plus loin, on tombe éventuellement sur un ancêtre commun non seulement à toute l’humanité mais aussi au chimpanzé, soit un primate qui vivait il y a 6 à 7 millions d’années. Encore un peu plus loin, à environ 8 millions d’années (Ma) avant nos jours, et on arrive à un ancêtre commun à l’humanité, au chimpanzé et au gorille [https://go.nature.com/34hhmxR].

Et ainsi de suite : plus on remonte dans le passé, plus la «famille» s’agrandit. À 100 millions d’années avant aujourd’hui, par exemple, vivait un petit animal semblable aux rongeurs actuels duquel descendent tous les mammifères [https://go.nature.com/2WsAkyO]. Plus loin encore dans le passé, on finit par obtenir un «arbre généalogique» qui inclut tous les animaux, poissons et invertébrés inclus. Et pour tout dire, nous avons aussi un DAC (il y a 1,5 à 2 milliards d’années) avec toutes les plantes et les champignons puisque nos cellules partagent plusieurs caractéristiques avec les leurs — noyau cellulaire où est conservé l’ADN, un cytosquelette qui sert de «charpente» à la cellule, ainsi que différentes structures spécialisées qui remplissent des tâches semblables tant chez les plantes que chez les animaux. Ensemble, ces êtres forment une immense famille appelée eukaryotes, du grec «vrai noyau».

On connaît seulement deux autres «grandes familles» de la sorte sur Terre : les bactéries et les archées (des unicellulaires qu’on a longtemps rangés avec les bactéries mais qui sont en réalité très, très différents). Toutes les formes de vie connues appartiennent à l’un ou l’autre de ces trois ensembles. Et oui, les scientifiques pensent que malgré leurs énormes différences, toutes ces formes de vie partagent bel et bien un ancêtre commun.

Une des preuves les plus fortes que nous descendons tous de la même cellule (ou de la même colonie de cellules) est le «code génétique». Les gènes, comme on l’a déjà vu dans cette rubrique, sont essentiellement des «recettes de protéine». Et une protéine, c’est une chaîne de molécules nommées acides aminés, dont il existe une vingtaine de sortes différentes. Pour que la protéine remplisse son rôle, la chaîne d’acides aminés (qui peut avoir plusieurs centaines de «maillons» de long !) doit être assemblée dans un ordre exact, faute de quoi elle n’aura pas les bonnes caractéristiques physico-chimiques.

C’est cette information (l’ordre d’assemblage des acides aminés) que les gènes conservent. Et c’est pour cette raison que l’ADN est lui aussi une molécule faite comme une chaîne.

Or que vous soyez un primate, un insecte, un arbre ou une bactérie, cette information est stockée de la même manière. La chaîne de l’ADN est toujours composée des quatre mêmes sortes de maillon, que les généticiens désignent par les premières lettres du nom chimique — soit A, C, G et T pour adénine, cytosine, guanine et thymine. D’un bout à l’autre de la vie terrestre, la cellule «lit» la chaîne de la même façon, soit trois maillons à la fois (on appelle ça des codons). De la plus humble bactérie jusqu’aux cellules humaines, les mêmes combinaisons de trois «maillons» correspondent aux mêmes acides aminés, et les mêmes combinaisons indiquent l’endroit du génome où la «recette de protéine» commence et celui où elle se termine.

Il peut y avoir plus d’une combinaison qui désigne la même chose puisque ce système permet 64 trios différents alors qu’il y a seulement 20 acides aminés (plus les codons «début» et «stop»), mais le code est essentiellement le même pour tous les êtres vivants. Par exemple, les combinaisons AAG et AAA correspondent à un acide aminé nommé lysine pour toutes les cellules — les nôtres, celles des plantes, les bactéries et archées, toutes. De même, les codons TAG, TAA et TGA signalent toujours la fin de la «recette» chez toutes les formes de vie connues.

En outre, les mécanismes par lesquels cette information est utilisée sont les mêmes dans toutes les cellules. Les organismes génétiquement modifiés (OGM) en sont d’ailleurs de belles illustrations. Par exemple, les fameuses semences de maïs «RoundUp Ready» sont conçues pour résister à un puissant herbicide, le glyphosate, qui détruit pratiquement toutes les plantes. Mais on a introduit dans le maïs OGM un gène de bactérie qui code pour une protéine qui contrecarre l’action du glyphosate — le gène en question a été découvert dans les années 1980, chez des bactéries qui vivaient dans un fossé situé à côté d’une usine de glyphosate et qui prospéraient malgré la pollution. Or même si les bactéries et les plantes sont des organismes extrêmement différents, la machinerie cellulaire du maïs est capable de lire le gène bactérien et d’en tirer une protéine.

Notons aussi qu’on a découvert une trentaine de gènes qui sont communs (dans des variantes différentes, mais quand même) à tous les organismes vivants [http://bit.ly/2q774BH], ce qui suggère aussi fortement une origine commune.

Les scientifiques ne s’entendent pas tous sur la forme que pouvait avoir ce fameux DAC universel. Était-ce vraiment une seule cellule ou une petite colonie ? Vivait-il dans des conditions extrêmes, comme proche d’une source thermale au fond des océans, ou dans des milieux plus cléments ? Ce sont des questions encore ouvertes. Mais l’existence de ce DAC universel, elle, n’est pas remise en question.

Jean-François Cliche
Le matheux qui sommeille en chacun de nous

Science

Le matheux qui sommeille en chacun de nous

SCIENCE AU QUOTIDIEN / «La plupart des gens ont de la misère à effectuer des calculs mentaux rapidement. Mais c’est un peu bizarre quand on y pense parce que dans bien des situations, comme quand on effectue un dépassement en auto au milieu du trafic, le cerveau est capable de résoudre des calculs complexes sans grande difficulté. Comment est-ce possible ?», demande André-Nicholas Desroses, de Gatineau.

Il y a en effet une foule de tâches que l’on présume simples parce que nous les effectuons rapidement et machinalement, sans trop y penser, mais qui impliquent en réalité des mathématiques beaucoup plus élaborées qu’on le croit. Quand un joueur de hockey tente une passe vers un coéquipier en mouvement, par exemple, il doit estimer le point x où «son» joueur se trouvera au temps t, et à partir de là à quelle vitesse et avec quel angle il doit envoyer la rondelle pour qu’elle arrive au point x exactement au bon moment. Pendant un match, tout ceci se passe en une fraction de seconde mais, d’un point de vue mathématique, il faut faire ce que l’on appelle du «calcul différentiel» pour y parvenir. Cela ne demande pas un génie exceptionnel, loin de là, mais ce ne sont pas des maths simples non plus. Au Québec, les étudiants ne l’apprennent qu’au cégep (pour ceux qui ont des cours de maths rendus là), certains y échouent, et dans tous les cas ce n’est pas le genre de calcul que l’on fait «dans sa tête» : il faut s’y atteler avec papier, crayon et calculette.

Le même principe vaut aussi pour un joueur de baseball qui court pour attraper une balle au vol, pour certains dépassements en voiture, et ainsi de suite. Dans l’instant, nous effectuons ces manœuvres assez aisément, un peu comme s’il y avait un mathématicien qui se cachait en chacun de nous... Enfin, oui certes, il peut nous sembler parfois que ce matheux-là est tapi très, très profondément au fond de notre inconscient, c’est vrai, mais bon, il est là quand même. Alors comment se fait-il que ce qui est (relativement) facile avec une rondelle ou une balle soit si ardu sur papier ?

C’est simplement parce que ce ne sont pas les mêmes «zones» du cerveau ou «réseaux de neurones» qui sont sollicitées, explique Shirley Fecteau, chercheuse au centre CERVO de l’Université Laval et titulaire de la Chaire de recherche du Canada en neuroplasticité cognitive. «Dans un cas, c’est une tâche qui demande de jongler avec des concepts très abstraits alors que dans l’autre, c’est une tâche motrice», dit-elle.

Or ce sont surtout les lobes frontaux, à l’avant de la tête, qui sont chargés de l’abstraction. C’est principalement là, ainsi que dans la «jonction temporo-pariétale» (sur le côté de la tête, un peu vers l’arrière), que se font les calculs mentaux. La motricité, elle, est surtout prise en charge par le cervelet (complètement à l’arrière, vers le bas) et par le cortex moteur, situé sur le dessus de la tête, explique Mme Fecteau.

Attention, insiste-t-elle, ce serait une sur-simplification que de penser que chaque type de tâche est effectué uniquement «en silo» dans une ou deux zones très spécialisées. «On a longtemps parlé de l’hémisphère gauche qui s’occupe de ceci et de l’hémisphère droit qui fait cela, et de régions cérébrales spécialisées dans ceci ou dans cela, mais on sait maintenant que ce n’est pas aussi tranché que ça. De nos jours, on parle plus de réseaux parce que si, par exemple, vous voulez faire un arrêt au hockey ou un calcul mental, il y a toujours le frontal et le moteur qui vont communiquer ensemble, et qui vont communiquer aussi avec le cervelet. Alors c’est toute une cascade d’événements qui se passe. Vous avez des gens qui font un AVC et qui ont des dommages au cerveau, avec perte de certaines fonctions, mais par la suite il y a toujours des régions autour de la lésion et dans l’autre hémisphère qui vont essayer de prendre la relève, alors ça fonctionne vraiment plus en réseaux que comme une série de zones spécialisées qui ne se parlent pas», explique Mme Fecteau.

Mais il demeure quand même que le calcul mental implique davantage les lobes frontaux que le reste du cerveau, et que la motricité se passe plus dans le cortex moteur et le cervelet. Et comme chaque personne a des forces et des faiblesses, il est entièrement possible et naturel d’exceller dans l’un et d’être assez médiocre dans l’autre.

Cela dit, la moyenne des ours a généralement plus de difficulté avec le calcul mental qu’avec le moteur, et il peut y avoir des raisons pour cela. D’abord, dit Mme Fecteau, «les régions frontales sont parmi les dernières parties du cerveau qui se développent, en moyenne vers l’âge de 21 ans. Alors les habiletés qui viennent avec s’apprennent sur le tard, comparé aux habiletés motrices que l’on peut pratiquer dès l’enfance».

Autre différence majeure : quand on fait une passe ou qu’on attrape une balle, on ne fait pas le calcul différentiel à proprement parler. C’est plutôt qu’à force de pratique, le cerveau finit par trouver la bonne solution par essais et erreurs, et il peut ensuite reproduire la solution (en l’ajustant) pendant les matches. «C’est un peu comme quand on doit ouvrir un cadenas dont on n’a pas fait la combine depuis longtemps, ou quand il faut se rappeler d’un vieux numéro de téléphone, illustre Mme Fecteau. On serait incapable de dire les chiffres à voix haute, mais finalement les doigts vont se faire aller et c’est comme ça qu’on va s’en rappeler. C’est un peu la même chose qui se passe quand on fait des passes ou des arrêts : même si ce sont des tâches difficiles, il y en a une partie qui va s’automatiser avec le temps, alors que quand il s’agit de calcul mental, il faut le faire pour vrai parce que ce n’est pas une chose qui va s’automatiser pour M. et Mme Tout-le-Monde.»

Jean-François Cliche
Ce sondage est-il fiable?

Science

Ce sondage est-il fiable?

SCIENCE AU QUOTIDIEN / «La campagne électorale fédérale approche à grands pas et nous serons bientôt submergés de résultats de sondages. Pour m’attarder souvent aux détails de leur méthodologie, j’ai remarqué que si certains les expliquent clairement (méthode, marge d’erreur, etc.), d’autres se contentent de nous informer que l’échantillonnage était «non probabiliste». Alors comment faire pour savoir si un sondage est vraiment fiable?», demande Serge Rivard, de Québec.

De manière générale, oui, les sondages sont fiables. La revue savante Nature – Human Behaviour a publié récemment une étude basée sur quelque 30 000 sondages électoraux dans 45 pays entre 1942 et  2017. Elle a trouvé une erreur moyenne de 2 points de pourcentage pour les sondages réalisés à une semaine ou moins du scrutin, et conclu que «de temps à autre les sondeurs se trompent, ce qui les place sous les projecteurs [...mais en bout de ligne] nous n’avons trouvé aucun signe supportant l’idée d’une crise de fiabilité des sondages».

Cela dit, il en va de ces coups de sonde comme du reste des réalisations humaines : ils sont imparfaits. Un sondage, d’abord, consiste à interviewer un groupe relativement peu nombreux de gens (généralement autour de 1000) afin d’estimer l’opinion de toute une société (des millions, voire des dizaines ou des centaines de millions). En soi, c’est toujours un brin périlleux, puisque les chances pour que ces quelque 1000 personnes représentent de manière parfaitement exacte la société entière sont minces. Mais d’un autre côté, on sait aussi qu’il y a peu de chances pour qu’elles s’en écartent beaucoup. D’où l’idée de la «marge d’erreur», rendue par la célèbre formule «précis à plus ou moins 3 % 19 fois sur 20». Cela signifie que si le parti X obtient 38 % des intentions de vote dans l’échantillon, alors il y a 19 chances sur 20 pour que ses «vrais» appuis dans la population tombent dans une fourchette de ± 3 %, soit quelque part entre 35 et 41 %.

Cela implique, évidemment, qu’il reste toujours 1 chance sur 20 pour que le sondage s’écarte de la «vérité» par plus de 3 %. Ce peut être 4 %, ou 6 %, ou même en principe plus de 10 %, même si c’est extrêmement improbable. Mais cela nous donne déjà un premier indice de fiabilité : est-ce que les résultats sont en ligne avec ce que d’autres sondages récents ont montré ? Si oui, c’est bon signe. Mais si les chiffres sont très différents, cela peut vouloir dire de deux choses l’une. Ou bien l’opinion publique vient de subir un changement rapide (c’est rare, mais ça arrive). Ou bien on a affaire à «la 20fois sur 20», pour ainsi dire. Il vaut mieux alors attendre que d’autres sondages viennent confirmer (ou infirmer) la nouvelle tendance.

Ce qui nous mène un autre indice de fiabilité : les dates d’échantillonnage. Un sondage, c’est comme une photo, ça montre ce qui était là à un moment donné, puis ça ne bouge plus. Alors plus l’échantillonnage remonte à loin dans le passé, plus fort est le risque que l’opinion publique ait changé et que ses résultats ne soient plus valides.

Il y a par ailleurs moyen de réduire la marge d’erreur, remarquez : par la taille de l’échantillon (qui est un troisième indice de fiabilité). Plus il est grand, et plus la marge d’erreur diminue — mais cela finit par coûter cher. Autour de 1000 personnes, elle est d’environ 3 % ; pour l’abaisser à 2 %, il faut interviewer près de 2500 personnes; et pour atteindre 1 %, l’échantillon doit dépasser les 9500. Inversement, à 500 personnes, elle est d’environ 4,4% et de 7% à 200. C’est pourquoi il faut toujours se méfier des «sous-échantillons» — comme les intentions de vote au Québec dans un sondage pan-canadien.

Maintenant, plusieurs firmes ont commencé à faire leurs sondages au moyens de «panels web». Elles se constituent des groupes de quelques dizaines (voire centaines) de milliers de gens afin d’avoir un bassin de répondants plus faciles et économiques à joindre et interviewer que les sondages «classiques». Ces sondeurs s’arrangent pour que leurs panels ressemblent autant que possible à la population en général (même distribution des sexes, des groupes d’âge, des revenus, etc.), mais il reste que procéder de cette manière ne donne pas un échantillon aléatoire (ou «probabiliste») au sens strict parce que les répondants ne sont pas «pigés» parmi la population en général comme dans un sondage téléphonique. Ils viennent d’un sous-groupe relativement restreint.

Or les équations qui servent à calculer les marges d’erreur présument que l’échantillon est probabiliste — elles ne s’appliquent pas autrement. C’est la raison pour laquelle certains sondages sont publiés sans marge d’erreur. D’un point de vue purement mathématique, c’est la bonne chose à faire, mais je crois que cela prive le public d’un élément d’information important : il y a forcément une marge dans les résultats des panels web. Si un de ces panels accorde, disons, 37 % des intentions de vote au parti X, cela ne signifie pas que celui-ci a exactement 37 % d’appuis dans la population en général, mais bien autour de 37 %.

À cet égard, j’aime bien la formule employée par Léger Marketing, qui calcule une marge malgré tout : «un échantillon de cette taille aurait eu une marge d’erreur de x si l'échantillon avait été probabiliste». Des statisticiens à qui j’en ai parlé dans le passé voient ça comme un pis aller, puisque l’idéal serait de travailler avec des échantillons véritablement aléatoires, mais bon, ça reste quand même «moins pire», plus informatif que de ne rien dire.

Maintenant, tant qu’à être dedans, disons un mot sur les méthodes d’échantillonnage. Hormis les panels web et le bon vieux téléphone, les sondeurs procèdent aussi souvent par appels automatisés (l’entrevue se fait au téléphone mais le questionnaire est administré par un robot). Il n’est pas clair que l’une ou l’autre de ces méthodes est vraiment meilleure que les autres — après tout, il y a bien des façons de faire un mauvais sondage, comme des questions biaisées, une mauvaise pondération, une répartition erronée des indécis, etc. À cet égard, il est assez parlant de voir que le célèbre site d’agrégation de sondage et de prédictions électorales FiveThirtyEight, du statisticien américain Nate Silver, a donné la même note de F et cessés d’utiliser les sondages des maisons TCJ Research, qui ne fait que des appels robotisés, et Strategic Vision LLC, qui ne procède que par appels avec téléphonistes.

Mais quand même, comme il n’y a rien de parfait, toute méthode peut introduire des biais. Lors de la présidentielle de 2016, les appels automatisés ont un peu mieux fait que les autres méthodes, se trompant en moyenne par 2,8 points contre 3,2 à 3,9 pour les autres, a montré un «post-mortem» rédigé par des experts (p. 15 / 39). Cependant, FiveThirtyEight a trouvé qu’à plus long terme, les appels «en personne» semblent faire légèrement mieux que les autres, dans la mesure où ils incluent des numéros de cellulaires. Mais la différence est mince et dans ses modèles, M. Silver ne leur accorde qu’un «bonus modeste».