Sciences

L'océan qui est mort au pied des Appalaches

SCIENCE AU QUOTIDIEN / «Lors d’un récent séjour à Berthier-sur-mer, quelle ne fut pas ma surprise d’observer des dépôts calcaires sur le sol, comme s’ils étaient orientés verticalement et non horizontalement. Généralement, je m’attendrais à voir de telles stratifications une par-dessus l’autre en regardant une paroi, comme j’en voyais dans mon enfance — j’ai grandi à proximité du fleuve aux Grondines. Comment les dépôts ont-ils pu s’accumuler de cette manière? Ont-ils été retournés par un cataclysme?» demande Daniel Guilbault, de Saint-Augustin-de-Desmaures.

Cela peut effectivement paraître étonnant puisque les roches que l’on voit à Berthier-sur-Mer — comme dans toutes les Appalaches — sont des roches dites sédimentaires: elles se sont formées par l’accumulation de débris divers (sable, coquilles, cadavres, algues mortes, etc.) au fond de l’océan, et ces sédiments ont par la suite été transformés en roche par la pression continue de l’eau. Alors forcément, les couches que l’on voit sur la photo que m’a envoyée M. Guilbault se sont à l’origine empilées les unes sur les autres, pas une à côté de l’autre. Que s’est-il donc passé depuis?

Les roches des environs de Berthier-sur-Mer font partie d’une formation géologique nommée groupe de Saint-Roch, indique le chercheur en géologie de l’Université Laval Georges Beaudoin. Il s’agit de roches qui se sont formées il y a environ 500 millions d’années. À l’époque, note M. Beaudoin, les Appalaches n’existaient pas encore, et c’est justement ce qui s’est passé par la suite qui explique pourquoi les couches sont superposées autour de Grondines et juxtaposées à Berthier.

Comme on l’a déjà vu dans cette rubrique, les continents sont faits de plaques tectoniques, que l’on peut se représenter comme des espèces d’immenses «radeau» de pierre qui flottent sur la roche en fusion située sous la croûte terrestre, à plusieurs dizaines de kilomètres de profondeur. Comme il y a des mouvements dans cette roche en fusion, cela fait dériver les plaques tectoniques. Très lentement, soit, mais sur des centaines de millions d’années, les changements sont spectaculaires.

Ainsi, les roches de Berthier se sont formées au fond d’un océan ancien, Iapetus, qui était bordé (entre autres) par deux anciens continents nommés Laurentia et Baltica. Le premier, comme son nom l’indique, est grosso modo la plaque du Bouclier canadien avec les Laurentides actuelles, et le second forme maintenant le nord-ouest de l’Europe. Et quand on vous dit que la tectonique des plaques peut être spectaculaire, voyez plutôt: il y a un peu plus de 500 millions d’années, ces continents étaient situés sous les tropiques (!) de l’hémisphère sud (!!), c’est vous dire comme ils ont dérivés…

Sur une période d’environ 150 millions d’années, lit-on sur le site du Parc national de Miguasha, les continents qui entouraient Iapetus se sont rapprochés jusqu’à refermer complètement l’océan. Dans le processus, Laurentia et Baltica sont entrés en «collision», et les fonds marins qui gisaient entre les deux s’en sont trouvés (très) déformés, jusqu’à en relever hors de l’eau. C’est de cette manière que les Appalaches sont «nées», ou du moins ont «commencé à naître», puisque cette chaîne de montagnes s’est formée en plus d’une étape — mais c’est une autre histoire.

L’essentiel à retenir, ici, est qu’au cours de ce processus, certaines couches sédimentaires qui s’étaient jusque là tenue bien sagement à l’horizontale ont été soulevées jusqu’à en devenir verticale. C’est ce qu’a observé M. Guilbault à Berthier-sur-Mer.

En ce qui concerne la couleur des couches sur la photo, M. Beaudoin indique que «dans les strates rouges, on a simplement des couches qui se sont formées dans de l’eau plus oxydées ou qui se sont oxydées par la suite, et les couches plus grises semblent être des calcaires [moins riches en fer] ou des grès [ndlr: une roche faite de sable comprimé]».

Maintenant, cela peut sembler étonnant, mais ces revirements de roches sédimentaires ne sont pas particulièrement rares, du moins pas aussi exceptionnels qu’on serait tenté le penser a priori. Il suffit simplement pour s’en convaincre de prendre l’exemple du Rocher Percé: si l’on regarde attentivement la photo ci-haut, on se rend vite compte que le plus célèbre cailloux du Québec est fait d’une série de strates orientées à la verticale. Ces couches se sont elles aussi formées à l’horizontale dans le fond d’un océan avant que la tectonique des plaques ne les soulève et ne les ré-incline à la verticale. Attention, avertit M. Beaudoin, ça ne s’est pas passé en même temps que la roche autour de Berthier-sur-Mer: la pierre du Rocher Percé est plus récente par plusieurs dizaines de millions d’années et s’est soulevée plus tard (ce fut une autre «étape» de la naissance des Appalaches). Mais le principe est le même et cela montre qu’il est relativement commun de voir des roches sédimentaires dont les couches sont orientées à la verticale.

Enfin, explique M. Beaudoin, les strates de la roche autour de Grondines sont à l’horizontale parce qu’elles font partie d’un autre ensemble géologique, les basses terres du Saint-Laurent. Ce sont elles aussi des roches sédimentaires, mais elles n’ont presque pas subi de déformations. «Le front de déformation [en ce qui concerne la formation des Appalaches], c’est ce qu’on appelle la faille de Logan», dit-il. C’est cette fameuse faille qui remonte le Golfe Saint-Laurent (elle bifurque vers le sud en amont de Québec) à laquelle on doit la sismicité de Charlevoix.

Les roches sédimentaires au sud de cette faille ont été soulevées et peuvent être à la verticale dans certains secteurs (mais c’est loin d’être le cas partout); celles des basses terres, comme à Grondines, se trouvent au nord de la faille Logan n’ont pas subi de «cataclysme» et reposent toujours à l’horizontale.

Science

Cet étrange délai à la télévision...

SCIENCE AU QUOTIDIEN / «J’aimerais que l’on m’explique comment il se fait qu’il y a souvent un délai, parfois important, dans les échanges au téléjournal lorsque le chef d’antenne parle à un journaliste qui n’est pas en studio. Si on peut parler et se comprendre instantanément au téléphone, il doit bien y avoir moyen d’éliminer cet agaçant délai, non ?» demande Yvan Dion, de La Malbaie.

Il est effectivement bien étonnant qu’en cette ère de connexion ultra-haute-vitesse, une technologie datant du même millénaire que le Moyen Âge transmette la voix plus rapidement (enfin, parfois) que le Web. Mais c’est pourtant bien ce qui se passe, du moins à l’occasion.

«En gros, c’est ce qu’on appelle la latence dans les réseaux, et elle peut venir de quatre sources différentes», explique Florent Parent, professionnel de recherche en informatique à l’Université Laval qui s’occupe également du réseau reliant les superordinateurs de Calcul Canada.

Le premier type de délai et sans doute le plus simple à comprendre, dit-il, est la propagation du signal. Même dans un réseau de fibre optique ou un réseau sans fil où les signaux voyagent essentiellement à la vitesse de la lumière, soit près de 300 000 kilomètres par seconde, cela peut faire une différence dans certaines circonstances.

«Par exemple, illustre l’informaticien, dans le réseau qui relie les universités [ndlr : la recherche implique souvent l’envoi d’énormes fichiers de données], si je me branche ici à l’Université Laval et que j’envoie un ping [ndlr : un petit signal qui fait un aller-retour afin de vérifier l’état d’une connection] à Montréal, on parle de 7 millisecondes (ms) de temps de retour. Ce n’est pas assez pour être perceptible dans une conversation puisque en bas de 100 ms, on ne s’en rend pas vraiment compte. Dans le cas des conversations à la télé, il doit y avoir d’autres sources de délai. Et une hypothèse qui me vient en tête, c’est que peut-être que quand les journalistes sont sur le terrain, ils utilisent un réseau sans-fil, et là la communication se fait par satellite. Et ça, ça va allonger le délai de propagation.»

Souvent, en effet, les satellites de télécommunication sont placés sur des orbites géostationnaires, ce qui signifie qu’ils mettent exactement 24 heures à faire le tour de la planète — par conséquent, ils demeurent toujours au-dessus du même point sur Terre, d’où le nom de géostationnaire. Or ces orbites sont situés à une altitude de près de 36 000 km, si bien que même à la vitesse de la lumière, l’aller-retour prend (36 000 km x 2) ÷ 300 000 km/s = 240 millisecondes. Dans le cas d’une conversation au téléjournal qui passerait par ce genre de satellite, c’est un délai suffisamment long pour qu’on s’en rende compte.

Mais il peut aussi y avoir autre chose, poursuit M. Parent : le délai de traitement. «C’est bien beau la vitesse de la lumière, dit-il, mais il faut compter aussi le fait qu’on a des appareil qui reçoivent la voix, qui la convertissent en numérique, (…et) il y a un traitement de ça et une compression qui vont être faites, ça va ensuite être mis dans des sortes de «paquets» sur des commutateurs [un appareil qui est le point de convergence d’un réseau, ndlr], et souvent il va y avoir une redondance qui va être ajoutée au cas où des paquets seraient perdus, C’est ensuite envoyé, et chaque commutateur qui se trouve dans le chemin, entre le point de départ et le point d’arriver, doit traiter ça, et tout ça  prend du temps, alors ça va ajouter un délai de traitement.»

Ces délais sont généralement minimes, mis pas toujours, et ils s’ajoutent aux autres.

Une troisième source de délai est la «mise en file d’attente», indique notre informaticien. «Ça, on ne peut pas vraiment l’estimer d’avance parce que ça dépend de la quantité de trafic sur le réseau. Quand tout va bien, le délai à peu près nul. Mais s’il y a un gros événement où beaucoup le monde veut des données en même temps (…) où s’il y a un sursaut ponctuel (burst, en anglais) d’activités sur le réseau, alors tout ne peut pas être traité instantanément, alors le système fait une file d’attente. Habituellement, c’est traité selon le principe du premier arrivé, premier sorti, mais il peut y avoir des priorités.»

Enfin, le dernier type de délai est celui de la transmission, qui dépend de la qualité de la carte réseau d’un ordinateur, explique M. Parent. Les meilleures disponibles permettent de transmettre autour de 100 gigabits (et même plus) par seconde, mais une carte de mauvaise qualité peut introduire des délais dans la communication.

En plus de la carte, le protocole de transmission peut aussi faire une différence. «Le protocole internet le plus utilisé et que les gens connaissent le plus, c’est le fameux TCP/IP. Ce qu’on sait moins, c’est que dans ce protocole-là, à chaque petit paquet de données qui est envoyé [ndlr : les données sont toujours divisées en «petits paquets» qui sont envoyés séparément], TCP doit avoir un accusé qu’il a été bien reçu pour assurer une fiabilité de transmission. Ça date des années 80, une époque où les réseaux étaient beaucoup plus lents que maintenant, et c’est pour ça que des modifications ont été apportées au TCP/IP pour augmenter la performance, mais ça reste un travail d’ingénierie à chaque bout du réseau pour maximiser la vitesse.»

Bref, c’est la somme de tous ces délais qui fait la «latence» dans les communications. D’un système à l’autre, d’une situation particulière à l’autre, ils peuvent varier énormément, si bien qu’il est impossible de dire exactement qu’est-ce qui s’est passé dans les cas qui ont tant agacé notre lecteur de La Malbaie. Mais quand on les additionne, on comprend pourquoi il arrive, de temps à autre, que la discussion entre les journalistes et les chefs d’antenne se fasse avec un petit délai.

***

ÉCRIVEZ-NOUS Vous vous posez des questions sur le monde qui vous entoure? Qu'elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d'y répondre. À nos yeux, il n'existe aucune «question idiote», aucune question «trop petite» pour être intéressante! Alors, écrivez- nous à  jcliche@lesoleil.com

Jean-François Cliche

De bombes et d'icebergs...

SCIENCE AU QUOTIDIEN / «Comme les ouragans prennent vie à partir des côtes africaines et gagnent en puissance en se nourrissant de la chaleur des eaux chaude de l’Atlantique, serait-il possible de les «intercepter» lors de leur formation pour à tout le moins, les affaiblir ? Par exemple, en s’inspirant des Émirats arabes qui songent à remorquer des iceberg pour s’approvisionner en eau douce, est-ce que de remorquer des mastodontes gelés au début de la trajectoire de formation des ouragans pourrait avoir une incidence quelconque ? C’est un peu farfelu j’en conviens, mais ça m’intrigue quand même», demande Simon Côté.

Supposons que l’on soit capable de remorquer un grand iceberg en forme de cube et de 100 mètres d’arête. Ce serait une sacrée commande, même en y mettant plusieurs remorqueurs, puisque notre «glaçon» pèserait environ 910 millions de kg, mais passons. Et supposons aussi que l’on parvienne à amener le colosse intact jusque dans les eaux tropicales à une température de –10°C.

Pour faire fondre toute cette glace, puis en chauffer l’eau jusqu’à 26 °C (on ne veut pas atteindre 26,5, rappelons-le), il faut de l’énergie. Beaucoup d'énergie : ce sont des montagnes de chaleur, littéralement, que notre iceberg drainerait autour de lui.

D’abord, chaque gramme de glace prend 2 joules d’énergie pour gagner 1°C (pour comparaison, une ampoule de 100 watts brûle 100 joules par seconde). Alors pour chauffer nos 910 millions de kg de glace de –10°C jusqu’à 0°C, il faut un total de 18 200 gigajoules (Gj). Ensuite, pour que la glace fonde, il ne suffit pas de l’amener à 0°C, contrairement à ce qu’on pense souvent. Il faut aussi lui fournir un petit surplus d’énergie nommé chaleur latente de fusion, qui sert grosso modo à rompre les liens qui tiennent les molécules d’eau ensemble dans la glace. Facture énergétique : 333 joules par gramme, pour un total de 303 000 Gj. Et enfin, pour chauffer cette eau de 0° jusqu’à 26 °C, il faut compter 4,2 joules par gramme, ou près de 100 000 Gj en tout.

Au final, notre cube de glace de 100 mètres de côté drainerait à peu près 420 000 Gj en fondant, puis en se réchauffant jusqu’à 26 °C. Ce qui serait suffisant pour refroidir de 1°C la température de 100 millions de m3 d’eau.

Maintenant, la question est : est-ce que cela suffirait à faire une différence ? Et la réponse est clairement «non, même pas proche». Les ouragans prennent généralement forme dans les eaux tropicales (de 8 à 20° de latitude) entre l’Afrique et l’Amérique du Sud, quand la température de surface est de plus de 26,5 °C. Il faut aussi que d’autres conditions soient réunies, notamment des caractéristiques de vent et d’humidité en altitude, mais concentrons-nous sur la température de l’eau.

Cette semaine, d’après les cartes de température [https://bit.ly/2QdSSzx] que l’on trouve sur le site de la National Oceanic and Atmospheric Administration (NOAA), les eaux de surface de l’Atlantique dépassaient le seuil de 26,5 °C entre approximativement 8 et 13° de latitude et entre 60° et 30° de longitude ouest. Cela nous fait donc, de manière conservatrice, une superficie de près de 1,5 million de km2. En partant du principe que la «surface» inclut le premier mètre, on parle ici de 1500 milliards de mètres cubes d’eau à refroidir.

C’est donc dire qu’il faudrait 15 000 icebergs comme celui de notre exemple pour abaisser la température de toute cette eau de seulement 1°C. Et c’est sans compter le grand pan d’océan autour des Caraïbes, où les ouragans peuvent prendre beaucoup de force. Et cela fait abstraction du fait que les eaux de surface dépassent assez souvent les 26,5 °C par plusieurs degrés.

Bref, même en prenant un scénario très optimiste où notre iceberg ne fondrait pas avant d’arriver dans les Tropiques, il ne serait pas grand-chose de plus qu’une goutte d’eau dans l’océan…

* * * * *

«Je me demande pourquoi on n’est pas capable de briser un ouragan lors de sa formation, avant qu’elle ne devienne très forte. Y a t-il des sortes de bombe que l’on pourrait faire sauter dans l'œil dès sa formation pour la briser», demande Claude Duchesne, de Stoneham.

L’idée n’est pas neuve, loin de là. Elle a même fait l’objet de quelques travaux d’un chercheur américain dans les années 50, qui estimait qu’une petite bombe nucléaire bien placée pouvait faire le travail. Il a étudié l’effet atmosphérique de certains essais nucléaires de l’époque et fait quelques calculs, mais l’idée n’a jamais eu de suite vraiment concrète.

Et ce n’est peut-être pas une mauvaise chose, d’ailleurs. Au-delà du fait (assez gênant, merci) que ce «plan» impliquerait de saupoudrer des grandes quantités de radioactivité dans l’atmosphère et dans l’océan, il y a ce petit détail technique que cela a très, très peu de chances de fonctionner, pour deux raisons, lit-on sur le site de la NOAA.

D’abord, comme pour l’iceberg, il y a une question d’échelle : l’énergie relâchée par un ouragan équivaut grosso modo à faire exploser une bombe nucléaire de 10 mégatonnes… à toutes les 20 secondes. Alors on peut difficilement penser qu’en faire sauter 2 ou 3 changerait grand-chose.

Ensuite, ce qui fait la force d’un ouragan, c’est l’intensité de la basse pression dans son «œil» : plus cette pression est basse, plus l’air des alentours sera aspiré fortement, et plus les vents seront puissants. Pour affaiblir un ouragan, il faudrait donc ajouter de l’air en son centre. Encore une fois, on parle de quantités si astronomiques qu’elles interdisent l’espoir d’y arriver un jour : de l’ordre de 500 millions de tonnes d’air qu’il faudrait souffler dans l’œil d’un cyclone de force 5 pour qu’il tombe à une force 2, selon les calculs de la NOAA. Mais de toute manière, ce n’est pas ce que les bombes font. Une explosion ne déplace pas d’air, ou en tout cas pas tellement. Cela envoie surtout une onde de choc qui, une fois passée, laisse les pressions inchangées derrière elle.

Sources :

  • Central Pacific Hurricane Center, Myths About Hurricanes, NOAA, s.d., https://bit.ly/2xy2CdB
  • Mark Strauss, Nuking Hurricanes : The Surprising History of a Really Bad Idea, National Geographic, 2016, https://bit.ly/2MaW9w2

Jean-François Cliche

L'âme des indécis

BLOGUE / Il y a une question, toujours la même, sur laquelle les sondeurs se cognent le nez depuis des décennies : qu'est-ce qu'on fait avec les indécis ? Comment on les répartit ? Doit-on seulement les répartir ? Les sondages Mainstreet que Le Soleil et les autres journaux de GCM publieront pendant la campagne utilisent une méthode de répartition un peu inhabituelle, du moins au Québec. Alors profitons-en pour examiner tout cela...

ERRATUM (23 août) : On me signale que la plupart des sondeurs procèdent grosso modo de la même manière que Mainstreet, contrairement à ce que ce texte laisse entendre, soit en demandant l'intention de vote et en demandant ensuite aux indécis s'ils ont quand même une certaine préférence pour un parti. Ce n'est qu'ensuite qu'ils répartissent les indécis restants de manière proportionnelle. La confusion, en ce qui me concerne, est venue du fait que la question de relance aux indécis n'est pas toujours explicitée dans les rapports de sondage, mais le résultat est le même : des passages importants de ce texte ne sont pas valides. Toutes mes excuses.


La manière classique de procéder est de carrément et simplement retirer les indécis du portrait. Par exemple, si vous avez 15 indécis sur un échantillon de 100 personnes, alors vous les écartez, vous ne retenez que les répondants qui ont exprimé une préférence et vous calculez vos pourcentages comme s'il n'y avait que 85 personnes dans l'échantillon. Ainsi, un parti qui aurait obtenu, disons, 30 appuis sur 100 AVANT répartition des indécis se retrouverait donc avec 30 ÷ 85 x 100 = 35,3 % des intentions de vote.

C'est une approche qui se défend très bien, soulignons-le. Dans une élection, il n'y a que les votes qui comptent, que l'opinion des électeurs décidés. Ceux qui n'ont pas pu se brancher à temps ne comptent pas, et c'est ce que la «répartition proportionnelle» (nom fréquemment employé pour désigner cette manière de «gérer» les indécis) reflète. Ce n'est pas pour rien que c'est l'approche la plus utilisée — même si ce n'est pas la seule, voir à ce sujet ce très beau survol que la spécialiste des sondages Claire Durand, de l'UdeM, a publié ce matin.

Mais en stats comme dans n'importe quoi d'autre, il n'y a jamais rien de parfait. Cette méthode présume que les indécis se répartissent exactement comme les autres, ce dont on ne sait rien, en réalité. Elle fait comme si les indécis n'iront pas voter, mais on sait qu'un certain nombre le feront — et à l'inverse qu'un certain nombre de «décidés» ne se rendront finalement pas aux urnes.

Bref, la répartition proportionnelle des indécis a de beaux avantages, mais ils viennent avec des inconvénients.

C'est précisément éviter ces inconvénients-là que certains sondeurs procèdent autrement. La firme Mainstreet commence par simplement demander l'intention de vote puis, quand la réponse est «ne sait pas», elle demande au répondant s'il a quand même un certain penchant pour un des partis en lice. Puis elle additionne les «enclins» et les «décidés» pour en arriver à un chiffre final plus complet. Il reste encore des indécis au terme de cet exercice, mais dramatiquement moins — autour de 2 % contre 13 % au départ, dans les chiffres les plus récents de Mainstreet.

C'est une approche qui, elle aussi, a ses plus et ses moins. Contrairement à la proportionnelle, elle ne présume pas de la répartition des indécis, mais les laisse plutôt se répartir eux-mêmes, pour ainsi dire. Bel avantage. D'un autre côté, cependant, alors que la proportionnelle ne se fonde que sur les décidés, la méthode Mainstreet introduit un élément un peu «mou», au sens où le vote des enclins est moins solide (et moins susceptible de se transformer en «vote sonnant et trébuchant») que celui des décidés. Mais ils sont pourtant regroupés ensemble.

Bref, pour les fins de la discussion, je proposerai ceci : ces choix-là me semblent être des trade-offs, comme on dit en français élégant. C'est-à-dire qu'en changeant d'approche, on se débarrasse des défauts de notre ancienne méthode, mais on abandonne aussi ses qualités.

Qu'en dites-vous ? Avez-vous une méthode favorite ? Et pour quelles raisons ?

Chronique

Le corps humain, ce four

LA SCIENCE AU QUOTIDIEN / «Pourquoi avons-nous chaud quand nous allons dehors, l’été, et qu’il fait 30 °C? Pourtant, notre corps a une température d’environ 37 °C, alors il me semble que ce n’est que lorsqu’il fait plus de 37 °C que nous devrions commencer à avoir chaud, non?» demande Frédérique Duquette, 12 ans.

C’est parce que le corps humain produit lui-même beaucoup de chaleur. À chaque instant, l’organisme doit brûler de l’énergie pour faire battre le cœur, inspirer et expirer de l’air, digérer, envoyer des signaux nerveux, faire fonctionner le cerveau et ainsi de suite — et c’est sans rien dire de nos activités physiques. Mine de rien, tout cela génère pas mal de chaleur.

Éditorial

Mais il y a la manière...

ÉDITORIAL / Sur le fond, le président américain Donald Trump a raison : les pays de l’Alliance atlantique (OTAN) doivent dépenser davantage pour leur propre défense. Mais la manière qu’il y met est à ce point grossière et contreproductive qu’on ne peut s’empêcher d’y lire une profonde incompréhension des enjeux internationaux — dans le meilleur des cas.

Cette semaine, avant même d’arriver au sommet de l’OTAN qui a lieu à Bruxelles, M. Trump a (encore) trouvé le moyen d’insulter les alliés historiques des États-Unis. «Plusieurs pays de l’OTAN, qui s’attendent à ce que nous les défendions, non seulement ne respectent pas leur engagement [d’allouer 2 % de leur PIB aux dépenses militaires] mais sont aussi coupables de plusieurs années de paiements non-remis», a-t-il tweeté mardi. À peine débarqué au sommet, hier, il a accusé (sans fondement) l’Allemagne d’être «totalement sous contrôle» de la Russie.

Tout ce que dit M. Trump fait vivement réagir et cette dernière scène n’a pas fait exception à la règle, mais le fait est qu’il n’est pas le premier à évoquer ce 2 % — même s’il semble confondre les dépenses militaires nationales et le budget de l’Alliance. En 2014, lors d’un sommet de l’OTAN, son prédécesseur Barack Obama et le premier ministre britannique du temps David Cameron avaient demandé aux autres pays membres de faire leur «juste part». «Je vais être franc, des fois l’Europe a été complaisante en matière de défense», avait répété M. Obama au début de 2016.

D’autres que M. Trump — et des gens sérieux — ont fait le même constat dans le passé, et il faut admettre qu’il n’est pas sans mérite : rassurés par la présence américaine, certains pays ont réduit abusivement leurs dépenses militaires. Il n’y a pas de mal à vouloir que ça se corrige.

Mais en diplomatie, la manière de dire les choses est souvent aussi importante que le fond. Depuis quand insulte-t-on des alliés fidèles pour passer ses messages? La méthode plus douce, plus respectueuse avait pourtant commencé à porter fruit : après l’appel de MM. Obama et Cameron, les pays de l’OTAN avaient augmenté leurs dépenses militaires totales pour la première fois en 20 ans, en 2015 et en 2016. Tous ne l’ont pas fait également et plusieurs (dont le Canada) sont encore loin de la cible des 2%, mais ils se sont engagés à y arriver d’ici 2024.

En outre, l’idée que le pauvre Oncle Sam se fait exploiter contre son gré passe à côté d’un point fondamental : si les États-Unis ont tant de bases militaires en Europe (et partout dans le monde, en fait), c’est qu’ils ont calculé que c’était dans leur intérêt. Avoir une base dans une région donnée facilite d’éventuelles interventions militaires, ce qui amène une stabilité dans ladite région et y augmente l’influence politique américaine.

Il est possible, comme le supputait cette semaine l’ancien ambassadeur américain en Israël Dan Shapiro, que les insultes de M. Trump cachent quelque chose de plus délibéré qu’une simple incompréhension de la politique internationale. Peut-être ce numéro vise-t-il à faire éclater l’OTAN, de la même manière que M. Trump a saboté le dernier sommet du G7. Compte tenu de son isolationnisme notoire, ce serait logique.

Si c’est bien le cas, les prochaines années risquent d’être fort chaotiques. On parle ici d’une administration qui, dans la crise des migrants, a séparé de jeunes enfants de leurs parents sans même prévoir de mécanisme pour les rassembler. Alors on ne peut pas présumer qu’avant d’annoncer un retrait de l’OTAN, M. Trump en envisagera sérieusement les conséquences.

Éditorial

Amendes impayées: la vraie cible

ÉDITORIAL / L’histoire de Valérie Brière, cette mère monoparentale en prison pour amendes impayées, est bouleversante. Pour illustrer jusqu’à quel degré d’aberration une bureaucratie sans âme peut se rendre, il est difficile de trouver mieux. Mais contrairement à ce que plusieurs intervenants ont conclu, nous ne croyons pas que ce cas est une bonne raison d’abolir l’emprisonnement pour les tickets impayés. C’est ailleurs qu’il faut agir.

Entre 2001 et 2006, Mme Brière était itinérante. Pendant cette période, elle a cumulé 2120 $ d’amendes pour avoir mendié, fait du squeegee et uriné en public. Elle avait participé à un programme de la Ville de Québec pour effacer sa dette, notamment par des travaux compensatoires et en retournant aux études. Mais «la vie», notamment deux jeunes enfants et un épisode de violence conjugale, a fini par l’empêcher d’adhérer au programme. Ne pouvant toujours pas payer, Mme Brière a été condamnée à un peu plus de trois mois de prison.

La Clinique Droit de cité met maintenant de l’avant son cas pour réclamer un moratoire sur les peines de prison pour amendes impayées. Mais le maire Régis Labeaume estime que le programme de la Ville est suffisant : «Il faut que les gens se forcent pour se refaire, qu’ils participent», a-t-il dit.

Le fait est qu’il est toujours hasardeux d’évaluer une politique à travers le prisme d’un cas unique. De manière générale, la possibilité d’emprisonner un mauvais payeur est un outil judiciaire qui peut être à la fois utile et juste, bien qu’il s’agisse d’un dernier recours. Si un contrevenant n’a pas les moyens d’acquitter sa dette envers la Ville, il doit toujours avoir l’option de payer autrement — les «travaux compensatoires». Mais si quelqu’un est trop pauvre et refuse les travaux, qu’est-ce que la Ville est supposée faire? On ne peut pas laisser des gens s’en tirer de cette manière alors que les autres citoyens honorent leur dette d’une manière ou d’une autre. Cela violerait des notions de justice élémentaire et, pour cette raison, l’emprisonnement pour amendes impayées doit rester une possibilité, au moins dans certains cas.

Afin d’éviter que d’autres histoires comme celle de Mme Brière ne surviennent, il faut agir en amont : de toute évidence, il ne donne pas grand-chose de multiplier les amendes aux itinérants. Des chercheurs ont récemment analysé plus de 3700 amendes remises par la Ville de Québec entre 2000 et 2010 à des sans-abri — ivresse publique, mendicité, squeegee, etc. La majorité n’ont reçu que deux ou trois tickets, signe que l’itinérance est (heureusement) souvent passagère. Mais le tiers d’entre eux en ont reçu suffisamment pour cumuler plus de 1000 $ de dette, et même plus de 5000 $ dans 10 % des cas. Pour tout dire, un de ces itinérants s’est même rendu à 48 000 $ d’amendes impayées!

Imaginez un peu : d’un côté, on leur demande de se prendre en main mais, de l’autre, on leur colle tellement d’amendes que le jour où ils décident de remettre leur vie en ordre, la première chose qui les attend est une facture qu’ils n’ont pas les moyens de payer, ou de longs travaux compensatoires, ou encore quelques mois de prison. On tenterait d’inventer un pire incitatif à sortir de la mendicité qu’on n’y parviendrait probablement jamais.

Il faut trouver une meilleure manière de gérer l’itinérance à Québec que de multiplier les contraventions. C’est (beaucoup) plus facile à dire qu’à faire, on en convient, mais abandonner une pratique manifestement contreproductive n’a rien de bien sorcier. Ce serait déjà un début.

Jean-François Cliche

Doit-on prêcher la prévention aux... autorités sanitaires?

BLOGUE / Il paraît qu'il est presque impossible de trop insister sur l'importance de la prévention en santé publique. Soit, à force de toujours taper sur le même clou, un message peut théoriquement devenir barbant au point d'engendrer une forme de ressac, mais force est d'admettre que cela ne nous guette pas.

Cet éditorial récent (et excellent) du New England Journal of Medicine le démontre très bien : tout se passe comme si même nos autorités sanitaires n'étaient pas convaincues des bienfaits de la prévention. Ses auteurs, les médecins et chercheurs de l'Université de Pennsylvanie Katherine Pryor et Kevin Volpp, l'illustrent par deux exemples fort éloquents.

En 2002, cette étude a fait beaucoup de bruit dans le milieu du diabète. En suivant 3200 patients à risque pendant 3 ans, ses auteurs ont trouvé qu'ils pouvaient diminuer de 58 % les cas de diabète de type 2 en travaillant sur l'alimentation et les habitudes de vie, ce qui était presque deux fois mieux que la métaformine (médicament qui réduit le sucre dans le sang et la résistance à l'insuline), qui n'atteignait que 31 %. Malgré cela, le programme d'assurance publique Medicare n'a commencé à promouvoir ce genre d'intervention, et les assureurs privés (qui pourtant auraient des économies à faire de ce côté) n'ont commencé à les couvrir que tout récemment. Par comparaison, tout ce beau monde a commencé à rembourser la métaformine dès 1995, année de son arrivée sur le marché américain.

Dans le même ordre d'idée, poursuivent M. Volpp et Mme Pryor, cette méta-analyse de la Collaboration Cochrane montre que donner des incitatifs financiers aux fumeurs les aident beaucoup à abandonner le tabac à moyen et long terme. Dans le cas des femmes enceintes, cela peut même aller jusqu'à quadrupler le taux de réussite, mais on ne trouve pourtant aucun programme gouvernemental aux États-Unis (ni au Canada, à ma connaissance) qui en tire profit, alors que les économies à long terme seraient énormes, tant pour les soins de la mère que pour les risques encourus par l'enfant à naître.

Certes, ces exemples sont décrits dans le contexte américain, mais tout indique que le même constat s'applique (encore que pour des raisons en partie différentes, sans doute) ici aussi. «En 2015, seulement 3 % de l'argent dépensé en santé [aux États-Unis] est allé à la prévention», écrivent les éditorialistes du NEJM. Au Québec, il semble qu'on était sous les 2 % en 2016, d'après un rapport récent — j'attends toujours un retour du Ministère de la Santé pour savoir si un coup de barre a été donné depuis.

Et le texte de Pryor et Volpp met aussi le doigt sur des effets structurels qui prévalent ici aussi, il me semble (qu'on me corrige si je me trompe) :

«Les traitements que la Food and Drug Administration juge sécuritaires et efficaces sont habituellement couverts par les assureurs sans égard à leur coût, mais la barre est placée plus haut pour la prévention, qui est souvent évaluée sur son efficacité, mais aussi sur sa capacité à générer un retour sur l'investissement et sa profitabilité à court terme. Ce deux poids, deux mesures mène à une surutilisation des traitements et une sous-utilisation de la prévention. (...)

[De plus], ceux qui prodiguent les soins sont souvent peu familiers avec les interventions sur les comportements. Écrire une prescription est un geste de routine généralement facile à faire, et les médicaments, très publicisés, sont vus comme plus faciles à disséminer à grande échelle avec un taux d'efficacité prévisible. Mais cette présomption n'est pas toujours vraie. L'essai clinique sur la prévention du diabète, par exemple, a trouvé que l'effet de l'intervention comportementale était moins hétérogène que celui de la métaformine : la programme de prévention du diabète était associé à une réduction substantielle de l'incidence du diabète indépendamment du niveau de risque de chaque patient, alors que seuls les patients les plus à risque du groupe-métaformine ont connu une amélioration similaire.»

À méditer, donc...

Sciences

Les tunnels d'Elon Musk: pas demain la veille

BLOGUE / Elon Musk a présenté un (autre) projet aux ambitions technologiques frôlant la folie, récemment, avec comme objectif de régler les problèmes de congestion de Los Angeles. Juste ça... Venant de n'importe qui d'autre, le projet ne serait rien de plus qu'un joli rêve éveillé, mais comme on avait dit ça à propos des fusées-réutilisables-qui-atterrissent-en-tandem-après-un-vol-spatial, on se contentera de dire : on verra. Mais dans l'intervalle, le magazine «Wired» vient de pondre une petite liste de questions fort éclairante pour quiconque veut se faire une idée des défis qui attendent M. Musk.

Essentiellement, M. Musk propose de creuser un réseau touffu de tunnels sous Los Angeles et d'y faire circuler des voitures pouvant accomoder 16 personnes — en plus de filer à 150 km/h — au coût absurdement modique de 1 $ le trajet. Mais il y a un petit hic : pour y parvenir, l'entreprise lancée par M. Musk, la bien nommée Boring Company, devra améliorer suffisamment les technologies actuelles de creusage pour, tenez-vous bien, couper par 10 les coûts de 1 km de tunnel et multiplier par 15 la vitesse de construction.

Sans dire que j'y crois (ni que j'ai envie de parier contre Musk), voici quelques-uns des points soulevés par Wired :

  • La Boring Company veut garder le diamètre de ses tunnels relativement petit. Cela peut aider beaucoup, selon les experts cités par Wired.
  • Musk veut automatiser la construction, un peu comme une chaîne de montage. Et sur ce point, les experts ne s'entendent pas sur les avantages à en tirer...
  • Une autre façon par laquelle la BC veut réduire les coûts est de transformer les rebuts de creusage et en faire des briques, que l'on pourrait ensuite vendre. Mais il s'agirait alors de briques dont la qualité ne serait pas aussi bien contrôlée que celles que l'on fabrique de nos jours, et donc pas particulièrement intéressante pour l'industrie de la construction, prévient Gary Brierley, un ingénieur civil qui a passé toute sa carrière dans la construction de tunnels.
  • Dernier point que je soulèverai ici, mais non le moindre : c'est une chose de bâtir des tunnels et d'y faire circuler des navettes à grande vitesse. C'en est une autre de le faire de manière suffisamment efficace pour transporter, potentiellement, des millions de personnes par jour. Faire monter et descendre les navettes dans les tunnels prendra du temps, et à seulement 16 personnes par voyage, les experts cités par Wired ont un peu de mal à saisir comment ce genre de système peut être intéressant à très grande échelle. De ce que je comprends, ou bien le système transformerait les embouteillages en longues files d'attente pour prendre la capsule (et on ne serait pas bien avancé), ou bien il faudrait construire un très, très grand nombre de points d'accès distribués partout sur le territoire afin d'éviter qu'un trop grand nombre de gens s'agglutinent en un même point, mais alors cela impliquerait un très grand nombre d'arrêts. À chaque fois, la navette devrait remonter jusqu'à la surface, puis redescendre dans les tunnels, ce qui ralentirait énormément le système, peut-être au point de lui faire perdre tout intérêt.

Bref, tant mieux si Musk remporte ce pari-là. Mais il semble qu'on est encore bien loin du compte...

Actualités

Pas de lien entre l'autisme et la violence ?

L’affirmation: «L’autisme n’est pas synonyme de problèmes mentaux. C’est un trouble neurobiologique, mais cela n’a rien à voir avec la violence. L’autisme n’est pas la raison pour laquelle quelqu’un prend le volant d’une van et fonce dans une foule», a indiqué Margaret Spoelstra, de l’organisme de défense des droits Autism Ontario, lors d’un entretien avec le Toronto Star. Elle faisait référence au fait que des médias ont rapporté qu’Alek Minassian, qui a tué 10 personnes au camion-bélier cette semaine à Toronto, souffrirait du syndrome d’Asperger (une forme d’autisme). Ce n’est pas la première fois que le lien autisme-violence revient sur la place publique, d’ailleurs : d’aucuns l’avaient évoqué après la tuerie de l’école Sandy Hook parce que le tireur, Adam Lanza, était Asperger lui aussi. Alors voyons voir…

Les faits

Dans l’ensemble, répond d’emblée Baudouin Forgeot d’Arc, psychiatre et spécialiste de l’autisme de l’Université de Montréal, «l’immense majorité des personnes autistes ne sont pas violentes et des crimes comme celui qui est arrivé à Toronto cette semaine leur semblent tout aussi bizarres et horribles qu’aux autres», dit-il. D’ailleurs, la violence ne fait pas partie des critères pour diagnostiquer un trouble du spectre de l’autisme (TSA). Cette appréciation générale nous a également été confirmée du côté de l’Institut de santé mentale de Québec.

En outre, il n’y a pas grand-chose dans la littérature scientifique pour appuyer l’idée d’une violence plus fréquente chez les autistes. Une revue publiée en 2016 dans la Harvard Review of Psychiatry a bien trouvé quelques études suggérant que les autistes semblent surreprésentés dans les populations carcérales, mais ce n’est pas constant dans toutes les études. Et puis les chercheurs qui comparent les taux de violence entre les autistes et les non-autistes dans la population en générale (pas en prison) ne constatent pas de différence, dans la plupart des cas — à l’exception possible de la pyromanie, mais ce n’est pas sûr. «Ces études n’ont pas montré de manière concluante que les individus ayant un TSA sont plus violents que les individus sans TSA», indique l’article.

M. d’Arc note tout de même qu’il y a une petite étude, parue en 2017 dans le Journal of Psychology, qui a trouvé ce qui semble être une surreprésentation des autistes parmi les «tueurs de masse». Mais on parle ici d’une petite étude et d’une infime poignée de cas — six tueurs qui avaient un diagnostic ou des symptômes d’autisme sur un échantillon de 73 tueries —, si bien qu’on ne peut absolument rien en déduire sur les TSA en général.

Et même si des études futures venaient confirmer cette surreprésentation, cela ne voudrait pas forcément dire que c’est l’autisme lui-même qui augmente le risque, prévient M. d’Arc. On sait par exemple que l’isolement social est un facteur de risque pour une foule de crimes — les mass killers traversent typiquement une période d’isolement plus ou moins longue juste avant de passer à l’acte. Or «beaucoup de personnes autistes vivent de l’exclusion sociale, plus que la moyenne, indique M. d’Arc. Ils sont aussi plus souvent victimes d’abus ou d’autres stresseurs. […] Alors s’ils étaient vraiment surreprésentés parmi les criminels, est-ce que ce serait à cause de leur autisme ou à cause de ces autres facteurs-là?»

Enfin, souligne M. d’Arc, il faut noter que l’autisme ne désigne pas une maladie bien définie, mais plutôt un ensemble de symptômes possibles dont les combinaisons et la gravité varient d’un individu à l’autre. S’il s’en trouve qui sont plus portés sur la violence (de la même manière que certains non-autistes le sont), «il s’en trouve aussi qui sont extrêmement scrupuleux des règles, alors chez eux l’autisme est un facteur qui prévient les délits plutôt que les favoriser».

Le Verdict

Vrai. On peut trouver quelques études qui suggèrent une violence plus fréquente chez les autistes, mais elles sont contredites par d’autres. De même, il est possible qu’une sous-population d’autistes soit surreprésentée chez les tueurs de masse mais, même si c’est bien le cas, cela ne concerne qu’une partie absurdement mince des gens qui ont un TSA. Dans l’ensemble, le lien autisme-violence est étudié depuis des décennies, et si l’on n’a toujours pas trouvé de preuve concluante que ce lien existe, cela doit vouloir dire quelque chose...