pourquoi Google lance sa cohorte

0

Toutes les annonces présentées comme « stratégiques  » ne méritent pas qu’on s’y arrête. Mais quand l’annonce provient de la première capitalisation mondiale et touche à un domaine aussi crucial que la santé humaine, il n’est pas inutile de s’y intéresser. Le 19 avril dernier, Google a expliqué que sa filiale santé, Verily, allait recruter quelque 10.000 volontaires et les équiper d’une batterie d’objets connectés pour suivre à distance, sur une durée initiale de quatre ans, l’évolution de leur état de santé. En langage médical, un tel groupe s’appelle une cohorte. Baseline, le nom de celle de Verily, a été montée en partenariat avec les universités Stanford et de Duke, et représente un investissement de plus de 100 millions de dollars.

La firme américaine du moteur de recherche ne va pas seulement doter ses sujets de capteurs de toute sorte, y compris une puce à placer sous le matelas pour enregistrer les mouvements du corps durant le sommeil. Des prélèvements seront également effectués sur diverses sécrétions : salive, larmes, selles, etc. Le génome des volontaires sera décrypté, et des examens d’imagerie effectués. Passé un délai de deux ans, toutes les données ainsi recueillies seront ouvertes à l’ensemble des chercheurs. Objectif affiché : déterminer les biomarqueurs constituant les signes avant-coureurs des pathologies, mieux comprendre la transition entre bonne santé et maladie, identifier des facteurs de risque encore inconnus.

Les cohortes et les études qu’elles ont rendu possibles ont porté les progrès de la médecine depuis la Seconde Guerre mondiale. La première à avoir été mise en place, en 1948, porte le nom de la banlieue de Boston dans laquelle ont été recrutés ses 5.000 sujets, Framingham. Encore active aujourd’hui, elle ne visait au départ que les maladies cardio-vasculaires. « Une grande partie de tout ce que nous savons aujourd’hui au sujet de ces maladies provient de Framingham « , souligne le médecin, épidémiologiste et biostatisticien de l’Inserm, Marcel Goldberg.

Ce dernier est le coresponsable scientifique, avec sa collègue Marie Zins, de la plus grosse cohorte jamais mise en place en France, baptisée « Constances « . Lancée en 2012 avec un budget initial de 158 millions d’euros sur huit ans, elle ambitionne de recruter jusqu’à 200.000 sujets (136.000 l’ont été à ce jour), tirés au sort parmi les Français de 18 à 69 ans affiliés au régime général de la Sécurité sociale. Ces volontaires, qui seront suivis durant plusieurs décennies, doivent répondre tous les ans à des questionnaires précis sur leur mode de vie, leur environnement socioprofessionnel, etc., et se soumettre à une batterie complète d’examens tous les cinq ans. Parmi ceux-ci, une série de tests cognitifs sont réservés aux personnes âgées de 45 ans et plus, afin de voir si des troubles apparus dans la force de l’âge sont annonciateurs de démences du type Alzheimer quelque trente ou trente-cinq ans plus tard. « De tels tests n’ont encore jamais été faits à cette échelle-là, assure Marcel Goldberg. Ils nous permettent d’avoir d’ores et déjà la base de données la plus importante au monde sur ce sujet. »

Fort de son expérience avec Constances, le médecin de l’Inserm réagit avec une certaine circonspection à l’annonce de Google, premier acteur non issu du monde académique à lancer une cohorte. Les données recueillies via les objets connectés ne sont pas fiables, objecte-t-il, faute de pouvoir contrôler les circonstances dans lesquelles elles ont été mesurées. Un paramètre comme le taux de glycémie, par exemple, varie fortement en fonction de l’heure du dernier repas, la pression artérielle n’est pas la même juste après une contrariété ou une dispute, etc. Quand les sujets de Constances se rendent au centre de santé pour leurs examens, des protocoles très stricts sont appliqués afin de valider les mesures; celles de Baseline seront-elles soumises à de telles règles, et si oui, comment ? « On a un peu l’impression que les responsables de Google et Verily cherchent davantage à tester leurs objets connectés qu’à résoudre des problèmes scientifiques », conclut Marcel Goldberg.

Un point de vue qui n’est pas du tout celui d’un autre médecin, l’entrepreneur et prospectiviste Laurent Alexandre. « Il est vrai que Baseline a des défauts. Vrai aussi que ce n’est encore qu’une petite cohorte, avec seulement 10.000 personnes et quatre ans de suivi. Aujourd’hui, la cohorte Constances est bien meilleure, tout comme il y a dix ans TF1 était bien meilleur que YouTube. Mais ce que les gens de l’Inserm et les autres ne comprennent pas, c’est que des acteurs comme Google sont dans une logique de « bêta-testing » et disposent de moyens financiers sans commune mesure avec ceux de la recherche publique française », déclare-t-il.

Laurent Alexandre s’appuie sur un constat trop souvent passé sous silence : des méta-analyses récentes ont montré qu’entre 60 et 80 % des études médicales parues en revues n’étaient pas reproductibles. Refaites dans les mêmes conditions, elles ne redonnent pas les mêmes résultats ! « A quoi bon injecter les données issues des études médicales dans des systèmes experts ou d’intelligence artificielle pour les « éduquer » si ces données ne sont pas fiables ? » s’interroge Laurent Alexandre, qui voit dans le projet Baseline de Google l’acte fondateur d’une nouvelle ère de la médecine, celle qui va la faire sortir de l’artisanat et entrer de plain-pied dans la science dure. Ce tournant ne sera pas opéré par les acteurs du monde académique, trop petits, trop faibles économiquement, mais par ceux qu’il appelle les « plates-formistes » : des mastodontes du privé, des oligopoles à la puissance financière inégalée, tels que les Gafa (Google, Amazon, Facebook, Apple) de la Silicon Valley ou les BATX (Baidu, Alibaba, Tencent, Xiaomi) chinois – les seuls à avoir les moyens techniques de « faire parler » de telles masses de données. « Baseline est un terrain d’essai pour Google, qui commence petit pour apprendre avant de monter en puissance », veut croire le patron de DNAVision, qui ajoute : « Mon intuition est que, d’ici dix ou vingt ans, les plates-formistes auront créé leurs propres cohortes, à non pas 200.000 mais plusieurs dizaines de millions de personnes, et s’en serviront pour refaire sur une échelle industrielle les études médicales jusqu’ici sujettes à caution. «  Entre ceux qui ne voient dans l’annonce de Google qu’un simple effet de mode et ceux pour qui elle marque le début d’un changement structurel de la médecine, l’avenir tranchera.

Repères

Les « études de cohorte » consistent à observer la survenue d’événements de santé (maladie, marqueurs biologiques…) dans le temps au sein d’une population définie.

Le terme a été introduit en 1935 par Wade Hampton Frost (1880-1938), professeur d’épidémiologie à l’université John Hopkins aux Etats-Unis et pionnier de cette discipline.

Les premières études modernes de cohorte en santé publique ont débuté après la Seconde Guerre mondiale. Certaines perdurent encore, comme la cohorte Framingham, lancée en 1948 aux Etats-Unis et qui a permis de mettre en évidence la plupart des facteurs de risques cardio-vasculaires reconnus de nos jours.

La cohorte est le type d’observation le plus apte à déterminer et à quantifier l’existence d’une association entre des facteurs de risque et une pathologie; elle ne permet cependant pas de démontrer formellement à elle seule une relation de causalité.