Partager cet article

Les nanoparticules ont une petite chance de gagner contre le cancer

Un chercheur travaille à l'étude sur les nanoparticules dans un laboratoire de l'Institut National de Recherche et de Sécurité (INRS), le 31 mars 2011 à Vandoeuvre-lès-Nancy. | JEAN-CHRISTOPHE VERHAEGEN / AFP

Un chercheur travaille à l'étude sur les nanoparticules dans un laboratoire de l'Institut National de Recherche et de Sécurité (INRS), le 31 mars 2011 à Vandoeuvre-lès-Nancy. | JEAN-CHRISTOPHE VERHAEGEN / AFP

Certains des plus grands progrès médicaux à venir pourraient être les plus minuscules.

Depuis quelques décennies, les scientifiques apprennent à concevoir des molécules capables d'agir dans le corps humain. Il s'agit ici de minuscules particules pouvant modifier des processus biologiques –conçues pour se lier à l'enzyme essentielle à la réplication du VIH (et la bloquer), pour détruire des tumeurs, tout en laissant intactes les cellules saines, pour souder des artères après une chirurgie.

À une échelle aussi petite –l'échelle nanoscopique ou nano-échelle– des chimistes construisent et manipulent de la matière aussi minuscule que des atomes, des petites molécules, des protéines, des anticorps et des bases azotées, mesurant moins de 100 nanomètres de large. Des objets bien plus petits que les cellules de votre corps. Beaucoup sont encore plus infinitésimales que la membrane de ces cellules.

La taille des nanoparticules les rend particulièrement utiles contre des ennemis comme le cancer. Contrairement aux vaisseaux sanguins normaux, qui s'embranchent harmonieusement et voguent dans la même direction, les vaisseaux des tumeurs sont un foutoir sans nom. Et de la même manière que les dépôts s'accumulent dans une plomberie vétuste, les nanoparticules peuvent apparemment être conçues pour s'accumuler au sein de ces croissances cellulaires problématiques.

Griller la tumeur de l'intérieur

Ces bizarreries tumorales sont à l'origine d'un nombre incalculable de procédés nanotechnologiques anti-cancer. L'approche classique consiste à accrocher un médicament à des nanoparticules pour s'assurer qu'ils ciblent bien les tumeurs et laissent tranquilles les parties saines du corps. Une méthode encore plus folle consiste à utiliser un type spécial de nanoparticule qui absorbe la lumière infrarouge. Orientez un laser, à travers la peau, vers le tas de nanoparticules au sein de la tumeur et les particules grilleront la tumeur de l'intérieur.

Ces lasers carbonisateurs de tumeurs plaident pour l'abandon définitif des chimiothérapies, sauf qu'il est quasiment impossible de prévoir tous les éventuels revers de la libération de particules aussi infimes dans le corps. Dans chaque cellule humaine, il y a une myriade de substances différentes et il est très difficile de savoir comment une molécule est susceptible d'interagir avec chacune d'entre elles. Pour prévoir des effets plus restreints, les chimistes sont très bons –par exemple, comment telle molécule va agir sur sa cible. Mais pour pronostiquer toutes les réactions que ces nouvelles créations nanoscopiques pourraient générer, les scientifiques s'en remettent à des approximations qui peuvent les décevoir. Par exemple, une de ces particules s'est révélée particulièrement collante. Toute une masse de protéines allait être attirée par la particule comme des poils sur une boule de scotch, ce qui l'empêchera d'atteindre sa cible.

Des histoires de scientifiques inventant et utilisant des nouvelles molécules se sont souvent soldées par des succès, comme ce fut le cas du Viracept, nouveau médicament anti-VIH. Reste que la difficulté de calculer la myriade d'interactions possibles demeure le principal facteur limitant à l'usage généralisé des nanoparticules. Tout n'est pas que bonheur radieux et promesse de longue vie au pays nanoscopique. Les risques des nanoparticules sont réels.

Les risques des nanoparticules

Prenez les nanotubes, des minuscules cylindres super solides. Vous vous rappelez du laser qui grille les tumeurs? Ce sont des nanotubes qu'il cible. Des chercheurs voudraient aussi se servir de nanotubes pour faire repousser des os cassés et connecter des cerveaux avec des ordinateurs. Des perspectives extrêmement prometteuses, mais certains longs nanotubes de carbone sont de la même taille et ont la même forme que les particules d'amiante. Ces deux matières sont des fibres suffisamment fines pour se nicher très profondément dans les poumons, mais trop longues pour que le système immunitaire puisse les éliminer. D'expériences menées sur des souris, on peut d'ores et déjà envisager que l'inhalation de ces nanotubes ait les mêmes conséquences sanitaires désastreuses (des formes de cancer particulièrement létales) que le minéral toxique autrefois couramment utilisé dans l'isolation des bâtiments.

Par contre, les nanotubes plus courts ne semblent pas dangereux. Les nanoparticules peuvent être conçues de toutes les formes et de toutes les manières, et il est très difficile de prédire celle qui tournera mal. C'est un peu comme si des maisons amiantées à trois salles de bain rendaient ses habitants malades, mais que celles à deux ou quatre salles de bains étaient sans danger pour les poumons de ses résidents. Là réside la difficulté fondamentale de ces créations nanoscopiques – le petit pas imprévu entre le biomiracle et la biocatastrophe.

Et c'est là qu'entre en scène l'apprentissage automatique, ou machine learning, cette belle promesse de résoudre tous nos problèmes compliqués. Un champ particulièrement exaltant pour les questions où les bonnes réponses possibles sont légion. Les scientifiques puisent souvent leur inspiration dans la nature –dans l'évolution, les colonies de fourmis et même nos propres cerveaux– pour apprendre aux machines à faire des prédictions et à produire des résultats sans avoir à les programmer pas à pas. Avec les bons inputs et les bonnes directives, les machines peuvent être aussi bonnes que nous, et même meilleures, dans la reconnaissance et la manipulation de formes cohérentes. Elles peuvent aussi le faire plus bien plus vite et à une échelle bien plus conséquente que tout ce dont les humains, laissés à eux-mêmes, sont capables.

Tester les variables

A leurs débuts, les scanners ne pouvaient reconnaître que quelques lettres au sein d'un ensemble très limité de polices. Aujourd'hui, après avoir assimilé des dizaines de milliers d'exemples de caractères manuscrits, afin d'y détecter des formes et d'en extrapoler d'autres, des automates bancaires sont capables de reconnaître une signature sur un chèque. En nanotechnologie, la recherche est similaire: de la même manière que plusieurs formes légèrement différentes peuvent signifier la même lettre, des molécules légèrement différentes peuvent avoir un effet identique. Programmer un ordinateur pour qu'il puisse apprendre comment différentes nanoparticules risquent d'interagir avec la complexité du corps humain peut se révéler très utile et permettre de résoudre des problèmes autrefois insolvables, sollicitant la prédiction de milliards de résultats possibles.

«Pour que cela soit efficace, il n'est pas nécessaire que cela soit parfait», me résume en mail Rob Nishihara, doctorant en apprentissage automatique à Berkeley, ancien de Facebook, et ami personnel. «Même une approximation assez large est susceptible de restreindre le criblage et de proposer des molécules candidates».

Voilà comment ça marche. Vous mettez différents types de nanoparticules dans des cellules et vous lancez des dizaines d'expériences, en changeant à chaque fois une variable –la longueur, la matière, les propriétés électriques et ainsi de suite. Ce qui vous donne un groupe d'apprentissage. Ensuite, vous laissez votre algorithme d'apprentissage tourner et apprendre de ce premier regroupement de données. Après quelques minutes de calcul, il va concevoir un modèle des éléments les plus importants. Et c'est là qu'arrive le moment le plus redoutable: vous donnez à votre machine un groupe de test – des données similaires mais distinctes de votre groupe d'apprentissage – et vous voyez comment elle s'en sort.

Un bon exemple est l'expérience menée en 2011 par Rong Liu, de l'UCLA, et ses collègues. Cette équipe de chercheurs étudiait les nanoparticules d'oxydes métalliques –soit des minuscules billes de rouille. Ces particules sont potentiellement très utiles pour l'imagerie par résonance magnétique, car elles offrent des contrastes et permettent aux médecins de mieux comprendre ce qui se passe à l'intérieur du corps. Ainsi, il est plus facile de poser un diagnostic sur une maladie ou d'évaluer tel ou tel dégât d'un traumatisme. Les chercheurs allaient mettre différentes variétés de ces particules dans des boîtes de Petri accompagnées de cellules humaines, prélevées dans des tissus de la gorge. Les scientifiques ont ensuite observé quelles particules endommageaient les membranes des cellules, avant de diviser leurs données en un groupe d'apprentissage et un groupe de test. Leur meilleur modèle réussira à prédire correctement quelles particules allaient endommager les cellules dans le groupe de test. Et en réalité, il le prédira avec un taux de précision de 100%.

Des tests réussis pour de mauvaises raisons

Une précision de 100%, ça sonne comme une superbe réussite. Mais les experts en apprentissage automatique sont sceptiques quand les chiffres sont aussi hauts. Le problème avec les algorithmes de machine-learning, c'est qu'ils sont parfois très bons dans le groupe de test, tout en se plantant royalement quand ils veulent appliquer de nouveaux inputs à leur premier test. Ou pire encore, ils réussissent leurs premiers tests, mais pour de mauvaises raisons.

C'est ce qui est arrivé il y a quelques années avec Google Flu Trends, brièvement célébré pour avoir réussi à «prédire en temps réel» l'épidémie de grippe aux États-Unis. Ses estimations provenaient des cohérences que ses algorithmes avaient détectées dans l'alignement entre les requêtes sur Google et les données des CDC concernant la prévalence grippale, pendant un certain laps de temps. Si, au départ, ses rapports semblaient s'accorder aux cas consignés par les CDC, avec un temps de latence de deux semaines, son succès prédictif et potentiellement vital allait vite se dégonfler. En réalité, les deux années suivantes, Google Flu Trends est totalement parti en vrille.

Le truc, c'est que les algorithmes avaient en réalité reconnu des requêtes que les Américains font beaucoup en hiver, comme «basket-ball lycée». Que, la première année, le nombre de gens cherchant des informations sur le basket ait coïncidé avec celui des malades de la grippe ne fut en réalité qu'une coïncidence et, sans surprise, Google Flu Trends n'a pas fonctionné les années suivantes. Un humain n'aurait pas fait ce genre d'erreur.

Les machines auront besoin de beaucoup de données

Ce qui ne veut pas dire que la Big Data n'a aucun intérêt, ni même que l'apprentissage automatique permettra sans conteste d'énormes progrès en nanomédecine. Mais c'est une raison pour ne pas laisser les algorithmes à eux-mêmes, ni les laisser seuls à réfléchir, surtout quand les enjeux sont aussi élevés que ceux de nouvelles molécules se baladant dans nos corps si complexes et si finement modelés par l'évolution. Comme nous le rappellent des flops aussi inoffensifs que Google Flu Trends, les machines auront besoin d'énormément de données avant qu'on puisse croire à la fiabilité de leurs prédictions. Et, dans certains cas, de l'aide de l'humain pour faire gagner en pertinence les données sur lesquelles part la machine.

Qu'on pense ici au filtre anti-spam, l'un des plus gros succès de l'apprentissage automatique. Quand des programmeurs se contentent d'envoyer le texte d'un spam dans une fonction prédictive, elle n'apprend qu'à filtrer les messages à la formulation très proche des premiers exemples. Mais dites à la fonction de prendre en compte un ensemble plus large de variables, comme le nombre de $$$ ou le pourcentage de mots EN MAJUSCULES, et le taux de réussite sera bien plus élevé.

C'est la même chose avec les nanoparticules –les recherches effectuées jusqu'ici montrent qu'il ne faut pas prendre en compte que des variables aussi simples que la taille ou la masse, mais qu'il faut aussi s'intéresser aux propriétés que sont la texture, la rotondité, le matériau de surface ou encore les charges de surface pour obtenir les meilleurs prédicteurs de lésion cellulaire. Et, même s'il est difficile de généraliser, il semble aussi que la qualité des données est plus importante que l'algorithme d'apprentissage utilisé. Et on en revient à la raison pour laquelle beaucoup de méthodes d'apprentissage automatique se fondent sur le monde naturel –sur le système immunitaire, les nuées d'oiseaux, les cernes des arbres.

La nature est instable et irrégulière. Une vérité d'autant plus vraie à l'échelle nanoscopique. Et c'est pourquoi les systèmes qui sont eux-mêmes instables, irréguliers, lentement façonnés par le temps et par une longue succession d'essais et d'erreurs sont le meilleur moyen de la comprendre. Ce qui signifie, par contre, qu'il faudra encore attendre un peu pour en récolter les fruits.

Vous devez être membre de Slate+ et connecté pour pouvoir commenter.
Pour devenir membre ou vous connecter, rendez-vous sur Slate+.
En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites, vous proposer des publicités adaptées à vos centres d’intérêt et nous suivre sur les réseaux sociaux. > Paramétrer > J'accepte