Modifier génétiquement une plante est loin d’être anodin (suite), par Eric MEUNIER

Temps de lecture : 7 minutes

Cet article a été lu 2514 fois

Article paru sur inf’OGM.

Une nouvelle publication (juin 2017) fait état de centaines de mutations inattendues chez des souris modifiées par Crispr-Cas9. Ce n’est qu’une confirmation, pour Inf’OGM, de la série d’articles écrits à l’été 2016, dont nous republions ici une version actualisée.
Dans un précédent article [1], Inf’OGM a abordé la question des mutations et épimutations générées à chacune des étapes préalables à quelque technique de modification génétique que ce soit. Nous allons ici aborder la question des effets non intentionnels ou limites générés par les étapes postérieures : sélection des cellules ayant été réellement modifiées, régénération d’une plante entière à partir de ces cellules modifiées et croisement de cette plante génétiquement modifiée avec une variété « élite » (étape couramment appelée « rétrocroisement »).

Modifier le génome d’une plante signifie travailler in vitro sur des cellules végétales qui devront avoir été préparées et mises en culture, puis avoir reçu le matériel capable de générer la (ou les) modification(s) génétique(s) désirée(s).

 

Sélectionner et régénérer les cellules « modifiées » n’est pas sans effet

Du fait de leur faible, voire très faible, efficacité de transformation [2], les techniques de modification génétique impliquent en aval de sélectionner les cellules ayant effectivement été modifiées. Cette sélection se fait en utilisant des marqueurs qui permettent de différencier les cellules : gène de résistance à des antibiotiques ou à des herbicides (les cellules sont alors plongées dans un bain d’antibiotiques ou d’herbicides et seules les cellules réellement modifiées survivent), gène qui permet la croissance de la cellule en présence d’une molécule habituellement toxique ou encore gène qui permet aux cellules d’utiliser une source de carbone normalement non métabolisable… ou tout autre marqueur qui sera persistant ou supprimé en bout de course [3]. Mais la suppression de ces marqueurs de sélection se fait par des techniques plus ou moins fiables et précises et qui donc peuvent induire potentiellement des toxicités cellulaires et autres réarrangements chromosomiques [4], laisser des empreintes [5] et produire des sites de recombinaisons (lieux d’échanges de séquence génétique entre deux brins d’ADN) aux effets non prévisibles [6]. Des techniques qui ne sont par ailleurs pas forcément possibles pour toutes les espèces végétales.

A partir de ces cellules sélectionnées, des plantes doivent ensuite être régénérées. Une nouvelle étape de cultures cellulaires qui fera appel à diverses hormones de synthèse, et pourra aussi induire à nouveau des mutations et des épimutations avec réarrangements ou non de chromosomes [7].

Qu’il s’agisse de l’étape de modification génétique en elle-même, des étapes préalables, ou des étapes postérieures, toutes induisent des mutations ou épimutations, appelées effets hors-cible. Mais, on peut entendre dans les couloirs que finalement ces (épi)mutations ne seraient pas présentes dans la plante commercialisée. La raison ? L’étape suivante, dite de rétrocroisement, permettrait de se débarrasser de tous ces effets non intentionnels…

 

La théorie à la base du rétrocroisement

Rappelons le principe général : une entreprise qui souhaite mettre sur le marché une variété génétiquement modifiée (qu’elle soit légalement considérée comme OGM ou pas) ne va pas modifier directement le génome d’une des variétés « élites » mais celui d’une variété plus commune. Une fois la modification obtenue, l’entreprise va alors croiser une première fois la variété commune génétiquement modifiée (GM) avec la variété élite commercialement intéressante. Elle recroisera ensuite les descendants avec la variété élite initiale jusqu’à ce que ces descendants soient considérés (à partir d’une analyse statistique) quasiment similaires (on parle de variété quasi-isogénique ou de ségrégants négatifs) à la variété élite. La différence entre la variété élite et la nouvelle variété est supposée n’être « quasiment » que la seule séquence modifiée. Le GNIS explique ainsi que, au dernier croisement, « la part [du génome provenant] de la lignée élite est de 96,88%, on estime alors que la lignée obtenue est suffisamment proche de la lignée élite. On tend vers l’obtention d’une lignée isogénique, ne différant de la lignée élite que par un seul gène [celui contenant la modification] » [8]. On notera ici qu’un pourcentage de 96,88 % laisse encore beaucoup de place aux mutations, épimutations et réarrangements potentiels pour certaines plantes cultivées dont le génome est très grand comme le blé : pour environ 17 milliards de paires de base constituant le génome du blé, les 3,12% restants représentent tout de même plus de 500 millions de paires de bases…

 

Les limites de la théorie

La théorie sous-jacente au « nettoyage » des effets hors-cible grâce au rétrocroisement se fonde sur l’hypothèse suivante : les effets non intentionnels apparus aux étapes antérieures sont suffisamment éloignés de la région où a eu lieu la modification génétique désirée. En effet, plus ces effets hors cibles sont proches, plus la probabilité est grande que les effets non désirés soient transmis avec la modification génétique à chaque croisement. D’un nombre minimum de sept, le nombre de croisements nécessaires pourrait alors monter à plus de 14 pour essayer de s’en débarrasser.
Mais, outre ce problème de proximité des effets hors cible avec la séquence génétique modifiée, la confiance que l’on peut avoir dans cette théorie est également relativisée par deux autres phénomènes biologiques. D’une part, des séquences génétiques peuvent exister et évoluer en blocs plus ou moins importants. Ces blocs étant transmis tels quels à la descendance, les effets hors-cibles contenus dans ces blocs resteront alors avec la séquence génétique modifiée à chaque croisement. D’autre part, certaines séquences génétiques ont la capacité de « s’imposer » lors de la formation des gamètes. Dites « égoïstes », ces séquences vont être contenues dans un plus grand nombre de gamètes qu’attendu et, de génération en génération, elles seront toujours présentes dans la descendance. Si les effets hors-cible apparaissent dans de telles séquences, il sera moins aisé de s’en débarrasser [9].

Ces éléments impliquent donc qu’une nécessaire vérification au cas par cas paraît nécessaire. A l’heure actuelle, seule la législation sur les plantes transgéniques requiert de telles vérifications au cas par cas avec un ensemble d’analyses le plus complet qu’il soit (avec des déficiences néanmoins rappelons-le). En effet, le séquençage du génome ne permet pas de répondre à la question de la présence ou non d’effets hors-cible du fait des limites inhérentes à ce type d’analyse (voir encadré ci-dessous).

Nous avons, au cours de ces deux articles, évoqué les mutations et épimutations parmi les effets non intentionnels de ces biotechnologies modernes. On peut dès lors observer que prétendre détecter et éliminer tous les effets non intentionnels des nouvelles techniques relève plus de l’acte de foi que de la science établie. Surtout, face à ce constat des effets potentiels, des limites du rétrocroisement et de celles du séquençage, on peut douter en toute bonne foi de la capacité des sélectionneurs à éliminer tous les effets hors-cible puis à détecter efficacement et rapidement les mutations et épimutations restantes par séquençage. On peut dès lors s’étonner du silence du Comité scientifique du Haut Conseil des Biotechnologies (HCB) sur tous ces points dans son premier rapport publié en février 2016 sur les impacts liés aux nouvelles techniques de modification génétique.

Un constat renforcé par une publication récente datée de juin 2017 faisant état de centaines de mutations inattendues chez des souris modifiées par Crispr-Cas9 [10]. Des centaines de mutations passaient inaperçues car, selon les auteurs, les algorithmes informatiques utilisées se restreignent aux seuls “sites d’effets hors-cible possibles, mais ils peuvent rater des mutations”. Les auteurs estiment donc que seul le séquençage intégral du génome permettrait de détecter toutes les mutations hors-cible, une technique qui n’est pourtant pas parfaite non plus (voir encadré ci-dessous)…

Le séquençage et les outils informatiques associés ? Tout sauf un gage de certitude !

Le 7 avril, lors de l’audition organisée par l’Office parlementaire sur l’évaluation des choix scientifiques et techniques (OPECST), André Choulika, PDG de Cellectis, affirmait à propos des effets hors-cible « reséquencer intégralement [le génome des plantes], c’est vachement important […] parce que dans l’approbation, on vous redemande la séquence intégrale ». Sauf que, à bien y regarder, les résultats de séquençage obtenus sont loin d’une fiabilité absolue.

Le séquençage dit de « nouvelle génération », est aujourd’hui relativement peu cher et rapide. Mais plusieurs « problèmes » émaillent sa mise en œuvre, la lecture et l’utilisation des résultats.
Tout d’abord, plusieurs étapes du séquençage lui-même « parasitent » la fiabilité du résultat final. Il faut savoir extraire correctement l’ADN, le découper en morceaux puis séquencer ces derniers à l’aide de diverses plateformes et méthodes. Or, ces plateformes et méthodes sont assez différentes les unes des autres, tant en termes de limites que de fiabilité de résultats [11].
Il faut ensuite lire ces résultats en tentant de remettre bout à bout les séquences lues pour reconstituer le génome en entier. Puis, les séquences obtenues sont comparées avec d’autres considérées comme « de référence » et stockées dans des bases de données qui contiennent déjà elles-mêmes des erreurs [12].
Autant d’étapes qui introduisent une importante imprécision dans les résultats finaux de détection d’effets non intentionnels et donc d’évaluation des risques, les incertitudes quant aux séquences augmentant avec des génomes polyploïdes ou aux nombreuses séquences répétées [13]. Sans compter qu’en bout de course, les mutations repérées peuvent ne pas s’avérer de la même importance biologique [14]

De nombreux articles résument les difficultés rencontrées à chaque étape, comparent les méthodes, plateformes [15] et logiciels associés [16], discutent de normes de référence (« gold standards ») et normes à mettre en place pour fiabiliser le processus complet [17]. Bref, comme le soulignent ces auteurs, autant de techniques et d’étapes qui sont en cours d’amélioration car non parvenues à maturité, en pleine évolution et nécessitant donc nombre de vérifications pour des évaluations au cas par cas.

Selon de nombreux chercheurs, savoir faire face à l’accumulation de très nombreux résultats (un de ces fameux « big data »), dont certains avec de multiples erreurs, et les utiliser avec rigueur est un des défis de la biologie moléculaire actuelle. D’ailleurs, devant le scepticisme soulevé face à tout résultat de séquençage, les demandes minimales des relecteurs d’articles scientifiques sont telles que de plus en plus de chercheurs sont maintenant obligés de présenter des résultats de séquençages de plus longues séquences pour assurer du sérieux de leurs résultats bruts [18].

print

Soyez le premier à commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*


Lire les articles précédents :
Sortie de l’Accord de Paris : Trump ou la politique du coup d’éclat

Cet article a été publié sur The Conversation par Jean-Eric Branaa, Maître de conférences politique et société américaines, Université Paris...

Fermer