Des chercheurs révèlent de nouvelles méthodes pour reconnaître les mosaïques d’ADN

En tant qu’êtres humains, chacun de nous possède des milliards de cellules. Et chaque cellule a un noyau avec des informations génétiques individuelles – l’ADN – qui peuvent muter pour créer une anomalie. Si un être humain naît avec un grand nombre d’anomalies dans les cellules, ou si des mutations se développent au fil du temps, la maladie survient. Pour rendre cela encore plus compliqué, les cellules sont souvent un mélange d’ADN normal et anormal : une mosaïque, si vous voulez, et comme la forme d’art, cet assemblage complexe est difficile à comprendre. Cependant, une équipe de recherche dirigée par Joseph Gleeson, MD, professeur Rady de neurosciences à la faculté de médecine de l’UC San Diego et directeur de la recherche en neurosciences au Rady Children’s Institute for Genomic Medicine, a utilisé le Triton Shared Computing Cluster (TSCC) à le San Diego Supercomputer Center (SDSC) de l’UC San Diego pour le traitement des données et la formation de modèles afin de révéler de nouvelles méthodes de reconnaissance de la mosaïque d’ADN.

Gleeson et son équipe ont récemment découvert de nouveaux gènes et voies dans la malformation corticale du développement, un éventail de troubles qui causent jusqu’à 40 % des épilepsies focales résistantes aux médicaments. Leur recherche montre comment les modèles générés par ordinateur peuvent efficacement imiter le travail de reconnaissance humaine de manière beaucoup plus efficace et a été publiée cette semaine dans Nature Genetics. Une étude connexe a été publiée plus tôt ce mois-ci dans Nature Biotechnology.

Nous avons commencé par une mission de test sur le supercalculateur Comet de SDSC il y a de nombreuses années et nous faisons partie de la communauté TSCC depuis près d’une décennie. Le TSCC nous permet de tracer des modèles générés par un programme de reconnaissance informatique appelé DeepMosaic et ces simulations nous ont permis de réaliser qu’une fois que nous avons entraîné le programme du superordinateur à identifier les zones anormales des cellules, nous avons pu cribler rapidement des milliers de variantes de mosaïque de chaque génome humain. : ce ne serait pas possible si c’était fait avec l’oeil humain ».

Xiaoxu Yang, chercheur postdoctoral au laboratoire des maladies cérébrales pédiatriques du Dr Gleeson

Ce type de connaissances générées par ordinateur est connu sous le nom d’apprentissage en profondeur basé sur des réseaux de neurones convolutifs et existe depuis les années 1970. À l’époque, des réseaux de neurones étaient déjà en cours de construction pour imiter le traitement visuel humain. Il a fallu quelques décennies aux chercheurs pour développer des systèmes précis et efficaces pour ce type de modélisation.

Lire aussi  Recommandations du CDC et considérations cliniques pour le traitement du Mpox sévère

« L’objectif de l’apprentissage automatique et de l’apprentissage en profondeur est souvent de former des ordinateurs à des tâches de prédiction ou de classification sur des données étiquetées. Lorsque les modèles formés s’avèrent précis et efficaces, les chercheurs utiliseront les informations apprises plutôt que l’annotation manuelle pour traiter de grandes quantités d’informations », a expliqué Xin Xu, un ancien assistant de recherche de premier cycle dans le laboratoire de Gleeson et maintenant un scientifique des données chez Novartis. « Nous avons parcouru un long chemin au cours des 40 dernières années dans le développement d’algorithmes d’apprentissage automatique et d’apprentissage en profondeur, mais nous utilisons toujours le même concept qui reproduit la capacité humaine à traiter les données. »

Xu fait référence aux connaissances nécessaires pour mieux comprendre les maladies causées lorsque des mosaïques anormales submergent les cellules normales. Yang et Xu travaillent dans un laboratoire qui vise justement cela : mieux comprendre ces mosaïques qui conduisent à des maladies telles que l’épilepsie, les troubles cérébraux congénitaux, etc.

« Les approches d’apprentissage en profondeur sont beaucoup plus efficaces, et leur capacité à détecter les structures et les connexions cachées dans les données dépasse parfois même la capacité humaine », a déclaré Xu. « Nous pouvons ainsi traiter les données beaucoup plus rapidement, ce qui nous permet d’obtenir plus rapidement les informations dont nous avons besoin. »

Fontaine:

Université de Californie à San Diego

Références de revues :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *