Sélectionner une page

Deepomatic se penche de plus près sur la lutte contre le cancer grâce à sa technologie de Reconnaissance d’Image

par | Tech

Réduire les traitements inutiles et invasifs grâce au deep learning.

Nous connaissons tous quelqu’un à qui on a diagnostiqué un cancer. Les chances de survie des patients sont considérablement améliorées lorsque le cancer est détecté et traité précocement. Un dépistage efficace est donc primordial. Malheureusement, l’évaluation des dépistages peut être lourde, longue et sujette aux erreurs, ce qui entraîne souvent des traitements inutiles et invasifs avec des effets secondaires douloureux possibles. C’est là que l’IA entre en jeu.

Chez Deepomatic, nous croyons fermement que l’IA peut aider les médecins dans le diagnostic de leurs patients avec des analyses de dépistage en temps réel qui sont aussi précises que celles effectuées par un professionnel de santé. L’analyse automatique permettra non seulement de gagner du temps, mais aussi de poser des diagnostics dans des endroits reculés qui manquent de personnel de santé.

Sur cette base, Deepomatic s’est lancé dans un projet très prometteur avec Light for Life Technologies (LLTech), une start-up française qui développe un scanner pour l’imagerie tissulaire microscopique en profondeur. Les images d’un échantillon de tissu sont capturées en quelques minutes, ce qui réduit considérablement le temps d’attente des résultats. De plus, il n’est pas nécessaire de préparer, modifier ou colorer les tissus, ce qui permet de réutiliser la biopsie pour d’autres analyses.

Regardons de plus près comment nous avons utilisé notre plateforme de reconnaissance d’images afin de comprendre les implications du deep learning sur le diagnostic des cancers.

Créer un ensemble de données d’images labellisées sur le cancer

LLTech nous a fourni 18 images de biopsies contenant des cellules cancéreuses et 122 images de biopsies sans aucune anomalie. Les régions anormales dans les premières images ont été identifiées avec des annotations polygonales en utilisant l’outil d’annotation de Deepomatic.

Annotation des régions cancéreuses sur l’image du cancer de la prostate de LLTech.

Comme les régions anormales sont très petites (<1% de la surface de l’image), les images ont été divisées en 256 pixels x 256 pixels pour améliorer les performances d’entraînement. Cette approche avait également l’avantage d’éliminer les sous-images de fond pures (sans aucun tissu) de l’ensemble de données et de localiser les régions tissulaires anormales sans un algorithme de détection entraîné. Les sous-images ont ensuite été regroupées en deux catégories : “sain” et “cancer”.

Division de l’image en sous-images : les zones blanches correspondent aux annotations du cancer et les pourcentages en rouges au chevauchement sur la sous-image correspondante.

Pour la catégorie “sain”, seules les sous-images présentant plus de 50 % des tissus des 122 biopsies ont été choisies. Pour la catégorie “cancer”, les sous-images des 18 biopsies anormales contenant plus de 40 % de cancer ont été utilisées. Pour surmonter le problème d’un entraînement biaisé au moyen d’un ensemble de données très déséquilibré comme celui  dont nous disposions ici, nous avons augmenté la catégorie “cancer” en recadrant au hasard des sous-images dans les régions annotées et en retirant les sous-images de la catégorie “sain”.

Augmenter l’ensemble de données sur le cancer en recadrant au hasard des sous-images dans la région d’annotation du cancer.

L’ensemble de données final contenait 5319 sous-images dans les catégories “sain” et “cancer”, dont 25 %, soit 1330 sous-images choisies au hasard, ont été utilisées pour tester la performance de l’algorithme.

Entraîner un modèle personnalisé pour diagnostiquer les tissus cancéreux

La plateforme Deepomatic a été développée pour entraîner facilement des modèles personnalisés. Qu’est-ce que cela signifie exactement ? Cela signifie que les modèles peuvent être entraînés pour identifier n’importe quel concept présent dans les images téléchargées sur la plate-forme. Retour à notre mission – après avoir transféré sur notre plateforme les images prétraitées et les avoir divisées en deux classes ainsi qu’en deux sous-ensembles d’entraînement et de test, une architecture GoogLeNet pré-entraînée a été choisie pour être affinée à cet ensemble de données. Sans aucun autre prétraitement ou ajustement de l’algorithme, une précision de 89% de la classification des tissus sains et de 93% de la classification des tissus cancéreux a été obtenue après seulement 10 époques d’entraînement. Dans la dernière version de notre logiciel, différents algorithmes pré-entraînés (AlexNet, ResNet, GoogLeNet) peuvent être choisis et leurs hyper-paramètres correspondants tels que la politique de taux d’apprentissage et le taux de décroissance, peuvent être modifiés pour améliorer les performances.

Modification d’algorithmes pré-entraînés

Apprendre à détecter le cancer, image par image 

Lorsque vous entraînez des modèles pour reconnaître des concepts particuliers, vous pouvez vite être frustrés si vous n’atteignez pas votre taux de rendement cible, et c’est encore plus frustrant si vous ne savez pas pourquoi. Heureusement, notre outil permet aux utilisateurs d’identifier facilement les raisons des taux de rendement insatisfaisants. Dans le cas de la classification des cancers, on peut voir facilement que :

  • les annotations n’étaient pas assez précises et informatives,
  • l’arrière-plan est un élément important pour l’algorithme et doit être éliminé,
  • l’ensemble de données n’est pas suffisamment diversifié avec 18 images dont moins de 1 % des sous-images ont été utilisées pour l’entraînement.

En contrôlant ces variables, même si nous doublions simplement le nombre d’images dans l’ensemble de données, cela augmenterait considérablement les taux de performance et ferait de la détection automatique une option fiable et pratique. De plus, le principal avantage de la révolution médicale de LLTech est que les données sont traitées en temps réel ; elles peuvent être transmisent à distance directement à un système d’intelligence artificielle pour aider au diagnostic. Les médecins pourraient recevoir les résultats de la biopsie directement en salle d’opération, évitant ainsi une deuxième intervention. Il ne fait aucun doute que la technologie médicale alimentée par le deep learning aura un impact révolutionnaire dans le diagnostic des cancers.

Cette solution s’accompagne bien entendu de défis qu’il reste encore à relever. L’annotation exige du temps d’expert, de sorte que l’obtention d’ensembles de données annotées de haute qualité demeurera un défi coûteux pour les années à venir. De plus, pour être plus précis et plus utile, nous devrons entraîner plusieurs classes pour classer les stades du cancer. La prochaine étape de notre collaboration avec LLTech consiste à entraîner de nouveaux algorithmes sur leur nouvelle imagerie cellulaire dynamique (ICD) qui peut fournir un contraste subcellulaire complémentaire à l’imagerie existante. Regardez cet espace.

Les systèmes LLTech effectuent des biopsies optiques pour la détection du cancer. Leurs microscopes exploitent simultanément deux technologies optiques pour générer des images en couleur en temps réel. Les zones jaune et vert/bleu correspondent respectivement aux cellules cancéreuses et saines.

Merci de votre lecture. 

Share This