Bruno:
On a longtemps dit que les médecins étaient des demi-dieux. Aujourd'hui, leurs oracles s'appellent GPT et ResNet parce que quand une IA voit mieux que l'œil humain et rédige un compte-rendu plus vite qu'un interne, la question n'est plus de savoir si elle aidera la médecine, mais comment elle va la transformer. Mais alors, jusqu'où peut-on faire confiance à une machine pour diagnostiquer une fracture ou un cancer ? Comment valide-on scientifiquement qu'une IA sauve des vies ? Et surtout, dans ce futur augmenté, Est-ce que l'humain reste encore un prescripteur ou juste un spectateur ? Pour répondre à ces questions de santé, je ne reçois pas le Dr House, mais il s'y connaît en algorithme à sang-froid. Alexis, bonjour.
Alexis:
Bonjour Mano.
Bruno:
Alors Alexis, est-ce que tu pourrais te présenter pour les quelques personnes qui ne te connaîtraient peut-être pas ?
Alexis:
Oui, bien sûr. Moi, je suis Alexis Duccaro, je suis le cofondateur IA et technique de Glimmer, et maintenant j'occupe le rôle de directeur de l'innovation chez Glimmer.
Bruno:
Tu peux nous en dire un peu plus sur Glimmer, déjà depuis quand vous existez, et ce que vous faites surtout principalement comme activité ?
Alexis:
Bien sûr, donc nous on a créé Glimmer en 2017 avec mes deux autres cofondateurs et on développe des solutions d'aide au diagnostic principalement pour la radiologie c'est-à-dire pour venir en aide aux médecins leur fournir un second avis diagnostique pour les conforter dans leur avis On fournit aussi également maintenant comme tu l'évoquais très bien dans ton introduction des outils d'aide à la rédaction des comptes rendus, pour faciliter encore plus la vie des médecins sur ces parties qui peuvent être un petit peu fastidieuses, en tout cas qui ne font pas appel au cœur de leurs compétences médicales.
Bruno:
C'est quoi l'évolution de la... Du coup, 2017, on est avant l'explosion des LLM et des IA qu'on voit absolument partout. C'est quoi, vous, votre trend sur la qualité de diagnostic ou d'aide à la diagnostic que peut apporter l'IA ?
Alexis:
Bien sûr. Alors en 2017, on était au max de la trend précédente, avant les LLM, c'est-à-dire ces fameux ResNet que tu évoquais en introduction, c'est-à-dire l'apprentissage supervisé, principalement dans le monde de l'image, qui est venu vraiment révolutionner ce qu'on était en capacité de faire avec de l'IA à ce moment-là. D'ailleurs, en 2016, Geoffrey Hinton avait prédit la disparition des radiologues d'ici à 5 ans. Bon, on attend toujours. Mais en tout cas, cet environnement technologique a vraiment permis de fournir des solutions de diagnostic qui arrivaient à des niveaux de performance diagnostique qui n'avaient jamais été vus auparavant et qui devenaient suffisamment performantes pour être utilisées en routine clinique de manière pertinente. Et là, depuis 2022, on voit effectivement l'apparition des LLM avec les GPT, etc. Donc principalement avec des énormes capacités sur le texte qui sont en train de se traduire non plus en LLM mais en VLM, c'est-à-dire Vision Language Model, avec des capacités sur l'image. Mais là, pour le coup, sur l'image, pour l'instant, ces modèles-là n'ont pas des capacités diagnostiques très importantes. On les compare assez régulièrement, on en développe même nous en interne. Pour l'instant, ils ne sont pas à la hauteur du tout de l'apprentissage supervisé à l'ancienne, si j'ose dire. Mais ça viendra un jour et en tout cas on sera parmi les premiers à l'implémenter pour pouvoir développer des nouveaux dispositifs médicaux encore plus vite à ce moment là.
Bruno:
Donc vous aujourd'hui l'LLM c'est surtout pour cette génération des rapports où l'affluence est très textuelle mais sur la partie analyse de radio ça reste quelque chose qui se fait sur de l'imagerie traditionnelle Exactement.
Alexis:
Notre coeur de métier c'est sur cette partie d'analyse des images et de diagnostic à partir des images donc ça c'est vraiment de l'apprentissage supervisé, c'est là où on obtient les meilleures performances et pour quelque chose d'aussi critique que le médical, on ne peut pas se permettre d'avoir des performances un petit peu, moyennes, il faut vraiment être à l'état de l'art de ce qui se fait et d'être au niveau de ce qu'attendent les médecins. Et par contre pour la partie de langage, là les LLM ont des performances qui sont bluffantes, qui sont incroyables et qu'on leverage nous en ce moment sur des nouveaux types de produits dont le but est justement d'aider les médecins à dicter à une machine comme il dictera pas un humain finalement, comme s'ils parlaient à leur interne senior qui comprend évidemment tout le vocabulaire médical qu'il est en train de leur évoquer, mais qui comprend aussi naturellement que tel nodule de l'apex, ça correspond au thorax et qu'il faut venir le retranscrire comme d'une manière pertinente dans le compte-rendu derrière. Et donc de venir aider les radiologues à leur faciliter la vie, à automatiser une partie des tâches les plus réparatives, aussi du côté de l'édition de compte-rendu.
Bruno:
Forcément qui dit IA dit entraînement l'idée de votre solution c'est quand même j'imagine d'améliorer la capacité de diagnostic des médecins, mais ça nécessite ton entraînement nécessite d'avoir des données correctement labellisées est-ce que t'as pas un risque que justement tu continues à rater ce que les médecins avaient raté par le passé parce que les éléments d'entraînement sont en fait toujours des choses qui ont été faites par des humains au début.
Alexis:
Exactement. En tout cas, sur l'apprentissage supervisé, c'est effectivement labellisé par des humains. C'est-à-dire qu'on fait appel à des dizaines de radiologues experts de chacune des problématiques médicales qu'on vient adresser. C'est-à-dire qu'on trouve une quinzaine, vingtaine par exemple, de radiologues spécialistes en scénologie, c'est-à-dire en détection du cancer du sein pour venir annoter, précisément, de manière supervisée, les images qui vont nous servir à entraîner ensuite nos algorithmes de diagnostic sur le cancer du sein, mammographie et tomosynthèse. Et donc ça représente des dizaines de milliers, voire même parfois des centaines de milliers d'examens qui vont venir être précisément annotés, très représentatifs de toutes les populations qu'on peut envisager, de tous les types de cancers qu'on pourrait voir dans la nature. Et comme tu l'évoques, il y a cette question de la qualité de cette donnée. Donc c'est pour ça qu'on fait appel déjà de base à des médecins experts qui ont accès à toute la donnée clinique du patient, c'est-à-dire aux examens qui ont suivi aussi pour voir s'il n'y a pas un cancer d'intervalle qui est apparu entre temps qui pourrait être visible de manière très subtile dans l'image initiale mais aussi ils sont ensuite challengés par l'IA elle-même, c'est-à-dire qu'on fait des boucles de rétroaction sur ces examens pour venir challenger la notation initiale et améliorer de manière incrémentale la notation qui sert à l'entraînement des modèles in fine.
Bruno:
Ok. Est-ce que ça veut dire que depuis le temps aussi, il y a une... Parce que les IA, notamment sur ces réseaux de neurones, il y a une capacité, qui peut parfois presque paraître surnaturelle de déceler des patterns que l'être humain n'aurait pas forcément identifiés. Alors, de manière juste ou non, ça presse à un autre débat, mais est-ce que, grâce à ces systèmes-là, on peut identifier aujourd'hui sur des images qui paraîtraient complètement normales à un médecin traditionnel qui a en fait déjà des éléments, précurseurs ou annonceurs de, risques aggravés ou je ne sais quoi.
Alexis:
Oui tout à fait. Alors c'est moins dans la prédiction que dans la détection de choses extrêmement subtiles qui peuvent être invisibles à l'œil humain. On a un nombre maintenant très nombreux de ces exemples là où l'algorithme pousse une région dans un examen une région qui va considérer comme étant un cancer, une fracture ou autre, pour lequel le radiologue ne voit rien. Il se dit, non, c'est ce qu'on appelle un faux positif, c'est une erreur de la machine. Mais ayant vu les résultats de l'algorithme sur un grand nombre d'exemples et lui faisant confiance, il se dit, bon, c'est quand même bizarre qu'il me fasse ce genre d'erreur, ça ne lui ressemble pas. Et on a des cas de figure où le médecin, du coup, demande un examen complémentaire plus puissant, par exemple, une imagerie 3D pour compléter une imagerie 2D. Et on se rend compte qu'il y avait effectivement un cancer ou une fracture, un pneu au thorax, qui aurait été loupé, sur la base de l'image sans l'algorithme qui lui développe des capacités émergentes, de reconnaissance de pattern qu'on est bien en mal d'expliquer en détail, mais en tout cas on observe que statistiquement on a des performances qui sont excellentes et qui même souvent vont au-delà des performances, obtenues par les humains Oui.
Bruno:
Est-ce que c'est ça qui est intéressant ? On a fait un épisode il y a quelque temps sur ce podcast on parlait effectivement de ces IA et la notion de causalité c'est à dire qu'en fait, de ce que je comprends dans ce que tu dis c'est qu'effectivement l'IA va être capable de déceler que là il y a quelque chose qui est potentiellement, synonyme d'un truc, d'examen complémentaire à faire et qu'il y a peut-être quelque chose mais de pouvoir expliquer qu'est-ce qu'elle a vu, pourquoi elle l'a vu et pourquoi est-ce que tout le chemin fait que ça c'est quelque chose que le système est pas capable encore d'expliquer.
Alexis:
Non on n'a pas de prétention sur la causalité on fait des corrélations des corrélations qui marchent extrêmement bien mais qu'on est capable de prouver cliniquement parce que ce qu'on fait c'est quand même du dispositif médical donc pour pouvoir le mettre sur le marché, le mettre dans les mains des médecins, si on n'est pas en mesure d'expliquer une causalité précise ce qui est rarement le cas dans le domaine médical, toutes choses égales par ailleurs, il faut être en mesure de prouver que son algorithme est extrêmement bon d'un point de vue statistique, global, en moyenne et ça c'est des choses qu'on montre dans maintenant des dizaines et des dizaines d'études, scientifiques qui sont publiés dans des journaux à comité de lecture, on montre que ces algorithmes sont au niveau en tout cas on fait en sorte que ça soit tout le temps le cas, au niveau des, radiologues experts d'une problématique en question et on montre aussi que très souvent la machine et l'humain ensemble, obtiennent des performances encore meilleures, qui permettent de repousser encore, le niveau de diagnostic atteint à la fin.
Bruno:
Est-ce que ça veut dire qu'on se dirige aussi vers une époque où il va y avoir tout un champ de recherche qui consistera à essayer d'expliquer, des patterns que l'IA a identifiés mais qu'elle ne s'est pas expliqués et qu'il faut que nous on arrive à avoir pas uniquement la corrélation mais la causalité entre ces éléments-là.
Alexis:
Il y a plein de domaines où la causalité est un petit peu hors d'atteinte, pour le coup. Et c'est, à mon sens, un petit peu comme vouloir expliquer toutes les relations de causalité qui expliquent la raison pour laquelle, moi, je vais reconnaître que c'est un micro qui est devant moi. Ça, l'expliquer scientifiquement, c'est hors d'atteinte. Et pour le coup, les systèmes d'IA grossissent et sont à une taille qui est tellement maintenant énorme que ça devient impossible d'expliquer des causalités dans ce genre de système. C'était possible quand il y avait une couche, deux couches, et puis dès qu'on continuait à les empiler, ça devenait mathématiquement et logiquement intractable. Et je pense qu'il faut faire une forme de deuil de cette partie-là, ou en tout cas d'une partie de ces enjeux-là, pour certaines applications, et reposer justement sur les niveaux de performance prouvés, mais prouvés de manière scientifique. Parce que ce n'est pas parce qu'on élimine la causalité qu'on élimine la science, entre guillemets, qu'on élimine la capacité de prouver que les choses marchent.
Bruno:
Donc ce que tu veux dire c'est qu'il faut qu'on arrive à une époque où on a une confiance quasi aveugle en l'IA et que si elle dit qu'il y a un cancer, une fracture ou je ne sais quoi même si nous on la voit pas, il faudra faire confiance à l'IA sur sa capacité à déceler le fait qu'il y a quelque chose.
Alexis:
Il faut surtout la challenger il faut lui accorder un niveau de confiance qu'elle mérite dans une certaine mesure mais toujours la challenger c'est à dire que ce qu'on développe c'est de l'aide au diagnostic, Et ensuite quand il y a des choses qui paraissent inexplicables Il peut y avoir des examens complémentaires Comme je l'évoquais tout à l'heure Qui peuvent être faits pour challenger l'avis de cette IA Parfois se rend compte qu'elle a tort Parce que ça arrive aussi, Et parfois se rend compte qu'elle a vu des choses Qui sont hors d'atteinte de l'œil humain On ne sait pas encore vraiment l'expliquer Mais en tout cas c'est le cas quoi.
Bruno:
Ma question m'a échappé oui non c'était sur est-ce qu'aujourd'hui votre objectif il est d'améliorer plus sur les faux positifs ou sur les faux négatifs ou plutôt de pouvoir confirmer, les diagnostics qui ont été faits.
Alexis:
C'est un peu les deux versions d'une même pièce les faux positifs et les faux négatifs parce que étant donné un niveau de performance d'un algorithme au global on va choisir un point de fonctionnement qui va être plus sensible ou plus spécifique, et l'idée pour nous c'est de, maximiser cette performance globale et ensuite de pouvoir dedans sélectionner le meilleur point de fonctionnement. Et le meilleur point de fonctionnement pour nous, c'est un point de fonctionnement qui est extrêmement sensible parce qu'on ne peut pas se permettre de louper des choses en médecine et faire en sorte que la combinaison humain-machine ne loupe quasiment rien, et d'arriver à le faire avec un niveau positif qui soit suffisamment faible pour que ça permette aux radiologues d'être plus efficaces dans leur travail au quotidien et pas de leur ajouter une charge supplémentaire. Et globalement c'est ce qu'on arrive à faire avec nos algorithmes et évidemment on va continuer à aller plus loin, c'est-à-dire que par exemple on bénéficie de l'état de l'art, de ce qui se fait sur la recherche en IA avec les Foundation Models qu'on vient intégrer dans nos modèles historiques. On est parmi les premiers à faire ça et ça nous permet d'aller chercher des niveaux de performance qui n'étaient encore jamais atteints jusqu'à présent avec des types d'approches classiques.
Bruno:
T'évoquais tout à l'heure que ça rend les médecins meilleurs. Moi, j'ai vu passer il y a quelque temps une étude. Alors, j'imagine que ça n'utilisait pas Glimmer, mais en fait, on avait mesuré la capacité des IA à détecter. Alors, je crois que c'était des cancers du sein sur des mammographies. On a testé, du coup, les capacités de radiologues de détecter ces mêmes éléments. Et après, on a demandé à des radiologues aidés de l'IA. Et on voyait que quand les radiologues étaient aidés d'une IA, ils avaient un taux de réussite qui était plus bas, que les radiologues seuls ou que l'IA seul et qu'en fait il y avait une espèce de il y avait une défiance telle de ce que l'IA pouvait dire que les médecins en arrivaient à être moins efficaces que ce qu'ils avaient avant, c'est quoi toi dans ce que tu vois depuis 2017 sur comment est-ce que les médecins interagissent avec ces systèmes là c'est.
Alexis:
Très intéressant parce qu'il y a le contexte d'une étude clinique et le contexte d'une utilisation en routine, on a fait beaucoup de ce genre d'études, justement, IA seul, médecin seul, médecin avec IA, et ça nous arrive d'observer effectivement que le médecin avec l'IA va parfois être moins bon que l'IA, que l'IA, rarement moins bon que le médecin tout seul. Ça nous arrive d'observer ce genre de choses, mais ça peut s'expliquer aussi parfois par le fait que les médecins qui sont inclus dans l'étude clinique en question se servent de l'IA pour la première fois, ils la découvrent au passage. Donc tu parlais de défiance, c'est ce qui peut se produire, ou alors sans parler forcément d'aller jusqu'à de la défiance, mais de parler d'une absence d'habitude, d'une absence de formation à ces outils-là, une absence de confiance qui se crée aussi au fur et à mesure. C'est comme si on avait un père, entre guillemets, qui vient donner son avis. La confiance, ça se crée au fur et à mesure de mois et d'années, parfois, de diagnostics conjoints, entre guillemets, qui va permettre au médecin de construire sa confiance. Et donc, sur un snapshot un peu... Non écologique si j'ose dire, c'est-à-dire d'une étude clinique un peu dans un coin avec des utilisateurs qui n'ont pas forcément l'habitude de servir de l'IA ou de cette IA là en particulier. On peut observer ce genre de choses de performance des humains qui sont dégradés. Nous pour le coup c'est en général c'est pas ce qu'on observe dans la plupart de nos études cliniques et surtout il y a aussi les retours des utilisateurs du terrain qui nous montrent que, quand un utilisateur te renvoie 2-3 cas pour lesquels il y a cette personne qui serait repartie avec sa fracture non déplacée du col du fémur, que j'aurais probablement loupé s'il y a pas flagué en filet de sécurité en fait c'est une personne pour laquelle ces fractures auraient pu se déplacer par la suite, qui auraient peut-être nécessité une prothèse de hanche avec toutes les morbid mortalités qui s'en suivent et donc c'est aussi autant d'éléments plus concrets de l'utilisation de l'IA au quotidien.
Bruno:
Je vois, j'ai ma question qui m'a encore échappé c'était sur, je vais passer à la suivante peut-être que l'autre elle me reviendra tu as évoqué donc effectivement les fractures les cancers, tu as évoqué la hanche tu as évoqué les cancers du sein, il y a énormément de types d'imagerie différents, on a effectivement des médecins qui sont spécialisés, sur des parties du corps sur des types d'imagerie, sur des types de pathologie est-ce que vous aujourd'hui vous avez un modèle d'IA qui te permet d'ingérer n'importe quel type d'imagerie et de donner n'importe quel type de diagnostic où en fait tu dois choisir le modèle, aussi en fonction de ce que tu recherches parce qu'en fait le niveau de spécificité est tellement particulier que en fait si je donne une imagerie d'une mammographie à votre modèle de fracture de la hanche en fait il ne saura pas l'analyser comment ça fonctionne un peu tout ça en.
Alexis:
Général c'est plutôt des modèles assez spécialisés.
Bruno:
Sur un.
Alexis:
Contexte clinique particulier donc soit une partie du corps soit un type de pathologie en particulier et qui va être entraîné de manière à être excellent sur cette ère clinique. Peut-être que demain, avec les LLM nouvelle génération, on arrivera à avoir des modèles plus holistiques. Ce n'est pas encore le cas actuellement. Et donc, tant que ce n'est pas encore le cas, on s'assure d'avoir, même si c'est des modèles un peu plus spécialisés, des modèles qui soient vraiment les meilleurs possibles. Et on construit au fur et à mesure, on a constitué une grande expertise dans le fait de constituer ces modèles de manière maintenant très efficace, ce qui nous permet, in fine, même si c'est des modèles spécialisés à chaque fois, d'avoir un copilote complet pour le radiologue sur l'ensemble des modalités principales de l'imagerie, c'est-à-dire en radiographie, en scanner, en IRM, en mammographie. On va être en mesure de proposer aux médecins radiologues des solutions sur la plupart de ses enjeux cliniques principaux qui constituent la plupart de son workflow donc de l'aider dans 70% des cas de ce qui constitue sa journée.
Bruno:
Donc c'est encore aux médecins de choisir le modèle qu'il va utiliser ou du coup t'as un peu.
Alexis:
Un mode agentique où t'as.
Bruno:
Un agent qui va décider quel.
Alexis:
Le choix est fait automatiquement pour le coup c'est à dire qu'il y a des algos d'IA qui sont spécialisés dans le fait de choisir, soit c'est déterminé soit il y a des algodias qui vont choisir automatiquement quel modèle va être le meilleur pour telle tâche.
Bruno:
Ok Tu nous as parlé du coup de ces modèles fondamentaux comment est-ce que vous, j'imagine que comme toute entreprise vous avez aussi ce fameux choix entre buy versus build, dans des milieux aussi spécifiques que le diagnostic médical Comment est-ce que vous arbitrez sur ce genre de décision ?
Alexis:
Alors, il y a deux sujets, les aspects produits et les aspects techniques. Sur les aspects techniques, justement, ces modèles de fondation, on les développe en interne, en reposant, par exemple, sur Jean Zé, qui est un super calculateur français, qui nous est mis à disposition pour conduire ses recherches, qui sont vraiment à l'état de l'art de ce qui se fait en IA appliquée au médical. Donc ça, c'est toute une expertise d'IA qu'on constitue en interne. Et pour lequel ça aurait moins de sens d'acheter, entre guillemets. Et par contre, sur les aspects d'aires cliniques, là, pour le coup, il y a un niveau de profondeur, de compréhension de chacune des aires cliniques qui est très important et pour lesquels, par exemple, on est venu en 2025 à faire l'acquisition de deux autres entreprises, deux autres entreprises françaises qui étaient dans leur domaine spécifique des Fleurons, donc Pixil qui est basé à Grenoble et Kairus Médical qui était basé à Paris, qui sont venus justement compléter notre offre de solutions sur les aspects IRM, pour lesquels on n'avait pas développé d'expertise en interne jusque-là, qu'on aurait pu développer, mais il nous aurait fallu beaucoup de temps, de jus de cerveau, d'efforts sur la table. Il y avait ces équipes qui avaient déjà des produits qui étaient des dispositifs médicaux marqués en Europe, CE, pour Pixil, FDA aux Etats-Unis, qui étaient les meilleurs du marché en termes de performances cliniques, et qu'on est venus, du coup, qui se sont joints à nous, pour constituer une offre de solutions cliniques pour le médecin qui soit la plus large possible.
Bruno:
Ok. J'ai retrouvé ma question entre temps. C'était effectivement sur ce challenge des médecins qui sont faits. Nous, dans le monde des devs, on est habitués à avoir notre métier qui est challengé avec les fameuses code review et tout notre tooling de CICD qui va nous challenger sur ce qui est bien fait ou mal fait. Parfois, quand on est plus jeune, on a un peu de mal à le prendre, mais petit à petit, on apprend.
Alexis:
On apprend pourquoi c'est important.
Bruno:
On apprend aussi à recevoir du feedback. On apprend aussi au bout d'un moment à le donner. Mais on est habitué à avoir ce challenge-là, je ne sais pas, chez les médecins, si c'est le cas. Et donc, du coup, est-ce que dans ce nouvel outil qu'ils voient arriver, est-ce qu'ils doivent aussi, du coup, se former à ce challenge qui peut être fait, c'est cette simili-code review qu'ils peuvent avoir dans leur diagnostic ?
Alexis:
Ils se forment un peu naturellement en se mettant à utiliser l'outil. Après, la question qu'ils pourraient se poser, c'est est-ce qu'ils ont envie de se servir de l'outil ? Parce que ça paraît être quelque chose qui vient se mettre en confrontation avec le cœur de leur métier. Et dans une certaine mesure c'est lié à ça c'est pour ça que nous au début on avait commencé sur un sujet qui n'était pas sexy si j'ose dire, qui était la fracture au tout début, et pour qu'on croyait simple, ça c'était une grosse erreur, avec la philosophie de se dire on va venir leur automatiser cette tâche diagnostique qui est quelque chose qui est simple, ce qu'on croyait, qui ne les intéresse pas ça c'est vrai, et qui constitue un volume énorme donc c'est une tâche très barbative, qui n'est pas pour la plupart du temps leur cœur de métier, ce qui les intéresse le plus, la spécialité qui les intéresse le plus. Donc c'est par cette porte qu'on a pu rentrer et donc avoir une adoption qui est absolument énorme de l'outil. Par ailleurs, on s'est rendu compte au passage qu'il y avait beaucoup plus d'erreurs diagnostiques sur de la fracture qu'on le croyait. On a conduit une étude, on s'est rendu compte que de manière rétrospective, l'algorithme détectait, 26% de fractures loupées dans les comptes rendus par rapport à ce qui avait été détecté par les médecins, radiologues donc c'est énorme, alors toutes n'ont pas une importance clinique majeure mais il y en a certaines pour lesquelles c'est le cas, et à partir de là les médecins se sont accoutumés à l'IA, parce que nous quand on était, jusqu'à encore récemment, la plupart du temps quand on arrivait dans un hôpital, on était la première solution d'IA dont les médecins c'était jamais servi quoi même si ça fait 10 ans qu'on les bassine avec ça ils avaient jamais eu l'occasion de se servir d'hier, Et donc ils se sont accoutumés à l'IA par le biais de cet examen qui déconsidère un petit peu parfois. Et ils se sont rendus compte du potentiel que ça pouvait apporter. Et donc quand on vient leur proposer d'autres solutions sur la détection du cancer de l'os en scanner, ou la détection du cancer du poumon, ou sur de l'IRM cérébral, en fait ils ont vu le potentiel de ces technologies. Et ils sont la plupart du temps très heureux de s'en servir. Mais même les vieux radiologues les radiosaures comme les gens aiment les appeler.
Bruno:
Donc il y a une adoption qui est quand même assez assez grande aujourd'hui de ces outils là dans les hôpitaux parisiens ou cliniques parisiennes enfin françaises par exemple de manière plus globale.
Alexis:
Oui bien sûr, nous on est installé dans à peu près entre 2500 et 3000 sites donc sites ça veut dire des sites de radiologie privée mais aussi des cliniques des hôpitaux et par exemple en France on est dans les deux tiers des CHU c'est à dire qu'on a des solutions d'IA qui tournent en routine clinique, qui aide vraiment les praticiens, les médecins radiologues, les urgentistes aussi beaucoup à l'hôpital, dans les deux tiers des CHU français. Et à l'échelle plus globale, on est dans une quarantaine de pays à l'échelle du monde, principalement aux Etats-Unis, en Europe occidentale, et de manière plus éparses dans le reste du monde.
Bruno:
Ok, canon. Tu disais aussi tout à l'heure que quand vous êtes lancé, il y avait cette idée d'automatiser la détection de fractures, que ce n'était pas si simple que ça finalement ? Mais ce que j'entends aussi, moi, dans le terme d'automatiser, c'est qu'au final, c'est l'IA qui passe d'abord, qui va faire un premier filtre de fracture par fracture, et après le médecin qui, en gros, tamponne, valide la décision. Mais de ce que tu décrivais plus tôt, je me perçois que c'est plutôt l'inverse. C'est plutôt le médecin qui va faire un diagnostic, qui va être challengé ou non par l'IA. Est-ce que c'est qu'il y a eu une confrontation sur le terrain qui vous a fait te réajuster, soit pour des questions techniques, soit pour des questions d'adoption, ou est-ce que c'est que vous faites les deux dans quel ordre qui commence et qui se fait challenger par.
Alexis:
Ça ça dépend l'usage du médecin il y a des médecins qui aiment bien justement regarder l'image sans avoir de biais de l'IA parce qu'on peut considérer que c'est un biais, et donc ils veulent l'avoir en second en filet de sécurité, il y en a certains qui regardent en même temps, il y en a certains qui regardent l'avis de l'IA et ensuite ils vont eux-mêmes essayer de le challenger il y a un petit peu tous les cas de figure et c'est propre à chaque médecin de choisir comment ils s'en servent. Et ce qui est intéressant, c'est qu'au tout début de la boîte, on avait commencé avec cette idée de, on va automatiser toute la radiographie standard, on va faire les comptes rendus directement. C'était notre ambition en 2018. On s'est rendu compte que c'était beaucoup plus compliqué qu'on le croyait initialement. Et maintenant, on y revient, en fait, huit ans plus tard, cette vision produit qu'on avait au tout début, sur laquelle on a fini par extraire la substantifique moelle de ce qui avait de l'intérêt pour les médecins, c'est-à-dire la détection de la pathologie. Maintenant, on y revient pour étendre le produit et en faire un produit de diagnostic automatisé mais qui vient se retranscrire aussi dans le compte-rendu, grâce aux LLM qui ont émergé entre temps et qui nous ont permis d'aller vraiment jusqu'au bout de cette vision initiale qu'on avait il y a 8 ans.
Bruno:
Ok, impressionnant. J'ai une conviction personnelle, mais je sais qu'il y a beaucoup de gens dans l'industrie qui la partagent, c'est que pour être un bon développeur ou une bonne développeuse, un des prérequis, c'est de bien comprendre le métier pour lequel on travaille, de s'intéresser aussi à pourquoi on le fait, quel est le problème qu'on va résoudre, et de pas uniquement s'intéresser à des sujets purement techniques, purement algorithmiques que ça peut être. Je me dis que toi t'as un métier vous êtes dans un domaine un peu particulier c'est que vous résolvez un problème qui nécessite aujourd'hui entre 8 à 12 ans d'études j'imagine pour les spécialités, ce qui est quand même pas négligeable je pense que vous pouvez pas demander à tous vos développeurs et développeuses de devenir radiologue en même temps il y a quelques.
Alexis:
Radiologues qui sont développeurs.
Bruno:
Ça arrive.
Alexis:
Il y en a et c'est des perles rares qu'il faut réussir à trouver.
Bruno:
Mais ça existe comment est-ce que vous comment est-ce que vous cultivez une connaissance métier pour vos équipes techniques ?
Alexis:
Alors effectivement c'est hyper important que dans les équipes il y ait une compréhension des enjeux médicaux sous-jacents, ils ne vont pas être capables d'être radiologues sur l'ensemble du scope de ce qu'est un radiologue, mais au moins de comprendre pour le produit sur lequel ils sont en train de travailler à un moment donné les enjeux médicaux sous-jacents, parce que c'est extrêmement important, on ne peut pas répondre correctement à une question qu'on ne comprend pas, Donc ça passe par deux choses, ça passe par le fait d'aller sur le terrain pour les équipes Et ça passe aussi par le fait d'avoir des radiologues dans l'équipe, Qui travaillent à l'hôpital à mi-temps ou dans leur cabinet privé sur une partie de la semaine Et qui sont chez Glimmer le reste du temps pour venir travailler avec les équipes, Injecter leur compréhension médicale fine des sujets qu'ils sont en train de traiter Pour répondre au mieux au sujet, Et d'avoir aussi des gens qui sont spécialisés dans leur domaine, qui sont en même temps capables de comprendre les enjeux des autres et au premier chef des quels ceux des radiologues, et qui sont en même temps spécialisés dans chacune de leurs disciplines. C'est pour ça qu'on a des équipes pour constituer un unique produit à la fin. On a des équipes de data, spécialisées sur la data, sur l'IA, sur le software, sur le support, mais aussi sur le réglementaire, sur la clinique, des équipes de product manager et ces fameux radiologues, ces équipes de radiologues dont je parlais tout à l'heure. Donc finalement pour constituer un produit on se retrouve avec une espèce de petite squad. Très multidisciplinaire donc pour laquelle c'est hyper intéressant de travailler parce que les idées fusent, il y a des points de vue très différents sur tous les sujets mais où chacun est l'expert de sa problématique, métier en question tout en ayant ce layer commun qui les unit qui est la compréhension médicale du problème qu'ils sont en train d'essayer de résoudre.
Bruno:
Donc c'est à dire que dans tes squads tu as des radiologues.
Alexis:
Il y a des radiologues qui annotent donc ça c'est des radiologues qui vont être un peu en freelance, et il y a des radiologues qui pour le coup sont, employés de Glimmer on en a 6 je crois à date et qui font partie des squads qui travaillent avec les autres employés pour itérer sur le produit avec eux et leur apporter leur vision médicale sans laquelle on tomberait à côté de la cible à coup sûr je.
Bruno:
Trouve ça génial parce que du coup ça t'amène une diversité de profils et le point de vue dans tes équipes qui doit être hyper enrichissante pour tout le monde au sein de l'équipe.
Alexis:
Ce côté multidisciplinaire est assez passionnant pour le coup.
Bruno:
Tu as évoqué effectivement aussi l'annotation avec des médecins en freelance. On a déjà fait un épisode où on parlait effectivement des sujets d'annotation. On avait évoqué le fait que dans l'industrie de l'IA, cette préparation de la donnée, elle est beaucoup faite par des équipes entières basées à Madagascar complètement déporté à l'étranger dans des pays effectivement, avec un faible coût de main d'oeuvre, Mais là, toi, effectivement, t'es sur un niveau technique de labellisation. C'est pas juste détecter est-ce que c'est une plage ou est-ce que c'est un paysage de montagne. Il faut comme un...
Alexis:
Oui, il y a le niveau d'expertise médicale sous-jacent. Et il y a aussi la compréhension, la bonne compréhension que les équipes d'annotation vont avoir de la tâche. C'est pour ça que nous, on passe quasi exclusivement par des radiologues et des radiologues français pour lesquels, d'une part, on est sûr de leur niveau de performance. Et aussi on est en mesure, parce qu'il n'y a pas forcément la barrière de la langue ou de la culture de leur expliquer précisément la tâche et la philosophie du produit sous-jacent pour être sûr que ce qu'ils font est de la meilleure qualité finalement. Alors c'est pas tout le temps simple parce qu'en France il y a des il y a des il y a des lois par exemple la loi anti-cadeau qui ne permet pas de payer des médecins pour aucune raison, il faut passer par le CNOM pour valider des choses, pour être sûr que ces médecins ont le droit d'annoter, pour vous, qu'on a le droit de les payer, qu'on n'est pas en train de leur faire un cadeau pour qu'ensuite ils refontent notre médicament, ce qui est des choses qui peuvent être vues dans ce domaine. Donc ça crée toute une complexité, mais nous on tient à ça pour être sûr d'avoir les produits les plus performants, parce que garbage in, garbage out, on l'y a. Donc on a besoin d'avoir le jus de cerveau, l'expertise médicale la plus pointue, pour entraîner le modèle derrière.
Bruno:
J'imagine que c'est un coût aussi, non église, c'est-à-dire que pour vous l'entraînement d'un modèle c'est un coût qui est plus élevé que pour un système qui voudrait juste détecter une race de chat ou une race de chien sur des photos Oui.
Alexis:
On ne peut pas se permettre de faire du mechanical turc en Inde enfin, à un coût anecdotique donc il y a effectivement ce coût dans l'annotation ce qui n'est pas le cas ou peu le cas dans beaucoup d'autres entreprises et ensuite il y a tous les autres coûts d'entraînement etc.
Bruno:
Tu as évoqué effectivement les aspects un peu réglementaires dans ce milieu médical qui est au coeur de notre métier j'imagine parce qu'effectivement on a déjà eu l'occasion de faire quelques épisodes autour de la tech dans le monde de la santé on avait évoqué effectivement ces aspects de contraintes que quand tu veux mettre un produit en place un tas de certifications à passer. Dans le contexte très spécifique de l'IA, qui est quand même aussi une techno assez récente, est-ce que ces certifications sont déjà adaptées à ces nouveaux outils-là ? Ou parfois tu te retrouves à devoir t'adapter ?
Alexis:
Elles s'adaptent au fur et à mesure. Il y a des choses qui sont en place, mais on sent que les organismes certificateurs, que ce soit les organismes certifiés en Europe, dans l'Union Européenne, ou la FDA, la Food and Drug Administration aux US, font évoluer au fur et à mesure leur doctrine par rapport à ces sujets qui découvrent aussi au fil de l'eau, au fur et à mesure des itérations, mais c'est vrai que nous ce qu'on développe c'est du software as a medical device, c'est vraiment du DM, et de ce point de vue là, on a dans ce cycle de release et de développement du logiciel un enjeu qui vient s'ajouter un enjeu réglementaire qui est très fort mais qui est absolument essentiel, qui vient s'ajouter à l'enjeu de R&D parce que c'est la deep tech à la base et aux enjeux évidemment commerciaux aussi dans la foulée donc c'est pour ça qu'on est aussi sur des sur des cycles assez longs et costauds par rapport à ça où par exemple notre premier produit on a mis deux ans et demi entre le moment où on s'est lancé dedans on a commencé à l'exporter, de la donnée l'anonymiser etc. Et le moment où on avait un produit qui était mettable sur le marché parce que suffisamment performant évidemment et validé par un organisme certifié, Et c'est évidemment des choses qu'on tend à réduire, parce qu'on a beaucoup plus d'expérience au fur et à mesure de ces sujets-là. Mais ça fait partie du cœur de notre métier.
Bruno:
T'évoquez aussi, vous êtes présent dans plusieurs pays. Là, tu as mentionné effectivement les organismes français, européens et américains avec la FDA. Est-ce que ça veut dire que dans chaque pays où tu vas, tu dois tout refaire ? Ou est-ce que le fait d'être tamponné Europe et FDA, déjà, ça t'ouvre des portes quasiment partout ?
Alexis:
C'est principalement ce que tu disais en deuxième option. C'est-à-dire que l'Union européenne, principalement, est une puissance régulatrice énorme dans le monde. Il y a les puissances militaires, les puissances économiques, etc. C'est plutôt les US. Mais l'Europe est une puissance régulatrice, avec ses bons et mauvais côtés. Mais elle est reconnue pour ça. Et donc, il y a beaucoup d'autres pays dans le monde qui se basent sur la certification européenne pour se dire que si elle est obtenue, c'est globalement OK. Ils vont souvent demander des petites adaptations locales et des petits papiers en plus, etc. Mais globalement, effectivement, à partir du moment où tu as la validation européenne, tu accèdes aussi à beaucoup d'autres pays. Surtout des pays du Sud, pour le coup.
Bruno:
Donc, ce sont des process où tu fais une mise en prod, il faut que tu repasses par des process de certification. C'est quoi l'impact de ces régulations sur votre quotidien d'entreprise tech ?
Alexis:
Alors ça crée beaucoup de... comment dire... Beaucoup d'attentes de critères à satisfaire qui rendent parfois le cycle un peu moins agile et rapide qu'on voudrait mais c'est des contraintes, avec lesquelles il faut jouer et qui sont aussi très bénéfiques par rapport à la qualité de ce qu'on met en prod derrière et pour lesquelles maintenant on arrive, à release quasiment tous les mois donc malgré le fait que c'est du medical device, que c'est réglementé qu'il faut passer par, un cycle réglementaire mais aussi de qualité qui est documentée de manière extrêmement précise par notre équipe qui est géniale et qui fait un super taf de ce côté là, on arrive malgré tout à avoir un cycle de développement qui est assez lean je sais pas si j'irais jusqu'à dire ça mais qui est assez efficace pour le coup.
Bruno:
Et c'est quoi en gros le délai moyen entre le moment où la release est effectivement prête d'un point de vue purement technique et le moment où c'est.
Alexis:
Effectivement déployables.
Bruno:
Chez les clients.
Alexis:
C'est assez court pour le coup c'est de l'ordre de deux semaines je dirais le temps de repasser par cette phase de, validation réglementaire etc mais pour le coup les équipes travaillant vraiment main dans la main et, justement les membres de l'équipe réglementaire étant aussi inclus dans les squads c'est pas des gens qui se regardent de loin en se disant toi tu me fais du software dégueulasse que moi je vais devoir, documenter ensuite etc les gens travaillent vraiment ensemble de manière à ce qu'une fois que le soft l'IA, tout ce qui a permis de le mettre en oeuvre est prêt les études cliniques correspondantes aussi pour valider les performances en question, la mise en preuve derrière est finalement relativement rapide il y a évidemment du travail.
Bruno:
C'est précis ce qu'il faut faire.
Alexis:
Mais c'est assez rapide.
Bruno:
C'est quoi à peu près votre ratio de nombre de releases prêtes versus nombre de releases effectivement envoyés aux clients ? Est-ce que t'as des je sais pas, est-ce que vous en avez une sur dix ou une sur cent qui se fait retoquer par les régulateurs ?
Alexis:
Ça nous arrive. Ça nous arrive... J'irais, c'est surtout aux Etats-Unis où ils ont un mode plus rigide. Disons qu'en Europe, on présente des choses et on peut itérer autour si jamais il y a des retours négatifs. Mais en fait, on est une équipe réglementaire qui est tellement au taquet, qui est tellement forte que c'est assez rare. Parce qu'ils mettent la barre encore plus haute que ce qu'attend le régulateur. Et aux Etats-Unis, ils sont en train d'évoluer, faire évoluer leur doctrine, mais ils sont encore sur un truc assez figé par rapport à l'IA et donc ça nous est arrivé d'avoir un postpone d'une validation réglementaire auquel cas on se remet autour de la table on remet de la donnée clinique sur la table et tout et on y retourne.
Bruno:
Donc c'est assez rare.
Alexis:
Au final que.
Bruno:
Vous fassiez retoquer.
Alexis:
C'est assez rare pour le coup mais parce qu'on travaille en qualité pour ça c'est.
Bruno:
Quoi ta perception donc vous qui en plus êtes présent sur différents marchés, comment est-ce que tu vois l'adoption de ces outils là en France spécifiquement par rapport à ce que tu vois dans d'autres marchés ?
Alexis:
Contrairement à ce qu'on pourrait penser en France elle est très importante parce qu'on s'est lancé assez tôt avec d'autres, compétiteurs aussi, il y a plusieurs boîtes françaises qui se sont lancées sur le dossier sur le sujet de la radiologie assez tôt parce qu'il y a beaucoup d'ingénieurs talentueux en France donc beaucoup de gens qui, aiment développer des choses et qui aiment faire en sorte qu'elle aient un impact bénéfique aussi. Ce qui fait qu'il y a une émulation très importante et le marché a assez tôt été informé, assez tôt a eu l'occasion de tester ce genre d'outil. Et donc maintenant, on a une utilisation en France qui est assez importante. Comme je disais tout à l'heure, deux tiers des CHU français. Et je pense que d'ici à peu près... 3-4 ans, il y aura très peu de sites en France qui n'auront pas au moins une application pour le diagnostic en routine clean. Ça deviendra presque l'anomalie.
Bruno:
Mais sur les autres pays européens, par exemple, c'est quoi le taux de pénétration de ces solutions ?
Alexis:
Je n'ai pas de taux précis en tête, mais sur les autres pays européens, c'est un peu plus faible en général, parce qu'il y avait justement moins d'entreprises qui avançaient moins vite sur ce genre de sujet, et qui du coup ont moins fait émerger l'IA comme une réalité. Mais bon, maintenant qu'on est sur tous ces autres pays aussi, on contribue à faire en sorte que cette adoption augmente vite aussi dans le reste de l'Europe.
Bruno:
Et aux US, l'adoption de ces outils-là par la médecine est plutôt très élevée ou c'est aussi...
Alexis:
Pas tant pour le coup. Dans le sens où la réglementation aux US, elle est un peu rigide et ce qui fait que c'est extrêmement dur d'avoir une application qui est validé par la FDA. Aux Etats-Unis, ça demande des études cliniques énormes qui coûtent vite un million d'euros l'étude clinique. Donc, quand on a une petite boîte, c'est un budget énorme, on s'approche. Et du coup, ça crée une adoption qui est plutôt faible pour l'instant, mais qui est en train de croître rapidement. Et nous, c'est un de nos marchés qui grandit extrêmement vite, en l'occurrence les US.
Bruno:
Tu as évoqué aussi tout à l'heure qu'il s'est écoulé en gros un an et demi ou deux ans je sais pas ce que tu disais entre le moment où ils avaient commencé et le moment où ça a été la première application c'était deux ans et demi pile.
Alexis:
Pour prêt pour mars 2020 donc bon sens du timing évidemment.
Bruno:
Est-ce que pour toi toute cette régulation c'est un dans quelle mesure est-ce que tu le vois comme un frein à une innovation dans ce secteur là ou au contraire pour, fonctionnant comme filtre évite des problèmes parce qu'on imagine que dans ces métiers là quand t'as un bug en fait ça peut coûter.
Alexis:
La vie à des gens oui c'est un impact sur la vie des gens direct donc c'est à mon sens absolument nécessaire, il y a juste des fois où il y a l'impression que le point de fonctionnement c'est une déformation professionnelle mais en tout cas l'équilibre entre le niveau de rigueur attendu par rapport à l'enjeu sous-jacent, parfois il est un peu trop strict sur certains sujets, et parfois un peu trop faiblard sur d'autres. Donc, en pratique, je trouve que ça tend à se normaliser, ça tend de mieux en mieux, mais c'était aussi le temps, je pense, que les puissances certificatrices trouvent le bon équilibre par rapport à cette technologie qui est nouvelle, qui est liée à quoi.
Bruno:
On a évoqué le niveau d'adoption de ces outils-là en France versus le reste du monde. Au-delà de la notion d'adoption, il y a aussi la capacité à créer ce genre d'outils. Est-ce que toi, tu as l'impression qu'en France, on a quand même une certaine avance ? Tu l'évoquais tout à l'heure qu'on a pas mal de gens compétents et autres, mais on sait qu'aux US aussi, il y a des gens très compétents. En Chine, il y a des gens extrêmement compétents aussi. Comment est-ce que tu vois l'IA française se positionner versus d'autres pays ou d'autres puissances ?
Alexis:
Alors, je pense qu'en France, on a un socle de formation et d'ingénieur qui est extrêmement solide, extrêmement performant, ce qui fait qu'on a eu des médailles Fields, on a des gens qui ont monté plein de boîtes extraordinaires, que ce soit en France ou aux Etats-Unis, qui sont allés ancrer aux Etats-Unis, pour le coup, qui fait qu'on a un vivier qui est incroyable. Des capacités de financement qui ne sont pas celles des Etats-Unis, évidemment, mais qui permettent quand même d'avancer. Et on a notre, Notre épingle a tiré là-dedans, même si je pense que la difficulté, c'est d'atteindre la taille critique pour passer sur une boîte d'échelle et d'ambition régionale ou mondiale. Où typiquement, on voit beaucoup de petites boîtes émerger énormément, avec plein de beaux produits, parfois des tractions commerciales, pas tout le temps, etc. Et qui ont du mal à passer à l'étape d'après. nous c'est ce qu'on essaye de faire là actuellement est ce qu'on se vers quoi on essaye d'aller c'est de d'être dans les acteurs mondiaux sur notre segment humilité parmi les parmi les plus importants où on va être surtout en confrontation avec des boîtes sud coréenne par exemple israélienne dans notre domaine en particulier de la radiologie il ya un petit peu moins de il ya un peu moins d'Américains pour le coup, peut-être parce que c'est pas un assez gros pas un assez gros marché.
Bruno:
Pourtant la médecine aux US c'est un énorme marché d'un point de vue un peu moins financier ça draine beaucoup d'argent.
Alexis:
Ouais c'est un énorme marché et c'est un marché très inefficace entre guillemets parce qu'ils mettent une part de leur PIB qui est monstrueuse pour la médecine pour des résultats qui sont bien.
Bruno:
En dessous de ce que d'autres pays ont.
Alexis:
Et en particulier la France pour le coup.
Bruno:
Ok donc intéressant pour toi c'est vraiment ce passage à l'échelle, c'est-à-dire qu'on a de bonnes idées je sais plus qu'est-ce qu'il disait ça, en France on n'a pas de pétrole mais on a des idées, c'était Chirac qui avait dit ça un jour mais plus de mal à passer à l'échelle Ouais.
Alexis:
Pour l'instant c'est globalement ce qu'on observe il y a peu de boîtes qui passent vraiment à l'échelle, ce qui je pense c'est assez dommage mais qui nécessitent sûrement des capacités de financement qui vont au-delà du site, des séries A, un petit peu, de petite échelle qui sont absolument nécessaires, mais ensuite, il faut avoir les capacités de financement pour mettre des... Alors, je n'irai pas jusqu'à comparer à ce que les Américains font sur des chèques qu'on voit passer de 100 milliards par 100 milliards pour des boîtes Copenhague, mais même sur des scales plus intermédiaires, d'avoir des levées de fonds plus importantes, ce serait nécessaire pour, atteindre une masse critique plus importante.
Bruno:
Je vois. Petit fun fact, tu évoquais tout à l'heure qu'on a un pool d'ingénieurs en France, on a un vivier d'ingénieurs en France, extrêmement riche il y a quelques temps je l'ai déjà dit plusieurs fois à ce micro donc les auditeurs l'ont peut-être déjà entendu le dire est-ce que tu sais quel est le ratio en France entre le nombre d'ingénieurs et le nombre de millionnaires ?
Alexis:
Non je sais pas je t'avais entendu le dire pour le coup.
Bruno:
Il y a deux fois plus de millionnaires que d'ingénieurs en France c'est plus facile d'être millionnaire que d'être ingénieur en France et quelle.
Alexis:
Proportion d'ingénieurs millionnaires alors.
Bruno:
? ça du coup je crois que c'est il faudrait que je retrouve les chiffres j'ai plus le ratio exact mais je trouvais ça intéressant de se dire qu'il y a plus de millionnaires que d'ingénieurs en France, avant de conclure j'aurais un dernier point, à évoquer avec toi sur les maintenant nombreux épisodes qu'on a fait autour de l'IA sur ce podcast notamment il y a, une réflexion qui est restée avec moi il y a un petit moment maintenant c'est que cette notion d'IA généraliste d'après certains de mes invités ne passera pas par la raison de neurones, qui en fait va à un moment atteindre ses limites, donc vous j'imagine que c'est les technos sur lesquels vous travaillez activement, aujourd'hui est-ce que vous commencez aussi à faire les travaux de recherche sur d'autres types d'IA sur d'autres types de fonctionnement pour essayer de peut-être aller atteindre des meilleurs résultats ou des meilleures performances.
Alexis:
C'est typiquement ce que j'évoquais tout à l'heure avec ces fameux foundation models c'est un terme un peu vague pour ceux qui ne sont pas vraiment, qui ne sont pas dans le domaine mais qui inclut d'autres types d'architecture, de transformers typiquement, donc c'est l'architecture un peu fondamentale qui a permis au LLM de très bien fonctionner et qui s'avère fonctionner aussi sur l'image, ça c'est un des trucs, qui moi à titre personnel m'a énormément impressionné, c'est que justement ces modèles qui ne sont pas du tout câblés. Pour de l'image, tel que par exemple les réseaux de neurones convolutionnels ils ont été un peu inspirés du cerveau entre guillemets pour avoir une logique en lien avec le signal qu'ils vont traiter, c'est-à-dire l'image, une logique architecturelle alors que ces transformers ne l'ont pas et que ces capacités émergente, extrêmement puissante, émerge naturellement. Et donc ça, c'est les types d'approches sur lesquelles on travaille, pour d'une part améliorer les produits qu'on a déjà, c'est-à-dire gagner des points de sensibilité qui devenaient très durs à gagner en restant uniquement sur les approches historiques. On a fait des percées assez importantes, enfin même très importantes de ce côté-là pour nos produits qui bénéficient annuellement à date 40 millions de patients par an, donc ça a un impact déjà très fort. Et au-delà de ça, pour développer des nouveaux types d'algorithmes pour potentiellement aller vers des IA plus holistiques, plus généralistes qui soient capables de diagnostiquer directement tout type de pathologie alors pour le coup comme je le disais tout à l'heure on n'y est pas encore du tout ça fonctionne pas un tchat GPT est finalement pas très bon à faire du diagnostic sur des pathologies fines. Mais c'est potentiellement des choses qui vont arriver à condition que la data d'entraînement aussi pour ces modèles-là soit au rendez-vous. Parce qu'il y a toujours ce schisme entre la donnée sous-jacente et le modèle derrière.
Bruno:
Je vois. Canon. Merci beaucoup, Alexis, pour toute cette discussion. J'aurais deux dernières questions pour toi qui sont les questions rituelles de ce podcast. La première, c'est est-ce qu'il y a un contenu que tu souhaiterais partager avec l'ensemble des auditoristes ?
Alexis:
Je pensais... Moi, je ne suis pas un très grand lecteur. à la base, c'est dur de trouver le temps et la disponibilité mentale en montant une boîte de se lancer dans un bouquin de 400 pages mais récemment je me suis fait happer par le problème à trois corps et c'est suite que j'ai trouvé, assez rafraîchissant pour le coup et avec un côté un petit peu philosophique par rapport au paradoxe de Fermi etc que je recommande parce que juste j'ai passé un bon moment à le lire et ça m'arrive pas très souvent surtout sur de la littérature.
Bruno:
On mettra un lien bien évidemment en description et dernière question qui est la plus importante de ce podcast est-ce que tu es plutôt espace ou tabulation.
Alexis:
? je vais rester dans l'espace alors par rapport à ma réponse précédente.
Bruno:
Merci beaucoup Alexis merci à toi et merci à tous d'avoir suivi cet épisode. C'est plutôt une bonne nouvelle de se dire que la France fait partie un peu des fleurons technologiques de l'IA il faut aider ces entreprises à passer à l'échelle donc n'hésitez pas à vous consacrer peut-être à de l'IA pour aider à passer à l'échelle et si vous avez les moyens, aider aussi à financer ce genre de projet. Pour ma part, je vous remercie comme toujours de partager ce podcast autour de vous si vous souhaitez soutenir ce podcast et l'aider à progresser, vous avez le lien en description vers le Tipeee pour participer à ce podcast et le soutenir je vous remercie beaucoup, je vous souhaite une très bonne fin de semaine Je vous dis à la semaine prochaine et d'ici là, codez bien.