Samy Lastmann

311

IA Agentique

Samy Lastmann

IAutonomie numérique

Cela permet de donner une capacité de raisonnement
Suivre IFTTD =>

Le D.E.V. de la semaine est Samy Lastman, CTO @ Smart Tribune. Il nous fait découvrir l'IA agentique, soit la création d'agents numériques autonomes, capables d'effectuer des tâches et de s'auto-évaluer. Samy évoque l'importance de la confiance et de la transparence dans ce domaine, en cliente sur l'orchestration des agents, la flexibilité des modèles d'IA, et les enjeux éthiques et environnementaux. Il insiste sur le fait que, malgré l'avancée de l'IA, coder reste essentiel, cette dernière étant un outil pour optimiser l'efficacité.

Chapitrages

00:00:54 : Introduction à l'IA agentique

00:01:03 : Présentation de Samy Lastman

00:05:27 : Utilisation des IA agentiques

00:08:58 : Définitions et concepts des agents

00:09:36 : Évolution des agents autonomes

00:14:31 : Complexité de la prise de décision

00:21:49 : Orchestration des agents IA

00:43:02 : L'avenir des logiciels et des agents

00:48:27 : Consommation énergétique des IA

00:55:45 : Comparaison avec DeepSync

00:57:05 : Ressources et recommandations

01:00:36 : Conclusion et remerciements

Pièce de théatre autour de l'IA : Qui a hacké Garoutzia

Cet épisode n'a pas encore été compilé !
Un épisode est généralement refactoré 3 ans après sa diffusion !

Un peu de patience ...
Pas d'extraits disponible :(
Bruno:
Depuis l'arrivée des modèles d'IAs avancés, une question revient sans cesse. Comment aller plus loin ? Comment rendre nos applications plus autonomes, plus spécialisées et surtout plus fiables ? C'est là qu'intervient le concept d'IA agentique. Ces agents, véritables travailleurs numériques, promettent de transformer la manière dont nous concevons les systèmes intelligents en leur donnant non seulement des objectifs, mais aussi les moyens de s'auto-évaluer et de s'adapter. Mais alors, qu'est-ce qu'un agent IA au juste ? Pourquoi devrions-nous recourir à ce type d'architecture et surtout coder une IA agentique ? Est-ce que cela remplacera bientôt la manière de coder traditionnelle ? Pour répondre à ces questions d'agents, je ne reçois pas James Bond, mais il s'y connaît en double zéro. Samy, bonjour.

Samy:
Bonjour Bruno.

Bruno:
Alors Samy, est-ce que tu pourrais te présenter pour les quelques personnes qui ne te connaîtraient peut-être pas ?

Samy:
Oui, bonjour à tous. Ravi d'être là et merci pour l'invitation. Samy Lastman, je suis directeur technique chez Smart Tribune et cofondateur. En deux mots, au Smart Tribune, on accompagne historiquement les grandes entreprises dans la centralisation de leurs connaissances et la maintenance en condition opérationnelle de la connaissance pour la diffuser au public, aux conseillers, pour aligner finalement le discours, entre ce qui était dit aux internautes publiquement et aux conseillers. Et puis évidemment, avec des expériences conversationnelles de plus en plus importantes, par la voix, par le texte. Et on s'appuie notamment évidemment historiquement depuis longtemps sur l'IA et depuis l'avènement d'IA générative.

Bruno:
Grosse transformation j'imagine est-ce que justement l'IA ça a été un moyen pour vous d'inclure peut-être plus de sources d'informations je ne sais pas ce que vous utilisez comme base d'informations de connaissances, au début mais est-ce que du coup grâce à l'IA aujourd'hui vous êtes capable d'ingérer tous les emails qui transitent sur une entreprise, toutes les conversations Slack, Teams, enfin tu vois d'engranger comme ça de plus en plus de choses pour enrichir les choses ou ça c'est encore un peu bancal on va dire ?

Samy:
Non effectivement, là aujourd'hui on peut s'appuyer sur l'IA pour faire des choses qu'on n'était pas capable de faire, enfin pas capable ou alors qui étaient très complexes à faire, notamment je pense avec l'arrivée de Computer Vision et ce genre de modèles. Aujourd'hui pour donner un exemple, oui on peut engranger des sources de données externes donc historiquement Smart Tribune avait la vocation d'être le référentiel de la connaissance donc on créait de la connaissance structurée qu'on venait diffuser mais on a aussi conscience que la connaissance elle existe, de manière non structurée ou structurée dans d'autres sources de données l'idée c'est comment on capitalise là-dessus on a bien conscience qu'il faut aller aussi écouter ce qui se passe et donc quand tu le disais est-ce qu'on est capable de. D'absorber l'entièreté des emails ou ce genre de choses. Oui, c'est déjà le cas. C'était historiquement le cas puisque globalement, on devait indexer ces données-là et puis faire de la recherche d'informations. Alors l'IA aujourd'hui a permis d'améliorer la qualité de la recherche d'informations avec les modèles de plus en plus récents, etc. Maintenant, ce qui a beaucoup évolué aussi, c'est la compréhension de formats de contenus qu'on n'était pas capable de faire. Notamment, je pense, si on fait simple du PDF dans lequel il y avait des tables, des tableaux, il y avait des images. Aujourd'hui, on est capable de faire historiquement, on a fait de l'OCR, on comprenait le texte, puis ensuite, on a essayé de comprendre les tableaux. Ça peut paraître simple, mais en fait, ça ne l'est pas du tout. Pour un ordinateur, c'est très compliqué de comprendre des tableaux, et donc, tant qu'on n'avait pas cette capacité de compréhension, vision, comme l'a un humain, c'était assez difficile à interpréter, ça a marché, etc., il y avait des choses qui fonctionnaient, mais aujourd'hui, c'est vraiment beaucoup plus efficace, et puis on est aussi capable de comprendre ce qui se passe en termes d'images, par exemple, dans un document type PDF, ou ce genre de choses, et quand je dis images, je ne sais pas extraire les métadatas des images, c'est vraiment comprendre au sens humain. Interpréter l'image, voir ce que c'est et puis du coup, en extraire l'information et le contenu. Donc oui, effectivement, il y a avec les nouveaux modèles et ce qui est arrivé récemment, on a des capacités de compréhension de différents formats de contenu. Je passe aux images, mais je parle aux vidéos. On est capable aussi aujourd'hui d'interpréter de la vidéo, ce que je trouve qu'on n'était pas capable de faire il y a quelque temps. Donc oui, ça a fait des ouvertures assez importantes. Et du coup, Ça amène aussi peut-être des complexités parce qu'en fait, ça augmente le nombre de connaissances existantes avec la disparité d'informations, avec le doublonnage, l'antagonisme, l'obsolescence que ça peut amener. Plus on multiplie les sources de connaissances, plus on ajoute du bruit, plus elles ne sont pas forcément maintenues en condition opérationnelle, donc maintenues un jour. Et donc aussi, la promesse, c'est comment on est capable d'absorber les données de différentes sources et d'être capable de monitorer ou de maintenir en condition opérationnelle la vérité. Donc, c'est la connaissance finale qu'on va vouloir ensuite, sur laquelle on va vouloir s'appuyer pour faire des IA de confiance, notamment.

Bruno:
Très bien. Donc, vous utilisez beaucoup d'IA agentiques. Dans ce contexte-là, ou d'agent. Je ne sais pas, est-ce que tu peux nous faire une définition de tous ces termes qui buzzent beaucoup en ce moment ?

Samy:
Je pense que c'est un bon point, on pourrait en parler longtemps. C'est vrai que c'est un peu le buzzword en ce moment. Agent, agent IA, agent IKI, autonomous agent, on y a un peu tout mis. Moi, je vais vous donner ma définition à moi, et je n'ai pas la prétention de dire que c'est la bonne, Je vais dire que ça a beaucoup évolué. Je pense qu'il y a aussi une sorte de... On a un peu galvaudé. Il y a une espèce de mix entre les termes qu'on utilisait un peu techniques, le marketing aujourd'hui. Et on a vu des Salesforce, etc. Rebrander Salesforce, Adjointforce et ce genre de choses. Donc, il y a un mix qui est assez compliqué ou pas super clair. L'idée, c'était un peu de mettre un peu de clair là-dessus. Historiquement ce que nous en tout cas on appelait plutôt des agents AI enfin ce qu'aujourd'hui sont appelés les agents AI sont les agents autonomes c'est-à-dire globalement des IA, souvent composés d'autres enfin de différents agents et c'est pour ça que la nuance elle est on a des applications de type autonomous agent qui elles intègrent des agents eux-mêmes IA qui sont des petites briques finalement qui vont avoir des tâches spécifiques et puis on a cette espèce d'application d'agents qui va avoir, une autonomie plus ou moins importante et une orchestration du fonctionnement avec une capacité de raisonnement. Ce qu'on appelle aujourd'hui Autonomous Agent AI, c'est des agents qui en plus ont la capacité de raisonnement. Donc, on ne va pas leur expliquer comment ils doivent réaliser une tâche. On va plutôt les laisser extraire et essayer de comprendre la tâche. On va leur mettre à disposition des outils. On va leur donner des capacités de raisonnement pour exécuter des actions, essayer de comprendre ce qu'ils ont fait et puis avec différents tours d'exécution, d'essayer de résoudre des tâches en toute autonomie, on ne leur aurait pas expliqué au préalable comment faire. Ceci étant, il y a aussi, si on redescend un peu plus bas niveau, il y a les agents en eux-mêmes à l'intérieur des applications autonomes qui sont elles des... Plutôt des petites briques d'IA qui vont être spécialisées sur une tâche et ça nous permet de faire l'ouverture sur pourquoi on fait ça. On eût essayé de faire faire tout par une seule IA, des énormes prontes et des choses comme ça. Ça menait à des choses pas désastreuses, mais ça fonctionne, mais ça ne scale pas, ça ne s'explique pas, ça ne se mesure pas. Et en fait, l'enjeu ici, c'est la confiance dans l'IA, c'est la capacité à comprendre comment ça fonctionne, à expliquer comment ça fonctionne, à mesurer comment ça fonctionne et à le faire évoluer dans le temps sans prendre de risques. Et c'est pour toutes ces raisons-là. Et ensuite, on pourrait rentrer aussi dans la partie tech et l'implémentation. Et pourquoi c'est intéressant aussi de découper. Je pense qu'on y reviendra parce qu'il y a plein de sujets qui vont arriver là-dessus. Mais vraiment, avoir découpé le fonctionnement en plein de petites briques qui, elles, ont leur spécificité, qui peuvent utiliser le bon modèle pour répondre à cette bonne tâche-là de la manière la plus écologique possible, de la manière la plus, en termes de cost, de plus performante. Et c'est l'orchestration de toutes ces mini-briques d'IA qu'on appelle des agents d'IA ou des micro-agents d'IA qui vont faire les agents autonomes ou en tout cas semi-autonome, autonome en fonction de ce qu'on va avoir envie de créer en fonction de la tâche que ça doit réaliser et du risque qu'il y a derrière.

Bruno:
Donc l'adjantic AI en fait c'est de l'orchestration d'agents IA c'est ça un peu le...

Samy:
À mon sens oui l'adjantic AI c'est les agents IA l'autonomous agent c'est ça c'est de l'orchestration et de l'autonomie avec une capacité de raisonnement. Donc, il ne sait pas forcément comment il va réaliser la tâche. Mais par contre, il est équipé de tout un tas d'outils et de capacités à réfléchir là-dessus.

Bruno:
C'est la nouvelle génération du RPA, en fait, d'une certaine manière ?

Samy:
Oui, effectivement, mais c'était déjà avancé et on a l'impression que c'est un peu déjà obsolète et ça paraît fou parce que ce n'est pas si vieux que ça. Mais on pourrait faire le rapprochement, effectivement.

Bruno:
OK. Sur ces différents agents, à quel point ils sont... Donc, tu nous parles de ce côté de spécialisation. Est-ce qu'au final, on peut avoir un enchaînement d'agents qui sont en fait juste un chat de GPT ou tu as un prompt ? Enfin un LLM d'openail plutôt où t'as un prompt qui est altéré en fonction de ce qui ressort de l'agent d'avant et en fait qu'ils utilisent tous le même modèle mais on le spécialise au travers d'un prompt spécialisé ou est-ce qu'à chaque fois il y a quand même un entraînement particulier sur le modèle que tu utilises à chaque fois ?

Samy:
Alors non, en fait l'enjeu c'est du coup d'utiliser un modèle un modèle, que ça soit un LLM ou pas d'ailleurs parce qu'on peut avoir notamment, je te donne un exemple, alors on peut tout faire aussi avec les LLM mais c'est pas forcément le bon usage en fait des fois on met des LLM pour faire des trucs qu'il n'y a pas besoin ou ça fonctionne, peut-être un peu mieux mais est-ce que le jeu en vaut la chandelle et c'est toujours un truc d'écologie, de coût, etc, et puis aussi de souveraineté on y reviendra un petit peu c'est intéressant les LLM il y a la problématique de souveraineté, comment tu héberges les modèles et qui a la capacité de faire tourner des LLM dans ses infras en fonction de la taille du modèle, tu peux me remettre la question parce que du coup j'ai divergé.

Bruno:
Est-ce qu'en fait on peut avoir du coup juste le même LLM sur chaque agent avec juste un.

Samy:
Prompt qui le spécialise où.

Bruno:
Il y a vraiment un réentraînement.

Samy:
Non effectivement on peut très bien faire ça en fait on va utiliser le bon modèle qui va répondre à cet enjeu là les modèles puissants aujourd'hui permettent de faire vraiment énormément de choses donc on pourrait se dire chaque agent va utiliser le même modèle avec prompté de façon différente avec une récupération parce que l'enjeu c'est l'enchaînement aussi d'exécuter une tâche et de passer le résultat de cette tâche à un autre agent ou de mettre du contexte dans un bus un petit peu et en fait chaque agent ils sont capables d'écouter un bus pour voir un bus d'information sur lesquelles qu'est-ce qu'ils vont devoir puiser pour exécuter la tâche qu'ils doivent réaliser. Effectivement, et du coup, l'enjeu de se dire qu'on peut utiliser le même modèle, on peut utiliser d'autres modèles, et tout l'enjeu aussi d'avoir une orchestration par agent, c'est justement d'aller positionner le bon modèle qui répond le mieux à la problématique dans la séquence de l'IA à cette problématique-là et donc du coup si tu fais par exemple, de l'offuscation d'informations ou de la donnémisation qui va s'appuyer sur une brique de reconnaissance d'entités et ce genre de choses pour faire les entités nommées par exemple on va pas forcément on peut utiliser un LLM qu'on aurait fine-tuné d'ailleurs et du coup l'enjeu c'est de se dire est-ce que j'ai besoin de le fine-tuner sur mes données est-ce que ce qui existe sur le marché est déjà suffisamment performant ou est-ce que je veux affiner est-ce que je dois l'appliquer à mon secteur d'activité donc non en fait on peut très bien utiliser le même modèle pour tous les agents des modèles différents en fonction de la tâche qu'on veut faire fine-tuner certains modèles. Voire même il y a peut-être des agents qui vont être que de l'ingénierie dans toute cette séquence-là et qui vont pas forcément faire appel à un modèle d'intelligence artificielle donc voilà mais c'est vraiment c'est cette flexibilité en fait que ça amène la construction de pouvoir construire, de manière séparée pour utiliser finalement le bon modèle qui a la bonne capacité de rédaction à un moment on va faire de la je ne sais pas, on prend un agent autonome sur, la finance, on va avoir un modèle qui va beaucoup mieux comprendre les enjeux mathématiques d'analyse, un modèle qui va plutôt être utilisé pour la rédaction à la fin, un modèle qui est beaucoup plus fort en proba ou je ne sais pas. Et voilà, au même titre que quand on fait l'autonomous driving, donc ça c'est finalement une typologie d'application d'agent autonome, on va avoir des modèles qui vont mieux interpréter les informations qui viennent des senseurs, des capteurs, Donc, l'objectif, c'est vraiment d'avoir cette flexibilité-là. Et du coup, en l'ayant découpé, je pense qu'on fera un parallèle ensuite, mais c'est de pouvoir expliquer comment ça fonctionne. Et du coup, c'est ça qui donne la confiance dans la réalisation et la capacité aux humains de lâcher de plus en plus les mains. Parce qu'on comprend ce qui se passe et on est quasiment capable d'anticiper avant que ça le fasse ce qui va se passer. Or, c'était un peu l'enjeu autour des LLM, c'est de se dire mais des fois on ne comprend pas pourquoi il nous dit ça, puis il ne nous dit pas ça deux fois de suite la même chose donc l'aspect probabiliste, Et un peu dérangeant aussi dans l'adhésion, non, parce que les gens sont subjugués par la capacité, mais dans la confiance qu'on peut en faire. Et si on tend à être dans un monde où on vit entouré d'agents autonomes, etc., il y a évidemment des enjeux autour de l'éthique, etc., mais il y a des enjeux autour du risque que ça peut amener. Et du coup, à quel point on a la capacité à lui faire confiance suffisamment pour ne plus l'opérer, nous, ou ne plus le superviser.

Bruno:
Tu parlais qu'un des domaines d'application, c'est notamment quand on a un problème peut-être un peu complexe à gérer, où du coup, l'ensemble de tes agents vont de même déterminer les tâches à effectuer et les effectuer les unes après les autres. Donc finalement, cette idée d'enchaînement. Est-ce que ça veut dire qu'on revient à un système où on est obligé, nous, de concevoir comment un problème va être pris en main pour concevoir ces différents agents qui vont exécuter l'ensemble des tâches ou est-ce que, cette IA agentique a une capacité à d'elle-même déterminer quoi utiliser, comment utiliser c'est quoi le degré de pré-écrit versus le degré de véritable décision ?

Samy:
Là on arrive à des choses qui résonnent et donc qui prennent des décisions et finalement effectivement avant on avait du scripté ou en tout cas rule-based. Donc, on avait défini des règles métiers et puis ça exécutait des règles métiers. Et bon, le bon côté de ça, c'est qu'on sait comment ça va fonctionner. Ça ne prend pas de risques quand c'est bien câblé, bien testé. En fait, voilà. Et puis après, il y a eu effectivement des AI avec des... Semi-autonome ont commencé à orchestrer donc on lui expliquait que pour réaliser un certain nombre de tâches il pouvait s'appuyer sur, voilà comment réaliser les tâches mais sans qu'on lui explique tout le déroulé on lui dit c'est plutôt une explication des différentes méthodologies pour le faire et puis de l'outillage et puis là on arrive à l'autonomie ou grâce à la décision et au raisonnement où finalement, c'est l'IA qui va exploiter les capacités qu'elle a sans qu'on lui dise du tout, c'est-à-dire on va avoir une brique de recherche, elle va utiliser de la recherche et puis en fonction de ce que ça va faire, elle va aller raisonner sur est-ce que c'était la bonne façon ? Non, je vais utiliser des briques pour aller puiser des informations dans des API. Et donc là, pour le coup, il y a vraiment un truc de raisonnement et de décision qui n'a pas du tout été défini par l'humain et ce qui nous permet de faire émerger des façons de faire, de réaliser des tâches auxquelles nous, on n'aurait peut-être même pas pensé au départ. Mais parce que c'est du trial aussi.

Bruno:
Et à quel point il faut être on parle de ce côté de spécificité de chaque agent de spécialité de chaque agent, à quel point ils sont spécialisés, est-ce qu'au final tu te fais juste un agent qui est capable de comprendre une photo, un agent qui est capable de comprendre un tableau, tu vas pouvoir reprendre les ongles que tu avais tout à l'heure du PDF un agent qui est capable de faire de l'OCR et après t'as un agent qui, meurge toutes les informations qu'il a pu recevoir ou est-ce que vraiment va se faire un agent capable de piloter un bras robot spécifique, un agent qui sera capable de, donner des conseils en sûreté nucléaire, par exemple. C'est quoi le type de tâche qu'on va affecter à ces fameux agents ?

Samy:
En fait, ces agents dont tu parles, est-ce que tu es capable de me faire, je prends des exemples assez génériques, mais dans la finance, par exemple, un investisseur autonome, lui va être équipé d'un certain nombre d'outils ou d'agents spécialisés d'IA qui, eux, vont avoir des spécifications particulières qui vont mieux répondre à cette sous-tâche-là et qui va permettre de donner un peu comme des capacités cognitives à un humain. C'est en fait, je vais utiliser ce qui, moi, me permet de mieux répondre. Et c'est l'humain va orchestrer un petit peu toutes ces capacités-là. Donc, c'est dans ce mode de fonctionnement-là. Si on prend un investisseur autonome, un agent d'investissement, en fait, il va avoir une IA spécialisée qui va, par exemple, être capable d'analyser le marché, donc lire des courbes, identifier des marqueurs sur des courbes, ce genre de choses, un agent qui va analyser les news parce qu'on sait que le marché il est très impacté par les news par les signaux ce genre de choses on va avoir voilà et en fait c'est la mise à disposition de plein de capacités qui sont supportées par des outils qui sont powered by EA qui vont permettre de construire ces agents ou de permettre aux agents d'avoir de plus en plus d'autonomie et d'imaginer de nouvelles façons de réaliser des tâches.

Bruno:
Donc, en fait, on peut faire un peu de tout, mais il y a quand même la nécessité de le concevoir en avance de phase. C'est-à-dire, tu ne peux pas avoir un agent... Tu n'as pas une IA orchestratrice qui fait appel à plein d'IA différentes et qui choisit d'elle-même la tâche qui sera affectée. On n'a pas un LLM qui va piloter plusieurs LLM qui sont tous au même niveau, qui ont tous la même capacité.

Samy:
Si, il y a deux types un peu dans les agents autonomes. Il y a celui où il y a finalement là où il y a un agent orchestrateur qui va justement connaître la capacité des autres agents et puis donner des directives, récupérer des informations, analyser, raisonner, faire appel à un autre agent, etc. Donc, il y a en fait, orchestre, finalement, pilote tout un tas d'autres agents. Et puis, on a une autre architecture, finalement, d'agents autonomes où tous les agents communiquent ensemble et essayent de déterminer la meilleure façon d'orchestrer une tâche. Donc, c'est en fonction de l'usage. C'est assez récent. Il y a aussi des explorations. Je ne sais pas quelle est la bonne façon de faire. Et je pense qu'en fonction même de la tâche qu'on veut effectuer, du risque qu'on est capable d'accepter, ça dépend d'énormément de critères, énormément de contraintes qui sont propres à chacune des organisations si on prenait que le prisme technologique il y a des choses qui sont faisables et puis ensuite quand on amène les contraintes des entreprises pour avoir des business case réels là du coup, on y ajoute des choses dans le fonctionnement on y ajoute des contraintes donc. Oui la réponse, effectivement il y a ces deux types d'organisation, d'orchestration d'architecture de fonctionnement d'agents IA autonomes qui fonctionnent avec ces petits agents IA qui sont des agents spécialisés qui ont des capacités qui sont définies. Et quand tu dis est-ce qu'il y a un agent orchestrateur ? Oui, parce que l'agent orchestrateur, qu'est-ce qu'il fait ? Il connaît les capacités, il est capable de comprendre. La capacité, la description de la capacité de chacun des agents et du coup ensuite de raisonner et de faire un choix en posant la question de dire est-ce que c'est celui-ci que je dois utiliser plutôt que celui-là ? En ayant ayant obtenu le résultat de l'agent, d'analyser, du coup, est-ce que ça lui a permis d'avancer dans l'objectif final de sa tâche-là, de se dire est-ce qu'il y a un autre agent qui pourrait compléter ou venir faire mieux ou faire différemment ? Et c'est dans ça où c'est la capacité de raisonnement qui est intéressante. C'est pas, ok, je prends un agent d'orchestration qui va, et ça existe, il va faire cet agent première étape, cet agent deuxième étape, cet agent troisième étape, ça, ça existe et ça fonctionne aussi très bien. C'est la bonne façon de faire des workflows, des séquences d'AI, mais il y a aussi celui qui va juste avoir des capacités à disposition et qui va réfléchir et qui va voir la sortie de ça et qui va re-analyser pour savoir si c'était la meilleure et si ça peut être complété par quelque chose d'autre.

Bruno:
Est-ce qu'on n'arrive pas finalement à du méta-réseau de neurones ? Parce que beaucoup d'IA aujourd'hui sont basés sur des réseaux de neurones, qui ont une interconnection d'un ensemble de transformeurs qui prennent chacun la place d'un neurone. Là, ce que tu nous décris, en fait, c'est un ensemble, du coup, d'IA qui sont elles-mêmes interconnectées les unes entre elles. Est-ce qu'on va arriver pareil à des IA agentiques avec, je ne sais pas, de 10 millions d'agents qui sont interconnectés de différentes façons et en fait avoir un méta-réseau de neurones ?

Samy:
C'est une bonne question. C'est une excellente question. Je ne sais pas où est-ce que ça va nous mener tout ça. Je pense que ça me semble être la suite logique. Après, la question qui va se poser, je pense que c'est la partie cloisonnement. Est-ce qu'on arrivera... Est-ce qu'on fera communiquer plein d'agents autonomes ensemble ou est-ce qu'on aura un gros agent autonome qui sera capable de faire des millions de tâches je saurais pas répondre à ça l'avenir nous le dira, mais en tout cas il y a plein d'explorations à mener là tu vois.

Bruno:
Parce que si on fait le parallèle avec le marché des processeurs pendant un moment on a empilé les transistors dans un CPU, on est arrivé à un moment de limite physique de ce que le CPU pouvait encaisser, là maintenant on empile les cœurs, et maintenant on voit des processeurs à je ne sais combien de centaines de cœurs c'est aussi un peu la même mécanique d'une certaine façon.

Samy:
Oui, oui mais franchement je ne saurais pas bien répondre à cette question, ça me laisse un peu j'aurais pas de réponse à portée à ça.

Bruno:
Ok très bien c'est quoi le gros challenge sur ces IA tu nous as parlé tout à l'heure de la confiance qui dit confiance notamment dans le monde de l'IA veut dire évaluation. Si je fais un autre parallèle, j'aime bien les analogies, on sait que quand tu passes d'une architecture monolithique à une architecture de microservices, tu te rajoutes notamment des risques de latence. En fait, tu multiplies tes risques de disponibilité parce qu'en fait, chaque microservice peut péter et en fonction de ce que ça engendre, tu passes ton service total qui est à indispo. Est-ce qu'il y a les mêmes contraintes, les mêmes effets d'échelle de passer de un modèle à un enchaînement de modèles ? Sous-titrage ST' 501.

Samy:
Alors, oui, il y a ces contraintes-là, mais qui peuvent être... Alors, oui, il y a ces contraintes-là, parce que du coup, t'enchaînes pour faire une même tâche que t'aurais pu demander, enfin, prompter, disons, le faire en une seule fois, si tant est que ça soit capable, dans un seul prompt. Effectivement, là, tu vas faire appel plusieurs fois au modèle et donc on va rajouter éventuellement ces latences et ces problématiques-là. En même temps, peut-être qu'on va utiliser un modèle le point plus performant, pour réaliser une partie de la tâche générale et donc du coup est-ce qu'on va, contrecarrer ces enjeux de latence. Mais en tout cas oui effectivement ça introduit ces problématiques-là comme on l'a eu dans le microservice le tracing aussi de l'input à output en fonction des agents du maintien du contexte. Aussi notamment parce qu'il y a des informations qui doivent perdurer dans le temps dans la mémoire et qui doivent être accessibles à chacun des agents en fonction de son usage, du risque que ça peut mener d'avoir cette information aussi en termes de data protection dans cet agent-là parce qu'il a accès à Internet, pas Internet, ce genre de choses. Donc oui, mais en même temps, c'est la façon aussi d'arriver à, on en parlait beaucoup, d'expliquer et de mesurer. Globalement, comment on est en capacité de mesurer la capacité d'une IA à faire une tâche ? C'est mesurer tout un tas de métriques de suivi, mais c'est aussi comment on est capable de mesurer dans le temps quand on le fait évoluer. Et je pense notamment à se dire qu'il y a des modèles qui évoluent constamment. Donc, on voit tous les jours que ça sort, que ça soit d'un même provider d'IA, d'un même lab. Constamment on a des nouveaux modèles puis on a les gros modèles et on a les modèles spécialisés donc du coup on va créer des agents qui seront connectés à un certain nombre de modèles comme tu le disais donc on va choisir le bon modèle mais ce modèle en fait il devient obsolète à un moment ou alors parce que le lab en sort un nouveau ou un autre lab en sort un nouveau ou c'est une nouvelle génération de ce même typologie de modèles, GPT-3, GPT-4 etc et en fait on doit, comment on est capable de s'assurer. De continuer d'exécuter la tâche de cet agent spécialisé et puis du coup, de manière générale, comment on garantit que la tâche générale de cet agent autonome peut être maintenue dans le temps, autant performante, autant secure.

Bruno:
Etc.

Samy:
Il faut qu'on puisse mesurer, il faut qu'on puisse expliquer. Et donc le fait de découper un peu comme on l'a fait pour les microservices, et c'est un bon parallèle à ce qu'on a fait dans l'organisation monolithe microservices et les enjeux que ça a amenés, c'est la capacité, au même titre que tu utilises un langage de programmation dans un microservice parce que ça répond le mieux à la problématique métier de ce microservice, là c'est d'utiliser le modèle qui convient le mieux, c'est la capacité à auditer le microservice, à comprendre comment il est fait, à le remplacer aussi plus facilement, à mesurer sa performance et à mesurer sa performance dans le temps et à le faire évoluer. Donc on va continuer de faire évoluer, que ça soit en termes de... De modèles et on veut garantir que son fonctionnement, il est pérenne. Et donc, c'est tout l'enjeu, du coup, d'avoir des agents IA et de garantir la confiance. C'est la mesurabilité, c'est l'explicabilité, c'est la stabilité dans le temps de tout ça, dans un monde qui est en évolution quasiment quotidienne.

Bruno:
Donc, tu as un process de CI très classique, enfin très classique, qui est adapté à ce contexte-là, mais en fait, tu as une CI pour tous tes agents de la même manière que tu l'aurais sur du code classique ?

Samy:
On a effectivement une CI qui va builder des choses, mais c'est surtout qu'on a, et c'est un énorme enjeu, le processus d'évaluation. C'est développé déjà, avant même de parler de technologiquement parlant, déjà un framework, qu'est-ce que ça veut dire évaluer une IA et définir des critères sur lesquels on va pouvoir s'appuyer et la problématique de l'évaluation, c'est un défi majeur parce que c'est extrêmement chronophage. Si jamais on tentait qu'on devait le faire par un humain. Donc l'idée, c'est de se dire quelles sont les choses qui vont me permettre de définir que je maintiens cette stabilité dans le temps et est-ce que je suis capable de créer une automatisation ? Tu parlais de CI, mais finalement, c'est ça. C'est comment je fais passer au fur et à mesure des évolutions tech que je vais faire dans les agents, des évolutions techniques dans les agents. Comment je vais évaluer cette stabilité, la continuité de performance, la sécurité, ce genre de choses et comment je peux garantir finalement que la tâche finale réalisée par l'orchestrateur de tous ces agents va continuer de fonctionner exactement comme je l'avais défini au départ. Et on le sait, avec la partie probabiliste des modèles, il faut quand même garantir le fonctionnement. Donc, on veut une tâche bien précise, on veut un output bien précis. Comment ça, on s'assure que dans le temps, on le maintienne ? Et surtout, comment on l'évalue de manière automatique, semi-automatique, automatique ? Et là, il y a des gros, gros enjeux autour de tout ça. Et si on fait le parallèle avec, ne serait-ce que les LLM, l'évaluation humaine, quand ils ont fait les entraînements, le reinforcement learning, c'est ça. C'est des humains aussi qui ont à noter, à noter, à noter, à noter. Et ça, c'est extrêmement chronophage et du coup, extrêmement coûteux dans notre monde aujourd'hui.

Bruno:
Pour ce qui est de l'aspect déterministe, j'imagine que comme tu peux paramétrer chaque agent que tu appelles, tu peux régler la chaleur de tous les modèles que tu appelles, ce qui permet d'avoir un côté un peu plus déterministe de ton ensemble. Même là, vu qu'il y a un enchaînement, quoi qu'il arrive, tu as un risque de...

Samy:
Non, ça permet d'avoir un truc plus déterministe parce qu'on lui demande de faire une tâche et de bien la faire, au lieu d'essayer de lui demander de faire plein de choses. Et c'était tout l'enjeu, en fait. Et au début, tout le monde s'est un peu jeté sur dire « Ok, je vais prendre un prompt et je vais commencer à lui faire ça. » Puis ensuite, je rajoute une capacité supplémentaire dans le prompt, dans le prompt, dans le prompt, jusqu'au moment où je touche un bout. Et puis, ok, ça a corrigé ou ça a changé le comportement. Mais en fait, ça a aussi changé autre chose. Autre part, soit je ne l'avais pas identifié, soit même je l'ai identifié, mais je ne peux pas l'expliquer. Et tout l'enjeu aussi, du coup, c'était dans l'explicabilité, c'était de se dire « Je sais ce que je touche, je sais ce que je modifie, je sais ce que j'attends en sortie. » donc ouais cet aspect là il est fondamental.

Bruno:
Question peut-être un peu bête mais est-ce que les agents sont enfin chaque brique est-ce que c'est forcément une brique d'IA ou est-ce qu'on peut avoir parmi les différents agents une fonction piton toute bête qui fait du crop d'image par exemple.

Samy:
Je sais pas où ouais complètement je reviens un petit peu par exemple, sur le parallèle de l'offuscation l'offuscation d'informations c'est indispensable aujourd'hui on fait rentrer de la donnée et beaucoup de données personnelles notamment puisqu'on a des échanges avec des agents conversationnels où on peut aller donner tout un tas d'informations personnelles donc du coup l'offuscation et notamment quand on utilise des modèles qui ne sont pas forcément hébergés et on pourrait venir sur l'aspect de souveraineté, mais tu as dû en parler dans un certain nombre d'épisodes précédents Mistral, pas Mistral, en gros est-ce qu'on héberge, est-ce que c'est souverain, est-ce que c'est français est-ce que si, est-ce que ça ? Et puis deep-seek, petite ouverture peut-être. Mais mais, Mais j'ai perdu le fil encore une fois de la question, mais tu disais.

Bruno:
Ma question, attends, du coup je l'ai perdue aussi, c'était sur... Oui, est-ce qu'on peut avoir un agent qui n'est pas de l'IA ?

Samy:
Oui, voilà, pardon, je reviens sur l'offuscation. Oui, ou un agent d'offuscation qui utiliserait par exemple pour l'offuscation, des modèles de reconnaissance d'entités nommées qui vont s'appuyer sur de l'IA, mais en fait aussi un certain nombre de reconnaissances de paternes identifiables, REGEX, et donc du coup c'est exactement ça, c'est de se dire, des agents qui sont que de l'ingénierie et qui ne s'appuient pas sur des modèles. Et quand je dis modèles, on parle de LLM, mais pas que. Il y a tous les modèles qui existent et notamment dans un pipeline de RAC, parce que vous n'avez déjà nécessairement entendu parler, on a l'aspect recherche d'informations. Et la recherche d'informations, elle va utiliser quoi ? Elle va utiliser soit des modèles pour aller calculer la représentation vectorielle d'une information et puis ensuite elle fait du calcul de similarité. Mais tu peux très bien dire, je suis OK d'utiliser des modèles de recherche d'informations par mots-clés, du BM25, des choses comme ça. Et donc, des agents qui vont faire de l'ingénierie, qui vont utiliser du Elasticsearch, qui vont évidemment utiliser des modèles comme ça. Tu pourrais très bien dire, si je n'ai pas énormément de volume de données, je pourrais les faire de manière différente. Donc oui, c'est un peu l'enjeu, c'est de se dire, le meilleur de tous les mondes est en fait d'utiliser, de mettre en place le bon usage, la bonne techno, la bonne méthode, la bonne ingénierie pour répondre à cette petite tâche-là, et du fait qu'on l'ait cloisonné entre guillemets, qu'on ait restreint son périmètre et bien c'est ce qui fait qu'on la rend le plus déterministe possible même si on dépend d'un modèle qui l'ait pas.

Bruno:
Sur ces logiques d'orchestrateur, donc j'ai compris dans ce que tu m'as dit qu'on a parfois des mécaniques de workflow qui du coup ne nécessitent pas forcément d'orchestrateur parce qu'en fait c'est juste un enchaînement d'un point à un point B et en gros c'est tout droit. Donc tu parles aussi une logique d'orchestrateur avec un modèle qui va décider, quel agent il appelle et comment et dans quel ordre. Ces orchestrateurs-là, pareil, tu as la même flexibilité que sur tous les agents, c'est-à-dire que tu peux mettre n'importe quel modèle et peut-être même du code, entre guillemets, brut, ou est-ce qu'il commençait à avoir des modèles spécialisés dans cette orchestration qui savent mieux déterminer les tâches et les répartir ?

Samy:
Oui, dans ces modèles d'orchestration, c'est la capacité de raisonnement et decision-making qui est importante, et donc là, on commence quand même à avoir besoin d'utiliser des modèles qui sont puissants. Je pense que c'est dans ces briques-là, justement, où les modèles les plus récents et les modèles les plus puissants, qui incluent notamment les capacités de raisonnement dans les dernières versions des modèles O1, O3, notamment chez GPT, mais il n'y a pas que. C'est là où ça a vraiment du sens. Alors, est-ce que c'est indispensable ? Non, parce que tu pourrais très bien avoir un agent orchestrateur qui le fasse en mode un peu arbre de décision comme ça a été fait. Mais je pense que justement, aujourd'hui, on dépasse ces choses-là grâce justement avec l'avènement des modèles qui ont ces capacités-là. Donc, je ne veux pas dire que ça ne peut pas être fait autrement. Mais je dis que oui, c'est là où ça a le plus de valeur en tout cas.

Bruno:
Mais donc, on commence à créer des modèles spécifiquement pour ce rôle d'orchestrateur ?

Samy:
Alors, spécifiquement, je ne sais pas. En tout cas, on utilise les modèles qui ont ces capacités de raisonnement et après, probablement qu'on va le distiller, soit le fine-tuner avec un certain nombre de ce type de dataset, de choix en fonction de différentes possibilités. Et puis aussi, peut-être après, distiller le modèle pour ne lui demander plus que faire de la décision ou du raisonnement et du coup réduire sa taille. Après, est-ce qu'on ferait des modèles spécifiques pour ça ? Je pense qu'on fait des modèles qui sont capables de raisonner aujourd'hui et qu'ils s'intègrent très bien dans cet étudiage-là.

Bruno:
Donc quand on voit aujourd'hui ChatGPT là où quand tu donnes ton prompt tu vois les différentes étapes de sa réflexion je me permets de mettre des guillemets quand même autour parce que, se poser la question d'être que c'est vraiment la réflexion mais donc quand on voit ça c'est qu'en fait maintenant eux ils sont passés aussi sur une IA agentique et donc en fait ils ont un ensemble d'agents qui font un peu à la différentes version on va dire de GPT.

Samy:
Alors je ne veux pas dire de bêtises, je ne sais pas, mais non, c'est le modèle lui-même qui est entraîné pour, en fait, se donner le temps... Quand ils se disent, en fait, ils se donnent le temps de la réflexion, parce qu'on sait aussi... Je pense qu'ils se sont rendus compte que ils disent au modèle... En fait, interne dans... Tu ne le vois pas, c'est under the hood, mais en fait, le modèle, il va faire de l'output, reprendre son output en input, et en fait, elle se... Se prompter lui-même d'analyser la sortie de son précédent, de voir s'il pourrait faire mieux, etc. Et c'est dans cette démarche où, en fait, il fait du tour lui-même sur sa première proposition. Au lieu de te dire, je te shoot une demande, donc un prompt, mais bon, une demande, exécute-moi une tâche, etc. Et qu'il te la donne, là, en fait, il va prendre le temps de récupérer sa sortie. Il va se demander à lui-même d'analyser est-ce que c'est la meilleure façon de challenger cette solution-là, de faire ses itérations sans que toi, tu aies à lui demander. Parce que, à mon sens, encore une fois, je ne suis pas rentré ultra dans le détail, peut-être que je dis des bêtises, mais on s'est rendu compte que quand on utilisait GPT au début et qu'il nous sortait quelque chose et qu'on lui demandait... En fait, ce qu'on faisait, c'est qu'on lui disait, ok, maintenant, essaye de re-challenger cette idée ou alors on lui disait, propose-moi 12 façons ou 10 façons de faire ce truc-là puis ensuite, shuffle entre ces 10-là, ok, compare la première et la dernière et puis ensuite, réduire, réduire, réduire les possibilités jusqu'à choisir la meilleure option à ton sens, c'est qu'en fait, on lui instruisait d'avoir cette démarche de réflexion et maintenant elle est intégrée dans le modèle.

Bruno:
Oui c'était effectivement un des points c'est que avec ces systèmes d'agents tu peux effectivement faire toute une mécanique de boucle pour revalider ton, ton l'output final effectivement, mais est-ce que ça, attends j'essaie de formuler ma question en même temps parce que c'est un on revient un peu à cette logique de méta réseau de neurones c'est qu'en fait tu, là où avant t'essayais au niveau de ton entraînement d'améliorer l'ensemble de tes poids de tous les liens entre les différents neurones pour que tu aies un output de meilleure qualité maintenant tu réutilises le modèle en permanence pour que lui-même s'améliore aussi.

Samy:
Et on l'utilise aussi en tant que juge.

Bruno:
Excuse-moi le coupé mais il y a ça c'est qu'on fait des agents juges qui vont aller juger.

Samy:
De la qualité de la réponse donc si tu prends une séquence en disant même on fait le cas simple où je fais pas je laisse pas l'orchestrateur décider, mais je dis ok, j'ai décidé de réaliser cette tâche de cette façon-là, donc je prends des données puis je les offusque, puis une fois que je les offusque j'extrais des intentions, tu vois, on pourrait dire, allez on fait un exemple qui est un peu dans notre, cœur de métier, c'est de te dire, je veux faire un agent qui est capable de répondre à des mails automatiquement en fait, mettre tout un tas d'outils, mais là, si on devait faire une chaîne relativement linéaire d'orchestration, on dirait, en fait, il faut que je prenne le contenu, il faut que du coup je l'interprète, ensuite, il faut que je au préalable, avant d'utiliser une IA, il faut Donc, j'offusque ces données-là, les données personnelles. Ensuite, que je demande à une IA de m'extraire les intentions. Ensuite, que je processe chacune des intentions du mail. Il peut y en avoir une, mais il peut y en avoir plusieurs. Du coup, ensuite, je vais faire une recherche d'informations dans... La connaissance que j'ai à disposition et après on pourrait arriver sur la connaissance pour essayer de trouver l'information faire la recherche d'informations et trouver l'information la plus pertinente corrélée à cette problématique ou cette intention là, que je le fasse x fois parce que je peux peut-être en avoir plusieurs et puis ensuite que je te compile une réponse et cette réponse je veux la compiler au ton et à la ligne éditoriale de la marque donc je vais appliquer. Des spécificités de vocabulaire de ton, de choses comme ça etc Et donc là, je sors une réponse personnalisée. Ensuite, je vais adapter la réponse au contexte utilisateur que j'ai pu extraire au départ, parce que l'utilisateur, il me parle, mais quand il écrit un mail, il y a du contexte qui est pertinent, à amener dans la réponse finale, comme pourrait le faire un agent dans un support center. Donc, si quelqu'un m'a dit au départ, dans le mail ou dans son message sur un live chat, que c'est une personne, je ne sais pas, enceinte, est-ce que je peux me faire livrer ? En fait, ça, c'est super important dans la réponse. pour avoir l'empathie dans la réponse, mais aussi pour adapter, pour aller chercher l'information plus précise parce qu'on a une contrainte ou un filtre qui nous permettrait d'aller chercher une information plus précise. Donc, on va adapter la réponse au contexte utilisateur qu'on a pu extraire. Et puis derrière, on va peut-être y mettre un juge aussi en disant, revérifie-moi la réponse. Quand on est dans un contexte peut-être de secteur d'activité, la santé, ce genre de choses, on ne peut pas du tout se permettre de dire une bêtise, y compris que l'un des agents ait intégré une bêtise parce que peut-être que c'est juste à une étape qu'on a intégré quelque chose et donc tu as des agents qui vont aller vérifier est-ce que ça respecte l'ensemble des contraintes qu'on a définies pour cette tâche-là donc est-ce que ça va respecter le ton est-ce que les informations qui sont elles sont vérasses là-dedans ce genre de choses et puis est-ce qu'il n'y a pas de risque quoi en fait.

Bruno:
Je reviens sur cette idée de méta-raiseau de neurones. Est-ce que dans ce... T'as un lien, en fait, qui existe entre chaque agent. Est-ce qu'il y a aussi une notion de pondération des liens et que du coup, ton orchestrateur va te prendre avec plus ou moins de pincettes ce qui est ressorti d'une IA ? Tu vois, un peu comme on retrouve dans un réseau de neurones. La pondération de poids, enfin, tu vois...

Samy:
Ouais, ben... Je pense que... Alors, j'en ai pas vu, moi, mais oui, je pense que nécessairement, en fait, à quel point l'orchestrateur... En fait, l'orchestrateur, il va essayer de comprendre le rôle de chacun des IA en comprenant sa description et probablement sa description avec aussi les risques qui lui incombent. Et après, est-ce qu'il y a une pondération qui est définie en disant « Pondère le résultat de cette IA et que c'est déterminé au préalable par l'humain, ou est-ce que c'est lui qui, par la définition du risque qui est expliqué ou défini, y compris en langage naturel dans l'agent, va prendre en considération ces informations et du coup pondérer le résultat, c'est une très bonne question.

Bruno:
On ne parle pas encore d'entraînement des IA agentiques ?

Samy:
Non, parce qu'on entraîne des modèles.

Bruno:
Qui sont utilisés sur chaque agent. Il y a un dernier point que j'aimerais évoquer avec toi pour revenir sur des sujets un peu techniques et notamment sur la façon dont on produit du code, même de manière un peu plus globale je sais pas si t'as vu mais je crois que c'était en décembre Satya Nadella le CEO de Microsoft a fait un édito que je trouvais un peu provoque pour faire un peu de buzzword mais le titre de l'édito c'était Sass is dead, dans sa logique de se dire que les IA en fait évoluent tellement, qu'on va avoir de moins en moins besoin de produire du logiciel est-ce qu'en fait on pourra juste mettre une IA, et lui dire en fait je veux ça et en fait tu n'as plus besoin de produire un logiciel, de produire du code tu peux demander à l'IA de te faire les choses, tu vois ce que je veux dire ?

Samy:
Bah ouais il y a aussi des agents qui créent des agents donc il y a aussi ces choses là en disant est-ce que je peux m'appuyer sur des agents qui me permettent de créer des agents pour réaliser des tâches s'assises d'aide, oui effectivement ça me semble un peu un peu c'est.

Bruno:
Un peu provoque tu vois mais en fait si tu vois est-ce que de manière catégorique tu pourrais me dire on peut pas créer Salesforce en faisant que de l'IA agentique.

Samy:
Oui, je pense qu'après, il y a un problème de contrainte aujourd'hui. Les agents, dans un monde utopique où tout est parfait, où il y a des API partout, où les documentations sont parfaites, où il n'y a pas de custom, où il n'y a pas de ci, où il n'y a pas de ça, oui. Mais en fait, on ne vit pas dans ce monde-là du tout. On aimerait bien, mais c'est loin d'être le cas. Et on le voit très bien, nous, les techs, etc. qu'en fait il y a un monde où l'utopique il y a même un monde où les métiers disent ouais mais non mais je veux réaliser quelque chose comme ça enfin même pas les métiers de chez nous les métiers des fois chez nos clients nous disons on voudrait faire ça etc et en fait l'idée elle est super c'est juste que tu vois que le SI il est pas du tout prêt que tout ça c'est pas du tout aligné puis c'est pas standardisé puis c'est pas documenté donc tout ça ça fait que ça met des grosses grosses des grosses barrières et ils ont. Il y a eu enfin il y a récemment pas mal de choses t'as dû entendre parler de je crois que c'est MCP protocole de chez Anthropic, un peu c'est l'équivalent de Operators qu'ils ont sorti chez OpenAI, mais globalement ce sont des agents qui ont aussi la capacité de comprendre ce qui se passe sur l'ordinateur d'analyser aussi puis de faire des actions donc tu peux dire en fait je pourrais très bien, effectivement créer des agents après je reviendrai à la question initiale de dire est-ce que ça va faire on aura plus besoin de développer des logiciels que ça soit sas ou pas, mais en fait on se rend compte que si tu crées des agents qui vont effectuer des tâches à partir de l'humain, il faudrait que ça soit dans un monde parfait où finalement les UI sont toujours, standardisés, faites de la même façon où il n'y a pas de custom, où il n'y a pas d'interprétation, trop d'interprétation à avoir, et on se rend compte que ça c'est pas la réalité, il y a l'historique le background, la dette technique des entreprises qui font que ça, ça complexifie sensiblement les choses, de là à se dire qu'on va arriver à avoir un monde tout automatisé où tout fonctionnera comme ça de manière très fluide, à mon sens on en est encore très loin mais ça répond à des usages réels aujourd'hui et ça amène de la valeur, de la miroiter qu'on va perdre tous les jobs, qu'on va plus avoir besoin de.

Bruno:
Développer des choses je dis pas qu'on va perdre tous les jobs je pense qu'il y a des jobs qui vont drastiquement changer dans la manière de faire les choses en fait moi ce qui me fait penser à cette. Modification de la manière dont on va, créer des applicatifs je sais pas si t'as vu, je crois que c'était en 2024 peut-être en 2023, mais je crois que c'était en 2024 il y a quelqu'un qui a réussi à recréer Doom, avec un LLM mais sans créer la moindre ligne de code en fait il demande au LLM de générer le frame d'après, d'un jeu en fonction du déplacement qui a été fait, ou de l'action qui a été menée au clavier sur le joueur et donc en fait, bon alors c'est à 7 frames par seconde, moi quand j'avais vu le test donc on est très loin d'un jeu vidéo normal mais tu vois c'est fou de te dire que t'as un jeu qui est, relativement bien utilisable où en fait il n'y a pas de map qui a été créé, il n'y a aucun personnage qui a été dessiné avant c'est entièrement juste la génération de l'image d'après, donc t'as pas de, moteur de jeu qui a été créé, il n'y a pas de moteur de jeu, il n'y a aucune ligne de code qui a été créée c'est uniquement le LLM qui te ressort, le frame d'après on pourrait imaginer un Salesforce, où ta requête HTTP, en fait, elle arrive sur ton orchestrateur. Il a accès à, je ne sais pas, toutes les factures qui sont dans une base de données, tous les clients qui sont dans une base de données. Et on lui demande de faire un output en HTML. Et ça t'affiche, du coup, au client, en fait, sa vue. Et du coup, le client est capable aussi de dire, moi, je veux plutôt des tableaux en bleu. L'autre qui va dire, moi, je veux plutôt des tableaux en jaune. Et chacun peut, du coup, aussi avoir son Salesforce ultra custom à soi.

Samy:
Oui non ça c'est sûr que je pense que pour adapter pour adapter on est aussi en train de parler du high en fait tu vois quand on dit en fait est-ce qu'on va plus du tout faire de logiciel en fait est-ce qu'on fera plus du tout de logiciel est-ce qu'on fera plus que des API et donc ça veut dire qu'est-ce qu'on fera plus du high parce qu'en fait, ça sera il va falloir quand même que les systèmes y communiquent entre eux il va quand même va falloir exposer de la donnée va falloir exposer de l'information va falloir faire tout ça et ça pour le coup, pour faire interagir les systèmes ensemble, à mon sens, ça va rester indispensable. Après, dans l'expérience... Est-ce que les agents vont nous permettre de créer nos expériences utilisateurs et nos... telles qu'on l'imagine, nous, pour répondre à ce besoin-là ? Ça, à mon sens, oui, ça a de la valeur, ça a du sens. Est-ce qu'on n'arrivera que ça ? Ça me semble très, très prématuré. Il y a plein d'expérimentations qui sont super pertinentes et qui nous ouvrent plein de perspectives. Maintenant, dans le monde réel, à l'échelle des grosses entreprises, des contraintes et puis des coûts, parce qu'en fait, c'est toujours pareil. Aujourd'hui, il y a plein de gens qui font des recherches sur ChatGPT au lieu de faire des recherches sur Google. Alors j'avoue, ça te donne la réponse, c'est vrai. Mais en fonction de la typologie de ta requête, des fois, ça n'a pas de sens. parce qu'il y a des gens qui font des requêtes de keywords dans ChatGPT avec deux mots donc en fait il ne faut pas s'attendre à ce que ça te fasse une génération d'une réponse. Qui t'a fait tant gagner de temps que ça puisque finalement il n'y a pas de contexte tu vois pour ChatGPT le truc c'est il faut qu'il y ait du contexte pour qu'il t'apporte une réponse bien précise, formalisée et qui te fait gagner beaucoup de temps et les gens ont tendance à utiliser pas toujours à bon escient l'IA pas que la réponse soit pas bonne c'est juste qu'en termes de coût, là quand ils le payent pas parce que c'est gratuit mais il y a quelqu'un qui paye et puis si personne paye tout ça, on le paye écologiquement en parlant et je refais un peu la tendance juste pour se dire que c'est des fondamentaux sur lesquels on essaye de travailler, on en parle au niveau des entreprises on en parle au niveau de l'état on en parle, c'est le monde tout autour de ces enjeux là, en se disant comment on va pouvoir continuer à vivre de manière, décente sur cette planète là si on la respecte pas un peu plus en fait il faut pas que, la technologie vienne balayer un petit peu tous ces efforts qu'on fait ou comment on intègre les évolutions technologiques dans cette démarche-là qui reste quand même fondamentale. Et quand on voit, tu as entendu parler des data centers, en gros, des labs d'IA qui sont en train de créer les centrales nucléaires. Il n'y a pas de sujet sur la partie nucléaire parce qu'il faut créer de l'énergie et tout.

Bruno:
C'est une illustration de la quantité d'énergie nécessaire qui fait que ces gens-là en viennent à construire une centrale électrique pour leurs besoins propres de data centers.

Samy:
Exactement. Centrale nucléaire pour faire tourner des modèles si on dépasse enfin en fait c'est toujours est-ce qu'on en fait le bon usage si on utilise ces modèles-là parce qu'on n'a rien d'autre qui peuvent le faire à 4 enfin tu vois c'est toujours pareil en fait c'est, la qualité de ce que je vais est-ce que je suis prêt à payer 5 fois plus pour passer de 90 à 100% ça j'ai pas moi forcément en.

Bruno:
Sachant que pour moi le gain c'est plus passé de 90 à 90,2.

Samy:
Exactement mais je veux dire la question elle est là de le faire de manière raisonnée et des fois l'excitation, technologique et la disruption de ces trucs là fait que les gens s'enflamment et tout et puis à un moment il faut aussi qu'on remette un petit peu les puits sur Terre.

Bruno:
D'ailleurs, tu as dropé le nom de DeepSeek tout à l'heure. Alors, peut-être que mes infos ne sont pas toutes juste parce que c'est encore tout frais. C'est sorti la semaine dernière.

Samy:
Il y a beaucoup de buzz.

Bruno:
Mais moi, de ce que j'ai vu quand même sur DeepSeek, on parle quand même d'un modèle qui consomme très très peu, à l'usage, qui est entièrement open source, qui a coûté 5 millions de dollars à entraîner parce qu'ils l'ont entraîné sur un data center somme toute classique sans avoir accès aux nouvelles puces H100 de Nvidia. Donc, tu vois, il y a quand même un... Et ça, c'est aussi la beauté, je trouve, de la recherche et de nos métiers, c'est qu'il y a toujours des gens qui vont chercher à faire mieux sur plein de critères différents. Et on voit, en fait, qu'on commence à avoir des modèles à paraître qui sont de plus en plus frugaux, comme on dit, et qui consomment de moins en moins d'énergie.

Samy:
C'est vrai. Alors, je ne vais pas te dire que je sais tout ça, parce que comme toi, j'essaye de décrypter un petit peu ce qui se dit, ce qui ne se dit pas et tout, donc je n'aurais pas la prétention de dire que j'ai lu pas mal de choses, mon point de vue sur DeepSync c'est que, leur démarche open source etc c'est une vraie démarche open source franchement il faut leur dire bravo, la version chat quand même en ligne qu'on utilise public, les données elles sont utilisées pour entraîner donc je fais petit aparté les gens il faut quand même qu'ils en aient conscience lisez les conditions générales d'utilisation mais là en l'occurrence ils utilisent les data pour le training, donc voilà après bon les biais sur les modèles enfin il y a des biais de toute façon les modèles en fait il y a des biais de culture qui sont liés à la data avec lesquels on a entraîné les modèles et donc culturellement parlant au-delà des contraintes qu'ils peuvent ajouter dans le modèle. Pour répondre ou pas sur un certain nombre de sujets il y a de toute façon des biais qui sont liés à la donnée d'entraînement et donc du coup il va se comporter de la façon dont les data ont d'une certaine façon appris après à se comporter et ce qui intègre les biais c'est vraiment, je ne veux pas dire de bêtises, mais je crois que c'est 0,02% de la data qui... Enfin, tu vois, ce n'est pas énorme. Le volume de données biaisées qui crée du biais dans le fonctionnement du modèle, ouais. Après, moi, ce que j'ai lu, mais je ne veux pas dire encore une fois de bêtises, c'est que... C'est un gros modèle, en fait, DeepSync. C'est 671 ou 75 milliards de paramètres. Donc, c'est un gros modèle. C'est juste que, du coup, quand il run, il n'active qu'une partie. Et c'est dans ces évolutions-là qu'ils ont fait, que c'est performant et que c'est différent du fonctionnement des autres. C'est que ça n'active qu'une trentaine ou quarantaine de millions de paramètres en fonction de la tâche. Donc, du coup, ça ne va pas quand le modèle tourne. Pour l'entraîner, je ne veux pas dire bêtises, mais l'entraînement a priori il n'aurait pas coûté ce prix là ou en tout cas c'est l'entraînement sans le reinforcement learning etc et donc ça ça rajoute des coûts assez conséquents, semble-t-il que moi j'ai lu qu'ils possèdent quand même pas mal de GPU genre 50 000 cartes quand même et que. Et que pour entraîner le modèle au départ ils ont quand même utilisé des A100 et des choses comme ça donc, voilà après encore une fois voilà je ne veux pas dire de bêtises non plus et je mets vraiment des pincettes sur ça mais par contre ils ont une vraie démarche open source, et ça c'est quand même assez différent et en fait c'est.

Bruno:
Un open AI.

Samy:
Qui est devenu le close d'AI fort army et fort tout ce que tu veux et ça fait un peu peur quand on lit un peu le truc d'open AI c'est parti d'un c'est parti d'un des idéaux qui sont qui sont très valorisables. Puis après on peut se poser la question de est-ce qu'ils deviennent trop mercantiles ou est-ce qu'ils se rendent enfin je ne sais pas mais est-ce qu'ils se rendent compte qu'il faut quand ils pensaient qu'il fallait 15 milliards pour faire la GI, ils se rendent compte qu'en fait ils étaient mais très très très loin du compte et qu'en fait il leur faut beaucoup plus et que s'ils veulent être toujours les premiers pour les bonnes raisons et je ne dis pas que c'est pour les bonnes raisons, l'atteindre parce qu'on sait les risques qu'il peut y avoir avec l'intelligence artificielle générale et donc pour continuer d'espérer d'être les premiers et de ne pas avoir le risque que que ça soit d'autres mal intentionnés qui le découvrent. Il faut beaucoup plus d'argent et qui se sont dit qu'en fait, de manière open source, c'est totalement irréel de l'atteindre ou en tout cas pas d'être les premiers. Voilà, je ne sais pas. Après, l'autre chose, c'est que moi, DeepSy, c'est brillant ce qu'ils font. Et après, ils ont des mecs, ils ont des pointures, ils ont des médailles et field et tout. Donc, à mon sens, ce n'est pas une petite équipe dans un petit coin de truc, bien ce qu'on veut en dire. Donc mais bon chapeau à eux après ils arrivent un peu après quand même les autres c'est toujours plus facile à mon sens aussi de se dire enfin voilà je pense qu'il ne faut pas cracher sur ceux qui étaient en avance de phase un peu au même titre que, tu as entendu parler de Lucille ils ont lancé le chat de GPT le chat de GPT français il y a quelques jours il y a quelques jours il y a peu de temps ça a fait bad buzz un peu parce que c'était pas super quali voilà en même temps en fait les gens ils. Voilà, il y a beaucoup de haters. Dès qu'il y a un truc qui ne marche pas, on est là en train de cracher dessus. Mais bon, en fait, on n'est pas tous à la même phase d'avancement. Et puis, effectivement, DeepSync... Est-ce que DeepSync aurait pu faire ce qu'ils font aujourd'hui s'ils étaient aux prémices de quand OpenAI ? Franchement, je ne dis pas qu'OpenAI, c'est la meilleure des boîtes. Au contraire, je ne suis pas très aligné avec la façon dont ça évolue. Après, est-ce que c'est le choix qu'ils ont besoin de faire pour continuer d'atteindre leur objectif qui serait louable je sais pas tout ça ou est-ce que ça n'est plus que de l'argent, probablement mais bon voilà donc sur DeepSeek en tout cas ce qui est bien je pense qu'on continue de voir qu'il y a quand même des acteurs qui restent ou qu'on continue d'avoir une volonté open source, et que du coup ça permet à la communauté d'avancer super vite et de challenger les gros labs aussi ceux qui ont énormément d'argent ils sont challengés par ça et je pense que ça c'est aussi très bien.

Bruno:
Comme sur beaucoup d'épisodes on parle on parle d'IA diverses et variées. Je me douais effectivement de préciser aux auditeurs, parce que je ne sais pas quand est-ce que cet épisode sera diffusé. On enregistre cet épisode fin janvier. C'est pour ça qu'on est au tout début de la hype d'Ipsych. Et que peut-être qu'on va apprendre des choses entre le moment où on a enregistré et le moment où ça sera diffusé. Prenez tout ce qu'on a dit très actuel avec des pincettes, parce que d'ici à la diffusion, ce sera peut-être beaucoup changé.

Samy:
On aura peut-être dit beaucoup de bêtises.

Bruno:
Écoute c'était top merci beaucoup Samy pour cette discussion avec grand plaisir j'aurais deux dernières questions pour toi qui sont les questions rituelles du podcast la première c'est est-ce qu'il y a un contenu ou une ressource que tu souhaiterais partager avec l'ensemble des auditoristes.

Samy:
Tu me prends un peu tout court.

Bruno:
Oui, c'est vrai que je n'ai pas pensé à te le dire en début d'épisode. Ça peut être ce que tu veux. Ça peut être un truc tech, non tech. Ça peut être un film, une série, un article, un livre, un CD, un jeu vidéo, enfin, un CD, une musique. Un jeu vidéo, ça peut être vraiment ce que tu veux. Un truc que tu veux partager avec tout le monde. La dernière série que t'as regardée ou le dernier film.

Samy:
Peut-être un truc, je vais pas dire de bêtises je vais pas me tromper sur le nom une pièce de théâtre assez intéressante justement sur des sujets autour de l'IA, qu'on a proposé nous on a invité nos clients assez récemment à avoir, et je ne veux pas dire de bêtises sur le titre de la pièce, on a eu de très bons échos et c'est du coup une pièce qui est orientée autour justement des enjeux et des risques de l'IA en théâtre ça joue à Paris, et je ne voudrais pas dire de bêtises c'est Garousia ou...

Bruno:
On mettra le lien en.

Samy:
Description qui a hacké Garousia je ne l'ai pas vu et je le regrette parce que je n'étais pas là mais on a eu des très bons échos, et puis c'est une petite troupe de théâtre aussi donc je me fais la voix de ceux qui l'ont vu et qui ont passé un super moment et c'est dans le fil du temps, ça permet de parler un peu de façon différente et puis adapter au théâtre, je trouvais le principe sympa et en tout cas d'amener l'intelligence artificielle sur les planches du théâtre je trouvais que c'était, une idée assez intéressante.

Bruno:
On mettra ça effectivement en description et dernière question la plus importante de ce podcast, tu es plutôt espace ou tabulation ? Tabulation tabulation très bien merci beaucoup Samy merci.

Samy:
À toi et merci encore une fois pour l'invitation et puis s'il y a d'autres questions qui émergent n'hésitez pas à me les adresser Twitter ou voilà en tout cas je me ferai un plaisir d'y répondre.

Bruno:
Avec grand plaisir et merci à tous d'avoir écouté cet épisode j'espère que vous avez donné une vision un peu plus précise de ce qu'est les agents l'IA agentique et tout ce qu'on peut faire avec et tout ce qu'on peut peut-être espérer, faire avec d'ici à ce que ce soit diffusé j'espère que vous avez testé DeepSync et que ça se révèle à la hauteur de ce qu'on a annoncé en tout cas voilà il y a plein de choses qui bougent, faut jouer avec ces outils là faut les tester, faut les implémenter, faut y aller, il y a quelques semaines on a fait un épisode sur LongChain, allez-y testez parce qu'on en a pas beaucoup parlé aujourd'hui mais il y a des frameworks effectivement qui permettent de faire de l'IA agentique comme LongChain comme la main index et A-Stack.

Samy:
Il y a beaucoup de choses plus ou moins low-code en fonction de l'usage qu'on veut en faire et on pourrait faire un épisode quasiment que sur ça mais voilà il y a beaucoup de choses ça bouge énormément ça va très très vite donc ce qui est dur en fait je crois que c'est la veille en ce moment c'est de se maintenir à jour et c'est de se lancer c'est de faire un choix tu fais un choix mais t'as l'impression que la semaine d'après tu remets en question ton choix t'as peur donc il y a un moment il faut aussi se lancer, et pour le coup Longchain quand même un très bon framework pour avancer et puis qui est pérenne il y a une grosse communauté enfin voilà Il n'y a pas de risque là-dessus.

Bruno:
Et ça facilite vraiment énormément le travail. Donc oui, effectivement, comme le dit Samy, ça bouge très vite. Donc il faut se lancer, il faut tester. Ce n'est pas grave si dans une semaine, c'est plus valide. Mais vraiment, sauter sur le train. Moi, je vous remercie toujours de partager ce podcast autour de vous. Je vous souhaite une très bonne fin de semaine. Je vous dis à la semaine prochaine. Et d'ici là, codez bien !

Recrutez les meilleurs développeurs grâce à Indeed !

"Trouver des développeurs compétents et passionnés, comme les auditeurs d’If This Then Dev, peut être un vrai défi. Avec Indeed, connectez-vous rapidement avec des candidats qualifiés qui sauront s’épanouir dans votre entreprise. Profitez dès maintenant d’un crédit de 100 euros pour sponsoriser votre offre d’emploi : go.indeed.com/IFTTD."