Quentin Adam

304

Bilan 2024

Quentin Adam

Le début de la révolution

il faut embrasser l'innovation
Suivre IFTTD =>

Le D.E.V. de la semaine est Quentin Adam, Fondateur @ Clever Cloud.

C’est l’heure du bilan de l’année 2024 !

Quentin revient sur les succès et défis de l’année, notamment la mise à niveau de l’architecture de Clever Cloud, alliant adaptation et innovation. Il met en lumière deux tendances majeures : la montée des services managés dans le cloud et l’intégration accrue de l’IA, transformant profondément le paysage technologique. Quentin anticipe également l’émergence des technologies quantiques, tout en appelant l’Europe à adopter une stratégie claire pour rester compétitive. Enfin, il envisage un futur où les développeurs joueront un rôle plus stratégique, passant de l’écriture de code à l’orchestration des services.

Chapitrages

00:01:01 : Notre tradition tech, et update sur Clever Cloud

00:10:00 : Les services managés

00:30:20 : Révolution industrielle de la prestation intellectuelle

00:46:47 : L'émergence des modèles d'IA

00:52:08 : Appel aux développeurs

00:54:10 : L'importance de l'automatisation

00:55:38 : Recherche et l'ordinateur quantique

00:58:02 : La nouvelle ère du quantique

01:00:52 : Evolution des data centers

01:03:47 : L'avenir de l'inférence

01:06:16 : Évolution du métier de développeur

01:10:49 : Hypervalidation et données

01:15:40 : L'impact de l'IA sur le développement

01:18:42 : Les enjeux de la performance

01:23:12 : Compréhension des processus à automatiser

01:26:12 : L'essor de l'IA et des services managés

01:32:11 : Prédictions pour 2025

01:40:49 : L'avenir de la réalité augmentée

01:46:53 : Le futur de l'interface homme-machine

Cet épisode n'a pas encore été compilé !
Un épisode est généralement refactoré 3 ans après sa diffusion !

Un peu de patience ...
Pas d'extraits disponible :(
Bruno:
La fin d'une année comporte ses traditions dîner de famille sans fin, fête et enfant en folie, les films de Noël qui se ressemblent tous et un compte à rebours annonçant une nouvelle année toujours très différente. Notre tradition à nous, ici, sur ce podcast IfTTD, c'est de faire une orgie de tech et de savoir avec Quentin. Quentin, bonjour !

Quentin:
Bonjour !

Bruno:
Alors Quentin, est-ce que tu pourrais te présenter pour les quelques personnes qui ne te connaîtraient peut-être pas encore sur ce podcast ?

Quentin:
Donc je m'appelle Quentin Adam, je dirige une société qui s'appelle Clever Cloud, le nuage malin qui automatise les infrastructures, donc on est une plateforme complète de cloud computing qu'on peut avoir soit dans l'infra de Clever, soit dans l'infra des autres, que ce soit les hyperscalers ou les champions locaux, soit on-premise, donc on est le cloud versatile quelque part. Et puis j'irige aussi une association qui s'appelle Open Internet Project, qui a pour but de faire respecter le droit de la concurrence en Europe, notamment à nos petits camarades américains et donc je suis impliqué sur des sujets à la fois technologiques, politiques financiers, etc. Et entrepreneuriaux pour ceux que ça intéresse et j'ai le plaisir de venir maintenant tous les ans discuter avec toi de où est-ce qu'en est le marché dans quel sens on va annuellement.

Bruno:
Et c'est toujours un plaisir de faire ce bilan avec toi. Pour commencer de manière presque protocolaire, est-ce que tu peux nous faire un petit bilan de ce qui s'est passé en 2024 chez Clever Cloud ?

Quentin:
Alors chez Clever Cloud il s'est passé énormément de trucs en 2024. Alors Clever c'est une boîte dont on est monté à 80 personnes. Donc déjà c'est énorme en fait. Des éditeurs logiciels en France à 80 personnes, il n'y en a pas tant que ça. On doit y avoir une cinquantaine de boîtes. C'est compliqué de monter un éditeur logiciel et nous comme on a complètement largué l'activité de service il y a quelques années mais là elle est vraiment complètement larguée, ce qui nous permet d'être très clairs vis-à-vis de nos partenaires parce qu'on ne veut pas aller manger dans la gamelle de nos partenaires sinon ça crée un différentiel total. Donc c'est assez bien d'avoir réussi à faire ça surtout que nous on n'a pas d'investisseurs, très très peu d'investisseurs donc on a vraiment une structure de montée qui est complètement organique et donc sur notre projet. Donc la première chose qui s'est passée, c'est qu'on a encore grossi. Pour donner les chiffres aux gens, parce qu'on est une boîte très particulière, il y a 50 personnes à la R&D sur 80. Donc c'est vraiment une boîte qui est très très très très très axée R&D. Et il faut comprendre qu'aujourd'hui chez Clever Cloud, la plupart des gens qui bossent sont sur des produits qui sont unreleased. Donc en fait, on a mis beaucoup d'argent au travail, si je définis les choses comme ça. Donc les premières choses, c'est qu'on a beaucoup redéfini le socle legacy de Clever Cloud. En fait, il y a du code chez nous qui a 15 ans, qui est en train d'être complètement déprovisionné. Donc ça a été long et compliqué, mais voilà. Donc ça, c'est la première chose qu'on a faite d'un pur point de vue R&D. La deuxième chose d'un point de vue R&D, c'est qu'on a sorti les premières versions de Materia. Materia, c'est la base de données multi-tenant, multi-site. Complètement chiffrée de bout en bout, qu'on a créée à base de fondation d'IBI. Et donc, en fait, dans le fondation d'IBI, on peut mettre de la data, mais la fondation, c'est plus un SDK pour créer des bases de données, qu'une base de données en tant que telle. Donc nous on fait des layers au dessus qui nous permettent d'avoir une donnée qui est chiffrée par tenant donc par, entreprise ou organisation gérant les choses et d'avoir différents modèles d'accès et de lecture donc la première version qu'on a sortie c'est un truc qui s'appelle Key Value, donc ça fait de la Key Value comme son nom l'indique c'est comme le port salut et le gros intérêt de ce truc là donc on utilise l'API de Redis donc ça n'a pas la rapidité d'un Redis qui est tout en RAM puisque tout est sauvegardé mais comité transactionnalisé donc pour le coup c'est un key value safe dans lequel tu peux mettre de la data, mais on met également d'autres protocoles dessus on est en train de release la version dynamo et tu peux enregistrer de la version en dynamo la lire en redis, donc ça c'est assez cool et c'est très intéressant parce que ça scale ça scale au petabyte, sachant que nous même c'est le backend de data dont on se sert pour nos logs et pour notre monitoring donc en fait c'est toute une transition nous qu'on est en train de faire avec materia en direction de Fondation DB. Fondation DB qui est un projet incroyable, je sais pas, j'en ai déjà parlé ici de ce projet.

Bruno:
Il me semble pas.

Quentin:
Je peux faire l'histoire de Fondation si tu veux.

Bruno:
Allez un petit peu.

Quentin:
Comme ça on fait la première digression de l'épisode. En fait Fondation c'est quoi l'histoire ? C'est quand il y a eu Raven DB, Ressink DB, Arango DB, vous savez toute cette génération là de database multi-tenant qui voulait être PlanetScale. En fait, il y a eu une bande de gonzes qui étaient dans un coin et qui ont dit, on va faire un truc PlanetScale. Pour ça, ils se sont dit, il faut qu'on réécrive toutes les fondations de comment on fait du système distribué. Pour réécrire toutes les fondations de comment on fait du système distribué, allez, on va commencer par réécrire un langage.

Bruno:
Allez, autant commencer par le plus simple.

Quentin:
C'est ça. donc en fait ils ont fait un modèle acteur comme peut l'être Erlang comme peut l'être, AK ou PECO maintenant dans l'univers JVM ou comme peut l'être le projet Orléans sur .NET donc c'est le modèle acteur qui est vraiment très intéressant pour ce genre de modèle, et donc ils ont commencé par écrire un modèle acteur dans un jargon au dessus de ces plus plus aujourd'hui ils ont dit qu'en vrai ils auraient connu Rust à l'époque ils auraient peut-être fait du Rust mais whatever, ils ont commencé par écrire un truc qui s'appelle Flow, de là ils ont écrit un, système de. Modélisation et de simulation des systèmes distribués, parce que le problème d'un système distribué c'est que tu peux pas le tester d'un point de vue pragmatique, t'es obligé de simuler que sur 100 bécanes t'as la barrette de RAM en ECC là qui fait des erreurs à 60% du temps le câble là qui passe un peu trop près d'un néon et qui du coup perd 30% des paquets, que tel bécane en fait est shutdown au milieu d'une transaction enfin ces genres de choses donc t'es obligé de créer ce qu'on appelle un système de simulation capable d'appréhender les erreurs physiques pouvant se produire dans ton cluster, et qui en fait mettrait à mal la couche logicielle, donc tout ce framework de simulation qui est très intéressant qui a donné, le framework Jepsen en fait Jepsen de AFIR le truc qui a été testé contre ZK contre Mongo contre tous les systèmes distribués élastiques etc donc qui est le fameux le fameux blog call me maybe. De AFIR qui s'appuie donc du coup sur le framework Jepsen de test en fait c'est inspiré de ce truc là c'est juste que le système de simulation de fondation est imbriqué avec flow, est imbriqué avec fondation et tu peux pas l'en sortir en fait c'est un package, et donc ils ont commencé par faire ça et ils ont commencé à dire on fait un SDK pour créer des database, Et à ce moment là Ils ont vendu quelques licences A des petites boîtes dont t'as probablement jamais entendu parler, Snowflakes Wavefront Qui en fait Snowflakes c'est basé sur du fondation Wavefront c'est basé sur du fondation Donc ils ont commencé à vendre des licences De ce produit qui était plus ou moins bonne source Et là ils ont été contactés par une petite boîte Spécialisée dans la culture maraîchère, Qui leur a voulu une licence Une boîte s'appelle Apple Je sais pas si t'en as déjà entendu parler un truc en Californie spécialisé maraîcher et qui du coup c'est plus simple j'achète la boîte donc ils achètent fondation et fondation disparaît, Parce que bon, acheté par Apple quoi. Et à ce moment là, les mecs de fondation en interne ont advocated qu'il fallait en faire un vrai projet open source. Apple a écouté ce truc là et le fondation Summit, c'est le seul truc qui a lieu dans le donut là.

Bruno:
De chez Apple.

Quentin:
C'est un vrai projet open source, au même titre que Swift, au même titre que les quelques vrais projets open en fait de Apple. Et donc ils l'ont ressorti en open source et dans les gros contributeurs tu vas trouver Snowflake, tu vas trouver clever cloud parce qu'en fait on est très très impliqué là dedans et c'est nous qui faisons notamment tous les binding rust et la simulation d'une partie des binding rust ainsi que les oracles temporels de timer qui est un truc un peu spécifique dans le bordel mais qui nous permet de faire les expirations dans Redis pour être très clair avec ce qui se passe. Et donc en fait ce projet qui est très intéressant te permet d'être à peu près sûr que ton système distribué va bien se comporter en cas de stress ce qui n'est pas toujours le cas en fait ce qui est très pénible et donc nous en fait on code derrière des surcouches qui nous permettent de créer des bases de données, donc on a key value on a un autre truc, c'est qu'on a créé un KMS sur demande d'une des parties autoritaires de l'état, dessus, donc le key management system c'est le truc dans lequel tu mets des clés et c'est le truc dans lequel tu vas faire passer des demandes de chiffrement et de déchiffrement sans nécessairement sortir de la clé de son enclave sécurisée, et ce truc là en fait on a pris toute l'API de Volt qui est en plus devenue un peu chiante d'accès avec la nouvelle norme de licence de chez Hachicorp. Toute l'API de Volt en fait tu peux lui parler et en fait derrière c'est système distribué qui est multi région, multi availability zone, qui est chiffré, tenantisé, etc. Et donc ça c'est un produit chez nous qu'on n'a pas encore amenacé publiquement. Mais tu vois dans la grosse stratégie Big Data de Clever, dans les gros trucs qu'on a fait cette année, tu as ce truc là où on a enfin fait des releases ? On a aussi sorti la première version du serverless full Wasom dont j'ai longuement parlé ici la dernière fois. Donc ça c'est une alpha, vous pouvez vous en servir, c'est drôle, vous vous servez de la CLI. Sachant que nous depuis, on s'éclate à prendre des modèles sur Hugging Face, les compiler en Wasom et les exécuter dans le face. Donc c'est quand même, c'est extrêmement excitant en fait. Tout ce qui est en train de se produire dans ce milieu-là est extrêmement excitant. Donc on est à fond. On est vraiment à fond. Donc ça c'est la partie on refond Legacy, on fait la big data, on sort un nou, on a passé une partie non négligible de l'année à sortir un nouveau produit d'IA on pourrait peut-être un peu parler plus tard dans ce qu'on est en train de faire, et puis toujours les refonds graphiques des composants du front. On a enfin sorti le réseau privé qui marche, alors on ne l'a pas dit trop fort parce qu'on a tellement souvent annoncé ce bordel et ça a tellement souvent pas marché que du coup on s'assure que ce soit bien résilient, et surtout on a commencé à sortir tous les produits dans la marketplace, faits avec des acteurs autres donc un kick lock as a service un métabase à ce service, on est en train de sortir beaucoup de produits avec d'autres boîtes et toujours avec cette idée qu'en fait à un moment ton cloud provider en fait les gens ont l'impression que le cloud c'est filé des machines virtuelles mais c'est pas ça en fait le cloud le cloud pour moi repose sur 4 piliers qui sont 1 l'identity access management, donc la trace d'audit qui se connecte à quoi, pourquoi, dans quel sens, 2 la facturation être capable de facturer à la console mais également faire l'affectation en interne pour un grand groupe de qui, quels sommes, quoi et dans quel sens. Trois la marketplace, la taille de trucs c'est à dire qu'aujourd'hui quand la DSI passe un contrat avec un cloud, en fait elle sait pas ce qu'elle veut utiliser, donc exactement comme quand t'achètes un grossiste en composant électronique, tu prends celui qui a 80 000 références face à celui qui en a 60 000 parce que tu veux que, tes équipes en R&D soient capables de bosser avec le maximum de composants, donc en fait c'est ce côté grossiste et donc nous c'est comment on peut aider aussi des beaucoup plus petites boîtes que nous, des boîtes de 10-15 personnes, à avoir un produit qui va tout de suite être vendu à des grands groupes parce qu'ils sont embêtés dans notre licence dans notre contrat, dans notre facturation dans notre relance de factu etc etc etc, et le quatrième point c'est l'unification de l'expérience donc c'est les API et la UI unifiés et en fait derrière, tous les autres produits on s'en fout enfin c'est pas on s'en fout mais les produits vont évoluer dans le cloud, on va aller pourquoi pas faire des produits d'IA vers des produits plus managés, vers des etc mais à la fin ce qui est important c'est d'avoir un gros sys et donc nous on fait notre boulot de grossiste là dessus et ce qui est bien c'est que ça ça décolle enfin donc ça c'est d'un point de vue produit vraiment ce qu'on a sorti cette année et, Très excitant.

Bruno:
C'est ce qui correspond plus à la prédiction que tu avais faite l'année dernière dans l'épisode début 2024.

Quentin:
C'est fou, on aurait dit que je gère la boîte.

Bruno:
Où tu avais annoncé effectivement qu'on allait se diriger vers des services de plus en plus managés. Alors c'est vrai que tu le fais effectivement avec Clover, mais on le voit de manière globale chez tous les acteurs de ce marché. On voit qu'effectivement, on se dirige vers des... On retire une bonne partie de la complexité de tous ces sujets-là en faisant des services effectivement de plus en plus.

Quentin:
Et on le voit bien chez nos clients tu vois t'as des clients aujourd'hui ils vont prendre un Kubernetes chez OVH ou chez Scaleway mettre l'opérateur Clever Cloud qui permet de gérer les services managés et attaquer les bases de données et services managés Clever Cloud au travers de l'opérateur, sur les zones Scaleway et OVH qu'on fournit pour rester dans la même infra mais au plus managé et tu vois aujourd'hui c'est clair que c'est RDS c'est Athena c'est Spanner c'est tous ces services managés là en fait qui gagnent pourquoi les gens vont chez Google aujourd'hui, la raison numéro 1 c'est BigQuery. GKE, BigQuery et c'est pas tant que ça l'IAS donc il y a un vrai sujet là-dessus qui est l'entraînement sur les services managés effectivement je pense donc ça tu vois c'est ce qu'on a fait d'un point de vue produit, après pour ceux que ça intéresse, ce qu'on a fait d'autre dans la boîte parce que c'est hyper utile, c'est qu'on a structuré un niveau de management c'est à dire que Clever jusqu'à l'an dernier c'était beaucoup moi qui dirigeais et toutes les équipes en dessous. Maintenant on a une organisation dite matricielle avec des directeurs et des vice-présidents Qui prennent chacun en charge des choses Ce qui nous a permis de grossir, de structurer, de faire énormément de choses Ça se voit moins mais c'est hyper important pour être capable d'être l'acteur Capable de répondre aux enjeux Parce qu'encore une fois mon enjeu à moi il est de répondre aux besoins de toutes les boîtes Qui fournissent des outils à une DSI D'être capable de leur fournir l'accès à nos clients, Et donc, tu vois, ce sujet-là, ça veut dire avoir un gros partenariat, on a une grosse partie internationale, on vient d'annoncer un énorme deal en Côte d'Ivoire, où voilà, on est sur des deals, où aujourd'hui on essaye de marcher à l'international, y compris dans des pays où personne ne nous attendait, parce que c'est hyper intéressant ce qu'on peut créer là-bas, et on crée des nouveaux modèles de relations, où sur place on embauche, on fait de la R&D, et pas on va chercher, on prend l'argent et on le ramène de façon très prédateur, on crée des vrais modèles de collaboration, avec des gens qui nous plaisent beaucoup New Digital Africa, c'est devenu des amis on adore leur façon de bosser, c'est hyper intéressant et donc on a tout ce truc là on a recruté vraiment des killers pour faire ça donc ça c'est toute une partie structuration qui est hyper intéressante, dans ce qu'on a fait, puis on a structuré aussi notre marketing vous avez peut-être vu maintenant on fait même du TikTok chez Clever.

Bruno:
Et donc en fait toi tu te positionnes au final comme un ennableur en donnant les moyens aux gens tu facilites l'accès à la complexité d'une certaine façon.

Quentin:
En fait pour moi je suis un énableur pour les développeurs parce qu'on simplifie leur accès au cloud, aux ressources, aux machins à ces choses là, pour les boîtes qui doivent vendre au DSI parce qu'en fait on leur fournit accès à ces gens là en gérant les problèmes d'accès d'IAM etc, pour les boîtes très technologiques y compris très low level hardware parce qu'en fait nous on est l'iPhone du cloud Donc qu'on soit des fois le hardware en même temps que le software Et ça permet de simplifier les choses et de gagner des points de marge Donc ça c'est un truc qui est hyper intéressant, Et puis on va être capable de structurer les choses En restructurant le discours aussi Et ça c'est tout le marketing et c'est le boulot qu'on est en train de faire actuellement De dire bah voilà en fait aujourd'hui Les grandes migrations cloud c'est fini, et tu vois le DSI qui arrive et qui dit on va prendre tout AWS, on va tout passer chez Azure et trois ans plus tard, nouveau DSI, on va repartir avec ça de Baluchon, non aujourd'hui ce qu'on dit c'est il faut être versatile tu vas déployer du Clever sur du Azure, sur du on-premise, sur du, AWS et tu vas être capable de doser en fonction des produits hyper intéressants que tu vas avoir chez chacun parce que oui BigTable c'est génial enfin BigQuery c'est génial et donc d'être capable de se fluidifier, de devenir versatile et de devenir plus agile, aujourd'hui on a un besoin d'agilité qui est majeur pour nous.

Bruno:
Oui clairement T'es évoqué aussi dans les projets que tu mènes cette, cette volonté de faire respecter les aspects de non concurrence à nos concurrents américains, il y a quand même aussi quelque chose qui est apparu de manière assez forte en 2024 c'est la Chine qui commence à être de plus en plus frontale notamment sur des sujets d'IA, et d'innovation technologique on le voit aussi sur l'automobile électriques qui sont en train de, complètement attraper le marché de manière assez phénoménale est-ce que dans cette optique tu te retrouves aussi en confrontation mais en gestion aussi de ces acteurs là qui commencent à débarquer chez nous ?

Quentin:
Je dirais que ce qu'il faut comprendre c'est que l'Europe aujourd'hui c'est on est riche et on est nul en prod résultat des courses on est la cible de vente particulière des deux gros blocs faiseurs qui sont la Chine et les Etats-Unis. Si on prend le rapport Draghi qui est sorti au début de l'automne, Mario Draghi explique qu'on a un problème de compétitivité. On peut vous le résumer de façon très sincère. Vous cherchez Mario Draghi chiffre clé, vous allez vous rendre compte que le PIB par habitant aux Etats-Unis s'envole. C'est une très très jolie exponentielle et que chez nous depuis 15-20 ans il stagne. Et quand on dit « il stagne », c'est pas... Il monte doucement, il stagne. C'est-à-dire qu'en fait, on est en train de s'appauvrir. Et pourquoi ? On peut le mettre en relation avec quelque chose qui est la révolution industrielle de la prestation intellectuelle. C'est-à-dire qu'on est en train de changer et on est en train de financiariser les outils de production. Je m'explique parce que ça peut être assez intéressant ici qu'on le fasse. En fait, au XIXe siècle, quand arrive le moteur, ce qui s'est passé, c'est qu'on a pris des gens et qu'on les a remplacés par des moteurs. Et donc, on a mécanisé. Et donc une personne s'est mise à démultiplier son travail. Là où avant t'es dans une économie de flux, où la personne qui possède la marque, le achat 1, le champ, whatever, va prendre une partie de l'argent constituée sur le travail de d'autres, là ce qui se passe c'est que les outils de production se mettent à valoir de l'argent en eux-mêmes et à générer de la rentabilité financière en eux-mêmes. Ils ont un coût de production mais ensuite ils démultiplient l'usage d'une personne. Et donc on passe d'une économie de flux à une économie d'avoir, d'assets si vous voulez. et donc tu rentabilises tes économies d'assets ça a une corollaire, c'est que pour payer les outils de production, tu peux très bien imaginer les financiariser autrement dit, faire des prêts, des levées de fonds etc. Et donc tu vas financiariser tes outils de production et c'est là que se génère le capitalisme moderne, pas dans le sens il faut le la battre etc. C'est juste une analyse et le capitalisme moderne génère du coup le fait qu'on a remplacé des êtres humains, par des outils de production Dans la vie économique, parce que sinon au global on a augmenté le nombre d'êtres humains, dans la vie économique, on financiarise du coup la capacité de production. Par ailleurs, et c'est Marx qui le définit sous ce terme là, mais en vrai le baron de Tuxonne l'a fait avant, à peu près un siècle avant, ce qu'on définit c'est ce qu'on appelle le rendement décroissant du capital. Le rendement décroissant du capital, ça veut dire quoi ? Ça veut dire que si tu es très riche, tu as un budget limité, tu arrives dans un village, tu installes une usine. Tu vas prendre les meilleurs terrains, tu vas construire ton bâtiment, tu vas prendre les meilleures ressources, tu vas prendre les gens les plus compétents dans le village, et tu vas te mettre à produire. Et tu vas produire un taux de rendement financier X. Si tu continues à investir dans le même village, pour agrandir ton usine, tu es obligé de prendre le terrain d'à côté, merde, il est en pente, tu es obligé de le remblayer pour construire ton usine donc ton rendement tu peux être quand même rentable mais ton rendement va baisser mécaniquement puisque ton usine t'a coûté plus cher et puis bah les matières premières t'as déjà pris les meilleures, donc tu vas prendre du un peu moins raffiné il faut faire un peu plus de raffinage ton rendement baisse encore et puis bah faut que tu recrutes les gens qu'il y a sur place quoi, T'as déjà pris les meilleurs. Tu reprends des gens un peu moins qualifiés, un peu moins motivés, un peu moins pertinents.

Bruno:
Ou tu fais venir des gens qualifiés d'ailleurs, mais du coup, il faut les faire venir.

Quentin:
Donc tu le payes. Et donc ton rendement baisse. Tu continues à investir. Là, ton terrain, il est franchement nul. T'avais un pilier en roche au milieu. Et en plus, le truc est en pente. Non seulement il faut que tu déblées, mais en plus, il faut que tu fasses sauter un pilier en roche. C'est chiant. Ta matière première est de moins en moins qualifiée. Et puis, le personnel que tu embauches, ils sont franchement débiles. Et donc, leur production, elle est nulle. Et donc ton rendement baisse Et ça c'est ce qu'on appelle, La baisse tendancielle du taux de profit Du capital C'est pareil si tu fais de l'investissement locatif dans une ville Tu prends les meilleurs apparts puis progressivement Tu prends des taudis sur lesquels tu fais de moins en moins de marge C'est ça l'histoire, Le truc c'est que dans l'IT qu'est-ce qui change Dans l'IT on a l'ordinateur L'ordinateur ça remplace non plus un muscle humain Mais ça remplace un cerveau humain, Et en fait plus tu mets de data dans le logiciel Plus il est intelligent Donc plus t'as de clients, mieux tu te portes et plus t'es rentable. Plus tu vas avoir de copier à vendre, tu ne fais que dupliquer le logiciel, ça te coûte rien. Donc ton rendement est meilleur. Et donc plus tu mets d'argent, plus t'investis de l'argent, plus tu vas bien. Et donc ça casse le capitalisme qu'on a vécu pendant deux siècles pour un capitalisme avec un rendement croissant du taux de profit ce qui en fait est hors modèle. Les gens m'accusent des fois de proférer je ne dis pas ça, ce n'est pas moi qui l'ai inventé cette analyse là, je l'ai intégralement tapé à des économistes tout à fait sérieux je donne mes références souvent, je ne les ai pas là mais je peux donner régulièrement mes références c'est des bouquins entiers qui ont été écrits qui sont très intelligents sur le modèle Moi je ne suis pas économiste, je ne fais que copier en vulgarisant ce que disent des gens beaucoup plus intelligents que moi. Et donc tu te retrouves avec un rendement exponentiel. Ce qui fait qu'en 2005, les grosses boîtes de la planète c'est quoi ? C'est Johnson & Johnson, General Electric, des énergéticiens, Citibank, etc. 2020, 15 ans plus tard, les grosses boîtes c'est quoi ? Google, Apple, Nvidia, Meta, Tesla. C'est que des boîtes de tech il n'y a plus que Saoudia Ramco dans le top du truc, ils vendent de l'énergie pour ceux qui n'ont pas Saoudia Ramco c'est du pétrole mais en fait ils ont agrégé plein de boîtes en une seule c'est pour ça qu'ils sont restés gros mais ce que je veux dire c'est que la croissance elle est passée de ces côtés là et le top 10 des boîtes a fait x8 par ailleurs, en valeur cumulée des boîtes ça fait x8 donc en fait c'est ça, c'est le taux de croissance général, ce qui fait que si on se repose au marché de l'IT aujourd'hui et ce qui nous arrive, le marché du digital dans le monde C'est 19 000 milliards de dollars annuels Beaucoup de pognon 81% du marché des Etats-Unis Le deuxième c'est Taïwan 5,8% parce qu'ils vendent les puces. L'Europe dans sa globalité Là j'ai une petite confusion On est à 4,4 ou 4,6%, L'Europe, en totalité, 4,4, 4,6% du marché. Et la France, on est à 0,4. Vous voyez le problème qu'on a ? En fait, on est en train de passer à côté de la révolution industrielle de la prestation intellectuelle. Et quand on prend l'IA dans la tête, comme on l'a pris cette année, mais c'est encore plus criant. Et donc là, il y a des décisions qui sont structurelles, qui sont à prendre tout de suite. Parce qu'en fait, c'est ça qu'il faut prendre. Et donc, c'est pour ça que c'est intéressant de dire, tu disais, est-ce que la Chine, les Etats-Unis... La Chine produit les machines. Les Etats-Unis produisent pas, mais vendent le soft, parce que beaucoup du soft est produit chez nous. Je rappelle que dans tous les projets d'IA, t'as des mecs de l'école normale supérieure. Donc c'est vraiment un sujet où en fait aujourd'hui on est pionnier, par contre on ne le vend pas parce que comme d'habitude on a un problème de non-efficacité de notre vision décisionnelle. Moi je suis toujours atterré par comment on prend des décisions. Les gens me disent pourquoi tu te poses en Côte d'Ivoire ? Vous savez comment je prends ce genre de décision ou pas ?

Bruno:
Avec ton D ?

Quentin:
Absolument pas. Je fais de la démographie. En fait, pourquoi est-ce qu'on veut absolument nous mettre un pied en Afrique et se développer en Afrique ? Parce que la moyenne d'âge des Etats-Unis c'est 48 ans. La moyenne d'âge de l'Europe c'est 52. La moyenne d'âge d'Afrique, africaine, globale et notamment de Côte d'Ivoire c'est 19. Qu'est-ce qu'il faut pour créer un mec qui sait coder ? Un ordinateur connecté à internet et quelqu'un d'à peu près passionné devant. Sur 30 millions d'habitants, on trouve 40 personnes qui tiennent debout, tous les meilleurs développeurs que je connais sont des gens qui sont en fait autodidactes et en plus là-bas, t'as une bien meilleure mixité hommes-femmes parce qu'ils ont pas pris le coup marketing affreux des années 90 qui a transformé les années 80-90 a beaucoup transformé l'informatique en un truc d'homme pour des raisons purement budgétaires vous liez les études si vous voulez sur le sujet mais globalement quand il s'est agi de marketer les choses on a marketé ça comme un jeu de petits garçons pour leur papa parce qu'on n'allait pas être capable de le faire pour des petites filles parce que le modèle, américain ne dépenserait pas au taux d'argent mais si tu vas par exemple au Maroc dans l'Haïti tu vas croiser 40% de femmes, donc c'est voilà c'est voir même comme c'est des boulots qui se font de chez eux c'est des métiers qui sont vus comme étant des métiers refuge pour des populations féminines donc c'est pour ça qu'on a des meilleurs taux, notamment sur le continent africain dans sa globalité après l'Afrique c'est très varié Les gens voient ça comme un seul grand pays C'est pas du tout un seul grand pays, Pourquoi est-ce qu'Abidjan m'intéresse ? Parce qu'à Abidjan, t'as 40% des gens qui y vivent Qui y sont pas nés. Ce qui veut dire qu'en fait c'est un hub Sous régional populationnel Et donc t'as des connexions à tous les pays du coin Et donc quand tu parles à quelqu'un à Abidjan Tu parles en fait à plein de gens De la sous région, Et donc c'est hyper intéressant Tout comme quand t'es au Mera, tu sais combien il y a de pourcentages D'Emiratis qui vivent aux Emirats.

Bruno:
Je crois qu'on est à moins de 10%.

Quentin:
Il y a 10% de la population qui sont des Emiratis Tout le reste ils viennent d'ailleurs Et c'est hyper intéressant de travailler sur ces notions là Et c'est comme ça qu'on fait les choses Et beaucoup de décisions stratégiques aujourd'hui on les prend pas comme ça si on prend la notion démographique si tu prends la totalité des fondateurs et des dirigeants de GAFAM ou d'hyperscalers américains, Larry Page, Sergey Brin Bill Gates, Steve Jobs Eric Schmidt, Mark Zuckerberg Elon Musk, tous ces gens là ils ont qu'un seul point en commun.

Bruno:
Ils ont commencé très tôt.

Quentin:
C'est tous des ingénieurs 100% d'ingénieurs, c'est combien il y a d'ingénieurs cofondateurs, même pas dirigeants cofondateurs dans la French Tech.

Bruno:
Je crois que c'est très très peu c'est.

Quentin:
15% c'est pas compliqué, vous voulez faire des boîtes tech vous mettez des tech à la tête.

Bruno:
J'ai chopé une stat intéressante cette année aussi tu sais qu'en France il y a deux fois plus de millionnaires que d'ingénieurs, très intéressant alors on parle du diplôme d'ingénieur on est au delà on peut imaginer qu'il y a plein de gens qui font des boulots d'ingénieur sans avoir le titre officiel d'ingénieur mais il y a deux fois plus de millionnaires Including me, Alors on parle aussi de millionnaires au sens de capital, pas de revenus mais ça n'empêche, ça montre aussi quand même quelque chose.

Quentin:
Non mais on a un vrai problème là-dessus, c'est-à-dire que pour prendre des décisions on fait ça et aujourd'hui c'est très compliqué de convaincre des fonds d'investir dans un projet, technique, alors que fondamentalement la technologie c'est de la technique à la fin, et c'est un vrai sujet, c'est que c'est qu'en fait on ne voit pas les moments où il y a eu des sauts de foie dans les gros projets techniques qu'ont émaillé ce monde on ne voit pas les moments où il y a des sauts de foie absolus de la part de tout ce petit monde il.

Bruno:
Y a eu une tentative en 2024 notamment en 2024 on a reçu Gilles Babinet sur ce podcast qui a fait partie de cette fameuse commission sur l'IA pour l'administration.

Quentin:
Avec Clara Chapaz qui va absolument passer de 15 à 30% de fondateurs tech, voilà, moi je j'ai pas la même attitude que Clara si moi on me donnait le mandat aujourd'hui je peux vous garantir que le sujet serait réglé très vite, parce qu'en fait, tous les fonds d'investissement français qui sont tous en rendement quasi négatif si on vire les exemptions d'impôts, qu'ils fournissent donc l'idée c'est qu'en fait c'est une économie subventionnée, si ces gens là, en fait ils ont quasiment tous le FNA de la BPI en fonds à 50% il suffit que le FNA dise à partir de maintenant tous vos investissements à la direction et à un ingénieur, dans 3 ans on a des vraies boîtes.

Bruno:
Mais pourtant il y a pas mal de boîtes françaises autour de l'IR on voit qu'il y a quand même elles sont plus françaises parce que les investisseurs.

Quentin:
Ne sont pas français, parce que les investisseurs français n'investissent pas dans des ingénieurs mais regarde après tu regardes aujourd'hui les licornes comme on disait françaises font la queue à les carisseurs aujourd'hui, tu prends une boîte comme De Vialet, on en parle Devialet, un ingénieur à la tête, génial ça se produit, ça se... Décision des actionnaires, il vire l'ingénieur fondateur brillant de Devialet, quelques années plus tard après avoir mis un gentil petit HEC à la tête, la boîte va à l'écarissage là ça y est, c'est cramé, alors qu'on avait des boîtes magnifiques dans l'audio le tout fait en spatialisation, mais c'est pour tout on avait le lanceur phare en espace on était les premiers en Europe Arianespace, Arianespace a changé de direction En 2014 à peu près Tu sais ce que c'est le background du mec qui dirige Arianespace Qui par ailleurs est un mec adorable, j'ai rien contre lui, Il est agrégé d'histoire, On peut penser ce qu'on veut d'Elon Musk Le mec a retourné l'industrie spatiale Et quand il visite son usine Il sait à quoi cherche chaque boulon dans une de ses fusées C'est un ingénieur Encore une fois, on peut penser ce qu'on veut de ce mec L'enjeu n'est pas de dire il a raison, il a tort, etc Mais à un moment donné, si tu veux être capable de faire une révolution technologique, il faut être capable de l'appréhender sous un angle technologique. Et là-dessus, il y a plein d'histoires qui le prouvent. Meta existait Facebook Ils étaient déjà près de 3000 Et le coût utilisateur Infra, De Facebook était supérieur au revenu Par utilisateur annuel, Et Zuckerberg lançait ses équipes sur On veut plus d'utilisateurs Ce qui veut dire en clair tu crosses le trou Et il était très détendu Parce qu'il y avait une équipe dans un coin qui était en train de créer Hip Hop, HHVM Vous savez le truc qui permet la compilation de C++ vers, enfin de PHP vers C++ d'un PHP particulier vers du C++, chez Meta qui était en train de bosser par ailleurs en OCaml donc tu vois un truc très niche tu mets une équipe de 8 ingénieurs sur 3000 personnes à bosser sur un truc hyper niche issu de la recherche française machin, et parce qu'il savait que ça allait régler son problème parce que d'un point de vue ingénierie tu sais que tu règles ton problème quand tu fais ça et donc c'est pour ça qu'à ce moment là le mec est hyper détendu et quand effectivement ils ont mis en prod hip hop, le coût infra est tombé sous le revenu par l'utilisateur c'est ce qui s'est passé en fait chez Meta mais je peux t'en donner d'autres des exemples Steve Jobs quand il revient il fait la tournée de ses fournisseurs asiatiques, le fameux 1 pouce 8 donc tu connais Steve Port là déjà pour les auditeurs rapidement quand Steve Jobs achète à Itachi l'exclu sur le disque dur 1 pouce 8, tout le reste de la team d'Apple le regardent en disant mais qu'est-ce que tu fous ?

Bruno:
Qu'est-ce qu'on va faire de ça ?

Quentin:
Parce que ok c'est cool ça va nous permettre d'alléger le notebook par rapport au disque dur 2 pouces 5 mais c'est quand même cher pour ce que c'est quoi et là le job se retourne vers eux et se dit mais vous avez rien compris on va changer le monde de la musique, parce qu'à ce moment là il se rend compte qu'on peut faire l'iPod et l'iPod classique en fait c'est un disque dur 1 pouce 8, et je pense que ce qui est important ici à comprendre c'est qu'on a un problème démographique dans notre façon de faire du business mais si tu veux le problème il est plus large les plus grosses boîtes du monde sont des boîtes d'IA d'IT, d'informatique, notre ministre du digital qui a failli pas être nommé sur le coup-ci ça a été rattrapé par la bande cette histoire, notre ministre du digital elle est 41ème dans l'ordre, protocolaire sur 41 ministres donc l'ordre protocolaire c'est l'ordre dans lequel t'as le droit de parler au conseil des ministres de toute façon quand t'es secrétaire d'état, t'arrives à à peu près 20, il est sûr que tu ne parleras jamais et que tu seras représenté par ton ministre de tutelle qui en plus à présent est l'enseignement supérieur La recherche est donc à 2000 autres dossiers que l'IA. Et donc, en fait, ça veut clairement dire qu'on s'en fout. Les révolutions industrielles qui vont le plus changer notre société, notre façon de bosser. Enfin, moi, je ne sais pas comment ça se passe chez vous. Moi, j'ai des clients et partenaires qui font des logiciels de chat, par exemple, pour du support, etc. En ce moment, ils voient des plateaux entiers de centaines de personnes se vider au profit de l'IA. La révolution industrielle de la prestation intellectuelle, c'est une réalité concrète qu'on est en train de prendre dans la gueule et qui va changer la totalité du marché ?

Bruno:
Oui c'est vrai qu'il y a un changement avec l'IA qui est effectivement assez, phénoménal vous chez Clever alors attends, j'aimerais qu'on va revenir à un sujet un peu tech parce qu'on est quand même sur un podcast tech on essaie d'en caler un peu en 2024 moi j'ai vu beaucoup popper tous les frameworks, notamment autour de l'IA agentique comme Longchain, comme la main index et autres, est-ce que toi aussi, de votre côté, vous avez aussi vu une émergence de ce truc-là. Et qu'est-ce que toi, tu perçois comme intérêt de ces outils-là ?

Quentin:
Alors la première chose à dire, c'est que pendant longtemps, l'IA, ça a été réservé à des data scientists spécialisés qui savaient faire de l'IA. Aujourd'hui, plus du tout. Aujourd'hui, tout développeur doit se mettre sur le sujet de l'utiliser. Pas de créer les modèles. Ça, c'est le travail de quelques personnes. Ce qui est important, c'est comment tu utilises ces frameworks-là. Et Longchain, par exemple, ou la main index, sont typiquement des sujets hyper pertinents.

Bruno:
Et quand tu parles d'usage, on est d'accord que tu parles bien de, c'est pas utiliser un copilot ou un chat GPT pour écrire tes lignes de code.

Quentin:
Ce qui, par ailleurs, selon moi, est une bonne approche aujourd'hui.

Bruno:
Vous aussi.

Quentin:
Alors, prenons les sujets les uns après les autres. Aujourd'hui, si vous n'utilisez pas l'IA tous les jours, vous êtes concrètement en train de passer à côté de la révolution de l'outil. Je suis pas en train de vous dire c'est fabuleux, c'est etc, c'est machin. C'est juste un outil incroyable qui est en train de changer la productivité et la perception des gens. Et si vous êtes pas dans la maîtrise un minimum de cet outil-là, vous avez un problème. Parce que ceux qui vont l'avoir, cette maîtrise, vont vous passer devant Et donc à un moment donné il faut dire les choses comme elles sont Il faut être capable aujourd'hui de prendre la maîtrise de ces nouveaux outils Et de comment ça se passe Donc c'est quelque chose qui à mon avis est hyper important, Ça c'est la première chose sur l'IA C'est cette capacité là à maîtriser ces sujets et être capable de rentrer dedans La deuxième chose sur l'IA, Au pire Sur le copilote et compagnie Prenez-le comme le meilleur des stack overflow. C'est juste un stack overflow qui vous répond plus rapidement. On ne vous dit pas qu'il ne faut pas savoir coder. Des fois, il dit n'importe quoi. Par contre, très souvent, ça peut vous donner un gros coup de boost où vous êtes en train de parser un fichier. Tu demandes à LIA de te faire ton code de parsing de fichier, de trouver la meilleure lib de machin, etc. Et tu réadaptes exactement comme avant tu allais t'inspirer de code sur Internet. Sauf que là, quelque part, c'est un meilleur moteur de recherche qui va en plus te contextualiser à ton modèle. Après, comme d'hab, il va être meilleur sur certains langages que d'autres. Il faut fouiller entre plusieurs modèles, etc. Mais ne pas utiliser aujourd'hui l'IA est un problème. Si vous devez discuter avec des gens dans votre boîte, par ailleurs, et juste sur l'écriture, aujourd'hui, faire des mails structurés, en rajoutant des données, deux graphiques, un truc propre, là où avant, ça pouvait être facilement deux heures de taf, vous le relisiez, vous laissiez passer vos fautes, parce que quand on se relie, on n'est pas assez bon, etc. En utilisant l'IA, tu fais un truc sans faute, carré, contextualisé, qui a éventuellement été chercher une donnée supplémentaire sur le net pour toi et si vous apprenez à l'utiliser, vous serez plus pertinent et pris plus au sérieux à l'intérieur de votre structure. Si vous avez l'impression de tricher, parce qu'il y a un truc qui fait le boulot à votre place, vous êtes des grands malades. Vous êtes des grands malades. Sinon, dites-vous que vous trichez quand vous ne portez pas un papier avec écrit à la main, à la plume d'oie, votre message sur 300 kilomètres. C'est comme si vous me disiez un coursier à cheval, ah il trichait, il fallait y aller à pied. Et du coup, tu portes des bottes, c'est quand même triché. Si tu le fais pieds nus, tu ressens mieux la douleur. Enfin, à un moment donné, as-tu écrit des trucs sur un papier pour t'en souvenir ? Ah, c'est triché, normalement, on s'en souvient. Enfin, à un moment donné, oui, l'être humain est fait pour s'outiller. C'est un nouvel outil. Vous devez accepter ce nouvel outil. Est-ce qu'il est parfait ? Non. C'est une catastrophe, comme tous les outils. Mais un stylo à plumes, ça fuit dans la pochette de votre chemise.

Bruno:
Il y a un moment où tu peux ne plus avoir d'encre. Il y a plein de fautes possibles. Mais ça n'empêche que tu peux faire beaucoup plus de choses.

Quentin:
Est-ce que l'IA peut générer une catastrophe ? Oui, l'IA peut générer des catastrophes, je vous l'affirme. Si on va jusqu'au bout du délire, Mein Kampf a été écrit grâce à l'imprimerie. Bien sûr, c'est des catastrophes qui sont logiques. Oui, j'ai réussi à créer un pro de Godwin comme ça, soft.

Bruno:
En 30 minutes quand même.

Quentin:
Ce que je veux dire par là, c'est qu'à un moment donné, cet outil, il est là, il va rester et il va transformer notre monde. Soit vous faire partie des early adopters, vous comprenez son utilisation et vous êtes compétitif dans le monde qui vient soit vous n'en faites pas partie mais est-ce qu'à un moment ça va passer ça va pas passer parce que ça crée une productivité magistrale est-ce que c'est parfait ? Non est-ce qu'en tant que développeur vous devez comprendre comment ça marche ? Oui et donc la première chose c'est de dire vous devez être utilisateur donc ça c'était le côté copilodge à GPT etc la deuxième partie c'est qu'en tant que développeur, En fait, tu peux offrir de nombreux avantages à ton utilisateur en utilisant l'IA sur des parties. Faire du vocal aujourd'hui, c'est du whisper, c'est incroyable, whisper. Faire du whisper à plusieurs, il faut comprendre ce qu'est une diarisation, puis passer dans un whisper, puis éventuellement passer dans un autre modèle qui va summarize, puis etc. Et en fait, vous voyez que c'est des librairies qui s'enchaînent. Et donc, vous avez des librairies spécialisées dans le fait d'être capable d'orchestrer ça, comme par exemple Longchain ou Lama Index. Et donc, en fait, en tant que développeur, vous devez vous mettre tout de suite au fait de comprendre les implications de ce qui est en train d'être fait. Et tu vois, nous, en ce moment, on fait énormément de trucs en système distribué. Je me dis que, si ça se trouve, c'est complètement con. Peut-être qu'à un moment, en fait, c'est un modèle qui fera le bon positionnement. Pour l'instant, on imagine les positionnements, mais si ça se trouve, non. Pourquoi ? Parce qu'en fait, ça répond à une incitation de philosophie des sciences. J'y arrive. Je vois ton regard perdu de quelqu'un qui se dit, il va encore nous emmener dans une digression d'un quart d'heure. En fait, en philosophie des sciences, au XVIIe siècle, il y a un mec qui s'appelle Descartes qui a écrit ce qu'on appelle le réductionnisme qui dit que tout problème se décompose en petits problèmes et que la somme du problème te règle tes problèmes. Et c'est comme ça qu'on a réfléchi pendant des années. Tu vois, la science médicale, t'as un spécialiste du cœur, un spécialiste du foie, un spécialiste de la gastro-entérologie, un spécialiste de la peau, et si tu fais la somme de tout ça, t'as un être humain. Sauf qu'en fait, une enzyme dégradée dans le foie peut avoir un impact sur la couleur de tes yeux. En fait, l'être humain n'est pas une somme. Et nous, si on prend à l'échelle de l'informatique, pendant longtemps, la capacité qu'on a eu à faire de l'algorithmie, c'est qu'en fait, on a essayé de découper un petit problème. Tant qu'on a essayé de faire de la computer vision en petits problèmes, on n'a pas réussi. On avait 7% de taux de succès, grand max. Le moment où on est passé, en apprenant, avec les modèles neuronaux, le LLM, le machine learning, etc. En fait on a arrêté d'essayer de comprendre le problème On a juste dit on va essayer de comprendre Pourquoi ? Mais parce qu'en vrai Les mécanismes pour comprendre comment notre vision fonctionne C'est tellement un truc qu'on a d'impliqué chez nous Qui est géré par de l'apprentissage Dans notre très jeune âge de développement Qu'en fait on a même pas de concept dans notre langage Pour définir les notions de la vision, Donc en fait comment tu veux qu'on les définisse Dans du code ? On est incapable C'est le bordel Et donc on va se retrouver dans un modèle où c'est très compliqué Et donc cette notion là, On va les faire Et donc on se retrouve avec énormément de travail à faire pour nous tous De définition en fait de certains éléments. Et en fait ça s'appelle la complexité C'est un mec qui s'appelle Edgar Morin qui a écrit dessus Il s'appelle le nouveau discours de la méthode, C'est un peu pénible à lire Lisez des readers digestes Mais qui globalement vous explique que les systèmes complexes ont des bornes Et donc en fait c'est ce qui s'est passé en informatique quand on a fait ça, l'application de la complexité en biologie en fait c'est ce qu'on appelle la biologie des systèmes qui aujourd'hui fait qu'on fait des breakthroughs en santé parce qu'on accepte la complexité, nous en fait là on arrive à un moment où on accepte la complexité en informatique, la computer vision elle est bonne parce qu'on a arrêté d'essayer de comprendre combien fonctionnait la vision, on fait de l'apprentissage et on est en avant-gagant, ça avance quoi tu vois et ben en fait on va faire la même chose dans tous les secteurs et ça c'est un truc qui est super important à comprendre c'est que tout ça en fait c'est la complexité, Toi, ton utilisateur, fondamentalement, le fonctionnement de son cerveau, c'est la complexité. Et donc, tu vas être capable de lui répondre avec des objets d'IA, parce que tu vas être capable de répondre en complexité. Et donc, de faire des choses intelligentes, et donc d'utiliser des modèles, et des modèles, et des modèles, et des choses comme ça. Et c'est pour ça qu'aujourd'hui, vous devez jouer avec un Uliama, vous devez faire tourner des modèles sur votre ordinateur pour comprendre. Pas parce que vous allez faire mieux que les autres, mais parce que c'est le moment où vous devez comprendre, vous devez jouer avec Hugging Fate, vous devez travailler en fait ces modèles là et cette complexité là, à mon humble avis.

Bruno:
Parce que c'est une nouvelle boîte à outils et je pense qu'effectivement ça va devenir, une composante de l'algorithmie on aura nos if, nos else nos switch, nos while et nos LLM qui seront utilisés pour faire ces choses là, de la même manière qu'aujourd'hui si tu veux faire du chiffrement, sauf cas très exceptionnels, tu vas pas t'amuser à réécrire ton algorithme de chiffrement en fait tu prends des trucs qui existent sur étagères qui ont été déjà testés, approuvés et qui font ça beaucoup mieux que toi et je pense que c'est la même mécanique qu'il faut avoir en fait, c'est un outil qu'il faut utiliser en permanence quoi.

Quentin:
Si vous ne l'avez pas déjà fait installez Whisper sur votre.

Bruno:
Ordinateur.

Quentin:
Il faut lui filer un fichier audio vous voyez comment il réagit c'est impressionnant et de là il y a énormément de choses à faire, et vraiment on est dans un milieu où là la révolution est en cours on a la chance de pouvoir la vivre et il n'y a aucune excuse de oui mais c'est pas mon quotidien sous moi je suis de l'informatique, bancaire de machin de etc demain la détection de fraude tu la feras nécessairement dans un modèle je sais pas comment ça sera je suis pas spécialiste de ça mais c'est évident que c'est comme ça qu'on va générer des modèles en prenant parce qu'en fait c'est un problème de flux, logique historien de dire en philosophie des sciences on va vers l'acceptation de la complexité et donc des modèles full réductionnistes on n'y arrivera pas et donc on va faire du réductionnisme sur des parties et de la complexité sur d'autres et marier les deux, Donc, il faut être capable de faire. Et si aujourd'hui, vous n'avez jamais joué avec Langchain, faites-le. On arrive à un moment... Ça sort quand ? Ça sort avant le premier de l'an ou après le premier de l'an ?

Bruno:
Après le premier de l'an.

Quentin:
Vous auriez dû faire ça entre Noël et le premier de l'an. Mais aujourd'hui, vous pouvez encore le faire. Prenez le temps de regarder ces sujets-là parce qu'il va se passer énormément de choses. Des trucs tout cons qui vont simplifier la vie. Des librairies qui aujourd'hui permettent de faire du redimensionnement gracieux d'images qui fait que les profils piques de vos utilisateurs sur un site internet, bah en fait vous avez exécuté un petit modèle pour faire un redimensionnement graphique plutôt que de faire une compression dégueulasse de l'image quand elle était pas au bon ratio, parce qu'aujourd'hui vous avez des modèles qui vont recentrer, rajouter un peu de contenu en background, tagada, et bam vous avez une image qui est jolie et bah ça c'est con, mais rien que le fait d'aller manipuler un truc comme ça, en fait va vous faire du bien dans le fait de vous mettre dans la bonne posture je pense.

Bruno:
Et puis c'est toujours bien d'être en position d'apprentissage et puis c'est une partie inhérente de notre métier quand même.

Quentin:
Je pense qu'aujourd'hui on doit être en position d'apprentissage en permanence effectivement et que là il y a une révolution en cours dans notre métier. Donc que ce soit sur l'usage ou sur l'utilisation de librairies et d'outils, il faut qu'on arrive à faire ça. Après ce qui est important c'est de comprendre aussi comment va se passer, les notions d'entraînement, d'inférence, etc. et comment le tout va se dérouler.

Bruno:
Ce que je trouve aussi sain avec ces nouveaux outils c'est qu'on se dirige quand même vers ce concept d'IA agentique on voit ça arriver, les large action models je trouve qu'on sort un peu des LLM on commence enfin à se dire attends en fait il n'y a peut-être pas que chat GPT et que la main il y a d'autres choses qu'on peut faire avec l'IA et ça je trouve ça quand même aussi un peu sain, de à nouveau rouvrir un peu les vannes sur tout ce qu'on peut faire en IA, en dehors de simplement les larges langues de modèles.

Quentin:
Aujourd'hui, ce que moi je vois, c'est que ChatGPT est déjà le cinquième ou sixième apporteur de trafic du site de CleverCloud.

Bruno:
Oui, ça j'ai entendu parler, ça commence à se faire.

Quentin:
Et en fait, qu'est-ce que ça veut dire ? Ça veut dire qu'en fait, ChatGPT est en train de prendre la main sur la recherche. Les moteurs de recherche sont en danger. Et c'est ça que vous devez comprendre, c'est qu'en fait, La révolution en cours est un changement de paradigme dans lequel il va y avoir des gagnants, il va y avoir des perdants. Et quelque part, chat GPT, tout le monde le prend comme étant un langage. Au début, c'était juste un langage, mais aujourd'hui, chat GPT, c'est l'orchestration de X modèles en back-end. Tout comme aujourd'hui, si vous allez sur les solutions globales sur du hogging face, en fait, c'est des solutions qui utilisent des solutions et un pool de solutions avec du routage entre tels. Mais si tu y réfléchis bien, la recherche était ça aussi. Tu avais un moteur de recherche de la musique, un moteur de recherche du voyage, un moteur de recherche des avions, un moteur de recherche... Et le tout qui était orchestré et de plus en plus avec de l'IA et d'ailleurs Google court très vite pour essayer de rattraper son retard sur le sujet et en fait vraiment, ce qui selon moi est une couche intéressante à comprendre c'est que ça va être de l'orchestration de multimodèles et comme d'hab il n'y aura rien de magique, l'apprentissage il n'est pas automatique, il se calibre et aujourd'hui on arrive à un moment, autant l'an dernier je pense qu'il y avait encore beaucoup, les spécialistes de l'IA vont parler aux spécialistes de l'IA, aujourd'hui les solutions sont suffisamment packagées pour que le moindre développeur puisse mettre de l'input dans un système d'IA et récupérer de l'output et le tout de façon très programmatique et très simple et après la question c'est qu'est-ce qu'on en fera quoi.

Bruno:
On arrive même à une étape où on voit de plus en plus d'outils de la sphère no code, low code qui commencent à prendre des ampleurs quand même assez importants parce que grâce à l'IA alors je suis pas en train de dire que grâce à un chat GPT, monsieur Tartampion demain peut fermer sa boulangerie et se dire maintenant je suis développeur et je peux créer des apps, parce que c'est pas une question de produire du code mais il y a beaucoup d'outils qui intègrent en fait vachement bien ces différents outils et qui permettent de créer des services sans avoir besoin de créer du code en fait en tant que tel.

Quentin:
Mais pour moi pour le code c'est un peu aussi même comme pour l'écrit tu vois quand je fais un mail je le passe dans un dans un lama, des fois pour me dire est-ce qu'il trouve une meilleure formulation que moi alors en plus moi en général je fais un mail, j'ai jeté trois idées dans un truc j'ai dicté plus ou moins du whisper en disant je suis en train d'écrire un mail alors il faut apprendre un tout petit peu à faire tu dois te conduire comme, un conseiller juridique de machin, enfin tu contextualises tu dois aller chercher de l'information sur le net à propos de ça, ça, ça et ça pour te contextualiser et ensuite tu écriras, tu lui dis que ça et ensuite tu lui dis bah voilà, C'est le plan de déploiement avec le partenaire que nous cherchons à mettre en oeuvre au Kazakhstan Sa position sur le marché c'est ça ça ça Moi je voudrais qu'on lui fasse un mail qui dit ça ça ça Je t'ai mis l'audio de la réunion qu'on avait fait avec lui, Donc qui elle même va passer par une dirigeation, par Whisper, par machin Ça, je veux un mail d'à peu près 100 lignes à la fin Qui explique ça ça ça Qui va vers tel tel tel effectif Et tu me fais ça. En fait, à la fin, pourquoi le mail est meilleur ? Parce que quand je le relis, je le retravaille, je lui dis, écoute, t'as tel paragraphe, je ne suis pas d'accord, etc. Mais j'ai des nouvelles façons. Dans le code, c'est exactement la même chose. Tu peux très bien imaginer prendre ton morceau de code, le coller dans l'IA en disant, est-ce que tu trouves mieux ? Des fois, il va te dire n'importe quoi, mais il y a des fois, il y a des trucs, tu vas dire, mais ça, c'est beaucoup plus intelligent. Et c'est là où il faut être capable de repartir, c'est-à-dire une capacité de relecture. Et en fait, pour moi, c'est l'enjeu, c'est que tu ne te positionnes pas du tout pareil. Tu te mets à relire le travail plutôt que de le faire toi-même, et ça c'est hyper important et c'est la posture qu'il faut adopter selon moi sur des usages d'IA et par ailleurs aujourd'hui, il faut qu'on court derrière parce que si on veut maintenir le mode de vie européen, qui est celui dans lequel on vit il y a un moment, il va falloir qu'on sorte. Qu'on y aille dans cette révolution industrielle de la prestation intellectuelle, et après il y a les enjeux économiques qui fait que, comme à chaque fois je vous le répète, si vous filez de l'argent à Amazon, Google et Microsoft plutôt qu'aux acteurs français, nous derrière on galère à se déployer moi je m'en fous, j'ai une croissance au dessus, de la croissance du marché donc je gagne des parts de marché mais on est pas nombreux en Europe dans cette situation là et par ailleurs ça reste la lutte, moi je sais que mes chiffres de croissance il y a des tas de gens qui tueraient pour en avoir et encore cette année on a un peu ralenti notre croissance par rapport à d'habitude on est très en colère chez Clever mais c'est parce qu'on est habitué à doubler tous les ans, il faut bien comprendre qu'aujourd'hui en tant qu'Européens si on veut maintenir notre modèle c'est ça l'enjeu, vous voyez l'état du budget, arrêtez de vous prendre la tête, le sujet n'est ni l'immigration ni machin le sujet est qu'on est en train de passer à côté de la révolution industrielle vous voyez, je vais vous dire un truc c'est marré parce que on dit que l'Espagne a des super chiffres tu l'as entendu aussi super chiffres de croissance de l'Espagne, tu sais pourquoi l'Espagne il y a des super chiffres de croissance ? On n'a jamais fait autant entrée d'actifs sur le marché du travail en Espagne. D'après toi, les actifs qui rentrent sur le marché du travail en Espagne, c'est qui ?

Bruno:
A priori, je pense qu'ils viennent plutôt d'Afrique du Nord.

Quentin:
C'est des immigrés. Et ça, c'est un truc qu'on ne dit pas. Une bonne gestion de l'intégration de populations immigrées, des travailleurs immigrés, croissance, très bonne. On a une gestion déplorable, on a un problème de croissance. Mais notre plus gros problème, c'est notre non-adéquation avec la rationalisation qui est en train de se produire et la production. Et comme du coup, on n'a pas d'assets, on a un problème. Il faut qu'on crée des assets dans une économie d'assets. Parce que là, aujourd'hui, quand la totalité de l'IT, c'est des boîtes de services, en fait, on a une économie de flux. Et donc, on ne capitalise pas. Aujourd'hui, il faut créer des économies de flux. Là, on le sait tous, il y a un gros ralentissement économique dans toutes les sociétés de services. Toutes les sociétés de services sont dans la grouille. Tu le sais, je le sais, on en parlait juste avant l'entraînement.

Bruno:
Mais pas que les boîtes de services. Pour le coup, on voit que les niveaux de recrutement ont quand même vachement baissé. On en avait déjà un peu parlé l'année dernière, parce que 2023 avait aussi commencé. Avec un ralentissement, là on voit que de 2004 les choses n'ont pas repris.

Quentin:
Moi je fais un appel aux développeurs. Si vous pouvez vous faire virer d'une boîte dans laquelle vous vous sentez pas bien, Plan de départ volontaire, rupture conventionnelle, whatever. Vous prenez ça, vous trouvez une niche, vous créez votre boîte. En France, on a un truc génial qui s'appelle Assez Dig Venture. Vous prenez l'ACRE et vous créez votre boîte. Et vous faites de l'économie d'assets. Vous ne vous mettez pas à faire du service. Vous prenez vos deux ans de chômage pour créer un produit et créer de la rentabilité au-dessus.

Bruno:
Alors, c'est passé à 10 mois maintenant, mais...

Quentin:
En vrai, il te faut 6 mois pour le connaître ton produit. Et vous sortez un produit. Vous ne structurez pas, vous machin. Vous codez un produit, vous le vendez. Et là, vous allez générer de l'asset. Et là, on peut sauver le pays. Si tous les ingénieurs en informatique qui vont être dans le creux de la vague là créent leurs produits, on peut sauver le pays. Parce que ce qu'il faut, c'est qu'on crée des produits d'automatisation. Et ça, c'est le truc, à mon humble avis, le plus important qu'on puisse vous dire aujourd'hui. Oui, je sais, je dis toujours la même chose, mais c'est parce qu'on ne le fait pas assez.

Bruno:
Et puis créer une entreprise c'est une belle aventure en plus.

Quentin:
Et créer une entreprise c'est amusant moi par exemple ça fait 15 ans quasiment ça fait presque 15 ans, c'est 14 ans et quelques mois que je suis à la tête d'une boîte qui s'appelle Clever Cloud, mon boulot change tous les 6 mois et pourtant j'ai toujours le même poste mon boulot change tous les 6 mois c'est hyper enthousiasmant, là on va faire le premier Clever Cloud Fest le 6 et 7 d'ailleurs t'es cordialement invité au Clever Cloud Fest et j'espère que tu seras là, au Clever Cloud Fest Le boulot est incroyablement passionnant Et donc en tant qu'ingénieur faites-le Et si vous avez besoin de conseils il suffit, Franchement n'hésitez pas à me contacter En plus on a des trucs, le programme Up et compagnie chez Clever Mais au-delà de ça, On est les forces vives de la nation On est les gens capables de créer Les machines outils et les assets Qui permettront de payer les retraites demain Concrètement dans le pays c'est ça notre rôle.

Bruno:
Et c'est une belle mission est-ce qu'on parlerait pas aussi un peu de l'ordinateur quantique il y a eu une annonce qui a été faite par Google il y a quelques jours même je crois que c'était hier on enregistre ça le 11 décembre, c'est aussi quand même un secteur où il y a pas mal de choses qui se passent et sur lequel il y a pas mal de français aussi mine de rien.

Quentin:
Encore une fois la recherche est très bonne en France, le problème c'est qu'on laisse pas les chercheurs à la tête des boîtes On dit on va vous coller un HEC dans les pattes, Et ça marche jamais Je sais pas qui a eu cette idée là Tu sais que statistiquement c'est G2 Je sais plus là Le truc sur lequel on créait des startups à l'époque Qui étaient mixés avec Startup Weekend Il y a quelques années t'as eu cette grosse plateforme là, Et la grande stratégie en France C'était de dire tu prends un commercial administratif Un technicien, tu les associes Et ils créent des boîtes ensemble et ça marche. Toutes les statistiques disent le contraire Les équipes qui s'en sortent En startup sont des équipes qui sont homogènes d'un point de vue culturel. Cinq ingénieurs ensemble, en fait, ils vont se serrer les coudes. Trois commerciaux, ils vont te faire une boîte de vente, pas une boîte technologique, ils vont te faire une boîte de vente, mais en fait, ils vont se serrer les coudes. Et comme, en fait, ils se comprennent et qu'ils s'entendent, ça va bien se passer. Trois personnes qui ont des angles de vue complètement différents de la vie vont s'engueuler à la première passe compliquée et ça va péter. Et donc, en fait, c'est les équipes, c'était la statistique, c'est les équipes avec une bonne homogénéité culturelle, en clair, les mêmes mecs. Enfin les mecs même, les mecs meufs mais les mêmes âges, même milieu socio-culturel, en fait les équipes qui ne sont pas diverses à la direction se comportent mieux, je sais ça va contre les idées de partage et compagnie mais en vrai c'est plus facile parce que il y a une meilleure compréhension et du coup les gens se serrent les coudes quand ça va mal, c'est comme ça qu'en est revenu l'étude et si tu veux j'essaierai de trouver les liens vers cette étude là mais c'est assez intéressant alors pourquoi est-ce qu'on parle du quantique c'était une digression sur le quantique et. D'abord, le quantique, c'est plusieurs choses à comprendre. La première, c'est que le quantique, c'est une nouvelle façon de coder. On a toujours tout codé en binaire. Là, on va coder avec un 1, 0 et un peu entre les deux. Ce sera pas là de gens, vous diriez, Perceval. Le problème de ça, c'est que ça change toute l'algorithmie. C'est à la fois ce qu'on veut et à la fois ce qui pose problème. Donc le quantique, c'est avant tout une nouvelle façon de coder, des nouveaux langages, des nouveaux frameworks, des nouvelles façons de coder. Et de l'autre côté, c'est une recherche dans le hardware. Aujourd'hui on sait déjà ce que le quantique va donner parce qu'on est capable de le simuler en mettant beaucoup de matériel traditionnel et on le simule avec énormément des puissances de calcul phénoménales et on fait tourner très lentement un ordinateur quantique simulé ça il y a déjà des choses, notamment Candela un très bon simulateur il y a plusieurs simulateurs qui sont très intéressants qui grillent énormément de, ressources pour être capable de tourner mais qui donnent une idée de ce à quoi peut trouver de l'algorithme quantique qui pourraient tourner très vite et donc régler énormément de problèmes si on avait la couche hardware en dessous. Et après il y a en compétition plusieurs modèles de couches hardware, pour être capable de créer des qubits donc des capacités quantiques dessus et donc à ce moment là être capable de l'exécuter à une rapidité suffisante pour que ce qu'on fasse puisse avoir de l'intérêt. En tant que développeur il est intéressant de regarder les couches de simulation le comment on construit les qubits c'est un vrai intérêt physique intellectuel pour nous, la réalité c'est que c'est plus de la physique que de l'informatique par contre l'algorithmie est très intéressante est-ce qu'aujourd'hui on va à grand pas vers l'informatique quantique, oui on a encore des problèmes à faire la couche physique underlying du truc par contre les frameworks de simulation sont extrêmement matures et c'est probablement les frameworks français qui aujourd'hui sont les plus matures et, tout ce qui se fait notamment sur le plateau de Saclay.

Bruno:
J'avais vu passer c'était sur le, j'ai plus le nom en tête pour identifier si t'as un élément qui est présent dans une liste c'est l'algorithme de j'ai plus le nom en tête et c'était sur l'explication sur comment tu le fais en quantique versus comment tu le fais en informatique enfin en algorithmie traditionnelle, et c'est vrai que c'est une façon de coder qui n'a absolument rien à voir.

Quentin:
Oui et puis faut pas voir l'ordinateur quantique comme étant un ordinateur qui remplace l'autre d'abord parce que l'ordinateur quantique par ses contraintes après il y a différentes technologies dans le quantique mais globalement ça a toujours des contraintes qui finissent par des trucs un peu à la con genre il te faut le zéro absolu donc moins de 100 degrés, il te faut il te faut, telle puissance pour fonctionner etc il faut plus le prendre comme un coprocesseur de calcul à qui tu vas envoyer certaines tâches spécifiques, de manière générale et ça c'est un truc qu'il faut comprendre c'est l'informatique c'est beaucoup rationalisé autour de machines standards et on a dit tous les serveurs sont les mêmes, tous les PC sont les mêmes, etc. Et en fait ce qui est en train de se passer, c'est que nos capacités de calcul variant. Que ce soit en IA ou en quantique en fait on est en train de respécialiser les capacités de calcul et donc on va se retrouver avec des coprocesseurs de calcul donc clairement sur l'inférence en IA on va générer des trucs qui font, globalement des calculs matriciels parce qu'on utilise des GPU l'histoire c'est que les GPU ne sont pas faits pour ça en fait c'est juste que les GPU savent faire des calculs matriciels, les Nvidia sont particulièrement bons pour faire de l'entraînement parce qu'ils ont les NVLink et que comme Nvidia a racheté Mélanox, ils ont une capacité de connexion entre les cartes qui est démentielle et c'est pour ça qu'aujourd'hui ils sont très difficiles à rattraper sur l'entraînement. Et d'ailleurs si tu veux je peux même aller jusqu'au bout de la réflexion sur l'entraînement, sur ce qui est en train de se passer selon moi c'est pas les machines qu'on va spécialiser c'est les data centers. Je peux aller expliquer ce point là si tu veux. Et sur l'inférence tu vas avoir des cartes de co-calcul parce que t'as pas exactement les mêmes besoins de calcul entre l'entraînement et l'inférence. L'entraînement c'est le moment où on construit un modèle L'inférence c'est le moment où on l'utilise Tu peux faire de l'inférence sur du CPU C'est juste qu'il y a des fois c'est très lent Et il te faut une carte de co-calcul Et donc un co-processeur de calcul Qui va te faire globalement des calculs matriciels Qui sont intéressants et qui t'intéressent Et en fait le quantique c'est ça C'est juste une carte de co-calcul Qui fait d'autres types encore de calcul Il n'est pas impossible qu'on continue à multiplier Les capacités de calcul dans le temps, Parce qu'on va se respécialiser des modèles de calcul Pour que ce soit rentable Aujourd'hui c'est très peu rentable en fait de faire de l'IA, c'est juste que tout le monde est à fond dessus et donc on regardera la facture un peu plus tard, mais on va aller vers une, rationalisation industrielle, c'est ce que j'explique souvent c'est que tout ça se rationalise de façon industrielle, et donc notamment que l'inférence va se faire. En clair, comment les choses vont se découper pour bien comprendre ? Le moment où on fait du calcul sur l'entraînement, aujourd'hui on parle de gigawatts de choses. En clair, une tranche de centrale nucléaire ça fait 1 gigawatt, 1 gigawatt 2. On parle pas des SME, les petits réacteurs nucléaires là, qui font 300-400 kilowatts. Là je parle vraiment de centrale nucléaire établie, ça fait 1 gigawatt 2. Ce qui va se passer, ce qui est déjà en train de se passer, c'est qu'ils vont être construits dans le monde des data centers faits pour faire de l'entraînement. Dans lequel on va calibrer une infrastructure entière et qu'on va construire globalement à côté d'une centrale nucléaire. Et c'est ce qui se passe. Microsoft a acheté, entre guillemets, une centrale nucléaire, a rallumé une vieille centrale nucléaire pour être capable de faire fonctionner un data center d'entraînement. Et donc les data centers d'entraînement, à mon avis, vont dériver vers un modèle économique proche des usines de semi-conducteurs. Tu vois comment ça marche ou pas ? Donc les usines de semi-conducteurs, pour ceux qui ne savent pas, en fait, c'est... Donc, le semi-conducteur, c'est plein de petites machines qui sont mises ensemble dans un long cycle industriel qui permettent de construire vos sensors, vos processeurs, vos machins, etc. Les usines sont globalement un endroit où t'as à la fois une usine de gaz, chez nous en général achetée à air liquide, donc une usine de gaz c'est un truc qui distille du gaz et qui te sépare bien le gaz pour avoir tous tes gaz. Nettoie totalement l'air parce que tu peux pas avoir du tout de poussière. Mille fois plus propre qu'un bloc opératoire, une usine de semi-conducteurs, et va te fournir les facilities pour installer des usines qui, elles-mêmes, sont là pour surfacer et faire un truc plat à la couche d'atomes près, puis faire les bains d'acide, les trucs clés, etc. Et donc là, en fait, t'as plein de PME qui fournissent, au niveau mondial, qui fournissent quelques machines, et après t'as des usines qui vont produire et qui, elles-mêmes, sont équipées d'un certain nombre de machines. Et si tu veux produire une puce particulière qui n'a pas la machine tu vas trouver un deal avec l'usine tes slots de production en fait ils sont mis aux enchères donc les grosses usines de production en fait elles mettent les slots de production aux enchères et les boîtes qui ont besoin d'acheter du semi-conducteur fabriqué donc tu crées dans des centres de recherche ton processus industriel notamment l'un des meilleurs centres de recherche du monde c'est le CEA à Grenoble le LETI pour être plus précis le labo d'électronique de micro-électronique du LETI qui va te produire ton, modèle industriel, et de là tu vas partir avec ce qu'on appelle ton cahier d'industrialisation, et tu vas aller voir tes différents centres de production en disant je veux produire ça et en dire on a quoi ou on a pas quoi. En ressources de trucs, et on peut donc te créer un modèle, et là tu vas enchérir sur tes slots de production. C'est comme ça que fonctionne en fait le semi-conducteur. Ce qui va se passer dans l'IA c'est que les slots d'entraînement ce seront des data centers dédiés à ça, et en fait il y aura de l'enchérissement pour dire je prends le data center pour un slot de production d'un mois pour lancer mes calculs et relâcher la totalité des infras après. Donc t'arrives avec tes datas, tes nouveaux modèles, etc. Tu fais calculer tout ton centre pendant un mois et après tu repars avec tes modèles entraînés et quelqu'un d'autre vient prendre ta place qui a enchéri pour prendre à ton slot de production. Actuellement on a zéro data center d'entraînement en Europe. On a zéro.

Bruno:
Il y en a déjà dans le monde ?

Quentin:
Il y en a aux Etats-Unis, il y en a qui se montent au Middle East, notamment j'ai écho d'un projet à 4,5 gigawatts. Au Middle East, t'en as évidemment en Chine c'est un peu bouclé, mais globalement aujourd'hui on a, voilà c'est assez mystérieux mais globalement c'est ça qui va se produire. Et après t'as l'inférence où l'inférence, là ce qui va se passer c'est qu'on utilisera à mon avis moins des cartes Nvidia, parce qu'Nvidia a un problème de production et de livraison, mais surtout la carte elle est pas nécessairement la plus efficace pour faire de l'inférence, et t'as des acteurs qui sont en train de se positionner en faisant des cartes de coprocessing d'inférence, et qui consommeront moins d'énergie, c'est ce que nous c'est ce sur quoi on bosse, et notamment là-dessus nous on porte un projet, où il y a un processeur Cyperl donc un processeur ARM, un coprocesseur Vessora, du réseau fourni par Ducalray, la technologie de ZML qui permet d'orchestrer le tout, la nôtre et ça on peut faire des potes d'inférence à la fois souverains et hyper efficaces et hyper efficaces d'un point de vue énergétique, on parle d'une division par douze, enfin un truc, on parle d'aller chercher de la rentabilité énergétique. Parce que sinon, d'un point de vue industriel, l'IA ne sera pas rentable. Donc ce qui se passe, c'est qu'en fait, on est en train de faire la passe de design to cost de l'IA, si vous préférez. En industrie, ce qu'on appelle la passe de design to cost, c'est qu'on a fait le POC, on a industrialisé une première fois, on sait produire, mais on dit, bon, ça coûte 6 000 balles de produire la machine. Et là, on dit, ouais, sur un marché, il faut qu'on vende 7 000, 1 000 de marge, c'est pas assez. Donc qu'est-ce qu'on fait ? Et là, on fait ce qu'on appelle le design to cost, C'est-à-dire qu'on reprend tous les éléments de la baume et tous les process Pour les cruncher en termes de prix Et en général on finit à 1500 balles de production C'est très violent le design to cost Tu peux vraiment aller chercher Et donc là c'est ce qui va se passer en fait C'est qu'on est en train de faire le design to cost de l'IA Et donc l'IA va s'industrialiser Dans des modèles financiers acceptables Pour que ce soit absorbable Par un écosystème global Et pour ça que l'IA va rentrer partout dans notre vie C'est qu'en fait elle va s'industrialiser Et donc ces modèles là qui sont des modèles Vraiment intéressants à regarder et à observer font qu'on va avoir, d'un côté des data centers qui vont se spécialiser en entraînement, qui vont être construits et faits pour l'entraînement et de l'autre côté, tout un reste des data centers où on va les mettre à niveau pour être capable de gérer l'inférence dedans, ça reste quand même assez énergivore, cette truc là.

Bruno:
Comment on pourrait expliquer alors j'ai ma petite idée mais je serais curieux d'avoir ton avis sur comment ça se fait que l'industrie se soit pas alignée, de la même façon qu'elle est en train de se faire de le faire pour l'IA sur la blockchain.

Quentin:
Parce que le bénéfice évident et plus réel de l'ensemble des métiers n'était pas évident sur la blockchain, la blockchain est intéressante je ne suis pas en train de dire le contraire mais il y a au moment où tu le touches n'importe quel décideur comprend immédiatement ce qui est en train de se produire alors il ne comprend pas les mécanismes, les machins etc, ils prennent éventuellement n'importe quoi comme décision mais, la blockchain si tu veux n'avait pas cette versatilité.

Bruno:
Un pacte au moins de monde au final. Avant de passer à nos prédictions pour, 2025, j'aurais un dernier point à voir avec toi. On va dire que c'est un double sujet. J'ai eu l'impression en 2024, j'ai commencé à avoir l'idée qu'à Popé et les gens qui écoutent ce podcast régulièrement m'ont déjà entendu le dire, que peut-être que le métier de dev de back-end est en train de disparaître. Parce que je vois que le métier de front-end est en train de porter de plus en plus de complexité et de logique métier. Par rapport au bac. On voit les bases de données qui commencent à intégrer de plus en plus de codes aussi. Avec du GraphQL, maintenant tu peux faire du GraphQL directement sur ta base de données. Et donc tu as ton front, ta base de données, et donc tu n'as plus besoin au final vraiment de ton backend. Donc ça c'est le premier point de la question, c'est est-ce que le dev de backend a encore du sens en 2025 ? Ou peut-être un peu plus loin ? Et surtout de manière plus globale, on a parlé un peu des LLM et de comment est-ce qu'on doit l'impacter dans notre métier au quotidien. Dans quelle mesure, toi, tu vois le métier de développeur et de développeuse changer dans les années à venir avec ces outils d'IA ?

Quentin:
Alors, la première chose, je pense que l'IA est en train de tuer une idée qui est la capacité à rationnellement prendre toutes les décisions en l'hierarchisant. Tu vois, on parlait de Claude avec Anthropik qui maintenant est capable de piloter ton ordinateur. Je dis mais pourquoi ? Parce qu'en fait, si tu veux, l'exposition de l'ensemble du web sous forme d'API sémantique bien propre, en fait c'est un échec, on n'y arrive pas. Et on a tous essayé pourtant, on n'y arrive pas. et en fait, pour finir, on se retrouve avec des trucs qui acceptent la complexité et qui, par apprentissage, pour finir, vont se comporter comme un être humain. C'est ça qu'en fait, on est en train de faire. Et pour moi, cette notion de devenir un dev backend, pas un dev backend, c'est lié à... En fait, si tu veux, pendant longtemps, on a tout mis dans le backend, la validation de data, on a plus ou moins supprimé les notions de contraintes dans la base de données, parce que c'était pas toujours une idée du siècle, mais bon, voilà.

Bruno:
On mettait l'intelligence dans le bac à un seul endroit où c'était présent.

Quentin:
C'est ça. Ce qui se passe, c'est qu'on reprend dans la UI des points d'entrée de l'intelligence. Après, il faut toujours les revalider côté bac. Aujourd'hui, on se retrouve avec des bugs de, je l'ai validé dans la UI, ouais, donc c'est bon. Alors qu'il faut les revalider dans le bac. La question, c'est comment on est capable aujourd'hui d'annoter des choses qui sont dans le bac et dans le front, et emmener de l'un à l'autre. Et ce n'est pas si simple que ça à faire, mais il y a un vrai enjeu là-dessus, à mon humble avis. Et nous c'est des enjeux qu'on regarde beaucoup parce que chez Clever le data model des API des nouvelles versions des choses chez nous c'est du Scala et en Scala on fait ce qu'on appelle beaucoup nous des types paramétriques tu vois ce que c'est qu'un type paramétrique, au lieu de dire c'est juste un int on va dire si par exemple, qu'est-ce que je vais te trouver d'intelligent. On va stocker un int compris entre 7 et 14 on te dit c'est compris entre 7 et 14, et d'un point de vue compilatoire si on ne check pas à un moment que c'est compris entre 7 et 14 ton programme ne compile pas c'est à dire qu'on sait que le type il est n4c et donc le type que tu vas manipuler il sera là tu vois. Cette notion là d'hypervalidation de ta data, il se trouve qu'en ce cas là on peut faire des types paramétriques parce que c'est lié à des options du compiler etc mais tu peux cette capacité à valider ta donnée en entrée tu peux le faire dans n'importe quel langage et t'es censé le faire dans n'importe quel langage Parce que toute donnée en entrée tu dois valider qu'elle a la tronche de ce à quoi tu t'attends en fait, La plupart des erreurs, des hacks, des machins, etc C'est un manque de s'assurer que tu as effectivement raison sur à quoi ressemblent les datas que tu rentres. Et en fait on peut imaginer que tu vas les annoter que tu vas les mettre dans l'API donc pourquoi pas tu vas donner cette information là dans ton swagger slash open API et après nous on est censé faire pour générer, des clients puis la CLI puis les web components puis à la fin la console c'est pour ça qu'on génère en downstream de fall comme ça mais du coup si tu veux ce qui se passe c'est qu'à un moment, il faut quand même définir quelle est ta transformation de data et en fait pour finir ton bac c'est jamais qu'un truc qui prend des datas en entrée via un logiciel qui peut être ta base de données, qui prend des entrées de data depuis une API etc et qui fait le lien et qui fait en fait ce moment là l'objet c'est juste que pendant longtemps on a tout fait reposer là dessus parce qu'on était tous partis là dessus mais comme là on complexifie les interfaces on a envie d'utiliser pleinement les capacités du web, en ligne, pas en ligne etc et de valider au mieux et de faire des applications mobiles qualitatives etc, bah on fait des frondes de plus en plus qualitatifs que de l'autre côté on a envie que la base de données prenne de plus en plus en charge de choses parce que c'est plus proche de ça et donc on va pouvoir la requêter et donc c'est intelligent etc, bah du coup c'est hyper pertinent et donc du coup on va se retrouver avec un truc au milieu, qui est cette création de valeur. Qui est là et donc oui on est dans un mouvement de balancier où là où à une époque tu vois on faisait beaucoup de PLSQL par exemple dans les BDD et ce qu'on donnait accès aux gens c'était l'interface d'oracle, tu vois, dans les entreprises avec des systèmes de gestion de droits hyperpropres et des procédures stockées, etc. On avait arrêté, on a mis ça dans le bac et en même temps, on avait paradoxalement un peu relâché la vigilance dans l'ADB. Puisqu'on a des DB de plus en plus intelligents et complexifiés dans des services managés dont on a déjà parlé, en fait, on met plus de choses dans l'ADB. Et puis, du coup, comme on faisait tous les traitements dans le bac et qu'on n'avait pas le temps de coder le front, on préférait générer une erreur sur un formulaire, En disant, tel truc n'est pas valide en termes d'entrée, plutôt que de le retester dans le front parce qu'on n'a pas le temps de tout faire. Là, on va le tester dans le front. Ce qui ne veut pas dire qu'on ne doit pas le tester dans le back. Donc pour moi, ce qui est en train de se produire, c'est plutôt que le back va changer légèrement comme métier, qu'on va être capable, pourquoi pas d'intégrer effectivement une interaction avec l'IA. Et on va mieux utiliser les databases qui sont underlying, parce que je pense qu'on est arrivé à la fin d'un moment logique qui était les ORM. Les ORM, c'était le summum du dire, tu sais la base de données en fait on s'en fout ça pourrait être un fichier plat, tu vois, puisqu'en fait on peut utiliser n'importe quelle base de données avec ton ORM, mais là de plus en plus on utilise des bases de données qui ont des capacités spécifiques qui pourquoi pas font de la vectorisation ce qui nous permet de brancher un modèle d'IA dessus etc, et donc en fait en tant que développeur tu vas de plus en plus parler avec ta base de données, tu vas virer l'ORM parce que c'est le plus petit dénominateur commun, mais en même temps ça implique une autre contrainte, c'est que t'es obligé de dire à ton client avant dans une boîte de services se disait on utilisera un ORM, tu mettra bien ce que tu veux entre du MySQL, du Oracle ou whatever on s'en fout, là tu lui dis ah non c'est, PG14.3 avec tel plugin parce que la base de données fait partie du code et donc tu vois on est dans ces mouvements de balancier tu vois éternel où en fait là le bac est en train de se faire redépouiller mais il avait tout pris donc il se fait redépouiller et c'est pas nécessairement une mauvaise chose que de réutiliser les bonnes choses surtout que le bac va devoir justement, impliquer cette complexité qui est la gestion, mine de rien, des modèles et de l'intelligence artificielle à l'intérieur de ton propre code.

Bruno:
Ce qui va devenir du coup une forme d'orchestrateur un peu en fait. Tu fais passeur de plat entre différents éléments et tu...

Quentin:
Les microservices, tu vois, et c'est bien parce qu'on va, tu vois, le délire des microservices où on avait trop fait la microservice Noisy Worker Army avec tout le monde qui était parti, moi j'ai vu des boîtes dans lesquelles les mecs ils avaient décidé de faire un endpoint API, un microservice, et le tout développé au go, le tout dans Kubernetes, et après ils te disent ouais on a des lenteurs, tu m'étonnes. Si à chaque fois que tu dois faire quelque chose t'es obligé de parler à un service à côté qui lui-même parle à un service à côté etc bah oui tu parles à ton cluster plutôt que de parler à la classe d'à côté et à de la data qui est déjà dans le cache de ton processeur oui ça j'imagine c'est un peu lent, mais c'était pas ça l'idée du micro-service l'idée du micro-service c'était de dire que chaque service allait se rendre service et donc en fait un modèle c'est jamais que ça tu rends service à quelqu'un d'autre donc ça va être la rationalisation des micro-services autour de micro-service, qui vont devenir des, surfaces d'agrégation qui vont elles-mêmes se rendre service et en tant que développeur back ton sujet va être essentiellement d'orchestrer où est la donnée et quels sont ces sujets de transformation et comment j'expose au front quelque chose de compréhensible.

Bruno:
Et du coup comment est-ce que tu vois le métier de développeur ou de développeuse au global changer avec l'arrivée effectivement des copilots et différents LLM qu'on a pu déjà évoquer.

Quentin:
Je sais que Google a fait une annonce disant que 25% du code produit chez eux à présent était généré par de l'IA, Avant on avait tous de l'autocomplétion dans nos IDE quoi Et c'est juste que l'autocomplétion était débile donc on va juste avoir une autocomplétion intelligente, Surtout que, je vais être franc, moi je trouve que pour l'instant les intégrations globales de ces trucs là Est encore assez pénible, je trouve pas que l'intégration soit très bonne pour l'instant.

Bruno:
J'ai quand même entendu parler de projet assez intéressant. Je ne sais pas si je peux révéler son nom au micro, je tairai l'entreprise qui a fait ça. Mais j'ai entendu parler d'un projet de migration. Il y avait deux applications, une en Kotlin, une en Swift. L'idée est de faire une app en React. Et en fait, ils ont, budgétisé le projet en se disant, voilà, avec l'équipe qu'on a, ça va nous prendre un an de migrer toute la code base de ces environnements vers un environnement React. Et ils se sont dit à côté de ça, ce qu'on va faire c'est qu'on va découper le projet comme on l'aurait fait si on l'avait codé nous-mêmes, mais on va tout passer dans Cursor. Et donc tous les tickets qui ont été créés sont passés dans Cursor, avec à chaque fois le code en Swift, le ticket qui disait je veux un composant machin machin, et donc chaque commit contenait aussi bien le code généreux en React que le prompt utilisé pour le générer de manière aussi à améliorer le prompt du projet en projet. Ils sont passés d'un projet de 12 mois à un projet de 3 mois. Ils l'ont fait en 3 mois.

Quentin:
C'est génial.

Bruno:
Mais tu vois, on est sur de la réécriture, on est sur un projet qui a quand même été découpé, structuré, pensé, architecturé, et en fait c'est juste... Tu parles effectivement d'autocomplition, au final c'est de la traduction, tu vois, c'est ok, en fait on a tout construit, et maintenant en gros tu pistes du code.

Quentin:
Moi je pense que c'est aujourd'hui comme ça qu'il va falloir travailler pour beaucoup de gens et tu relis du code en fait t'es reviewer de ton, outil dire mais en fait ta validation à toi c'est quand même ta capacité à te dire si le truc délire ou pas, donc moi je pense que ça va beaucoup beaucoup évoluer et qu'en fait on va devenir plus productif par contre il faut moi je sais qu'il y a des gens qui me vendent le craft même en interne je suis obligé de me battre des fois en disant mais les gars vous avez cramé, je m'en fous que vous l'ayez produit à la main avec amour, on n'est pas là pour faire de l'artisanat on est des industriels et donc à un moment donné notre travail c'est d'être capable d'entraîner les choses dans le bon sens et d'aller plus loin je pense qu'en tant que développeur, notre métier n'a pas bougé sur un point on doit comprendre les tâches d'un être humain, et on doit les automatiser. C'est ça notre métier, en fait. Et après, se posent quelques considérations éventuelles de performance et de compréhension de la tuyauterie interne pour savoir si ça va être un, vivable d'un point de vue perf, deux, vivable d'un point de vue financier. Parce qu'en clair, si ça coûte trop cher en infra par rapport à la rentabilité du truc, ça pose un souci. Voilà. Donc il y a quelques notions techniques sous-jacentes. Et après, être certain qu'on respecte les garanties qu'on est censé garantir. En clair, quand tu fais du bancaire, si tu ne fais pas des transactions, il y a peut-être un problème. Si tu es capable de décrémenter de l'argent d'un compte et d'incrémenter de l'argent sur un autre compte dans un virement sans lier les deux, il y a un problème. Tu ne peux pas faire ça. Mais tu dois comprendre la logique de data. Mais au final, ton développeur, il doit comprendre la logique de data et l'exécuter. Est-ce qu'il doit écrire tout le code ? Vaste question Après tu vas avoir différentes techniques Moi je me souviens Quand on, Pour ceux qui ne savent pas le legacy de Clever C'est du J2E donc c'est beaucoup beaucoup de Java, Et A cette époque là par exemple Tu vois C'est Java avec la verbosité de Java Les getters et les setters, Et pendant des années en Java, en fait, si tu regardais, tu avais énormément de ton code qui avait été généré par l'IDE. Parce que tes getter et setter étaient générés par l'IDE. Puis après, tu as le projet Lombok qui est arrivé, on a collé une annotation qui générait les getter et les setter, sauf si le getter setter était déjà présent parce qu'il était particulier. Tu vois, on appelait ça les accesseurs. Mais tu vois, tu as des langages qui vont être très verbeux, où en fait, si tu regardes bien, tu générais énormément de code, et puis tu as des langages qui vont l'être moins, parce que pourquoi générer du code que tu peux générer en pré-processing de compilation, pour éviter d'alourdir ta code base de code entre guillemets intelligent de ça et pour moi sur l'intelligence artificielle on va aller vers ce genre de modèle en fait et tu vois alors, nous on est passé toute la nouvelle grosse plateforme de Clever c'est une plateforme qui est TDD c'est à dire test driven development c'est à dire c'est une plateforme les développeurs peuvent même pas la lancer sur leur ordinateur tu ne peux lancer que des tests qui sont soit des simulations, soit des tests unitaires en fonction de ton use case. Et en fait, tu vois bien comment l'IA va impacter énormément ta capacité à dire, mais ta couverture de test, elle est mauvaise. Tes tas d'usages de cases d'intégration sont pas bons en fait. Et pour moi, c'est dans ces moments-là où le développeur va prendre du recul et dialoguer avec quelque chose qui lui permet d'avoir un retour sur ça, ça a du sens, ça, ça a pas de sens. Et on va générer des choses dans ce sens-là pour être capable de remplir si tu veux la zone fonctionnelle après comme d'habitude t'as des gens qui vont se perdre je me souviendrai toujours, j'avais fait un audit une fois parce que des fois je fais des audits, ça me sort de mon quotidien. Et j'avais fait un audit dans une boîte c'était une boîte où ils faisaient des audits où en fait ils définissaient énormément de choses dans du MLD, XMLD machin etc, et après ils avaient tout un truc qui générait la grande majorité de leurs codes et des tests unitaires, et plein de tests et en fait. Après ils codaient tu vois le peu de métiers dans ce qu'il restait à faire ça générait je crois du PHP à la fin et ils codaient le peu de métiers et tu leur poses la question et tu leur fais mais on a combien de code coverage on est hyper fiers on a 92% de code coverage, Alors ça voulait être désagréable, vu que le code écrit à la main de ce que je vois de nos statistiques est d'à peu près 8%, j'aurais tendance à dire, on a des tests unitaires qui passent à 100%, qui sont en fait les tests autogénérés.

Bruno:
Sur du code lui-même autogénéré.

Quentin:
Sur le code autogénéré. Et concrètement sur le code humain, en fait, on est à 0% de code coverage en fait. Votre truc est complètement con. Parce que vous êtes très fiers d'une métrique qui est fausse en fait. Vous vous auto-aveuglez sur une maîtrise qui est factuellement une connerie quoi. Et en fait ça leur a été complètement sorti de la tête, ils étaient absolument pas dans la mécanique, ils voyaient pas du tout l'enjeu en fait du sujet et je pense que notre enjeu en tant que développeur il est là, notre enjeu il est de dire attends comment on fait pour être certain de notre coût, comment on fait pour comprendre et en tant que développeur notre enjeu c'est pas le code, c'est la compréhension du processus qu'on doit automatiser, trouver la meilleure façon de automatisé, prendre en compte les notions de tuyauterie les.

Bruno:
Contraintes qui sont autour.

Quentin:
Qui sont des contraintes physiques en fait pour finir et être capable d'avancer, et je pense que c'est vraiment ça notre enjeu, et vraiment ça qu'on doit être capable de faire, et pour ça pour moi le métier a toujours énormément de sens, par contre il va changer, mais comme il a. Déjà plein de fois changé si tu veux, il y a 15 ans on écrivait tous des applications natives maintenant on écrit essentiellement pour le web et bien peut-être qu'on va revenir au natif parce que justement on va retrouver, de l'air de nativité tu vois je vois les applications progressives web app tu vois là moi je commence à avoir des applications que j'utilise qu'utilise tu sais le truc d'applications app clip ou ce genre de choses sur android ou iphone donc pour ceux qui savent pas c'est les ces applications capables de se lancer en sandbox et à la volée parce qu'elles sont très légères donc tu arrives sur une url web et là on me dit ce que tu veux lancer ça en fait ça te lance une application native à la volée complètement sandboxé et qui est une expérience, En termes d'expérience, c'est incroyable. Ça, qui a été lancé il y a quoi ? Deux, trois ans maintenant ? En fait, là, ça commence à arriver vraiment sur le marché. C'est des applications beaucoup plus agréables. Est-ce que l'IA ne va pas nous permettre justement de convertir beaucoup plus vite des bouts d'applications mobiles pour être capable de faire du app clip ? Et ça, c'est des choses très intéressantes où la capacité peut-être à diviser des applications natives un peu lourdes en disant on emmène ça dans l'app clip et ça là, et dans l'app clip, on va essayer de faire télécharger l'application générale, aux gens. Et je pense que, tu vois, on va aller vraiment vers de plus en plus de choses comme ça. Et pour moi, il ne faut pas camper sur ces positions. En tant que développeur, aujourd'hui, il faut embrasser l'innovation et se positionner comme quelqu'un qui va voir l'innovation se générer autour de nous.

Bruno:
Canon. Je suis forcément très aligné avec ça. Pour terminer, sur les fameuses prédictions qu'on essaie de faire chaque année. Donc, là, effectivement, tu avais prédit de faire de plus en plus de services managers. Alors, ta prédiction s'est réalisée, mais elle est un peu autoréalisatrice parce que tu as quand même été acteur dans ce genre de choses-là.

Quentin:
Après, je pense que ça reste quelque chose de vrai. C'est-à-dire qu'on va vers de plus en plus de services managés sur l'ensemble du spectre. Quand ce n'est pas des services managés dans le sens où vous n'achetez pas du RDS, aujourd'hui par exemple, les gens vont vouloir acheter une plateforme on-premise qui fournit des services managés. Mais l'idée est de plus en plus d'abstraire l'infrastructure derrière une API qui te fournit de plus en plus de services managés et pourquoi pas tes recettes de cuisine d'IA, etc.

Bruno:
Non mais ça a effectivement du sens. Tu nous avais prédit aussi 2024 comme étant l'année du desktop Linux mais tu nous avais dit ça aussi pour 2023 et pour 2022. Donc ça, c'est pas encore le cas, a priori.

Quentin:
Ecoute, cette année, c'est l'année du desktop Linux.

Bruno:
On y croit.

Quentin:
Je ferai cette prédiction-là jusqu'à ma mort, je pense.

Bruno:
Mais on peut tous un peu la souhaiter. Après, est-ce qu'on pourrait se dire que macOS c'est un peu une solution palliative à l'émergence du desktop Linux ?

Quentin:
Au-delà de macOS, c'est une solution palliative au desktop Linux. Oui, en partie, parce que c'est un unix. Moi, ce que je vois aussi, c'est le Windows Linux subsystème où aujourd'hui tu ne trouves pas un seul dev sans utilisation du Windows Linux subsystème où en fait tu as un Linux à l'intérieur de ton Windows et pour finir ton Windows n'est jamais que l'interface graphique de ton Linux parce qu'en fait en tant que développeur aujourd'hui tu fais des dockers, des trucs, des machins et en fait tu les construis intégralement dans ton Linux émulé dans le subsystème, Windows et donc quelque part Microsoft est devenu l'interface graphique la plus employée de Linux quelque part et donc le desktop Linux, c'est intégré, après on sait tous où est-ce qu'il y a le problème, il manque de pognon pour avoir un vrai, et un gros constructeur qui déciderait de mettre toute l'énergie dans le fait d'avoir un vrai desktop Linux t'as un gros desktop Linux déjà qui est Android, qui a la moitié du marché, t'as iOS qui est quand même pas loin d'être un desktop Linux non plus donc t'as ça, après ce qui se passe c'est que comme le matériel se respécialise, Microsoft a sorti les surfaces qui est pour finir une fois que tu as installé le subsystème Linux un très bon desktop Linux. MacOS en partant sur ARM a quand même clivé le marché mais en même temps redonné de la vitalité au marché, je considère qu'aujourd'hui le débat sur les OS est plus ouvert qu'il n'a jamais été et je pense que c'est sain et ce que je trouve moi incroyable c'est que là où pendant des années il n'y avait plus d'émergence de nouveaux, systèmes tu vois même t'as le leader d'un projet qui s'appelle Maestro chez nous qui s'appelle Luc qui est un gamin génial qui bosse chez nous et qui est vraiment un mec brillantissime qui a réécrit intégralement un Unix en Rust et il a, 15-20% des syscall Linux émulés du coup en Rust dans son système Et c'est pas le seul projet de noyau en Rust C'est-à-dire que la migration d'une partie non négligeable du code vers les architectures de langage fonctionnel. Java, tout ce qu'elle a, à peu près tout vers Rust, etc. Génère une volonté pour certains utilisateurs de faire des capacités multiparallélisables, parce que le langage fonctionnel te permet de paralléliser plus simplement l'exécution de ton code. Le fait que les architectures changent sont quand même des ouvertures, parce que la capacité de recompiler, tu vois, en Rust, recompiler tout vers ARM, c'est un no cost. Quand t'as une base de code un peu vieille des années 90 où en fait t'as un bout, c'est de l'assembleur, tout de suite l'histoire n'est pas exactement la même donc la capacité de portage en fait vers de nouvelles architectures ARM puis pourquoi quoi RISC5, qui pousse RISC5 et l'Open Hardware Group etc, là dessus sont quand même aussi des opportunités de changement d'OS et ce que moi je vois au delà de la blague sur le desktop Linux c'est qu'aujourd'hui l'utilisation de Linux au quotidien par les développeurs, aujourd'hui elle est automatique et notamment la dockerisation a directement entraîné ça. Donc le Linux est en fait très présent que ce soit pas ton système principal, autre sujet je suis d'accord avec ce point, mais en fait tu t'en sers quand même vraiment beaucoup et le fait que aujourd'hui il y ait une mise en tension, des architectures logicielles et hardware, parce que tu vois c'est ce que je racontais sur l'IA tout à l'heure et l'éco-processeur, en fait il y a une vraie remise en question du truc qui, il y a 15 ans, était indéboulonnable, qui était un APC Intel X3264 qui tourne sous Windows ou sous Linux, et en avant-gringant. Tu te retrouves aujourd'hui avec des architectures de kernel, de pensée, etc. Ça bouillonne. Est-ce que pour autant tout le monde tourne sous Génome et sous Ubuntu comme ça a été longtemps le rêve de certains dans l'écosystème Linux ? Clairement, non. Mais est-ce que c'est grave ? Je pense pas. Je pense qu'aujourd'hui le bouillonnement il est là et donc est-ce que pour finir grâce à Microsoft, on est l'année du desktop Linux quelque part la prédiction n'est pas si fausse, parce qu'encore une fois je pense que la maturité du W Windows subsystem Linux en fait, prouve quelque part ça, c'est comme ça que je l'interprète je ne sais pas comment toi tu l'as ressenti après il y a deux Mac sur la table de l'enregistrement, mais tu vois quand tu parles avec les gens qui vivent sous Windows en fait aujourd'hui ils vivent sous un Windows Linux ouais clairement.

Bruno:
Mais ça devenait une nécessité, en fait, parce que ceux qui étaient avant sous Windows, avant ça, c'était une tannée, en fait. Utiliser Docker, historiquement, sur Windows, c'était un calvaire, quoi. C'est-à-dire que t'envisageais de prendre un Mac juste pour ça, quoi.

Quentin:
Moi, je pense que ce que ça prouve, c'est... Tu te souviens de cette image incroyable de Balmer, developer, developer, developer, c'est oui, il se met dans un état peu possible en ce temps. En fait, il a perdu. C'est-à-dire qu'en fait, les développeurs, aujourd'hui, ils sont sur des systèmes uniques. Mac, Linux, whatever mais aujourd'hui ce que tu target c'est un système Unix et après tu fais des exports éventuels pour Windows et tous les serveurs aujourd'hui sont sur du Linux et du Unix plus globalement en fait c'est l'architecture NT, n'a pas tenu la charge face aux architectures Unix et donc aujourd'hui c'est gagné et donc pour finir sur le PC du développeur même si aujourd'hui il utilise un Windows comme interface graphique aujourd'hui il code pour Linux je pense.

Bruno:
In fine l'autre prédiction que tu avais faite c'était la généralisation de l'IA et notamment avec beaucoup de collaboration, tu nous avais parlé de j'ai re-blui le nom.

Quentin:
CodeWiz de JetBrains qui.

Bruno:
Permet de faire du code collaboratif.

Quentin:
Si vous n'avez toujours pas testé ça et que vous êtes dans une team remote, je n'ai aucune action chez JetBrains et je devrais en avoir, mais je n'ai aucune action chez eux, mais CodeWiz c'est génial pour faire du code pair, c'est vraiment génial, nous on s'en sert, chez Clever beaucoup, et vraiment j'adore ce truc, je pense que la généralisation de l'IA on est en train de le voir et j'exhorte les auditeurs à ne pas bouder ce dossier là ce serait stupide de le bouder, on n'a pas le choix donc il ne faut pas le bouder, CodeWiz très intéressant et les systèmes de code collaboratif je ne les vois pas décoller aujourd'hui, je suis surpris en fait, je suis surpris que dans un monde où le remote a autant de place que pour finir les gens se retrouvent dans des zooms avec un partage d'écran pour faire du pair coding, il y a des meilleurs outils et ça coûte moins cher, donc voilà c'est mon point en fait aujourd'hui là dessus, c'est plus agréable pour tout le monde, gagnez de la productivité dans vos pairs coding en remote.

Bruno:
De mon côté moi j'avais prédit plus d'IA en dehors des LLM, bon on a les LAM qui ont les large action models qui ont commencé à prendre un peu d'ampleur mais je crois qu'on a encore beaucoup resté en 2024 autour des LLM.

Quentin:
Ouais en vrai t'as quand même tous les modèles qui sont en train d'exploser aujourd'hui et on parle beaucoup de LLM aujourd'hui si tu regardes t'as des, trucs qui s'appellent LLM chez OpenAI qui sont pas du LLM, donc le LLM aujourd'hui est devenu un terme pour dire IA mais d'un pur point de vue scientifique tous les modèles sont en train d'exploser On.

Bruno:
En sort un peu quelle serait ta prédition pour 2025.

Quentin:
? j'avais aussi fait la prédiction Wasom si ma mémoire est bonne ça.

Bruno:
C'était en 2023.

Quentin:
Alors Wasom je constate que ça marche toujours à fond et c'est en train de grossir et notamment parce que, les modèles on a besoin de les packager parce qu'en fait pour l'instant le modèle c'est quand même un peu de la merde c'est quand même vraiment du scotch à chaque fois d'un point de vue industriel et donc on est en train de progresser bon an mal an vers différents modèles de packaging pour être capable d'exécuter ces choses là et notamment être capable d'exécuter des modèles dans le browser où en fait là ça utilise directement du wasom, donc je pense que la vague de fond sur wasom que ce soit pour le fonction as a service, que ce soit jusque dans le edge du browser ou que ce soit dans la blockchain ou que ce soit, sur des serveurs le wasom est en train de prendre une vraie place et si vous n'avez toujours pas regardé ce sujet là pour moi c'est un des sujets fondamentaux et majeurs de tuyauterie en fait de l'informatique, plus que ça et je pense que c'est vraiment un des sujets importants qu'il faut regarder et le WASM a réussi je pense à trouver sa place, je pense qu'il est arrivé au bon moment, avec le bon marketing et tu vois le write once le compile once, run everywhere va probablement finir par fonctionner dans ce cadre là Ok.

Bruno:
Donc WASM c'est ta prédiction 2025 ?

Quentin:
Ah en prédiction 2025 au global, alors moi je pense que ce sera l'année du desktop Linux Ok Non, au delà de la blague, je trouve que c'est toujours intéressant d'observer avec quoi les gens codent de plus en plus et voilà et il y a un truc que j'ai vu beaucoup se développer cette année avec l'arrivée des gens qui codaient avec de l'API soit du remote soit du LLM soit etc, c'est les idées web ont vraiment progressé en usage cette année je dis pas qu'ils sont majoritaires mais pour la première fois les idées web progressent en usage je dis pas encore que c'est une utilisation que je trouve agréable à chaque fois, Je vois une vraie progression sur le sujet. Non, moi, ma grande prédiction de l'an prochain, c'est la généralisation de l'intégration de l'IA dans nos applications. Que ce soit sous forme d'API, que ce soit sous forme de librairie, que ce soit sous forme de features, pour moi, l'IA est en train de rentrer dans une utilisation industrielle. Ça, c'est un vrai use case. Mes prédictions suivantes sur le sujet, c'est qu'on va continuer à remettre en cause le modèle traditionnel d'architecture hardware de l'informatique, et je sais pas exactement ce qui va se passer cette année mais moi j'ai jamais vu autant de fabricants de puces alternatifs, dans les salons, les trucs me parler, alors je sais pas si c'est parce que je suis cloud provider et que tout le monde essaie de me vendre des puces mais j'ai jamais vu autant de diversité dans la puce et donc il va se passer des choses il va se passer des choses impressionnantes et importantes là-dessus, qu'il faut suivre et je pense qu'il faut. Être au taquet là-dessus et je pense qu'on va repasser une année où tout le monde va prendre des coups de claque dans la gueule sur l'IA est-ce qu'on va aller sur le nombre de paramètres qu'augmente etc dans l'LLM non pas du tout parce qu'on atteint un plateau en fait là dessus mais je pense que l'argent qui est mis aujourd'hui là dessus va générer énormément de recherches et pas nécessairement dans du LLM mais va générer énormément de très bonnes découvertes et je pense qu'il faut rester hyper, intéressé là dessus je ne pense pas que ce sera l'année de la généralisation du quantique. Pour moi le quantique, on a encore beaucoup de cycles d'itération sur le hardware. Par contre, si vous êtes dans un secteur protégé, il faut absolument regarder le quantique et les simulations quantiques dès aujourd'hui pour réfléchir à ce à quoi ça va ressembler. Pour moi, il faut réfléchir à ça et se mettre en posture de réfléchir. Mais je pense que les gros enjeux, c'est une mutation du métier de développeur autour de l'intégration en usage et en intégration de l'intelligence artificielle. Après, je prédis un autre truc qui est... On va peut-être enfin avoir peur des Etats-Unis. Moi, je vous ai dit ce que j'en pensais.

Bruno:
Moi, tu veux dire ?

Quentin:
Oui. Je vous ai dit ce que j'en pensais. Ça fait des années. Tout le monde sait ce que j'en pense. Moi, je pense qu'on ne peut pas mettre nos mains dans notre vie, dans les mains d'autres gens. Et donc, on a un enjeu collectif qui est de sortir de ça. Et je pense que l'élection de Trump, mine de rien, repose la question de notre partenariat avec eux et donc pose la question d'une certaine autonomie stratégique sur le sujet. Et encore une fois c'est l'autonomie stratégique c'est pas mon boulot, c'est le boulot de nous tous c'est ce qui paiera hôpitaux écoles et routes demain, les retraites, c'est ce qui garantit notre modèle et je pense que là ça pose de vraies questions, surtout dans un contexte mondial, sur fond de 3-4 guerres le contexte est quand même extrêmement tendu et on a besoin, d'une compréhension et là je pense que l'élection qui a surpris tout le monde de Donald Trump. Repositionne quand même la différence culturelle fondamentale qu'on a avec les Etats-Unis et nous positionne dans la façon de se réfléchir vis-à-vis de ça. Donc je ne sais pas ce que ça va donner mais à mon avis on aura un champ de réflexion qui est ouvert sur le sujet et qui peut être pertinent pour nous tous. Donc ça c'est une autre prédiction mais la génération de l'Oise-Homme, la généralisation de l'IA, pour moi c'est vraiment ça et donc la méditation de notre métier, et la prise en conscience des enjeux économiques comme étant, l'IT c'est plus une blague c'est le coeur de l'économie c'est la révolution industrielle de la prestation intellectuelle et il faut qu'on soit capable de s'y mettre au calais et ça je dirais que c'est les grandes révolutions de cette année, je vois pas encore la grande révolution du retour aux natifs après le web même si je pense qu'on finira par un retour de balancier sur le sujet je le vois pas encore se produire je pense que tous les ingrédients sont pas là mais je pense qu'on finira par un retour de balancier. Parce que c'est assez naturel en fait qu'il y ait ça, et je vois pas encore le retour de balancier là je pense qu'on va vers une diversification de la complexité je vois pas le moment où on va reclasser sémantiquement pour permettre quelque chose de certain à grand coup d'IA je pense que c'est pas encore là c'est un peu plus tard sur la route, mais je pense que c'est dans les enjeux techniques du sujet.

Bruno:
Canon alors moi je te rejoins sur deux prédictions je suis d'accord que je pense qu'on va avoir lié à s'intégrer absolument partout et que ça va devenir un, Même plus qu'un prérequis, ça va devenir une évidence. Parce que les intégrations vont se simplifier énormément. Je suis d'accord sur le fait qu'on va avoir des nouvelles puces à arriver, de plus en plus spécialisées. On aura nos CPU, nos GPU, et nos je-sais-pas-quoi PU.

Quentin:
Comme dans les Mac, une puce Nora.

Bruno:
Exactement. Donc ça, je suis d'accord aussi. J'en rajouterais peut-être une autre. C'était un peu comme toi avec l'année du desktop Linux. Moi je pense que 2025 sera aussi l'année de l'AR l'augmentation de reality ouais vraiment parce que tu vois il y a eu l'Apple Vision Pro qui est sorti en 2023, qui a fait grand bruit puis grand silence, mais je pense qu'en fait tout ça ça a commencé en fait à maturer je crois que la manière dont l'Apple l'a présenté, je parle pas du prix mais je parle des usages qu'ils ont présenté des choses et de ce qu'on peut faire avec, a apporté vraiment pas mal de choses et je pense vraiment qu'en 2024, on peut avoir un Google Glass qui repop, pas forcément de Google mais un projet similaire et à mon avis moi je vois 2025 comme étant, le renouveau de l'AR.

Quentin:
Alors je te rejoins sur le fait que pour moi l'AR n'est pas mort pour moi l'AR n'est juste pas prêt c'est à dire qu'en fait, les usages qu'on a envie d'avoir sur de l'AR et qui seraient réellement utiles ont un besoin d'une très bonne intelligence artificielle de reconnaissance temps réel qui pour l'instant pose un vrai problème de batterie.

Bruno:
Ils ont essayé avec The Piné Eye HumanEye.

Quentin:
Tout le monde essaye mais c'est logique parce que en vrai si tu veux t'intégrer dans la réalité faut savoir où tu es et en fait pour ça t'as besoin de reconnaissance temps réel, Et après, moi, je trouve que pour l'instant, d'un pur point de vue hardware, il nous manque encore quelques générations pour que ce soit agréable. Que pour autant, il y ait encore des acteurs qui relancent un nouveau device expérimental qui essaiera de trouver son équilibre économique sur quelques use cases un peu à la bordure. Où la pénibilité du device, pour parler gentiment, ne sera pas trop sensible. Parce que c'est ça, en fait, l'enjeu. C'est combien ton device est pénible, en fait, à utiliser. Je pense que ça c'est pour moi on a encore quelques itérations par contre de ce que je sais de moi mes travaux avec les gens qui font plutôt des sensors ou des dispositifs en semi-conducteur il y a des vrais travaux impliqués il y a des choses qui comprennent quand tu te caresses la peau le mouvement que tu es en train de faire il y a des vrais travaux qui sont en train de se produire qui vont permettre un dimensionnement de l'augmenté de réalité à terme qui sera le bon dimensionnement. Pour moi on a encore un problème de consommation électrique de confort de position, je suis pas complètement sûr de comment ça va popper. Par contre il y a un truc qui est sûr c'est que tu vois les lunettes de méta qui te permettent d'avoir du chat dans tes oreilles à grand coup de lama, elles ont eu un très bon succès d'estime des développeurs et dans les faits c'est plutôt bien foutu ce truc là, donc les lunettes de méta ont un succès d'estime pas un gros succès commercial, Mais je pense que petit à petit C'est en train d'entrer dans des usages, Moi, voir un raz-de-marée, pour moi, encore...

Bruno:
Je ne parle pas forcément de raz-de-marée, mais le projet Orion, alors je suis conscient que Microsoft a arrêté son projet HoloLens, donc il y a peut-être des indices qui montrent que ce n'est pas le cas. Mais tu vois, le projet Orion de méta, tu as vu leurs lunettes qu'ils ont annoncées en réalité augmentée. Alors, ils ont annoncé que ce ne serait pas un truc en production et compagnie. Mais je pense vraiment qu'en 2025, on va avoir des nouvelles Google Glass, pas forcément de Google, mais tu vois un produit similaire parce qu'ils ont sorti c'est quoi c'est 2015 je crois Google Glass c'est un vieux truc je pense vraiment qu'il y a un truc qui va popper dans vraiment pas longtemps et qui va, recréer un élan de ce truc là parce que t'as raison les LLM, l'IA c'est un élément fondamental et c'est peut-être une des raisons pour lesquelles les Google Glass ont échoué il y a 10 ans.

Quentin:
Parce que pour l'instant c'était débile et puis il y a un autre truc c'est les écrans, l'intégration de l'écran et de la vision et du son l'intégration de l'interface homme-machine est encore clunky. Et en fait le truc c'est que pour moi à mon avis on a encore une ou deux générations de hardware avant que ce soit réellement agréable. Est-ce que pour autant il faut s'arrêter ? Non pas du tout parce qu'en fait il n'y a que en le poussant dans l'avant que ça trouvera mais je pense que ça va griller encore un peu d'argent avant de, réussir à trouver des modèles d'implémentation qui sortent d'une industrie très segmentée, mais pour autant je pense que là où tu as raison c'est que ça va peut-être sortir des premiers projets carrés tu vois là on va peut-être aller vers les premiers projets qui se vendent, qui fonctionnent etc dans ce domaine là, donc on verra ce que ça donne, moi je reste assez optimiste comme toi sur le fait que de toute façon l'augmented reality en fait c'est un tel fantasme que ça se produira, le fantasme est total le jour où ce seront plus les gens qui alimentent un fantasme très rockplayer one mais des gens qui iront vers un fantasme, d'utilisation d'une technologie dans le quotidien ça fonctionnera, et c'est là où l'arrivée d'Apple change tout, parce qu'Apple ils font pas des outils pour Geek Apple, ils font des outils, pour monsieur et madame tout le monde.

Bruno:
Mais c'était je trouve la force de leur présentation, tu vois, quand Meta présente le Quest, ils te montrent le Metaverse et autres, tout le monde fait ok c'est un jeu vidéo, en fait ça correspond juste pour les gamers, on s'en fout, Apple, eux, ils t'ont montré des gens qui font de l'email qui font des réunions Zoom avec leurs collègues, et qui regardent un film, donc des trucs en fait hyper ça correspond comme tu le dis, c'est monsieur et madame tout le monde.

Quentin:
C'est ça, et je... Je pense qu'un jour, quand tu seras dans le train, tu n'auras plus envie d'ouvrir un laptop. Tu mettras tes lunettes et tu verras ce qui se passe dans le train. La question est comment on va faire l'interface home machine. Parce qu'en fait, même si la parole est quelque chose de hyper pratique, la réalité, c'est qu'aujourd'hui, un open space où tout le monde parlerait à son ordinateur, ça te casse la tête. Oui, mais c'est un vrai sujet. Moi, de plus en plus, je bosse en m'isolant parce que je parle avec mon IA. Et que en fait ça casse la tête de tout le monde donc il y a un vrai sujet ici qui est la construction tu vois du futur de l'IHM et où en fait, pour moi toutes les pièces sont pas encore là mais clairement il y a des gens assez imposants qui sont en train de regarder ces pièces là.

Bruno:
Bah écoute canon, on en reparlera l'année prochaine Merci beaucoup.

Quentin:
J'espère que ça vous a été utile en tout cas et que c'était pratique Merci beaucoup de m'avoir invité une année.

Bruno:
Merci beaucoup Quentin et merci à tous d'avoir suivi cet épisode, on vous souhaite bien évidemment avec Quentin une excellente année 2025, avec de nouvelles puces avec de l'AR, avec beaucoup beaucoup d'IA, allez tester on vous met quelques liens en description pour que vous puissiez tester CodeWiz, Longchain et compagnie, ça vaut vraiment le coup, donc voilà passez une super année, j'ai hâte de vous retrouver pour tous les épisodes qui sont prévus donc rendez-vous la semaine prochaine et d'ici là, codez bien.