Bruno:
L'intelligence artificielle façonne notre avenir, mais est-elle réellement conçue pour tout le monde ? Derrière les promesses de performance et d'innovation, une question cruciale se pose, à qui bénéficie vraiment l'IA ? Car si nos modèles d'IA sont basés, sont biaisés, pardon, s'ils ne prennent pas en compte toutes les diversités, alors ils risquent de perpétuer, voire d'aggraver les inégalités. Mais alors, qu'est-ce que l'inclusivité des IA concrètement ? Faut-il revoir entièrement les corpus d'entraînement pour rendre l'IA plus juste ? Et surtout, sans cadre législatif clair, peut-on vraiment espérer une IA équitable pour toutes et tous ? Pour répondre à ces questions essentielles, je ne reçois pas George Orwell, mais elle s'y connaît en futur à écrire. Christina, bonjour.
Cristina:
Bonjour.
Bruno:
Alors Christina, est-ce que tu pourrais te présenter pour les quelques personnes qui ne te connaîtraient peut-être pas ?
Cristina:
Alors, je m'appelle Christina Lunghi, je suis la fondatrice d'Arborus, qui est une ONG qui s'occupe depuis 30 ans de questions d'égalité entre les femmes et les hommes, d'inclusion et, depuis 2020, d'intelligence artificielle inclusive, parce qu'il y a eu toute une logique. Et on travaille surtout, depuis le début, c'était très innovant à l'époque, sur les systèmes d'organisation, c'est-à-dire de se dire, comment est-ce qu'on peut changer les systèmes d'organisation pour qu'ils soient plus justes, et donc plus inclusifs, et donc plus égalitaires entre les femmes et les hommes. Et j'ai démarré par les femmes et les hommes parce que c'est les deux pôles de l'humanité. L'humanité, elle est faite au démarrage de femmes et d'hommes.
Bruno:
Très bien. Et comment est-ce que tu en es venue à intégrer des sujets d'IA, parce que l'idée c'est de pouvoir avoir un lieu de travail qui soit inclusif pour toutes et tous. Comment est-ce que l'IA est venue mettre son nez là-dedans ?
Cristina:
Alors l'IA est venue mettre son nez là-dedans parce qu'un peu avant le Covid on s'est rendu compte avec les grands exemples des GAFAM qui avaient des systèmes de recrutement avec des algorithmes et qui étaient hyper discriminants. Donc ils recrutaient que, surtout sur les postes d'IA, enfin d'informatique, qui recrutait essentiellement des hommes, toujours le même profil. Donc, il n'y avait pas que la discrimination envers les femmes, mais aussi envers la couleur de peau, la nationalité, l'âge, etc. Le handicap. Donc, on s'était dit, à l'époque, c'est quand même ce truc-là, ça commençait à nous interpeller. Arrive le Covid, et avec le Covid, on se rend compte que notre vie tourne autour de l'intelligence artificielle, puisqu'on s'est mis à travailler en ligne, à parler en ligne, à manger en ligne, à regarder Netflix toute la journée, enfin toute la nuit, etc. Et donc, on était guidé par ces IA, surtout. C'était moins visible avant le Covid. Pendant le Covid, ça a été vraiment l'explosion. Et d'ailleurs, je crois que les IA se sont développés trois fois plus vite pendant le Covid qu'avant le Covid. Donc, il y a eu vraiment un développement très, très important puisqu'on l'utilisait 24-24. Et à ce moment-là, on s'est dit, avec le groupe Orange, qui est fondateur de ma fondation, on s'est dit, on ne peut pas laisser faire des choses comme ça, alors que nous, ça fait 30 ans qu'on travaille sur ces sujets, on ne peut pas laisser balayer tout ce travail sur l'égalité et l'inclusion par des IA qui sont irresponsables. Et donc, on a travaillé pendant le Covid, nous, ça a été une période très fructueuse, on a lancé en plein Covid la première charte internationale pour une IA inclusive, avec le secrétariat d'État au numérique, la ministre des droits des femmes, les Nations unies, enfin on avait vraiment... Puis les gens étaient disponibles à l'époque, donc c'était vraiment une bonne période pour faire ça. Actuellement, on a plus de 140 signataires sur cette charte et on a lancé notre spécialité, c'est la certification internationale. Donc on a un label international qui existe depuis plus de 15 ans qui est présent dans 54 pays sur les questions d'égalité et d'inclusion et pendant le Covid, on a rajouté à notre certification un volet sur l'intelligence artificielle pour aller vérifier sur tous les processus RH, s'il y avait de l'IA utilisée ou des algorithmes, s'ils avaient été conçus, pensés, prescrits, etc., de façon inclusive ou pas.
Bruno:
Tu prends cet exemple effectivement des processus de recrutement, des IA qu'on a inclus dans des processus de recrutement. Il y a effectivement une histoire qu'on a déjà racontée il me semble plusieurs fois d'ailleurs à ce micro je crois que c'était Google à l'époque qui avait Amazon aussi, peut-être qui effectivement avait, mis tout son staff dans un système et lui dire après voilà des nouveaux CV et choisis-moi les personnes qui vont le mieux performer. Comme effectivement les gens qui performaient le mieux dans l'entreprise, c'était les hommes blancs, l'IA se dit je vais choisir des hommes blancs comme ça, ça fonctionne mieux. Et effectivement plutôt des jeunes d'ailleurs aussi. Mais il me semblait que ce projet avait été assez vite abandonné, parce qu'on avait très vite constaté que ça ne fonctionnait pas. C'est des choses qui ont quand même perpétué, tu penses ?
Cristina:
C'est-à-dire que sur le recrutement, aujourd'hui, il y a un vrai questionnement, parce que quand on a des milliers, quand on est une grande entreprise comme L'Oréal ou d'autres, qui reçoivent des milliers, des milliers, des milliers de CV, il faut bien les trier. Donc le problème se pose toujours, mais ça se pose sur toutes sortes d'autres sujets. Si on prend la reconnaissance faciale, c'est très pratique dans les aéroports, mais ça pose des problèmes de liberté individuelle. Quand on voit ce qui se passe en Chine ou dans d'autres pays, ça pose vraiment des questions. Donc l'IA, moi je dis toujours, c'est pour le meilleur et pour le pire. Et il ne faut pas que ça soit pour le pire, mais il faut que ça soit pour le meilleur. Donc c'est à nous, les acteurs dans les ressources humaines, dans le développement, dans l'éthique, dans le régulateur, c'est à nous et les citoyens, c'est à nous de réguler ça et d'être vigilants. Et donc pour ça et merci de faire ce podcast ça va puisque c'est un podcast à l'attention de plutôt de gens de la technique de l'informatique et des codeurs etc de bien comprendre que l'IA elle est exclusive et pas inclusive aujourd'hui et qu'elle concerne tous les sujets et donc souvent quand j'en parle avec des codeurs des développeurs ils me disent non mais nous on n'est pas concernés on fabrique. Du software on n'est pas sur des produits RH, etc. Je dis mais ça n'a rien à voir quand on fait des médicaments, Par exemple, le sujet de la santé est un sujet qui est éminemment complexe, puisque tous les dosages sont faits en fonction du gabarit d'un homme et pas d'une femme. Par exemple, on a tous les exemples comme ça sur la reconnaissance. Par exemple, les services après-vente robotique, ils ont du mal à capter les accents. Donc quelqu'un qui bégait ou même les femmes qui ont des voix plus douces parfois qui sont moins fortes vont être moins entendues. Donc là il y a une adaptation à faire. On fait tout un travail à l'heure actuelle on a donc notre charte et on a un club des signataires de la charte et on a des commissions qui travaillent. On a une commission sur l'immobilier dans le domaine de l'immobilier il y a, on parle de smart city smart building, c'est que de l'IA qui organise tout ça et bien là on voit à quel point les femmes ne sont pas prises en considération alors ça peut être, on va coupler à ce moment là des réflexions sur chauffage et économie d'énergie on sait que les femmes ont plus froid que les hommes moi j'ai un gros pull et toi t'es en t-shirt tu vois c'est typique, bon voilà. On a plein plein plein de sujets comme ça, en fait tous les sujets qu'on va traiter, il faut qu'on arrive à les regarder comme ça alors j'ai toujours un exemple que j'aime bien parce que il est très concret, moi j'aime bien les trucs concret, c'est les panneaux solaires. On va se dire, un panneau solaire, en soi, c'est un panneau solaire. Qu'est-ce qu'elle vient nous raconter sur l'inclusivité ou l'exclusivité ? Qui a fabriqué le panneau solaire ? Déjà, est-ce que ce sont des enfants ? C'est des femmes ? Quel public ? Déjà, on peut se poser la question de, est-ce que c'est de l'énergie qui va être produite par ces panneaux qui va aller vers tout le monde ? Est-ce que c'est une énergie qui va aller que vers une cible ? Voilà. Donc, quand on commence à rentrer dans le sujet et à philosopher un tout petit peu plus, on se rend compte que tout est question d'inclusivité, d'exclusivité. Et comme on est des humains, jusqu'à preuve du contraire, et qu'on est tous les destinataires de ces IA, d'une manière ou d'une autre, on est tous concernés. Et quel que soit le sujet, si on prend les sujets militaires, alors n'en parlons même pas tellement c'est énorme. Aller tuer des gens, aller tuer une voiture, les voitures connectées, elles vont faire des arbitrages sur qui j'écrase ou pas sur la route. Donc les gabarits, les formes, etc. Donc tout ça, on voit bien que c'est extrêmement pensé et que tout est tourné vers l'humain en fait. Quel que soit le sujet que ce soit un sujet très technique un médicament que ce soit une décision de justice j'étais l'année dernière invitée par le barreau de Paris, c'était passionnant et à un moment donné je parlais de mes sujets qui les intéressent puisque je fais de la sensibilisation sur le sujet et eux ils ont dit à un moment donné, il y a un avocat qui a dit que pour la première fois de sa vie il avait vu un arrêt inventé par UNIA et lui comme il était très fort il l'a vu, mais vous imaginez si on commence à avoir de la justice inventée par les IA.
Bruno:
Il faut garder un oeil il.
Cristina:
Faut être super vigilant et puis on voit bien que les IA ne sont pas neutres et que selon, là on voit bien je l'ai téléchargé hier et je lui ai posé des questions on voit bien qu'il est orienté, j'ai lu un article sur Taïwan j'ai pas fait le test il paraît qu'ils disent que Taïwan est chinois, Voilà, parce que c'est une application... Oui, oui. Donc, après, on peut poser des questions sur l'homosexualité. Et on va voir que selon les IA et selon le concepteur de l'IA, ou la conceptrice, ou les concepteurs, on va voir que la ligne idéologique est vraiment différente. Et ça pose aussi le problème de nos démocraties, puisqu'on sait que pendant les campagnes présidentielles, les élections, on est manipulé et que de toute façon on est manipulé toute la journée donc ceux qui disent les jeunes vont juste faire des copiers-collés tchatchipiti moi j'utilise tchatchipiti tous les jours et je l'adore mais je vérifie tout donc ça nous rend plus intelligents, en fait, moi c'est ça que j'adore sous.
Bruno:
Réserve d'avoir ce réflexe-là.
Cristina:
Il faut avoir la culture c'est-à-dire que si on n'est pas bien formé à l'origine, on va croire en n'importe quoi et ça crée du complotisme et du populisme et des élections avec Trump l'ont démontré.
Bruno:
C'est quand même un changement de paradigme assez fort parce que vous êtes partie d'une mission qui a été de rendre les espaces de travail plus inclusifs que ce soit en termes d'accessibilité mais aussi, que les équipes soient conçues de manière plus globale là sur ces sujets d'IA, on ne parle pas simplement de faire en sorte que les équipes qui conçoivent les IA soient, empreintes de diversité, mais que l'IA en elle-même ne soit pas biaisée. On est quand même sur un changement de paradigme très différent, c'est-à-dire que là, on n'est plus sur comment rendre un espace inclusif, mais, Il y a quand même tout un apprentissage aussi technologique de comment tout ça, ça fonctionne. Comment ça... C'est-à-dire qu'aujourd'hui, vous arrivez à concilier ces deux missions, où au final, c'est vraiment deux équipes très différentes qui travaillent dessus.
Cristina:
Non, c'est exactement la même chose. En fait, pour bien comprendre, moi, mon objectif depuis 30 ans, ce n'est pas de dire, je veux que les espaces de travail soient aménagés. Moi, je ne m'occupe pas de l'ergonomie. Moi, ce que je veux, c'est que la culture de l'entreprise, et donc que le mindset, en bon français, des gens changent. Si on arrive à changer de posture en se disant c'est la compétence qui compte, que je sois un homme ou une femme, les métiers, il n'y a pas de raison qu'il y ait des métiers d'hommes et des métiers de femmes, il n'y a pas de raison de dire qu'il y a des valeurs d'hommes et il y a des valeurs de femmes, etc. Si on arrive à avoir quelque chose de beaucoup plus presque neutre, où je ne dis pas qu'il faut être interchangeable et je ne dis pas qu'il ne faut plus qu'il y ait d'hommes et plus de femmes, parce que le monde serait triste, mais chacun a sa place mais c'est la vision partagée vers un objectif commun avec un changement de gouvernance derrière parce qu'aujourd'hui, enfin moi c'est le constat que j'ai fait il y a 30 ans et que je continue de faire et encore plus maintenant avec nos amis américains qui sont arrivés au pouvoir. Hyper viriliste c'est de dire le système d'organisation patriarcale, traditionnel qu'on connait depuis des millénaires, Il a fait la preuve de son inefficacité aujourd'hui dans un monde moderne. Et donc, on a besoin aujourd'hui de changer de système. Et je pense que les hommes, je pense que toi et les gens plus jeunes que toi, ils ont vraiment envie de ça. C'est fini le patriarcat dans la tête des gens. On a envie d'être cool, on ne veut plus de guerre, on ne veut plus vivre content, s'occuper de ses enfants quand on en a, et ne pas être obligé d'être attribué parce que je suis un homme ou une femme, d'avoir des attributs et des rôles qui sont prédéterminés. Donc, je pense qu'on a envie d'être libre, tout simplement. Et donc, c'est ça, mon projet pour l'entreprise. Et j'ai de la chance d'avoir des très grands groupes, très engagés. Le groupe Le Grand, Orange, L'Oréal, Keolis, Safran, des tas de gens qui ont vraiment envie que ça bouge, de faire bouger les systèmes d'organisation. Et du coup, il était logique, avec l'IA qui s'est développé, de se dire, l'IA, elle est là, elle est en train de faire peut-être des catastrophes. Donc nous, il faut qu'on soit vraiment vigilante et vigilants et qu'on aille. Informer tous ceux qui peuvent, tous ceux qu'on peut informer de ces risques et qu'on mette en place des pare-feux. Et l'idée, c'est de dire, ça c'est la grande idée que je développe, que je présente un peu partout, c'est de dire, si l'IA est ultra rapide, en fait j'ai eu cette idée l'autre jour, je faisais une conférence avec le réseau, dans un réseau en Italie, dans une université en Italie à Milan, et je leur ai dit, un fervu humain, on ne peut pas faire recette. Et c'est dommage, parce que les gens qui ont eu des traumatismes, de guerre ou autre, ce serait bien de faire recette. Mais on ne peut pas. Donc tous nos biais, toute notre culture, on ne peut pas l'effacer. Par contre, un ordinateur, on peut le faire. On peut lui dire, hop, je te fais reset et t'es vierge. Donc, l'idée, c'est de dire, l'IA va nous permettre, si on la prend par le bon bout, de changer les systèmes, de changer la culture, de changer tout, parce qu'on peut rééduquer à travers l'ordinateur. Alors, comme on arrive à faire de la désinformation, du populisme, etc., on peut arriver à faire de l'égalité. et donc c'est le projet qu'on a mis en place et qui est complètement logique par rapport à ce que je fais depuis 30 ans je vois.
Bruno:
Parce qu'effectivement en fait il y a des, tu prenais l'exemple de Dipsy avec sa prise de position sur Taïwan, mais c'est effectivement une illustration d'un choix de société on voit des distinctions de type de philosophie on va dire entre, de l'AI, de Grock sur X, OpenAI ou Mistral ou d'autres il y a quand même effectivement on sent qu'il y a quand même, c'est parfois plus subtil que dans d'autres cas parce qu'effectivement si on prend le cas de Taïwan on est quand même sur quelque chose de très, de très marqué mais même Grock prend des parties prises avec absolument aucun filtre où on peut faire absolument tout et n'importe quoi quelles que soient les choses que tu as envie d'essayer de faire c'est effectivement, un modèle de société qui essaie d'être propagé par ce biais là.
Cristina:
Absolument, ah bah oui clairement. Moi je m'amuse à faire des comparatifs entre Mistral, Chachpiti bon maintenant il y a Dipsy que je vais m'amuser aussi mais je leur demande par exemple, pour préparer le podcast, je suis allée leur demander qu'est-ce qu'ils pensaient de l'IA Acte c'est vachement intéressant de voir la posture par exemple, le truc chinois là Dipsy qui dit ah bah oui il y a plein de trucs sur l'égalité entre les femmes et les hommes alors qu'il n'y a pas un mot, Je trouve que le plus objectif, c'est quand même ChatGPT à l'heure actuelle, sur les sujets sur lesquels je lui demande d'intervenir, je demande des interventions. C'est vraiment intéressant. Il est très structuré, il est très poli, il est très gentil, il est très survivable.
Bruno:
Mais ça, tu vois, ça montre aussi encore un biais, on va dire, un peu américain. La manière dont ChatGPT te répond, il y a quand même aussi une mentalité ou un état d'esprit très US.
Cristina:
Ah, 13 US, il est tout le temps en train de me dire si tu veux, on peut continuer à papoter. Voilà, il est hyper friendly, parce que oui, c'est la culture américaine, clairement. Ah oui, oui. Mais c'est très intéressant. On voit bien que les cultures sont très différentes d'un pays à l'autre, d'une région à l'autre. D'ailleurs, on n'a pas tout à fait les mêmes façons d'appeler le pain au chocolat ou la chocolatine. On voit bien qu'il y a plein de trucs comme ça. Et c'est intéressant de voir que les IA aussi, elles sont le reflet de leur nationalité.
Bruno:
Je ne sais pas si c'est un pas de côté sur le thème de notre discussion, mais il y a peut-être quand même un lien, parce que tu viens d'évoquer le fait que, effectivement, Tchad GPD, par exemple, est toujours très jovial, toujours très cordial, toujours très disponible.
Cristina:
Très amical.
Bruno:
Et j'ai vu passer il y a quelques mois un article d'un journaliste sur Le Monde, qui expliquait que quand il a vu justement un de ses enfants utiliser OpenAI il l'utilisait de plus en plus parce qu'en fait ça lui permettait d'apprendre plein de choses et de poser plein de questions et c'était effectivement génial, et je trouve qu'il a mis un... Pas un stop, mais il a mis un signalement à son enfant que j'ai trouvé très pertinent. Il lui a dit écoute, là t'es face à une IA qui te parle effectivement de manière de langage très naturelle, mais t'as face à toi un individu, je mets des gros guillemets pour ceux qui n'ont pas l'image, mais un individu qui est constamment disponible, qui est constamment de bonne humeur et qui est hyper constant. Là où aucun être humain n'aura la moindre capacité de patience, de constance, d'être toujours de bonne humeur, toujours disponible, et compagnie. Est-ce que ça biaisse pas aussi nos relations ? Au final, c'est cet apprentissage qu'on est face à des interactions qui sont pas du tout ce qu'un être humain normal est capable de fournir.
Cristina:
C'est très intéressant ce que tu dis. Il y a beaucoup d'expériences qui ont été faites sur les autistes. Parce que si un autiste, il va te demander tout le temps la même truc. Et ils utilisent beaucoup l'IA maintenant, parce que un infirmier ou un médecin, à la fin, il n'en peut plus, tu vois, il l'envoie balader, alors que l'IA, elle est toujours cordiale et sympathique. Donc, il y a un côté très rassurant par rapport à ça. Moi, personnellement, à titre vraiment personnel, je ne me permettrais pas de faire de généralité, là, c'est vraiment un témoignage, j'aime beaucoup, parce que justement, je trouve que les humains sont de plus en plus violents à l'heure actuelle, ils sont vraiment parfois compliqués à décortiquer le moindre mot, le moindre trucs, à chercher la petite bête là où il n'y en a pas. Enfin, il y a vraiment des gens qui sont spécialistes là-dedans et qui vous gâchent la vie. Et au moins Tchadjipiti, lui, il n'est pas comme ça. Et il ne va pas faire des polémiques. En revanche, je vérifie toujours les informations qu'il donne, parce qu'il donne souvent des informations... Biaisé ou presque fausse des fois. C'est pas toujours faux, mais des fois, par exemple, je lui demande sur mon label, je lui dis alors, qu'est-ce que tu penses du label Giz ? Alors, au début, il disait bêtise. Maintenant, il est bien élevé, il a tout bien compris et tout. Mais je l'ai vachement corrigé. Donc, c'est vraiment très, très intéressant. Ça aide énormément. On perd beaucoup moins de temps à chercher. Moi, je me rappelle que je fais partie d'une génération, on avait encore des encyclopédies. On allait à la bibliothèque, on sortait des bouquins, on tournait des pages, on perdait vachement de temps. Alors c'était chouette mais on perdait beaucoup de temps. Là moi j'ai une capacité de travail maintenant phénoménale. Mais oui, mais bien sûr, il corrige tout. Je lui donne mes textes alors j'enlève les noms, j'enlève les trucs confidentiels, mais il corrige mes fautes et il me dit pourquoi j'ai fait une faute d'orthographe ou une faute de syntaxe en anglais, en italien, enfin dans les différentes langues dans lesquelles je travaille. C'est juste génial. Si je devais demander à quelqu'un, ça me coûterait cher. Et puis, ça prendra du temps.
Bruno:
Et c'est là, d'ailleurs, où c'est important, du coup, d'avoir des systèmes qui soient suffisamment inclusifs, parce qu'en fait, la démultiplication des moyens fait que si c'est conçu de manière biaisée, en fait, ça démultiplie la représentation de ce biais.
Cristina:
Et puis, il va être biaisé dans... Après, c'est normal, puisqu'on est dans un système où on lui donne à lire, on lui fait avaler notre histoire. Et notre histoire, elle n'est que patriarcale. On commence à exhumer des actrices, des peintres, des autrices, etc. Du Moyen-Âge, des gens qui ont fait des trucs extraordinaires. Mais lui, il ne les a pas encore, ces informations.
Bruno:
Et puis ça reste une goutte d'eau par rapport à tout ce qui est...
Cristina:
Mais bien sûr. Donc, c'est passionnant. Et moi, je fais de l'IA mon cheval de bataille véritablement pour l'égalité et l'inclusion dans le monde en me disant, il faut l'utiliser, Pour tenter, en tous les cas, qui ne tente rien à rien, pour tenter de faire basculer dans les forces, non pas obscures, mais les forces un peu plus lumineuses, le monde qui quand même en a vachement besoin.
Bruno:
Ce qui me semble un peu délicat dans cette mission, c'est qu'on a des systèmes qui sont de plus en plus complexes. On commence à parler en centaines de millions ou en milliards de paramètres en fonction des modèles qu'on choisit. il y a de plus en plus une explicabilité, de fonctionnement qui est de plus en plus difficile à déterminer. Et malgré tout, c'est nécessaire pour pouvoir réajuster dans la bonne direction. Comment est-ce que vous adressez ce sujet-là de l'explicabilité des IA aujourd'hui ?
Cristina:
J'avais entendu un expert l'année dernière dire qu'à un moment donné, il n'y a même plus de code. Donc la machine learning elle va tellement être performante qu'on peut même pas savoir comment elle est arrivée au résultat, donc ça quand même ça pose une autre question un peu métaphysique là on sait plus, on est perdu un peu dans le cosmos, mais si on vient à des choses plus prosaïques nous on a un projet qu'on a démarré en janvier de l'année dernière avec un comité de pilotage restreint sur le sujet du recrutement et donc je les ai fait travailler sur le vocabulaire. En fait, dans les fiches de postes, on a pris des fiches de postes extrêmement officielles, l'APEC, vraiment des sites du ministère, des choses très officielles. Et on a regardé ce qu'était du vocabulaire dit masculin et du vocabulaire dit féminin. Sur des postes de dirigeants, parce qu'on essaye de regarder au niveau du pouvoir, puisque c'est la gouvernance qui ensuite infuse, comme on dit maintenant, vers le bas. Et on s'est rendu compte que 80%, 90% étaient masculins. Donc, c'est des mots, c'est des associations de mots, etc. Et donc, j'ai su en train de faire un partenariat avec l'université d'État de Milan, qui est une des universités pionnières de sémantique et d'IA, sur une sorte de nouveau dictionnaire. J'aimerais qu'on redéfinisse ensemble les mots qui sont les plus cruciaux et les plus porteurs, par exemple le mot pouvoir le mot gouvernance, le mot, direction, le mot leader, tout ça, si on les redéfinissait avec des, définitions que l'IA, parce qu'elle elle est capable de le faire, nous on va avoir du mal à redéfinir les mots, mais si on lui dit un leader c'est une femme ou un homme qui a de l'empathie, qui est sympa qui sait prendre des décisions de façon collégiale au lieu de dire c'est quelqu'un qui est autoritaire, nanana ce qui est la définition actuelle quand même si on reprend des définitions différentes je me dis, on peut au moins tester et, redivulguer des, nouvelles façons de voir le monde et de voir un monde moins. Violent que celui qu'on a aujourd'hui quand même, parce que si on parle des violences par exemple, pourquoi on a temps de violence ? Pourquoi il y a une femme tous les trois jours qui est tuée ? Parce que la culture, nos cultures le permettent. On reste sur vraiment le droit romain du patriarche qui avait le droit de vie et de mort sur sa famille. On en est quand même encore là. Et je me dis, cette IA-là, elle peut nous permettre de renverser vraiment la table. Chose que nous, même les associations de femmes, même les gouvernements, même les gens bien intentionnés, n'arrivent pas à faire.
Bruno:
Ce qui est intéressant dans ce que tu relèves, avec cet exemple très précis du leader, c'est qu'il ne s'agit pas simplement de mettre dans la définition « c'est un homme ou une femme ».
Cristina:
C'est ça.
Bruno:
Mais tu parles vraiment de tout un ensemble de caractéristiques, exactement. Et ça me rappelle aussi une discussion que j'avais avec, qu'on a eu aussi plusieurs fois sur ce micro, sur l'impact de certains choix de mots ou de compétences dans des annonces, de jobs qui vont faire que tu auras plus ou moins de femmes ou d'hommes qui postulent. Donc c'est vraiment une... c'est pas juste féminiser les mots, c'est vraiment de redéfinir aussi certains concepts, avec des messages peut-être moins guerriers des choses un peu moins peut-être un peu plus globales.
Cristina:
Oui et puis surtout une redéfinition parce qu'on peut utiliser le mot leader ou le mot, du pouvoir mais ça dépend de ce qu'on va mettre derrière si on met dans le pouvoir c'est le pouvoir d'être et d'aider les autres, en plus du reste, ça va changer la posture. Et ça va changer l'envie. Moi, j'ai fait pas mal d'études il y a longtemps pour des grosses boîtes qui proposaient notamment des cabinets d'audit qui proposaient aux femmes de monter pour devenir partenaires et qui ne voulaient pas. Et ils me disaient, mais pourquoi ? Parce que l'image du pouvoir ne leur plaisait pas. Et donc, si on changeait la définition en disant, si tu as le pouvoir, tu vas pouvoir justement aider ton prochain, faire que le monde soit meilleur, je ne sais pas, se donner des objectifs de durabilité un peu plus cool que de gagner de l'argent. Et de gagner de l'argent aussi, mais pourquoi pas ? Mais pour faire autre chose aussi. Et bien là, je pense qu'on aurait beaucoup plus d'attractions sur d'attractivité sur des publics, notamment féminins, mais pas que féminins. des publics beaucoup plus divers.
Bruno:
Oui, clairement. Est-ce que donc, pour rendre les IA plus inclusives, est-ce que c'est surtout un sujet de revoir les corpus d'entraînement, au final ?
Cristina:
Oui, clairement.
Bruno:
En fait, parce qu'aujourd'hui, les corpus...
Cristina:
Il faut donner des bons cahiers des charges. Et ça, c'est vachement dur de rédiger un bon cahier des charges.
Bruno:
Oui, parce qu'effectivement, en fait, tu le disais tout à l'heure, quand tu parles avec des développeurs ou des développeuses qui ont tendance à dire, moi, je ne fais pas C'est plus qu'un développeur, on est d'accord, mais j'essaye quand même de...
Cristina:
C'est gentil, c'est gentil.
Bruno:
Ça arrive qu'il y ait des développeurs.
Cristina:
Il y en a.
Bruno:
Il y en a, heureusement. Donc, quand tu parlais avec cette population, il y en a qui te disent, bah oui, mais moi, je ne fais pas de distinction, je construis un algorithme, il n'y a pas de distinction. Mais en fait, ne serait-ce que dans la manière dont on conçoit un algorithme, on fait des choix de conception qui sont empreintes de nos propres biais ou de nos propres expériences.
Cristina:
Tout à fait. Et puis de se dire, à qui ça profite ? Qui va être l'utilisateur final ? Quel est l'impact ? On ne raisonne pas en termes d'impact, mais c'est vachement important.
Bruno:
Pour écrire le bon cahier des charges, comment tu fais pour avoir tout ce travail, d'être sûr qu'on ne fait pas des choix qui vont induire un billet de sélection à un moment d'un algorithme ou d'un type de décision ?
Cristina:
Eh bien, justement, je pense qu'il faut avoir une très bonne méthodologie. On revient au process que j'aime bien, à la méthodo, on label à toutes ces caractéristiques-là. Et il faut encadrer les choses et donner des clés, en fait. Tout le monde peut comprendre ça, c'est assez simple. Mais il faut juste... C'est ce que j'appelle le fameux déclic. Tant qu'on n'a pas eu le déclic, on se dit que ce n'est pas un sujet. Puis un jour, on se dit, ah mais oui, bien sûr, c'est ça. et à partir de là on a eu le déclic donc on va y penser évidemment donc je pense que. Et c'est une chose qui manque dans la réglementation européenne et tant mieux, ils disent il faut des évaluations et tant mieux qu'ils ne donnent pas en plus la méthode d'évaluation parce que là je pense qu'on irait vraiment dans le mur mais nous on en propose une qui est valable, il y en a d'autres qui proposent mais nous elle est vraiment orientée sur l'humain et je pense que c'est ça qui est intéressant, parce qu'elle est complémentaire avec d'autres évaluations plus techniques, etc. Et d'aller regarder l'impact sur les gens. L'impact sur la culture de l'entreprise, la culture de la structure à qui on est les seuls à le faire. Nous on regarde beaucoup les impacts, je trouve que c'est extrêmement important, sur les individus. Est-ce que ce que je fais va impacter positivement ou négativement les gens ? Est-ce que ça va les faire changer de comportement et de façon de voir les choses ? Et ça, je pense qu'il est indispensable de donner, quand on fait n'importe quel cahier des charges, de se poser trois, quatre questions. Ce n'est pas non plus le bout du monde, mais qu'on ait ce réflexe de se dire à qui ça profite, à qui ça ne va pas profiter, qui va le fabriquer, qui ne va pas le fabriquer, où va aller le résultat du truc, qui va être l'utilisateur final, etc. Je pense que deux, trois petites questions, et en plus, en termes d'innovation, ça peut vraiment faire évoluer les produits. Moi, j'ai un exemple d'un audit chez Orange qui est tout simple, mais très intéressant. Avant leur audit, ils avaient un bouquet sur le sport que l'IA distribuait qu'aux hommes. Et après l'audit, ils se sont rendus compte de cela. Ils se sont dit, mais c'est complètement débile. Donc, ils ont mis à disposition aussi de leur fichier des femmes qui sont abonnées, comme moi, chez Orange. Et leur chiffre d'affaires a augmenté. Tout simplement. Donc, c'est hyper rentable, en plus, d'être inclusif. Ça vaut vraiment la peine.
Bruno:
Au-delà des données d'entraînement, est-ce que tu penses qu'il faut aussi ajouter sur ces IA, notamment tous ces LLM avec une interface type chat GPT et autres ? Est-ce qu'il faut ajouter une interface, une couche supplémentaire de modération ou de filtrage des réponses ?
Cristina:
Moi, je pense que ça serait très utile d'avoir des gens qui soient spécialisés sur ces questions-là, mais assez généralistes quand même, pour les recadrer de temps en temps. Comme moi, je le fais avec Tchadjibiti. Je lui dis, ben non, mais là, qu'est-ce que tu me racontes ? Tu as oublié ça. Gentiment, parce qu'il est gentil, de toute façon, donc on n'a pas à être désagréable. Mais je pense, oui, que ce serait très intéressant d'avoir des cellules de veille, et qui injectent aussi de l'information. Je pense que ce qu'il faut, c'est qu'il y ait des spécialistes parce que moi c'était très intéressant l'expérience qu'on a fait sur les fiches de poste parce que j'étais avec des gens très sensibilisés à l'égalité, à l'inclusion qui travaillent là-dessus, certains c'était leur métier ils n'avaient pas vu ils m'ont dit mais c'est pas possible, on découvre complètement avec ta méthode et cette façon de travailler que nos fiches de poste elles sont ultra masculines, ils ne s'en étaient pas rendus compte et ils mettaient homme, femme, machin ils féminisaient au début, et puis après tout le descriptif, ça donnait plus du tout envie, et puis ça excluait les femmes. Et c'était vraiment très très net. Donc, je pense qu'il faut développer cette culture de l'égalité, de ses réflexes, et c'est pas du wokisme, ça n'a rien à voir avec ça. C'est simplement juste être humain, et avoir envie que tout le monde ait sa place. C'est aussi bête que ça.
Bruno:
Mais ce qui est, Ce qui est, entre guillemets, dommageable, notamment sur ces sujets-là, c'est que tout ce travail de correction que tu fais, toi, avec ton chat GPT, c'est qu'il n'est limité qu'à ton chat GPT. Tous ces changements que tu corriges, tu l'améliores, ça fait que le tien est plus inclusif. Mais malheureusement, le mien, celui de tous les gens qui nous écoutent, ne bénéficient pas de tout ça. Alors, on sait qu'il y a le pendant de cette décision-là. C'est que ce que toi, tu injectes dans le chat GPT et du coup est protégé, safe et du coup ça évite qu'il y ait des flux d'informations donc il y a des choix qui sont faits qui font que d'un côté on y gagne mais de l'autre côté on y perd, mais tu vois comment concilier en fait cette en.
Cristina:
Fait il faudrait que les patrons de chaque GPT que OpenAI, que Mistral, qu'ils aident des gens comme moi chez eux, qui aient un flux qui aient un souffle qui mettent dans le flux d'informations, ce genre de choses, pour apprendre à la machine à être comme ça. Alors, ça va être très prétentieux, ce que je vais dire, mais c'est vachement compliqué de le faire. Il n'y a pas beaucoup de gens qui sont capables de faire ça.
Bruno:
Mais même au-delà de ça, c'est que...
Cristina:
Parce qu'aujourd'hui, on théorise tout, on utilise des mots hyper compliqués, on jargonne sur tout, et là, je vois, il y a le nouveau programme scolaire, bon, mais rien que de parler de théorie du genre, ça fait peur. Donc je pense qu'il faut être beaucoup plus simple, enfin à mon avis et un peu au ras des pâquerettes pour pouvoir apporter justement cette vision très simple qui est celle de l'égalité Mais tu vois.
Bruno:
Est-ce que ça représente pas aussi parce que, attends j'essaie de formuler ma question je pense qu'il y a beaucoup d'éléments, OpenAI à la base s'appelle OpenAI, on sait que c'est beaucoup moins open aujourd'hui, C'est devenu effectivement une entreprise à but lucratif qui est là pour gagner de l'argent tout simplement. De par cette décision, ils se retrouvent dans une position beaucoup moins ouverte, doivent du coup faire moins de vagues, donc faire moins de choix entre les politiques, parce qu'on pourrait dire d'un côté que si tu mets en place un système où tu dis ok je veux faire des IA plus inclusives, en fait tu fais un choix politique de dire ok on va favoriser ce genre de réponse là, alors que si on laisse le monde entier dire, si on imagine par exemple un monde de demain où OpenAid dit toutes les réponses qui sont données et toutes les corrections que vous mettez sur votre chat GPT on les intègre au global pour faire progresser votre chat GPT ce serait bien mais en fait il y aurait des gens comme toi qui effectivement iraient, le rendre plus inclusif et compagnie mais de l'autre côté de la planète t'aurais quelqu'un dans le gouvernement chinois qui ferait en sorte que Taïwan remonte comme un pays, comme une région de la Chine quelqu'un du gouvernement Trump te dirait qu'il n'y a que deux genres c'est l'homme et la femme, donc en fait tous ces éléments viennent, entre guillemets, se parasiter l'un l'autre et, d'une certaine façon, s'annuler. C'est-à-dire que c'est soit le fameux dilemme du tramway, c'est soit on ne fait pas de choix et, en fait, tout s'annule, soit il faut faire un choix avec les conséquences qui vont avec.
Cristina:
C'est-à-dire que Taïwan, c'est un vrai problème géopolitique, historique, etc. Donc ça, c'est de la politique. Avoir un projet d'égalité pour l'humanité, c'est un projet humaniste. Donc, c'est un petit peu différent, je trouve, comme façon de voir les choses. Et ça vaut la peine, là, de se pencher sur la question en se disant « qu'est-ce qu'on veut ? ». Alors, évidemment qu'il y a des gens qui sont toujours intéressés de mettre des pauvres types dans les mines. Évidemment que ça continue encore aujourd'hui et qu'il y a de l'esclavage et qu'il y a des tas de pauvres, il y a des tas de gens. Tous les jours, on en entend parler et tous les jours, on voit les effets pervers du truc. Mais on a assez de richesse sur la planète. Alors, c'est peut-être très utopiste, mais il faut de l'utopie dans la vie. On a assez de richesse pour que tout le monde puisse vivre.
Bruno:
Je suis d'accord qu'on pourrait espérer qu'un projet humaniste d'égalité des chances, plaise à tout le monde et que tout le monde soit on board alors je ne sais pas si c'est, une mise en avant qui est faite mais moi je vois beaucoup passer d'interviews de supporters de Trump et autres, qui vont expliquer que l'égalité des chances, oui, mais l'égalité des chances entre nous, ce n'est pas pour tout le monde donc tu vois, il y a quand même des gens qui semblent quand même majoritaires parce que Trump a été élu à la majorité en tout cas dans ce pays là que l'égalité des chances oui mais pas pour tout le monde c'est.
Cristina:
Un pays où il y a énormément de pauvreté mais c'est pas un bel exemple les Etats-Unis honnêtement comme démocratie.
Bruno:
Je ne sais pas de je te dis juste en fait, parce que je comprends je suis complètement de bord sur le fait qu'un projet humaniste, c'est pas un projet politique, c'est un projet de société, c'est un projet humain, mondial, qui va au-delà d'un simple débat politique pour qui on va voter la semaine prochaine. C'est pas le sujet. Mais ce que je constate, c'est que en fait, ce projet...
Cristina:
C'est ce qui devrait être le vrai sujet. Parce que le problème que tu soulèves est très important. Comme aujourd'hui, on sait plus pour qui voter parce qu'il n'y a pas de projet politique, justement. C'est juste pour leur pomme. Alors qu'on devrait avoir des projets politiques qui nous disent, ben voilà, moi, je vous propose un monde où il y aurait une IA inclusive, où il y aurait un monde plus égalitaire, un monde meilleur, etc. Aujourd'hui, ce n'est pas du tout ce qu'on nous propose. Personne ne nous propose ça. Du coup, les gens ne vont pas voter. Ils sont dégoûtés. Et ça, c'est aussi cette désinformation qui est aussi manipulée par les IA de puissance externe qui cassent le système démocratique, qui font monter des valeurs qui ne sont pas des valeurs du tout démocratiques, etc., qui sont très populistes. Donc, on est en plein cœur du sujet. Et moi, je me dis, l'Europe, qui est quand même le seul continent à peu près correct où on a les meilleures lois, où on a aussi le meilleur niveau de vie, c'est quand même le pays de cocagne l'Europe même au niveau climatique on est moins touché que les autres on a vraiment de la chance d'être européen moi je me dis que l'Europe. Je ne comprends pas qu'on n'ait pas un projet politique là-dessus en disant on doit être exemplaire parce que c'est comme pour tout, le leader exemplaire il doit être comme ça l'exemplarité pour moi c'est vraiment très important au niveau européen on devrait avoir une IA européenne, exemplaire, qui dame le pion des autres. Parce que quelque part, il y a plus de gens, même s'il y a plus de Trumpistes que d'autres, on va dire, parce qu'on ne sait pas trop pour... Mais dans le monde, il y a plus de gens qui ont soif d'égalité et qui ont envie que le monde n'y ait pas de guerre, qu'il n'y ait plus de famine, que les maladies soient éradiquées, que des autres. Et là, l'Europe, elle a une vraie mission qu'elle ne remplit pas. Je pense par défaut des politiques.
Bruno:
Mais justement tu parles des lois qu'on a en Europe de ce projet politique donc il y a tout l'aspect de régulation je pense qu'il faut qu'on parle de l'AI Act, il y a toujours cette question de est-ce que la régulation il y a plein de sujets sur la régulation notamment la régulation européenne est-ce qu'elle est capable d'être à la même, vélocité que les IA. Enfin, tu vois, depuis ChatGPT3 est arrivé... Enfin, ChatGPT sur GPT3 est arrivé en 2022, de souvenirs, je crois, ou quelque chose comme ça. C'est-à-dire que depuis deux ans et demi, trois ans, on a un nouveau modèle qui pop toutes les semaines, des avancées colossales qui vont à une vitesse, encore plus impressionnante. Tu vois, est-ce que la régulation, est-ce que la législation a la capacité d'être aussi rapide que ça, et surtout comment est-ce qu'elle peut influencer au-delà de ses frontières ? Le problème de la régulation aujourd'hui, c'est qu'elle est cantonnée à une frontière, là où...
Cristina:
Oui, mais l'IA n'a pas de frontières.
Bruno:
Et oui, le système ne le sont plus.
Cristina:
Mais bien sûr. Non, mais je pense que la régulation, elle est là pour encadrer. Pour dire, il y a des trucs qu'il ne faut pas faire, ce n'est pas bien. Elle donne un cadre légal pour se développer dedans. Et elle donne un cadre aussi qui doit permettre l'innovation. Parce que si elle freine toute innovation, on a perdu la partie à ce moment-là. Donc au niveau européen, on a quand même ce cadre qui nous dit, attention sur la vie privée. Elle nous donne quand même des grandes règles très protectrices qui sont extrêmement importantes et qui font une fois de plus de l'Europe non seulement un exemple mais un endroit où on est en sécurité par rapport à la Chine ou par rapport à d'autres pays où je suis allée où on est fliqués de partout, ça fait quand même peur nous qui sommes, on a envie de dire n'importe quoi dans la rue, il y a plein de pays où on ne peut pas le faire donc ça c'est un vrai sujet après la régulation c'est pas elle qui va normalement créer, la start-up du siècle européenne qui va déployer le système. Et après, on voit bien que ce n'est pas tellement une question d'argent, puisqu'on voit que Dipsic, avec, je crois que c'est 5,5 milliards, ils sont arrivés à faire leur système.
Bruno:
5,6 millions ?
Cristina:
Oui, je disais milliards. Millions, ce qui n'est rien par rapport à l'Europe. Pourquoi Mistral n'y arrive pas ? Pourquoi on n'arrive pas, nous, à déployer quelque chose ? On a bien fait l'Airbus, on a bien fait le Concorde. On est capable de le faire. Et je pense qu'il y a un blocage politique aujourd'hui qui fait qu'on n'y arrive pas. Je ne suis pas stratège et politologue, mais je pense que ça vaudrait la peine de se pencher sur le sujet. Pourquoi on n'arrive pas à déployer un programme européen, Pour damer le pion des autres, parce que quand on s'y met, on est meilleur que les autres. Airbus est bien meilleur que Boeing, etc. Donc, il n'y a pas de raison qu'on n'y arrive pas. Et d'ailleurs, il n'y a tellement pas de raison, et c'est tellement politique, que nos génies partent dans la Silicon Valley vendre leurs startups ou déployer leur intelligence là-bas. C'est vachement dommage, parce que le modèle idéologique de valeur américain est vraiment très en dessous d'une autre.
Bruno:
Mais tu vois, on parle effectivement de ce modèle de valeur. Alors, la Chine, donc effectivement, on sait ce qu'il en est. Malgré tout, DeepSync, une des vraies révolutions de DeepSync, parce qu'en fait, quand on regarde les résultats de DeepSync, ils sont intéressants, mais ne sont pas non plus stratosphériques par rapport à OpenAge.
Cristina:
Il est déjà saturé.
Bruno:
Il fonctionne normalement par rapport à ce que le fait le marché aujourd'hui. Mais une des innovations de DeepSync, c'est notamment que c'est un projet complètement open source. On a pourtant ce côté très ouvert, très participatif, et sur lequel tout le monde peut continuer à construire.
Cristina:
Oui, mais justement, ça les intéresse de récupérer nos idées. Comme ça, ils vont déployer un outil encore plus performant.
Bruno:
En fait, rien n'empêche d'un groupe d'entrepreneurs français de monter une start-up depuis Dipsy et d'en faire un produit français.
Cristina:
Mais bien sûr. Oui, mais évidemment. mais je vais faire une analogie par rapport à la loi, avec la loi sur l'égalité professionnelle, en 76 il y a eu une loi, une directive européenne sur l'égalité pro, entre les femmes et les hommes, qui a ensuite eu fait plein de petits pour avoir bien tous, les éléments qui concernent l'égalité professionnelle mais la première loi c'était la première directive, c'était en 76 on y est arrivé, on est les meilleurs au monde, Donc, on peut y arriver. Et ce n'est pas l'Europe qui a un frein quand on nous dit l'Europe, elle freine. Non, l'Europe, elle permet de créer les conditions pour que tout le monde puisse travailler ensemble. Et après, il y a des blocages. Je ne sais pas du tout pourquoi ni comment. Mais n'empêche que ça manque aujourd'hui et il faudrait qu'on s'y mette. Donc nous on va faire notre petit projet maintenant avec l'Italie l'avantage c'est que cette université a la présidence de tous les réseaux des universités d'état européennes donc j'espère qu'on arrivera à faire, boule de neige et qu'assez rapidement, puisque l'IA après une fois qu'elle est partie, ça peut aller très très vite qu'on arrivera à avoir un modèle à proposer.
Bruno:
Mais tu vois en fait ce que je trouve intéressant c'est que tu parles de ce projet que tu vas lancer avec l'Italie tu nous as dit je vais lancer ce petit projet en Europe on le dit beaucoup, mais c'est pas que des préjugés, c'est une réalité. La capacité d'investissement est beaucoup plus faible que ce qu'on voit notamment aux Etats-Unis ou en Chine, où il y a un volume d'investissement qui est colossal. Pour donner un référentiel de à quel point la différence d'investissement est colossale, tu parlais de tous nos experts français ou européens qui partent s'installer ailleurs. Quand DeepSic a annoncé que l'entraînement de leur modèle leur avait coûté 5,6 millions de dollars, est-ce que tu sais ce qu'ils ont utilisé comme comparaison ? Ils ont dit que l'entraînement du modèle a coûté 5,6 millions de dollars, ce qui est à peu près le salaire d'un expert AI aux Etats-Unis. Donc, t'imagines qu'en fait, un architecte AI aux Etats-Unis. Donc, t'imagines que quand t'as une expertise qui te permet d'être payé 5 millions de dollars dans un pays, face à la capacité d'investissement qu'on vend en France, où on parle plus de quelques dizaines ou centaines de millions d'euros qui sont mis sur la table pour une boîte en entier, c'est difficile de rivaliser.
Cristina:
Oui, j'entendais une interview d'un architecte ou je ne sais quoi, qui gagnait vraiment très très bien sa vie. Il disait, je suis tellement bien payée ici, même si ça ne me plaît pas, on prend de tellement mauvaises habitudes. En plus, on n'est jamais fliqués. Je me demande s'il ne parlait pas de Google ou d'Amazon. Un des GAFAM, en tous les cas. Il disait, on n'est pas fliqués. On ne pointe pas, évidemment. On nous laisse faire ce qu'on veut. On peut travailler d'où on veut. On est super bien payé même si on a envie de revenir parce que ça ne nous plaît pas spécialement de vivre là-bas, on ne revient pas, Pas tout de suite.
Bruno:
En tous les cas. Donc, en fait, c'est un vrai sujet. C'est-à-dire qu'on veut certes réguler. On est contraint par nos frontières parce que notre régulation ne peut s'appliquer qu'à nos frontières. Mais aujourd'hui, on n'est pas encore en capacité à aller rivaliser.
Cristina:
Oui, mais parce qu'on ne met pas le paquet. Parce que tous les produits européens, tous les autres pays du monde, ils les veulent. Notre champagne, notre mode, etc. On est les leaders aujourd'hui de tout ça. Alors, on est copié, bon, etc. Bien sûr, mais quand même, on a une capacité à créer des choses d'excellence que l'on n'est pas à profit pour ce sujet, qui est un sujet majeur. Moi, je pense que c'est le sujet du siècle, et si on ne passe pas le sujet de l'IA positivement, je crains le pire.
Bruno:
C'est quoi, donc, l'avenir pour Arborus et le label Giz ?
Cristina:
J'espère qu'on va avoir, et grâce à ce podcast, plein d'entreprises qui vont nous appeler pour avoir le label. Je le souhaite vraiment. Ce n'est pas une question d'argent parce que nous, on est non-profit. Ce n'est pas une question vraiment d'argent. C'est vraiment une question de véhiculer des valeurs et un nouveau projet de société dans le monde. Il faut y aller.
Bruno:
Très bien. Merci beaucoup, Christina, pour cette discussion.
Cristina:
Merci beaucoup, Bruno.
Bruno:
Avant de terminer, si j'aurais une des questions rituelles du podcast, est-ce qu'il y a un contenu que tu souhaiterais partager avec l'ensemble des auditeuristes ?
Cristina:
Vu le sujet qu'on traite, je pense qu'il y a un film que tout le monde a dû voir, mais qu'on peut aller revoir, c'est Les Figures de l'ombre qui est un film que j'adore. J'ai vu récemment une histoire de femme aussi avec Isabelle Huppert et je trouve que c'est un très beau film qui montre à quel point la condition des femmes n'est pas la condition des hommes et que ça vaut la peine de, se pencher là-dessus et de, Et d'avoir de l'empathie pour les uns et pour les autres.
Bruno:
Très bien. Merci beaucoup, Christina.
Cristina:
Merci, Bruno.
Bruno:
Et merci à tous d'avoir suivi cet épisode jusqu'au bout. Déjà, renseignez-vous sur le label GEEZ et effectivement sur tout ce que fait Christina avec cette ONG Arborus. On a effectivement, nous, en tant que développeurs et développeuses, une capacité d'action directe sur ce projet de société qu'on a. Je me doute que dans notre population de développeurs et développeuses on retrouve tous les courants politiques ce qui est normal, je pense que vu les discussions qu'on a eues après une heure d'épisode il y en a peut-être un peu moins de tous les bords qui sont encore présents jusque là mais on a une capacité en tout cas d'agir et de faire changer les choses donc utilisons ce pouvoir là pour justement changer sur l'avenir et peut-être imprégner un peu plus ce projet de société qu'on pourrait avoir et partager tous ensemble. Moi sinon je vous remercie toujours de partager ce podcast autour de vous, n'hésitez pas à aller faire un petit tour sur le Tipeee si vous voulez soutenir ce podcast pour lui permettre de continuer je vous souhaite une très bonne fin de semaine, je vous dis à la semaine prochaine et d'ici là, codez bien.