Reprendre le contrôle sur tout ce qui se dit autour de l’intelligence artificielle, voilà pourquoi nous avons créé ce podcast IA pas que la Data !
Tous les mois, nous aurons le plaisir d’accueillir des experts de l’IA, de la data et de la tech, qui nous partageront leur opinion et regard critique sur cette révolution.
Technophiles, ce podcast vous apportera un éclairage sur ce qui se cache derrière l’IA et vous permettra de prendre de la hauteur sur ce que l’on entend quotidiennement.
#IA #GenAI
Thomas (00:13)
Bonjour à tous et bienvenue dans ce nouvel épisode de IA pas que la Data. Aujourd'hui, on devra dépasser le 30e, on en est sûrement au 35e épisode. Que le temps passe vite. Je suis Thomas Meymoun, donc le Team Lead Data Scientist à BRP depuis un petit moment à Montréal. Je suis toujours accompagné de Pierre, Pierre Vanier, qui va sûrement encore une fois se présenter.
Pierre Vannier (00:22)
Incroyable, incroyable.
PDG fondateur de la société Flint, ancien développeur. On propose à nos clients du renfort en assistance technique sur des sujets data, tech et IA. Je suis aussi conférencier IA. On fait aussi des formations pour les équipes de développement pour concrétiser le vibe coding dans les équipes de devs et c'est plus compliqué qu'il n'y paraît. En tout cas, le développement assisté par IA.
Thomas (01:00)
Et surtout pour cet épisode, on a la chance d'avoir Fabien Antoine. Donc je suis vraiment très, très, très content de faire cet épisode avec lui aujourd'hui. Fabien, c'est ton moment, si tu veux te présenter,
Fabien Antoine (01:11)
Enchanté Thomas, enchanté Pierre, merci beaucoup pour cette participation à IAPAC La Data. Moi je me présente un peu comme un généraliste de l'IA avec un parcours un peu particulier. J'ai tombé dedans en tout début de carrière. Aujourd'hui je suis freelance, j'ai ma société à Saint-Ec mais je fais essentiellement du conseil.
Sachant que je suis retraité, ex-colonel, j'ai fait tout un parcours d'une vingtaine d'années en France dans beaucoup de ministères et j'ai commencé en particulier sous les drapeaux, pour le bien commun. J'ai commencé dans les armées parce que c'était là au début que ça se faisait il a une vingtaine d'années.
Pierre Vannier (01:46)
sous les drapeaux
Thomas (01:59)
Il y a pas mal de sujets moi, pourquoi j'ai voulu que viennes dans cet épisode. Il y a vraiment beaucoup de raisons. La toute première, on en avait discuté un petit peu avec Pierre, c'était les balbutiements de l'IA. Toi, tu as commencé vraiment l'intelligence artificielle, à ses tout débuts, c'est à dire au moment où c'était peut-être quelque chose qui était bien moins sexy que ça l'est actuellement. Moi, il une question qui peut me paraître toute belle, puisque j'ai fini mes études en 2020 et l'intelligence artificielle.
et la data science était déjà très connue. Qu'est-ce t'as attiré ? Si je dis il a 30 ans c'est ok de dire ça, j'abuse.
Fabien Antoine (02:35)
Ouais en fait ça fait ça
ouais. Non non ça fait... Attends ça fait ça. Ouais c'est ça on se rend pas compte.
Thomas (02:39)
Je suis désolé, je... Qu'est-ce qui t'a attiré dans l'intelligence artificielle ou du moins
ces mathématiques avancées à cette époque-là ?
Fabien Antoine (02:48)
Effectivement ça fait pas mal 30 ans. fait ma soeur était à l'ESTP, elle avait fait ses études scientifiques et puis moi je me posais les questions de qu'est que je voulais faire en fait. Juste en dessous de l'ESTP il a eu une hibarie érole, une hibarie scientifique et puis là je suis tombé sur un bouquin sur les réseaux de neurones de Simon et Keen et voilà je suis tombé d'amour sur les réseaux de neurones.
Dans ce bouquin, ce qui m'avait marqué, c'était les travaux sur le prédécesseur de la base MNIST, sur les réseaux de neurones et l'application à la reconnaissance des créatures manuscrites. C'est ça qui m'a fait tomber d'amour pour l'intelligence artificielle. J'étais encore naïf et j'ai fait mes études scientifiques dans cette perspective de travailler sur ces sujets-là.
Pierre Vannier (03:38)
Donc tu aurais pu potentiellement bosser sur la démo de Yann Lequin, tu sais cette démo ultra connue où t'as les chiffres qui sont dessinés et du coup reconnus en quasi temps réel, ça devait être dans ces eaux là en fait.
Fabien Antoine (03:56)
C'est exactement ça en fait et même c'était... en fait il n'y avait pas encore la base MNIST, c'était une base avant donc il a eu deux éditions du bouquin. Alors ça c'est après donc c'était une une base de reconnaissance pour la poste en fait donc la poste US et dans la deuxième édition du bouquin alors Simon et Keane et Loken ont travaillé ensemble
Pierre Vannier (04:04)
Image net ? Il y avait image net aussi.
Ouais, c'est ça, ils ont fait ça avec la poste.
Fabien Antoine (04:22)
Et en fait dès le premier bouquin, il y avait des citations des travaux de Kahn et la base Mlist est sortie en 1998 et il eu une réédition du même bouquin avec la base Mlist, en gros avec les évolutions de travaux en raison de la rône sur ce sujet.
Pierre Vannier (04:42)
ce qui est super intéressant, c'est que toi, Fabien, tu as démarré il y a 30 ans là-dedans. Et en fait, pendant toute ta carrière, resté peu ou prou, très proche de ces problématiques-là et du côté recherche appliquée finalement, j'ai envie de dire.
Fabien Antoine (05:02)
Oui c'est ça, tout cas j'ai commencé en recherche appliquée. Quand j'ai fait mes études, j'étais initialement dans la vision. En tout cas c'était ma volonté d'aller dans la vision. Parce qu'en fait les réseaux de neurones et la basémyste, c'est très visuel, c'est très paremblant, il y a ce côté magique des réseaux de neurones. Mais du coup j'ai commencé dans le traitement d'image.
Mais le traitement d'image à l'époque, à part cette base là, il y avait très peu de métriques d'évaluation, c'était pas mûr. Donc j'avais travaillé à Sofie Antipolis, il de la reconnaissance d'images satellites, et puis on m'avait proposé de publier 100 métriques d'évaluation. J'avais deux trois images, du coup ça m'avait un peu perturbé d'un point de vue méthode scientifique, et puis j'avais furqué vers le traitement de la parole où il y avait déjà des métriques.
Pour répondre à la question, j'ai fait un peu toutes les étapes autour de l'IA. Je suis allé dans la défense parce que c'était là où on pilotait la R &D. On m'a proposé une thèse en traduction automatique mais j'ai préféré faire de l'application dans les armées de l'IA parce que déjà je trouvais qu'il y avait plein de choses à faire et j'étais plus intéressé par...
l'apport de valeur sur des choses concrètes que la recherche profonde. puis donc au fur et mesure, j'ai effectivement fait ça, pas tout le temps dans ma carrière, je suis revenu régulièrement sur l'intelligence artificielle qui était ma passion initiale.
Thomas (06:41)
Moi j'ai deux questions qui me viennent tout de suite mais qui sont complètement différentes. C'est déjà à cette époque là vouloir faire de la computer vision. J'arrive à me resituer à l'époque où je n'étais pas né finalement. Je peux imaginer qu'il n'y avait pas autant d'images et de vidéos et surtout puisqu'aujourd'hui il les réseaux sociaux tout se fait par à distance depuis l'ère Covid et tout ça mais surtout la qualité en fait je me demande même si à un moment la qualité de l'image et de la vidéo à cette époque donc il a
on va dire l'époque il y a 25 ans, il y a 20 ans n'est pas du tout les mêmes. Moi je pense au télé cathodite déjà à l'époque, il n'aurait pas la même qualité visuelle. Ça c'est une première question et peut-être que la deuxième va aussi un peu accompagner la première. Est-ce que l'armée, je ne pas si je m'avance un peu dans le terme que j'utilise Fabien, est-ce que l'armée avait déjà des énormes budgets pour les sujets d'intelligence artificielle et si oui est-ce que l'image était aussi un sujet important en tant que tel à cette époque-là
Fabien Antoine (07:41)
Alors je sais pas si le sujet de la résolution étant un sujet mais c'est vrai qu'il y avait des enjeux de stockage, de diffusion des données. La résolution elle-même n'était pas forcément tant un sujet, avec la base Amnist il y avait déjà de quoi jouer on va dire, alors qu'elle est une toute petite résolution. Donc effectivement les centres d'investissement c'était aux US c'était l'Amnist et c'était en France la DGA où
je suis allé en fait et du coup il y avait beaucoup d'investissements sur les bases de données pour créer des bases de données pour piloter la recherche faire progresser l'IA en traitement du langage naturel pour des tâches de traduction pour des tâches de reconnaissance vocale et en images pour des tâches de reconnaissance d'objets le NIST est toujours très impliqué dans les sujets d'IA plus dans des sujets normatifs et de réglementation
mais à l'époque c'était là où ça se faisait donc le Unist faisait plein de productions de data sets par exemple des enregistrements de radio qu'il retranscrivait et à la DGA on faisait la même chose et d'ailleurs on était un bon partenaire de Unist puisqu'on faisait le logiciel de transcription. Transcription ça voulait dire à l'époque voilà, l'élocuteur parle, nous on mettait un logiciel qui permettait à une personne de taper en face
pas au mot, on en était pas à dicter un mot mais dicter une phrase donc il avait l'enjeu de pouvoir mettre les phrases en face des mots à l'époque voilà c'était à peu près ça la situation et en image, tu parlais du budget en budget effectivement à mon époque là rien qu'en France on était peut-être à 10 millions d'investissement sur les sujets juste de NLP
pour créer des databases et faire en sorte que la recherche soit abondée. on redistribuait ces données pour faire des benchmarks pour faire progresser le NLP. On travaillait beaucoup avec le Limsi qui était l'un des meilleurs laboratoires en reconnaissance locale. Et après, on avait des projets d'application dans les armées, l'idée c'était vraiment de redistribuer dans le but de créer une dualité avec
que il avait une dualité des sujets IA et des applications pour le renseignement à l'époque essentiellement.
Thomas (10:12)
Je vais continuer Moi je ne me rends pas du compte que ça représente 10 millions en tant que tel et c'est beaucoup pour ces sujets
Pierre Vannier (10:18)
faut le remettre aussi en 10 millions
courant, 10 millions il a 30 ans aussi.
Fabien Antoine (10:24)
10 millions d'euros il y a 30 ans ça reste beaucoup pour une organisation parce qu'aujourd'hui t'as pas beaucoup d'organisations d'état qui mettent de budget sur de l'IA mais c'est sûr que les armées sont assez riches donc budget global des armées à l'époque c'était 10 milliards on va dire pour le run et 1 milliard pour la R &D donc ça restait petit mais ça c'était juste pour le NLP
donc vous allez peut-être multiplier par 10 si tu prends la robotique, le traitement d'image...
Thomas (10:57)
Ok, d'accord.
Et je pense qu'on va revenir sur le sujet un peu plus tard pendant l'épisode du podcast.
est-ce que à cette époque là, donc on parle, je prends cette époque de 25 ans, est-ce que tu voyais déjà un décalage entre les progrès réels et la hype médiatique ? Ça en dit beaucoup sur ce qu'on va discuter après dans l'épisode. Mais est-ce que il y avait une grosse dichotomie ? C'est à dire que moi, par exemple, j'adorais l'économétrie à l'époque quand je faisais des études et l'économétrie, c'était un sujet qu'on faisait dans les bureaux un peu caché à l'époque. Ce n'était pas un sujet très
à la mode puisque l'application était somme toute assez limitée ou limitante. Est-ce que c'était pareil à l'époque ou pas du tout pour l'intelligence artificielle ? Du moins en France.
Fabien Antoine (11:39)
Oui c'était, enfin
c'était en France et même au global donc c'était des sujets de recherche en fait. Donc là les plus grandes communications c'était les conférences spécialisées et ça communiquait très peu parce qu'il avait peu d'emplois. Il y avait Dragon Dictate dans leur connaissance vocale pour la dictée vocale. Ça marchait pas très bien. Ouais alors IBM était un acteur super en... Ouais très très bon ils sont...
Pierre Vannier (12:00)
oui je me souviens Dragon Vocal, c'était IBM qui faisait ça ou... Ils étaient très bons là dedans.
Fabien Antoine (12:08)
très
très bon, très très bon, même en traduction. C'est très bon là dedans et à l'époque. Mais ce n'était pas des logiciels qui étaient très rentables on va dire. Il n'y avait pas assez d'applications économiques pour que ça fasse du buzz.
Pierre Vannier (12:16)
des logiciels, des projiciels métiers là tu sais pour les médecins, pour les avocats etc.
Deu-wai, wawai.
Pour ta question Thomas, je pense aussi, remettant dans le cadre, il a 25 ou 30 2001, était dot com bubble, la bulle internet, et on était, tu me diras si je dis des bêtises Fabien, mais on était quand même sur une période
encore un peu winter et high, parce que si je ne pas de bêtises, crois que les vrais, que ce soit Feifei Li, Lequin, ImageNet, AlexNet, etc., c'est un tout petit peu plus tard, je crois. tu vois, ces vraies découvertes et le vrai renouveau, en fait, de l'IA.
Fabien Antoine (13:09)
⁓
Pierre Vannier (13:16)
C'est pas de chat de GPT il y a trois ans, parce que il y a plein de choses qui se sont passées avant. Mais on sortait quand même d'un hiver IA un petit ça passe par des moments où il n'y a plus trop de financement parce que ça n'avance pas assez, etc. Et puis on rentrait, ou on allait rentrer dans le mouvement Big Data aussi. Parce que finalement c'est la collusion du Big Data.
plus tard, un peu plus tard, de la puissance des machines et du calcul et de nouveaux algorithmes parce que Transformer et Attention is all you need de Google c'est 2017 donc on est bien plus tard. Donc il a sous cette période entre 2001 et 2015-2017.
Fabien Antoine (13:54)
Si je peux revenir sur la façon dont moi je l'ai vécu en fait, dans la donc à l'époque du coup on n'était pas du tout en réseau de neurones tout ce qui était apprentissage avancé en fait c'était vraiment plus ce qui est parole, langage qui était le plus avancé en apprentissage. À l'époque déjà il y avait de la R &D qui n'était pas prête sur les benchmarks.
l'image c'est que ça avançait mais très peu on était encore à éditer des articles avec les images de l'ENA donc l'image c'est le quem qui a commencé à driver ces notions d'évaluation dans le traitement de l'image exactement
Pierre Vannier (14:21)
Mmh.
L'image était un peu en retard par rapport à la détection de la
voix ou du son ou du speech to text.
Fabien Antoine (14:41)
Parce que les métriques d'évaluation étaient simples, en fait c'était facile de les faire progresser. Par exemple en traduction, qui a fait booster, ce qui a abouti beaucoup plus tard jusqu'au transformer, c'était la métrique développée par IBM, bleue, qui permettait de faire de l'évaluation de la traduction. De façon un peu approximative, mais ça a permis de piloter... Donc moi j'étais dans cette ère de maturation de la traduction, les premiers apprentissages, on appelait ça apprentissage statistique avec les modèles n-gram, etc.
Pierre Vannier (14:57)
Mmh mmh mmh.
Fabien Antoine (15:10)
On n'était pas au transfert, pas du tout aux réseaux neuronaux. Les réseaux neuronaux, étaient réservés à lissage de modèles de back-off dans les modèles LLM, qu'on appelait déjà LLM à l'époque avec les Ngram. Et voilà, on en était là. Et donc moi, mon vécu, a été que les armées finançaient jusqu'à à peu près 2008. Et puis en 2000, dans ces eaux-là, nous, on finançait des laboratoires et les experts ont commencé à se faire recruter en masse. Donc Google tra des sorties.
Pierre Vannier (15:31)
ce prime.
Fabien Antoine (15:40)
en recrutant des experts qu'on avait sur la traduction par apprentissage. nous on avait des périodes de 1 an, 1 an et demi pour faire des démonstrateurs. En 6 mois, le produit commercial Google Trad est sorti avec les chercheurs qu'on avait, c'est-à-dire les meilleurs du monde. Ça commençait à basculer dans l'ère commerciale. J'étais dans un laboratoire où il y avait aussi reconnaissance faciale, etc. Et là c'était Apple qui commençait à...
Pierre Vannier (15:44)
Ok.
Fabien Antoine (16:08)
à prendre la main dessus. on a basculé dans une ère commerciale de 2008 à pas très loin parce que le reversement Torseur Flow dans le public c'était 2013 et là on a basculé dans l'ère Deep Learning. En parallèle il y avait le bidata effectivement plus sur l'analytique et sur la partie réseau de neurones donc le reversement plutôt vers 2015 et du coup moi j'étais reparti plutôt sur faire de l'IT
et je suis revenu dans l'IA quand il eu des reversements de tous ces stacks, Scikit-learn et TensorFlow plus PyTorch pour mettre en place dans l'administration des cas d'usage sur ce type de librairies qui a été reversé.
Thomas (16:59)
Et quand tu as quitté les armées, les budgets étaient un peu plus élevés ou... as quitté toi l'armée vers quelle année ?
Fabien Antoine (17:06)
Alors
moi je suis colonel donc en fait j'ai quitté formellement mon corps ingénieur de l'armement pour prendre ma retraite en en 2022. J'ai fait des back and force au sein des armées mais c'est en 2008
Pierre Vannier (17:30)
Certaines missions ponctuelles,
Fabien Antoine (17:32)
Oui c'est ça, je suis revenu ponctuellement mais
je plutôt allé dans les autres ministères après 2008 quand l'IA commence à être prise en main plus par les Google et Apple de ce monde. Donc je suis revenu effectivement, après je vais plus déployer des cas d'usage dans d'autres ministères.
Thomas (17:54)
Moi la suite de ma question c'était comment tu vois ces termes explosions de montants qui sont investis aujourd'hui dans l'intelligence artificielle puisque je pense que Pierre t'as bien mentionné un peu cette période froide de l'intelligence artificielle. Il n'y a pas eu non plus de...
de nouveautés très fortes pour moi. Moi c'est les CNN dans ma tête, c'est les Convolutional Networks qui ont pas mal changé les choses mais c'était en 90. Ensuite on a sûrement trouvé des applications plus tard concrètes. Mais maintenant depuis 2020 puisque on parle souvent d'openair et HHGPT mais pour que ce produit sorte il faut que l'argent rentre. Et qu'est qui a fait pour toi ?
qu'on a commencé à investir des montants aussi élevés. Alors aujourd'hui, c'est bien plus impressionnant que l'an 2020 bien sûr, mais de la part des gouvernements et des entreprises privées, géants de la tête en l'occurrence.
Fabien Antoine (18:49)
Ce que ça me fait penser en fait c'est quand pas mal Sam Altman qui est l'origine de l'explosion des investissements. on reprend l'histoire d'Open AI là, y avait quand même Elon Musk dans l'affaire et il avait quitté l'affaire parce que justement les demandes d'investissement étaient beaucoup trop importantes et pour lui ça n'arriverait jamais en fait. Ça n'arriverait jamais, il y peut-être d'ailleurs
Il avait peut-être déjà totalement raison, au sens qu'il n'y a aucune réalité économique derrière ça. Mais en fait c'est Altman qui a fait exploser ces demandes d'investissement et comme il a eu un résultat à la clé, pense que ça s'emballe autour de ça. Le résultat étant de chat GPT, sachant qu'on partait des transformers et que moi j'étais dans l'IA en 2017, ça n'a pas fait une révolution directe.
Pierre Vannier (19:21)
...
Thomas (19:33)
le résultat étant déjà de j'ai pété.
Fabien Antoine (19:46)
Il l'a Ouais, le papier Transformers c'est 2017. Et c'est sur la traduction d'ailleurs. Non, ça n'a pas explosé tout de suite. On avait des cas d'application, c'était à l'intérieur potentiel. n'a même pas essayé parce que ça a coûté trop cher à essayer de faire quelque chose.
Thomas (19:46)
pense que c'est un excellent point.
Pierre Vannier (19:46)
Oui, parce que j'ai pété,
c'est 2017 le papier de Google.
ça n'a pas explosé tout de suite dès 2017.
Thomas (20:05)
Mais je pense que c'est un bon point en plus que tu ramènes ici, c'est que ce que OpenAI a réussi à faire et de Chatch GPT n'est pas une révolution en tant que telle d'un point de vue technique. La révolution est vraiment sur le produit, fait qu'il soit accessible à tous, ?
Fabien Antoine (20:19)
Il a le fait qu'il soit accessible à tous, le fait qu'il était entraîné quand même sur des centaines millions de dollars d'investissement, juste pour l'apprentissage mais ça je pense que ça quand même contribuait, voilà, c'était pas des centaines de millions directement pour le premier apprentissage mais le fait de juste pour un apprentissage mettre plusieurs millions de dollars ça c'est quelque chose qui n'existait pas avant.
Pierre Vannier (20:29)
Ouais, il a aussi ça. ⁓
Oui c'est ça, viens
de le dire quand même Fabien, c'est qu'en fait on avait les technologies, on avait les algorithmes, les algorithmes ils venaient de sortir, voilà. Mais en fait derrière, fallait la data, tous les gros... Oui, ce qu'il faut savoir à part les sujets Lego tu le dis, mais tous les gros vendors...
Fabien Antoine (20:55)
Au sens mathématique, au sens mathématique ouais.
ça lui était déjà pas mal à part les sujets Lego mais il était quand pas mal
Pierre Vannier (21:12)
ont tous, sans exception, entraîné leur modèle de première génération, donc ChadGPT3, Claude, les premières versions, etc., sur des dizaines et des centaines de milliers de livres qui ont été numérisés.
sans aucun avis de l'auteur ou de la maison d'édition, ont été tous numérisés sauvagement. C'est-à-dire qu'en fait, pour te donner même la petite histoire, en tropique, ils ont carrément racheté des livres d'occasion parce qu'ils pensaient qu'ils s'engouffraient dans une fissure.
parce qu'ils auraient moins de problèmes avec des livres d'occasion que des livres neufs. Et ils avaient un gros succursal dans l'Illinois où ils numérisaient des centaines de milliers de livres qu'ils ont ensuite transformés en papier mâché, qu'ils ont détruit, purement détruit, juste après. Et il faut bien quand même le savoir. C'est-à-dire que... Et derrière, quand tu le dis, c'est qu'entraîner ces premières versions sur du big data, que ça soit le web, Wikipédia, des livres, etc., ça coûtait un fric monstrueux.
que pas grand monde à part des américains était capable de mettre sur la table.
Fabien Antoine (22:25)
C'est exactement ça. C'est pas tant la quantité de données qu'en plus la gourmandise des algorithmes d'apprentissage qui nécessitait de passer par des étapes d'un nombre d'itérations très très importants.
Pierre Vannier (22:41)
Donc des fermes de GPU,
faut les avoir les machines sur lesquelles faire tourner ça et ensuite faut les algos et l'infrastructure etc.
Fabien Antoine (22:50)
Donc c'est vraiment ça qui est vraiment différenciant et tout le monde, enfin tous les grands là ont mis des centaines de millions de dollars juste pour les premiers apprentissages de leur modèle. Juste pour le burn du CPU de l'apprentissage. Avant on disait, on s'excitait après quelques semaines sur euh... voilà parce que là on parle de mois en plus d'apprentissage.
Pierre Vannier (22:59)
C'était ça la barrière à l'entrée.
Oui.
Fabien Antoine (23:17)
on s'excitait après quelques semaines et déjà sur deux trois GPU avant. Donc ça c'est vraiment le changement. J'ai juste un point sur lequel tu me fais revenir avec les histoires de diffusion de droits. À l'époque, au préhistorique, quand nous on diffusait les données, on passait par des brokers, c'est à dire qu'on achetait les droits, on faisait attention aussi à qui faisait la saisie, parce que quelque part,
créer un petit peu aussi quand tu fais la saisie donc on faisait attention à toutes ces histoires de droits le monde diffusait son corpus mais dans un contexte donc il y avait Elda à l'époque qui broadcastait les données et aujourd'hui cette notion là de diffusion de données c'est un peu excité mais effectivement voilà on est passé complètement outre parce qu'il des enjeux commerciaux qui sont arrivés sur la table alors qu'avant les enjeux commerciaux n'étaient pas là donc en fait c'était beaucoup plus propre
cette diffusion capitalisation de données parce que c'était géré par les États.
Pierre Vannier (24:18)
Je disais ce qu'il montre encore une fois, juste pour rebondir sur ce que tu dis, le pragmatisme, j'ai envie de dire, l'opportunisme ou le côté... C'est quand même un côté un peu cowboy, c'est-à-dire les Américains, fait. Peu importe qu'on ait les droits ou qu'on n'ait pas les droits, en fait, on prend la data. On la prend, on s'entraîne, on verra bien après. Et ça, en France, on ne pas ça. Ou en tout cas en Europe.
Fabien Antoine (24:39)
à l'époque je me rappelle avoir fait
des trucs pas forcément super propre mais pas dans une buppe capitalistique, scraper Google News dans toutes ses versions, mettre en place des algorithmes de traduction pour faire le matching et créer des datasets. En fait, l'ingénieur lui, il veut faire un truc qui voilà, qui performe.
Pierre Vannier (24:52)
Bien sûr, bien sûr.
Ouais mais du coup tu l'as pas mis en prod et t'as pas créé un produit.
Fabien Antoine (25:08)
d'un point de vue algorithmique. Puis après, QoQ s'associe effectivement le gars qui fait le marketing et qui a besoin de faire entrer du cash, ça change la portée.
Thomas (25:20)
Il y avait un point qui m'intéressait aussi, tu parlais tout à l'heure de Google Traduction, en 6 mois ils ont sorti le produit et tout ça, et c'était aussi un point que je voulais adresser pendant l'échange, c'était concernant la course au talent permanente. Donc ça veut dire que au ministère des Armées, si je ne dis pas de bêtises et donc peut-être même au niveau de l'État français, on a bel et bien des fuites de talent vers des entreprises tech américaines, c'est ça
Fabien Antoine (25:44)
là, là c'était, alors il y effectivement des talents, des talents financés on va dire sur des crédits de recherche français là on était avec le Limicii et l'université d'Aren en Allemagne donc là c'est des talents d'Allemagne qui sont partis, qui ont été débauchés
dans un ancien MSI qui est parti chez Meta et Olga Schwentz. Donc effectivement il y a des gens qui, bien, il a le Canuti qui parti chez Meta tout quand même, une bonne partie de sa carrière. Donc oui, y a beaucoup de cerveaux européens qui ont contribué à l'essor de ces technologies dans des entreprises privées américaines.
Thomas (26:33)
Et je pense que ça soulève un truc qui est assez intéressant puisque aujourd'hui on a souvent tendance à placer du sucre sur les Etats-Unis pour les bonnes ou les mauvaises raisons. Est-ce que d'une certaine façon, c'est pas... Comment expliquer... Ça permet aussi de mettre en lumière le fait que les Etats-Unis arrivent à faire ce que d'autres n'arrivent pas à faire.
Fabien Antoine (26:53)
bah ouais alors bon, ouais ouais. Non, complètement. oui oui, non mais c'est... le modèle américain est complètement différent, le modèle de capitalisation est différent et moi j'ai vu... en tant que DGA on était quand même... on était là pour créer la constitution aussi d'une industrie locale et puis on voyait sur les sujets d'IA que... voilà.
Thomas (26:54)
Il a ce détail qui pour moi est important et qu'on a souvent tendance à omettre. Mais là quand tu parles de Google Traduction en 6 mois, ça reste impressionnant.
Fabien Antoine (27:22)
on avait du mal à faire en sorte de créer une industrie solide. C'est extrêmement difficile. L'un des points communs qu'on a en termes de produits à quelques années d'écart, moi j'ai vécu la capitalisation américaine de DataEQ par que voilà, c'est produit en tout cas à l'époque qui est toujours dans la course et qui était vraiment incroyable. Ouais, c'est ça, les capitalisations se font beaucoup sur
Thomas (27:44)
A d'une face aussi.
Fabien Antoine (27:49)
la façon d'investir des US. C'est certain.
Pierre Vannier (27:52)
qui est assez marrant,
juste je rebondis là-dessus, mais tu l'as dit, tu parlais des années du coup post 2008, il y a eu des fonds d'or et des recrutements de chercheurs européens pour les embaucher par des big tech américaines. Quelque part, tu vois rétrospectivement, se dit mais en fait la course elle est toujours perdue parce que finalement tu formes
tu formes les chercheurs avec un système académique qui est un des meilleurs du monde au niveau de la recherche scientifique, on a des très bons chercheurs, et en fait tu les amènes jusqu'à maturité, faire leur postdoc, publier quelques papiers, Comme tu dis, être sur l'open source, l'open data, être dans le collaboratif, etc. Et bing, pond d'or.
et les meilleurs chercheurs se retrouvent aux États-Unis. Ce qui fait que dix ou quinze ans plus tard, OpenAI, c'est une boîte américaine. C'est-à-dire qu'en fait, on n'a suffisamment finalement d'argent pour être capable de concurrencer les boîtes comme Meta, Google, etc. qui arrivent et qui font un énorme chèque. Et tout le monde peut se faire acheter par ça, finalement.
Fabien Antoine (29:16)
Oui, après moi je vais arriver en limite des compétences sur les sujets de vici dans ce monde là. Je sais que ça a quand même beaucoup progressé en France sur la structuration parce que c'est toute une structuration de fonds d'investissement. Ça a beaucoup progressé pour améliorer les créations et les capitalisations. Donc effectivement on a quand même des capitalisations qui ne sont pas 100 % françaises ou ni même européennes sur des...
sur des Mistral ou des Gnigging Face mais on a réussi un peu plus à tenir ça un peu plus chez nous. NetIQ est un peu en limite là dessus mais il reste quelque part sous pavillon français par son Il a les cerveaux et puis les structures qui font que non seulement
on a du retour sur l'investissement mais en plus on a une succur derrière d'investissement qui fait que on laisse le aux entreprises de croître où on sait faire les paris qui permettent de capitaliser, de créer des produits. Et ça c'est sûr que c'est le modèle US qui génère ça. Aujourd'hui il a clairement une dérive sur les sujets de liens ce que j'ai vu n'était pas mal sain jusqu'à la vente de GPD.
Thomas (30:28)
Oui je pense que de toute façon la vente, enfin la période après Tchadjépté est complètement hors sol pour de trop nombreuses raisons. Par contre même si tu penses que tu as des limites côté Venture Capital, toi tu es quand même un polytechnicien, tu as fait une belle carrière et tu as fait le choix travailler pour les armées. Et est-ce qu'à un moment, peut-être pas maintenant, peut-être quand tu étais plus jeune, est-ce que tu aurais été séduit de partir ? Et je parle vraiment uniquement sur la partie technique.
uniquement technique, ne pas rentrer sur le style de vie qu'on peut avoir aux Etats-Unis contre la France et tout ça, mais est-ce que à un moment tu aurais pu être séduit de te déplacer aux Etats-Unis pour le sujet de l'intelligence artificielle ? Est-ce que tu y as pensé ?
Fabien Antoine (31:10)
J'ai eu des propositions
en fait quand j'étais à l'IX. Déjà en fait, j'ai un stage à Sofia Antipolis à l'époque pour des raisons assez logistiques et personnelles mais ça aurait pu se faire très bien et j'aurais commencé là-bas en fait. C'était même avant, j'avais cette passion déjà et c'était avant même de faire le choix d'aller vers les armes.
Thomas (31:13)
BAM, ça tombe.
Fabien Antoine (31:36)
J'ai été séduit par la défense, par les budgets qu'ils apportaient, en me disant que ça donne une perspective de faire des choses Pas par conviction pour les armées, après par une conviction sur le bien commun. ⁓ C'est des sujets de bien commun. Moi je toujours une fierté même sur le traitement des personnelles et le cadre réglementaire dans le contexte de l'État. J'ai trouvé ça exemplaire en tout cas.
Thomas (31:47)
Ouais c'est ça.
Fabien Antoine (32:01)
je le quitte il y quand même une fibre personnelle qui fait que j'ai jamais été vraiment dans les notions de capitalisation.
Thomas (32:12)
Mais
ça veut dire que tu n'étais pas sensible à l'argent en tant que tel, ce n'est pas une bonne ou une mauvaise chose mais est-ce qu'il y aurait peut-être eu un montant, une condition financière, ça peut être des stock options, des actions, un gros salaire où tu te serais dit peut-être les Etats-Unis je vais tenter l'expérience.
Puisque là, fait, tu parles du bien commun et c'est souvent ce qu'on va mentionner, je sais, dans les corps, les corps en études comme Polytechnique ou les mines ou ce genre de choses. C'est l'avenir que c'est l'innovation. pense que tu es au courant de tout ce qui se dit.
Pierre Vannier (32:45)
Polytechnique c'est
un corps d'armée, c'est une école mais sous forme de corps d'armée, est d'accord ?
Fabien Antoine (32:50)
Tout à fait.
Thomas (32:51)
Oui mais
ça forme l'avenir de la France d'une certaine façon, pas que pour l'armée, ça va vraiment plus loin de ça, c'est vraiment, pense, philosophique, Fabien, moi tu peux me le confirmer ou non, mais c'est vraiment l'avenir, le fleuron français d'une certaine façon et je sais pas, tu vois, si dans une certaine mesure partir aux États-Unis, c'est pas peut-être vraiment...
Pierre Vannier (32:54)
Oui, bien sûr.
C'est quoi, c'est pactisé avec
le diable, c'est ça ?
Thomas (33:12)
Non pas
du tout, en fait moi il n'y a pas de diable, pas de diable c'est chacun vit à sa façon avec ses méthodologies quand tu vas aux Etats-Unis tu comprends pourquoi ça fonctionne comme ça, quand tu vas en Amérique du Nord tu comprends pourquoi ça fonctionne comme ça, c'est pas la question, c'est...
Qu'est-ce qui nous fait partir ? Moi déjà j'ai mes raisons, c'est très personnel, mais pourquoi je suis parti de la France ? Je me demande pourquoi on irait aux États-Unis. Est-ce que les études font qu'on irait aux États-Unis, puisqu'on a fait polytechnique, puisqu'il y a un montant de salaire qui peut être pharaonique face à la France. Et je me pose plein de questions.
Fabien Antoine (33:47)
C'est beaucoup de questions et en fait le monde est un peu différent maintenant que d'il monde était différent, c'est à dire que, en fait, naïvement, je serais allé aux Etats-Unis sans me poser de questions vraiment philosophiques. Il y a quand même des écarts de valeurs clairement qui font qu'aujourd'hui, plus que jamais, mais certainement à cause des deux trois dernières années,
On a une culture française relative à la valeur du bien commun, être ensemble, on est beaucoup moins orienté sur l'argent que même globalement dans notre génétique profonde sociale quoi. je dirais que ce qui fait bouger les gens aux US c'est pas tant l'appât du gain que l'égo.
Avoir un projet qui se réalise, qui se concrétise en tant qu'ingénieur, parce que derrière il est financé, ça c'est quelque chose de concret et j'ai choisi les armées pour ça. Si en 2010 la question se posait, si c'était en 2010 que je sortais, peut-être que je serais allé aux US parce qu'il y avait des projets hyper sexy chez Google. ⁓
Pierre Vannier (34:38)
...
Fabien Antoine (35:05)
et à l'époque il avait peut-être moins ces questions de valeurs profondes, d'impacts profonds de l'IA sur les valeurs mêmes.
Pierre Vannier (35:14)
du coup, si tu devais monter une boîte startup avec de l'IA demain, parce que là toi, tu à Montréal, on est d'accord, donc tu as quand même bougé de la France vers le Canada. Du coup, si tu devais créer une boîte d'IA demain, est-ce que tu préférerais la créer à Montréal, à San Francisco ou à Paris ?
Fabien Antoine (35:22)
Exactement,
Je pense que ça aurait déjà été le cas avant de la gpd. Je l'aurais pas fait aux us. Je suis venu à montréal plus pour des histoires de voilà on est ma retraite sur une partie de famille ici donc c'est du rapprochement. ouais ouais et encore moins aujourd'hui alors peut-être que j'ai un biais là.
Pierre Vannier (35:55)
tu dis.
Fabien Antoine (36:00)
un biais cognitif qui est récent mais oui je toujours pas, c'est à que là j'ai des idées, j'ai des idées, je suis free lunch, j'ai ma boîte, je peux capitaliser des sucus, j'ai toujours quand même cette fibre de ne pas vouloir capitaliser à outrance et plutôt de créer quelque chose qui disrupte ou apporte quelque chose à tout le monde.
Pierre Vannier (36:23)
Hmm... Hmm...
Fabien Antoine (36:26)
Si c'est possible de faire quelque chose qui apporte à beaucoup versus possible de prendre beaucoup de milliards, préfère l'option qui reverse à beaucoup. Bien sûr, on a besoin de de se nourrir, etc. Mais voilà, c'est quoi le bon équilibre, je ne pas. Aujourd'hui, peux dire que c'est vraiment... Tu peux accéder à beaucoup de choses, mais de toute façon, moi, je n'ai pas cette génétique d'hypercapitalisation. Et si je veux capitaliser, ça sera plutôt pour faire quelque chose qui profite à beaucoup.
D'ailleurs c'est un de mes projets de de disrupter quelques librairies pour faciliter l'accès à tous parce que je constate que c'est dans tous les patterns américains, t'as les SAS, les licences de chômage, etc. y a toujours cette volonté, toujours t'as un projet d'ingénierie, d'IA, tu l'associes à un projet de valorisation. Et valorisation, capitalisation en court terme.
réalisation à 3 ans, buying bar out, si je raconte bien l'histoire, peux en papaouter tout le monde et me sortir avec quelque chose de gros en ayant un mi-peu sur la table. Et de plus en plus c'est vrai grâce à les gars. Et ça moi je suis assez philosophiquement contre ce genre de choses. C'est pas pour ça qu'il pas jouer ce jeu un minimum si toi même tu veux apporter une valeur à tout le monde.
Pierre Vannier (37:24)
...
Ouais. C'est assez bien résumé,
Est-ce que tu penses cette course alia à la puissance aux dizaines, centaines de milliards investis à une espèce de course complètement effrénée aujourd'hui, à la taille des modèles, aux benchmarks, au pourcentage d'autonomie des agents, etc. En fait, tu penses que tout ça est soutenable ?
avec les montants investis et avec l'accélération et l'espèce de délire qu'on voit en ce
Fabien Antoine (38:17)
pas de sens, ça fait pas de sens au sens où... enfin voilà je suis peut-être pas assez orienté à ma insètre capitalistique mais je vois pas le sens en fait de l'hypercapitalisation là. On parle d'une bulle à 9000 milliards et puis tu regardes c'est l'équivalent de l'ensemble du secteur de la santé mondiale.
ou c'est la moitié de l'ensemble des secteurs bonkers. Juste ça, là tu te dis dans ton quotidien est-ce que l'IA ça doit être un truc qui fait la même chose que la santé et le financier. Est-ce que ça vaut ça là ? Juste basiquement tu vois. Puis d'autres réflexions que je me faisais c'est là je fais de l'architecture d'entreprise chez Airbus. Bah en fait OpenAI pourrait racheter Airbus. t'as d'autres trucs toi tu travailles chez BRP Thomas. ⁓
Pierre Vannier (38:48)
Est-ce que ça vaut autant que ça ? Voilà. Ouais.
Fabien Antoine (39:07)
en tripique pour acheter un BRP comme ça en fait. D'ailleurs peut-être qu'ils devraient le faire parce que ça leur donnerait plus de chances de survie mais en tout cas aujourd'hui t'as des trucs comme ça qui font pas sens en fait par rapport à la création de valeur à tout à chacun versus la capitalisation il y a des écarts qui sont ahurissants quand tu dis voilà cette course folle ouais ça me fait vraiment... je reviens encore dans les années 2000 sur le sketch de Jamel de Bouz pourquoi tu cours ?
parce que tu cours mais toi pourquoi tu cours ? Parce que tu cours. fait le premier qui s'est mis à courir c'est OpenAI et puis tout le monde court. Et puis même le gouvernement français a des trucs où te dit s'il n'y pas eu Sam Altman avec sa folie ça aurait été quoi le chemin scientifique pour abrutir la même création de valeur ? Et en fait on aurait globalement une société probablement beaucoup moins endettée parce que là si c'est le crash, si c'est un crack, c'est nous qui allons concrètement
Pierre Vannier (39:40)
Ouais !
Ouais.
Fabien Antoine (40:04)
ce crack et voilà c'est nous qui l'ont payé en fait donc
Pierre Vannier (40:09)
J'ai une idée par
rapport à Scrak, me dis que potentiellement il peut être tellement je pense que ça peut être un risque pour le système capitalistique en lui-même.
Fabien Antoine (40:17)
Oui, bah tout à l'air du crack, ouais.
Pierre Vannier (40:18)
C'est pas Parce que je pense pas que les gens acceptent
qu'ils soient une nouvelle fois les dindons de la farce comme post 2008 pour les subprimes où en fait ils ont sauvé les banques, ils ont sauvé tout le monde, tout big to fail, qu'en fait il y aura pas de responsables alors qu'en fait il y a quand même des gens qui acceptent.
de se signer ensemble des chèques à plusieurs centaines de milliards, de s'auto-financer d'un coup d'un autre de manière réciproque avec des espèces de boucles qui ne pas du tout saines du ces gens-là et ces boîtes-là, quand on parle des GAFAM, ils tomberont pas, ces Je pense.
Fabien Antoine (40:56)
Je l'ai pas retrouvé, je voulais vous le diffuser. Il a pas longtemps, un reportage sur l'histoire du capitalisme. Mais dans ces années 1850, on est toujours dans les mêmes mécanismes. La participation des États-Unis à la guerre mondiale motivée par potentiellement les faillites de certains grands acteurs dont les banques américaines.
parce qu'ils ont joué au jeu de l'armement, financé l'armement, puis se rendu compte que si leurs investissements devaient devenir moins rentables c'est qu'il fallait que l'Europe gagne. Il y a même une histoire politique récente qui fait qu'en plus on se désabonne plus facilement du capitalisme parce qu'il est incarné par l'autocratie aujourd'hui.
Mais je pense que c'est juste qu'aujourd'hui ce système capitalistique se révèle beaucoup plus qu'avant. Il a été lui-même beaucoup plus promu par l'IA elle-même. ouais, a peut-être quelque chose là-dedans et effectivement ça donne le sentiment que ce système va être peut-être fatal. Cette bulle peut-être fatale contrairement aux bulles
Il y avait quand même beaucoup plus de consensus sur les positions des acteurs occidentaux à l'époque.
Thomas (42:18)
on arrive vers...
On arrive vers la fin de l'épisode mais il quand même un sujet qui est intéressant puisque pour moi tu parles de l'exemple de la finance ou de la santé. La santé a des vertus qui sont complètement différentes donc je vais le mettre de côté par simplicité mais la finance c'est quand même un sujet qui est intéressant puisque ce n'est qu'un intermédiaire. Je le réduis un peu mais c'est ça l'objectif. Et tu parles aussi du capitalisme et le capitalisme en vrai il est sorti à la fois des Etats-Unis mais aussi de la machine à vapeur en tant que test, c'est-à-dire comme outil de productivité. Et en fait l'intelligence artificielle c'est un outil de productivité.
Et je trouve que dans une certaine façon, tu vois, quand tu dis est-ce que l'intelligence artificielle ça devrait être aux valorisations de la finance, pour moi oui. Pour moi oui complètement. fait, il devrait s'inscrire un peu comme quelque chose, ça va être terme négatif, mais il devrait rentrer dans toutes les failles possibles pour améliorer la productivité. Par contre, ce qu'il ne faudrait pas, c'est que ça aille aussi vite que c'est cas actuellement. C'est-à-dire que si tu prends la période post-Covid où on a, je vais prendre les 2020 par simplicité, c'est pas normal qu'en six ans on ait
on soit arrivé à des valorisations, puisqu'on parle de valorisation mais c'est pas que ça qui compte, de valorisation proche du système bancaire. Mais est-ce que pour toi Fabien, tu considères que l'intelligence artificielle, ça a sa place dans tous les sujets de la société ? Bon c'est peut-être un peu philosophique comme question mais dans le sens où...
Fabien Antoine (43:43)
Oui ça devient
de plus en plus... mais je pense que c'est important de se consacrer à ça, à penser pour savoir c'est quoi le modèle de demain en fait. Parce si tu reviens à ces époques capitalistiques, bah t'avais le marxisme face au fordisme, t'avais des philosophies de c'est quoi la valeur du travail et c'est quoi la position de tout un chacun. Donc c'est important quand même de prendre le temps de prendre ça, le temps de ça. Je pense qu'on n'est pas encore dans...
de suite mais c'est demain parce que l'IA est capitalisée aujourd'hui elle très immatérielle. passe à l'ère de la robotique c'est là que on va voir vraiment quelle vitesse ça c'est à que voilà à partir du moment où il a du matériel tu vas jusqu'aux ressources minières pour faire tout ça est ce que tu peux continuer à cette vélocité et vraiment avoir un impact de tous les jours tu pas très bien avoir
un impact énorme sur la vie de un chacun avec la robotique là où il a seul au totalement immatériel révolutionne surtout le travail des cols blancs mais beaucoup moins donc c'est toute une partie de la population mais pas toute la je pense que c'est ça
Thomas (44:52)
On est en train de dire d'une certaine façon que la robotique, ça sera la matérialisation réelle de ce qu'on est en train de faire actuellement, un peu comme
justement parler des CNN en 89 et ça n'a vu son application que dix ans plus tard.
Fabien Antoine (45:04)
avec des effets beaucoup plus retorts parce que en fait là tu peux dire un LLM, même un tout logiciel là si tu veux le refaire tu vas pouvoir le faire en 12, 18 mois tu vas pouvoir faire à peu près la même chose même toi tout seul toi par contre si tu commences à avoir des besoins de ressources minières pour faire des robots etc et puis
les diffuser, là t'as besoin de capitaux, t'as besoin de... Donc c'est là où l'inertie capitalistique peut être dangereuse parce qu'elle peut aboutir à une hyper concentration des pouvoirs dans quelques mains. Voilà, on peut devenir l'esclave de nos robots, demain, parce que ceux qui les font détiennent toute la valeur verticale, horizontale, parce qu'ils ont réussi à bien jouer le jeu. pour moi, le danger est là, il est là demain.
un peu moins aujourd'hui. Est-ce que la bulle va claquer avant ? Je pense que dépendra des stratégies autour de la robotisation, de la robotique.
Thomas (46:04)
En parlant de robotique, on arrive sur la fin de l'épisode, on a toujours la question du précédent invité, c'était Mathieu, si je ne me trompe pas, qui a fait le livre « Ni Dieu, ni IA », c'est ça Pierre, tu me le confirmes ? Donc je ne me suis pas trompé dans le titre. Il a posé cette question pour le prochain invité qui est « Que raconter une IA à une autre IA si le monde disparaissait
Pierre Vannier (46:17)
Tout à fait.
Fabien Antoine (46:24)
Je veux pas dire exactement ce qu'elle dirait parce que c'est...
Pierre Vannier (46:25)
Je reconnais bien la question de Mathieu Cortel.
Fabien Antoine (46:31)
Moi, ça voudrait dire qu'on serait dans une ère post-apocalyptique. Pour moi, le scénario le plus probable, ce sera contraire de Zia, c'est qu'elle échangerait sur la gourmandise de pouvoir des humains, qui avaient le pouvoir de redistribuer les richesses. Zia était en capacité de leur proposer tous les scénarios pour les redistribuer, mais ils ont choisi le sac à parer les biens à quelques-uns.
Mais comme ils n'étaient pas les seuls à le faire, y eu des grands conflits et ça aboutit à la destruction de l'humanité. Et je pense vraiment que autour de la gourmandise de quelques-uns que notre gourmandise potentiellement s'en limite, ça tournerait.
Thomas (47:12)
J'espère que ça n'arrivera pas, de toute façon on ne saura pas si arrive. Est-ce que toi tu as une question pour le prochain invité qu'on ne connaît pas du tout ?
Fabien Antoine (47:20)
Alors
elle est un peu liée à ma spécialité initiale, c'était l'évaluation des IA dans des tâches précises. Mais ce serait quoi aujourd'hui les tâches, les métriques et les benchmarks à mettre en place, parce qu'aujourd'hui on parle beaucoup de codes. Ce serait quoi pour les benchmarks à mettre en place pour une IA qui contribue au bien-être de l'humanité.
Pierre Vannier (47:42)
Vaste question. Si on arrive à trouver la réponse, je pense qu'on peut créer une startup à peu près où on veut. Je pense qu'on se fera sûrement zigouiller avant. Fabien, c'était un super épisode très intéressant. Merci beaucoup Fabien pour ton temps. et merci à toi Thomas.
et merci à tous ceux qui nous écoutent et qui nous regardent sur YouTube. N'hésitez pas à nous mettre des petits avis, ça nous fait toujours plaisir. Merci messieurs !
Thomas (48:12)
Merci beaucoup. Bye.
Fabien Antoine (48:12)
Merci à vous. Au revoir.