IA pas que la Data - Reprendre le contrôle sur tout ce qui se dit autour de l’intelligence artificielle

C’est le dernier épisode de "IA de l'actu" pour cette année 2025, et on termine sur les chapeaux de roues ! 💥

Au programme de cet épisode :
🔹 Le séisme Yann Le Cun : Le patron de l'IA chez Meta annonce son départ. Est-ce la fin des LLM ? Où va-t-il rebondir ? On analyse ce divorce idéologique avec Mark Zuckerberg.

🔹 La guerre des puces : Alors que Nvidia montre quelques signes de faiblesse sur les livraisons, Google (Alphabet) affiche une santé insolente avec 100 milliards de revenus, boostés par la pub et ses investissements massifs dans les TPU.

🔹 L'hécatombe de l'emploi Tech : 150 000 suppressions de postes aux US en 2025 (+175% vs 2024).

🔹 Bulle ou pas Bulle ? Le débat fait rage entre Andrew Ng et les marchés financiers. Faut-il craindre un éclatement sur l'infrastructure d'entraînement des modèles ?

🔹 Le coup de gueule de Pierre 🤬 : Des dangers des "Dark Patterns" à l'anthropomorphisme des chatbots : pourquoi il est urgent de descendre de la "roue de hamster" et de repenser notre rapport à la tech.

🎂 Bonus : On fête (déjà !) les 3 ans de ChatGPT.

On se retrouve dans 15 jours pour un nouvel épisode de IA pas que la Data, et début 2026 pour un nouvel épisode IA de l'actu
🎧 Abonnez-vous pour ne rien rater !

  • (00:00) - Introduction
  • (01:19) - Google vs Nvidia : La guerre des puces (TPU vs GPU)
  • (06:17) - Le départ choc de Yann LeCun de Meta
  • (14:53) - Le paradoxe Amazon : Licencier des développeurs pour "innover"
  • (16:11) - Cursor : Une valorisation x12 délirante et risques de bulle
  • (19:02) - L'analyse d'Andrew Ng : Bulle sur l'infra, pas sur l'usage
  • (20:51) - Trump, la Tech et la fracture sociale aux US
  • (26:01) - Le virage sceptique de Pierre : "Je ne suis plus un fanboy"
  • (27:59) - De la data publicitaire à la data intime : Le vrai business des LLM
  • (38:03) - Dark Patterns et anthropomorphisme : Quand l'IA joue avec nos émotions
  • (40:57) - Dystopie : Meta utilise l'IA pour évaluer ses salariés
  • (43:56) - Le coup de gueule : "Descendre de la roue de hamster"
  • (50:01) - Les 3 ans de ChatGPT : Bilan
  • (52:35) - La "boîte noire" des modèles : Complexité réelle ou secret industriel ?
  • (58:23) - Conclusion, teasing de la prochaine invitée et fin

Creators and Guests

Host
Pierre Vannier
Fondateur et PDG Flint, Dev Backend / IA, agitateur Tech ✨
Host
Thomas Meimoun
Machine Learning Engineer / Data Scientist

What is IA pas que la Data - Reprendre le contrôle sur tout ce qui se dit autour de l’intelligence artificielle?

Reprendre le contrôle sur tout ce qui se dit autour de l’intelligence artificielle, voilà pourquoi nous avons créé ce podcast IA pas que la Data !

Tous les mois, nous aurons le plaisir d’accueillir des experts de l’IA, de la data et de la tech, qui nous partageront leur opinion et regard critique sur cette révolution.

Technophiles, ce podcast vous apportera un éclairage sur ce qui se cache derrière l’IA et vous permettra de prendre de la hauteur sur ce que l’on entend quotidiennement.

#IA #GenAI

Thomas (00:13)
Bonjour à tous et bienvenue dans ce nouvel épisode de IA de l'actu. C'est le dernier épisode de l'année, je suis toujours avec Pierre Vannier. Salut Pierre.

Pierre Vannier (00:20)
Salut Thomas, salut à tous.

Thomas (00:22)
Tu nous présentes un peu Flint ?

Pierre Vannier (00:24)
Flint, société de conseil en tech, data et IA que j'ai créé il a huit ans. Voilà où on conseille les entreprises de moyenne et de grande taille pour faire des jolis projets tech, data et IA.

Thomas (00:39)
Bon, tu as mis un costume aujourd'hui, c'est très sympa. De mon côté, je suis Thomas Meimoun, Team Lead Data Scientist toujours à BRP et à Montréal. Donc, on va revenir sur les actualités du mois de novembre. Il encore eu beaucoup de choses, je crois. Est-ce que tu as envie de parler d'un sujet en particulier, ?

Pierre Vannier (00:42)
Ouais.

J'aimerais quand même qu'on chante Joyeux Anniversaire à un moment donné parce que quand même ça sera les trois ans de chat de GPT, on en parlera de tout l'heure. Beaucoup d'actu encore. Je crois que tu nous as fait une belle liste de choses très intéressantes, prêts pour en discuter et prêts pour challenger toutes ces idées.

Thomas (01:19)
J'ai fait une liste un peu non exhaustive puisqu'il y avait encore beaucoup de choses et j'avais décidé de changer un peu de sujet et qu'on parle un peu moins de Nvidia. Je pense qu'on en parlera quoi qu'il arrive comme d'habitude mais je voulais qu'on parle un petit peu de Google et avec Alphabet, donc la société maire de Google qui avait fait encore des bons résultats trimestriels. Donc j'ai l'habitude de souvent revenir sur les aspects financiers et il y a eu quelques déceptions de la part de Nvidia ce mois-ci.

puisqu'ils ne seraient pas en mesure de livrer tout leur GPU comme il le faut. Et Google est en train de sortir à tête de l'eau. pas du tout. Ça toujours allé très bien pour cette entreprise. Mais aujourd'hui, ils proposent potentiellement la vente de TPU, donc les processeurs faits par Google pour aller, je ne pas, c'est concurrencer ou accompagner Nvidia. Mais... concurrencer ? Bon, Nvidia. Ils ont quand même envoyé un petit hack à Nvidia en disant que...

Pierre Vannier (02:08)
Ouais, concurrencé moi je dirais quand même. Moi je dirais concurrencé. Ouais !

Thomas (02:16)
les GPU de Nvidia étaient un peu meilleurs que ce Google, donc à choisir il valait mieux venir chez Nvidia. Donc la concurrence arrive aussi à l'intérieur des États-Unis. Est-ce que tu aurais l'occasion toi d'essayer des GPU ?

Pierre Vannier (02:27)
All right.

Non, ce que j'ai utilisé c'était chez Grok, pas le chatbot d'Elon Musk, la plateforme d'inférence Grok, G R O Q. du coup, Grok, ont des LTE, Je que c'est Donc une autre architecture qui fait que c'est quand même super rapide.

Mais je n'ai jamais essayé les nouvelles de ce n'est pas n'importe quel acteur sur le devant de la scène pour concurrencer Nvidia. C'est quand même du lourd Google.

Thomas (03:12)
En fait les TPE ont toujours été plus ou moins accessibles quand je sais pas pour les auditeurs mais si vous utilisez Google Collab donc quand vous allez sur Drive vous pouvez utiliser Collab donc le notebook en ligne.

Pierre Vannier (03:23)
Donc c'est les espèces

de notebooks pour pouvoir exécuter du code, du Python, de la data et de lia un peu online comme Kaggle ou des choses comme ça aussi.

Thomas (03:39)
Google ça appartient à Google maintenant. Ça fait un petit moment maintenant donc effectivement ils proposaient, c'était même une très bonne solution pour utiliser des GPU gratuitement et des TPU. c'est plutôt bon signe et puis encore une fois, je pense qu'on en avait déjà parlé mais le temps passe très vite. Leurs chiffres d'affaires et leurs bénéfices, proviennent encore une fois beaucoup de la publicité. c'est presque Google. Toujours Google, ça revient à 70 % pour la publicité. Les chiffres sont très bons.

Pierre Vannier (04:01)
On y va.

Thomas (04:07)
et ils ont annoncé presque 100 milliards d'investissements sur des sujets dont l'intelligence artificielle. Je ne pas si on se rend compte du chiffre, 100 milliards c'est vraiment gigantesque pour une entreprise, mais ils ont des convictions très fortes et puis surtout, je ne pas si tu as suivi un peu tout ça, mais il a eu pas mal de sorties de la part de Google ce mois-ci, notamment NanoBanana 2.

Pierre Vannier (04:27)
Ouais ouais ouais, Sundar...

Ouais oui les sorties, les sorties des modèles. Ananas. Trois.

Thomas (04:32)
Il est sorti des modèles, a eu Nano, Banana 2, Gemini

3 et il y a eu aussi un équivalent de Cursor je

Pierre Vannier (04:40)
Banana 3 ?

Thomas (04:42)
Dans ces deux, et Gemini 3.

Bon à la fin, ça reste quand des évolutions, c'est pas des nouveaux modèles. Et il y eu un équivalent de Cursor, je crois que c'est... Oh je me rappelle même plus du nom, je l'ai même pas noté tellement longtemps. Non... Ah non ? Ils ont encore changé, je crois que c'est quelque chose comme euh...

Pierre Vannier (04:54)
C'est... C'est Jules.

ils ont encore changé

oui, ont fait un

fork de VS Code. C'est pas ça ? Un nouveau fork de VS Code. Ils ont une idée eux.

Thomas (05:07)
Alors, normalement,

c'est anti-gravity. C'est un peu un équivalent de cure-sore. Bon, il y quelques limitations. Il y a déjà eu des tournements sur des données. On a réussi à faire de l'injection et ce genre de choses, donc à voir comment les choses évoluent. Ils ont été très très très présents ce mois-ci. Et même d'un point de vue financier, ils ont complètement explosé sur les marchés financiers.

Pierre Vannier (05:11)
oui c'est ça.

Ouais tu disais le résultat plus 33 % sur un an. C'est assez hallucinant en termes de résultat.

Thomas (05:46)
Ils ont fait plus de 12 % en en publicité, donc ça montre bien. Encore une fois, on parle beaucoup de, je crois, de GEO en français, ou c'est de la publicité via l'intelligence artificielle. Aujourd'hui, Google montre encore une fois qu'ils sont très présents et ils ne pas prêts de s'arrêter là-dessus. Après, je ne pas si on a envie de parler pendant cet épisode beaucoup de toujours les mêmes acteurs, Openea et Nvidia et ce genre de choses. que peut-être qu'on aille sur autre chose. Moi, j'avais vu quelque chose qui m'intéressait. Je voulais juste revenir sur le méta. C'est une des...

Pierre Vannier (06:09)
Hmm.

Thomas (06:17)
Par le passé, on a déjà parlé des magnifiques 7, qui sont les 7 grosses entreprises de la tech aux Etats-Unis. De souvenirs, avez Nvidia, Apple, Meta, Google. Je vais dire Tesla, je ne me rappelle plus des noms. Par contre, Meta a beaucoup déçu puisque ça n'a pas du tout atteint les attentes. Mais surtout, a l'annonce de Yann Lequin qui annonce son départ de Meta.

Pierre Vannier (06:22)
et

Thomas (06:45)
Donc, j'espère que un avis là-dessus.

Pierre Vannier (06:47)
Ça a fait grand bruit Yann Lequin, était, on le rappelle, de plus en plus une voix discordante chez Meta, la mesure où il s'en est pas caché. Il avait même dit de toute façon, les LLM, c'est fini.

ceux qui se lancent aujourd'hui dans l'IA, s'ils font des LLM, c'est des ratés. Je tiens un peu le trait mais c'est un peu ça. Il avait vraiment quand même mis une grosse cible dans le dos des LLM pour la bonne et simple raison qu'effectivement il plus... il considère que les architectures et le paradigme LLM en IA ne permettra pas d'aller beaucoup

loin que là où on est aujourd'hui, c'est-à-dire prédire le next to come, prédire du texte et ce genre de choses là, dans la mesure où lui, il s'est un pourfendeur et un ardent défenseur de ce qu'on appelle les modèles de monde. Donc ça, c'est quand même assez intéressant. Il rejoint d'ailleurs un peu la vision qu'avait aussi Sutton.

qu'on avait vu, était aussi un des grands parrains de l'IA. Et Lequin était de plus en plus aussi en désaccord avec Alexander Wang, avait été nommé par méta et qui avait été débauché. là, pense, moi j'ai quand même l'impression que c'est... Donc il dit qu'il quitte pour créer une nouvelle structure. Je voyais Gilles Babinet poster quelque chose d'assez intéressant.

sur LinkedIn en disant ce qui sera intéressant de voir c'est où est-ce qu'il crée sa nouvelle structure, c'est vrai, aux Etats-Unis ou en France parce qu'il a quand même, du coup il a le passeport américain. Yann Lequin s'en va à peu près au 3 ans, anniversaire de 3 ans de Tchaatjpt. Intéressé de voir la suite qu'il donne à sa carrière et où est-ce qu'il...

comment il évolue à partir de ça.

Thomas (09:07)
Surtout que je crois qu'il a un leucan à dépasser les plus de 60 ans, même

Pierre Vannier (09:12)
Il a 65 ans. Bah écoute, si il vient en France, il peut encore continuer quelques années.

Thomas (09:14)
Et l'instant.

Ouais, Bon, j'ai

peut-être... Ouais, ok, j'ai la blague. Mais en tout cas, moi, je trouve ça fou qu'il décide de continuer dans ce domaine-là, surtout à cet âge-là, avec cette réussite-là. En fait, je ne pas rentrer dans le détail, mais je pense qu'il a très bien gagné sa vie et donc il y a vraiment une volonté, une vocation de vouloir faire évoluer le domaine. Je ne pas du tout l'intérêt de rentrer en France.

Pierre Vannier (09:40)
Je pense qu'il est passionné. Je pense qu'il est réellement passionné de la même manière que les Hinton, Sutton, tous les... Je pense à Joshua Benjo qui est aussi âgé, l'air de rien. C'est des gens qui commencent à toute cette génération-là. Donc moi je pense qu'il continue parce que... Comment tu pourrais ne pas continuer dans ce domaine de l'IA avec...

les développements qui se passent aujourd'hui, la frénésie qui se passe aujourd'hui et quand t'es une âme de chercheur. Je ne conçois pas qu'ils puissent arrêter ces gens-là, en tout cas pas en ce moment. Je pense que le motivateur et le driver n'ont absolument plus probablement l'argent.

Thomas (10:33)
Tu penses ? Moi je dirais qu'il

n'est pas capitaliste, un certain. Écoute, ça c'est un autre débat, je ne pas parler pour eux, mais quand il a trop d'euphorie, à un moment les gens veulent juste en profiter, mais encore une fois, je ne pas dans leur tête. Mais c'est vrai que Joshua Ben-Ju a aussi arrêté de travailler avec le MIA, donc le centre de recherche de Montréal pour l'intelligence artificielle. Donc ça reste intéressant à voir, je crois, pour monter une structure. Je ne pas tous les détails de ces personnalités dans l'intelligence artificielle.

Pierre Vannier (10:37)
Non.

Ok.

Thomas (11:01)
Mais ça peut être intéressant de voir les mouvements. Mais par contre, non, pour Ryan Lothlin, je ne pas intérêt de retourner en France sachant que...

Pierre Vannier (11:05)
Ça

serait marrant qu'en fait Yann Leucin crée une startup avec Sutton et avec Geoffrey Newton. Ça serait marrant.

Thomas (11:16)
A voir, franchement, ça reste des belles têtes, à voir ce qu'ils veulent amener au domaine et puis je pense qu'ils peuvent faire ramener des capitaux assez facilement vers eux. Je pense qu'il a pas trop de doute là-dessus, mais je pense que le message a été assez fort du point de vue de méta, juste de souvenir qu'il vice-président et scientifique en chef en intelligence artificielle et puis il est passé au second rang, si je puis me permettre, avec Alexander Wang, qui venait de Scale AI et qui est beaucoup plus jeune, il a moins de trois.

Pierre Vannier (11:25)
Oui, c'est sûr.

Ouais je crois,

Thomas (11:46)
Une trentaine d'années, un peu moins de 30 ans.

Pierre Vannier (11:46)
25, c'est ça, moins de 30 ans.

Thomas (11:50)
Donc ça reste quand même super intéressant. puis après moi, je voulais revenir sur un sujet qui m'a intéressé encore une fois beaucoup. Malheureusement, on le voit d'un œil très négatif en ce moment, c'est sur les emplois et la productivité avec l'intelligence artificielle. En cette fin d'année, ça reste un sujet qui est extrêmement fort, avec beaucoup de mouvements. Et en fait, là, je parle d'un point de vue vraiment général sur les États-Unis. Je ne l'associe pas pour le moment à l'intelligence artificielle et aux outils de productivité, mais...

il a une explosion des suppressions de postes. là, je ne parle pas du chômage, c'est suppression. On a à peu près 150 000 suppressions d'emplois, ce qui est en 2025, à la date à laquelle on est, et on parle de plus 175 % par rapport à 2024. Et donc ça, c'est énorme. Et encore une fois, on en avait un petit peu parlé le mois dernier, mais on a des marchés financiers, puisqu'il faut souvent mettre ça en comparaison.

Pierre Vannier (12:22)
Mmh. Mmh.

2025 aux US.

C'est énorme.

Thomas (12:49)
on a des marchés financiers qui continuent à exploser, qui sont tirés vers le haut, en raison d'une productivité qui semblerait accrue. donc ça, serait grâce à l'intelligence artificielle et surtout une attente sur les taux directeurs et les banques centrales. là, je ne pas rentrer dans ce détail-là. Par contre, ça reste un point qui est extrêmement intéressant puisque, je vais pousser un peu le vice, on arrive à un moment où on n'arrive pas actuellement à prouver

Et donc je parle bien de prouver la valeur de la productivité associée à l'intelligence artificielle. C'est-à-dire que plus que jamais... Voilà, plus que jamais... On en parlait, mais là, on a vraiment des chiffres qui sont vraiment très forts. C'est-à-dire que le mois dernier, on parlait, par exemple, des suppressions d'emplois de la part de Amazon. Ils sont encore revenus sur ce sujet-là, puisqu'ils vont encore faire... Je n'ai plus les chiffres sous les yeux, mais ils vont encore se débarrasser...

Pierre Vannier (13:26)
ça m'étonne pas. On en parlait au dernier podcast aussi.

Ouais.

...

Thomas (13:47)
Moi je parlais des... Là ils ont explicitement annoncé le départ de software développeurs. Donc surtout des software développeurs de niveau 2 qui ont plus la tendance de confirmer senior. Là c'est directement dirigé vers eux. Il va y avoir des suppressions de postes. Et là on touche vraiment du doigt le sujet de productivité lié au développement logiciel. Il faut me retrouver les chiffres.

Pierre Vannier (14:17)
qui est vrai, qui réel pour les développeurs et pour le monde du développement logiciel. y a des réels gains de productivité entre guillemets des développeurs à l'ancienne avec 0 % d'IA et des développeurs aguerris à ces nouvelles méthodologies et augmentés entre guillemets à l'IA. y a des réels gains de productivité. Ça c'est beaucoup plus évident. Après pour tout

Tout le reste qui n'est pas software developer dans le pool des marchés d'école blanc, des jobs et des professions d'école blanc, c'est encore autre chose. C'est encore autre chose de prouver la productivité.

Thomas (14:53)
Exactement.

J'ai retrouvé l'annonce et en fait ça c'est un point qui est extrêmement intéressant puisque le mois dernier, ils ont annoncé leur suppression d'emploi, ont annoncé vouloir redonner un peu de dynamisme à l'ancienne Amazon. Et en fait, annoncent donc ce mois-ci un cut. Ils vont se...

Pierre Vannier (15:06)
Oui, une culture startup, c'est ça.

Allez, ! Un plan social.

Thomas (15:19)
ils vont se débarrasser, mais ce n'est pas un bon terme, ils vont se dire au revoir à près de 1800 ingénieurs, principalement des software engineers comme je l'ai annoncé. Et en fait, pour moi, ça ne colle pas du tout avec cette idée de, on a besoin d'innover vite, on a besoin d'être beaucoup plus flexibles puisque des entreprises comme Amazon ou à plus forte mesure AWS, mais qui sont pas les mêmes entreprises, ça passe par le software. Et donc, si on veut être dans l'innovation,

il faut du software à se débarrasser de 2000 personnes. moi, je peux parler du terme débarrasser. Il y a un message qui est fort, est, on a juste besoin de trouver des raisons pour dire revoir à certaines personnes dans une entreprise. Et en fait, le mois dernier, ça ne colle pas du tout avec ce qu'ils sont en train de actuellement. Je voulais aussi revenir sur...

Pierre Vannier (16:02)
Oui ? Oui oui.

L'IA a

un bon dos, vraiment un gros dos. C'est à dire qu'en aujourd'hui, la quasi totalité des boîtes, côté NASDAQ, Stock Exchange ou tous les marchés financiers aux US, dès qu'il a des lay-offs et des plans de suppression d'emploi, tu trouves toujours le mot IA au milieu. c'est plus ou moins vrai.

Thomas (16:11)
En fait c'est

ça ? En fait, ça qui est intéressant puisque si tu prends l'annonce toute seule, je trouve qu'on se moque un peu de nous. Bon après, Amazon n'a rien à m'expliquer s'ils ont envie de se débarrasser de personnes auprès de... au sein de leur équipe, ce qu'ils veulent. Mais ce qui est intéressant, c'est par exemple, quand tu commences à croiser les données, tu te rends compte que l'entreprise cursor. Je pense que ça a assez de l'air pour tous ceux qui nous écoutent, cursor, c'est pour le développement de code avec l'intelligence artificielle.

Pierre Vannier (17:01)
et

de manière augmentée pour les développeurs.

Thomas (17:05)
Exactement, ils ont encore levé 2,3 milliards de dollars et donc ils ont une valorisation un tout petit peu moins de 30 milliards de dollars.

Pierre Vannier (17:12)
qui est phénoménal

pour une entreprise qui a moins de cinq ans.

Thomas (17:15)
C'est

gigantesque, à titre de comparaison, mais ça n'a pas trop de valeur aujourd'hui. OpenAI, c'est 500 milliards, ce qui est gigantesque. Mais 500 milliards, ça le classe dans le top 40 des valorisations d'entreprises aux États-Unis. Donc Cursor est 15 fois moins. Enfin, peu moins de classement, 15 fois moins. Ça reste énorme. Mais ce qui est intéressant, c'est que sa valorisation a été multipliée par 12 depuis janvier.

Et ça, c'est un point qui reste assez impressionnant. de 30 milliards, personne n'a besoin de 30 milliards pour une entreprise et personne n'a besoin d'être valorisé x12 sur une année.

Pierre Vannier (17:52)
L'entreprise annonce qu'ils ont eu une croissance de x100 de ses revenus annuels en 2025. Par rapport à 2024. C'est délirant.

Thomas (18:02)
En fait c'est l'identeste et ça montre

bien, ça montre un message qui est fort puisqu'en fait il n'y a pas que Cursor, il y a aussi par exemple, j'ai plus les noms en tête mais il GitHub co-pilot, il y a aussi les autres outils qui sont...

Pierre Vannier (18:15)
Ouais, t'en as plein d'IDE comme ça. Winsurf aussi. Qui devait être racheté par OpenAI mais qui finalement, je ne crois aux dernières nouvelles, n'a pas été racheté. Je crois.

Thomas (18:19)
Et donc en fait, ouais, oui, bah on n'en entend plus trop parler en ce moment.

Non, je crois qu'il pas de nouvelles pour le moment, par contre, ça me permet de venir sur un dernier point. on parle beaucoup de en ce moment, que ce soit nous ou qu'il se soit d'autres. J'avais fait la promesse de ne trop parler d'NVIDIA aujourd'hui, mais je vais quand parler de bulles. Il y a quand même le patron de Google qui parle d'une possibilité de bulles autour de l'IA avec des investissements qui sont exagérés comme avant l'explosion d'Internet. Donc là, on commence un peu à tout connecter.

Et après, a quelques levées de boucliers. J'avais noté ces quelques mots. Je ne pas si tu vois qui c'est en drone.

Pierre Vannier (19:02)
si, si, tout à fait. Qui est aussi un

codefaseur de l'IA en douanji. C'est le fondateur, cofondateur de Khan Academy, c'est ça ? En douanji ?

Thomas (19:07)
Exactement.

Alors là,

j'en ai aucune idée pour moi, il avait un lien avec le Google Brain, En tout cas, c'est un acteur vraiment important de l'écosystème du machine learning et de l'intelligence artificielle. pense que beaucoup de personnes, a peut-être un peu moins de 10 ans, ont fait ces cours sur Internet, qui ont été d'une utilité, je pense, phénoménale. En fait, il va...

Pierre Vannier (19:33)
Non, co-fondateur de Coursera et de Deep Learning. Et il a été co-fondateur de Unhead of Google Brain.

Thomas (19:36)
C'est pas mal non plus.

Voilà. Bon, c'est pas n'importe qui. C'est franchement pas n'importe qui. C'est un vrai bon vulgarisateur de l'univers de l'intelligence artificielle. en fait, lui, parle de la bulle aussi. Donc il a une newsletter qui est vraiment fabuleuse. Je vous conseille de la suivre. s'appelle The Batch. Tous les jeudis, il sort quelque chose. En fait, il fait la distinction sur la bulle de l'intelligence artificielle et il dit qu'il existe effectivement trois sujets vraiment très forts. C'est les infrastructures d'intelligence artificielle pour l'entraînement de modèles.

les infrastructures d'intelligence artificielle pour l'inférence et ce qu'ils appellent les AI Application Layer, est plus d'utiliser le potentiel de l'intelligence artificielle. Ils supposent qu'il y aurait bel et bien une bulle possible dans les infrastructures d'intelligence artificielle pour l'entraînement de modèles. En fait, c'est un point important, c'est-à-dire que toutes les entreprises comme Meta, OpenAI, Anthropiq, surconsomment en fait les GPUs pour pouvoir entraîner des nouveaux modèles.

Pierre Vannier (20:15)
Oui.

Thomas (20:39)
tu GPT-5, 4, 6, etc. Par contre, on devrait mettre plus d'énergie puisque là pour lui, il n'y a pas de bulles sur le fait de répondre et donc d'inférer ces fameux modèles d'intelligence artificielle et surtout ces layers qui permettraient de mieux interfacer l'intelligence artificielle auprès des utilisateurs.

Pierre Vannier (20:51)
Mmh. Mmh.

Je pense qu'il a une bulle au niveau de l'infrastructure, notamment parce qu'ils investissent, ils achètent des GPUs, mais que la valeur aujourd'hui et le retour sur investissement ne se fassent pas à hauteur des sommes qu'ils investissent. Donc

Je pense que ça peut éclater et le jour où ça éclate, pense que ça peut être assez risqué. Au-delà de ça, je trouvais qu'il avait quelque chose d'assez intéressant. C'est Gilles Babinegg. Encore une fois, je vais faire référence, il en a parlé dans un de ses posts sur LinkedIn via un post du Financial Times où en fait il disait que aujourd'hui, ce qui se passe, et en fait on le voit, tu vois, je vais reboucler par rapport à ce que tu disais que l'IA supprime des jobs.

ça de plus en plus ça devient une sorte de retournel dans les journaux, dans les médias et du coup dans la tête de l'opinion publique américaine aussi, l'IA tue des jobs et c'est générateur de lay-off etc. donc en fait ce qui se passe c'est que Trump il a quand même élu par une base de...

relative extrême droite assez pauvre et de l'autre côté relative extrême droite super riche techno type Peter Thiel, Andriessen, Horowitz, etc. Et en fait, ces gens-là, c'est sa base politique d'élection, ce qu'il y a, c'est que la base des gens pauvres d'extrême droite commence à se rendre compte qu'en fait la base

super riches d'extrême droite techno accélérationniste et en train de pousser des technologies qui vont supprimer un maximum de job. Donc du coup, on commence à faire une espèce de grand écart sur la base des électeurs de Trump. Et ça, c'est risqué. Ça, c'est risqué parce qu'il peut y avoir des dissensions, peut y avoir des...

peut y avoir des soucis si effectivement il perd une partie de ses électeurs qui commencent à se dire bon bah écoute Trump en fait il a élu des milliardaires techno capitalistes qui poussent un maximum des technologies qui vont supprimer des centaines de milliers d'emplois. Et il critique aussi ces gens de l'extrême droite de la base plutôt redneck, extrême droite chrétien, relativement pauvre.

prolétaire. critiquent aussi le fait que ces technologies d'IA ont tendance à séparer les gens, à potentiellement faire que les gens ne se rencontrent plus ou ne se marient plus. Et effectivement, l'IA peut venir aussi fortement impacter les cadres traditionnels de ces gens-là. Donc du coup, en arrière-plan, a un petit peu tout ça.

Et on peut dire que Trump est quand même très très clairement du côté des techno accélérationnistes ultra riches et du techno capitalisme est quand même moins porté sur sa base de gens de problèmes de pouvoir d'achat, impacté etc. par le chômage, par la montée des prix, etc. Donc ça, c'est assez intéressant.

Thomas (24:16)
Moi tu vois j'ai une question qui peut paraître extrêmement bête mais si ce n'est pas ces entreprises privées qui font ces investissements sur ces domaines là, qui le fait ? Et si l'on ne pas les faire ?

Pierre Vannier (24:27)
Ah ils sont obligés ! Ils sont obligés notamment parce qu'aujourd'hui ils sont aussi dans une vraie course avec la Chine où effectivement il faut être avant la Chine à tout prix sur l'hypothèse de l'AGI et de l'intelligence artificielle générale.

Thomas (24:29)
C'est ça ?

Oui mais là, j'enlève tout le... En fait, j'enlève tout la partie contrôle, pouvoir vis-à-vis des pays et ce genre de choses. Pardon, je parle vraiment de la technologie en tant que telle, l'intelligence artificielle. Si ce n'est pas eux, ces entreprises qui ont des énormes ressources, va dire des termes ressources, qui doit le faire ? Est-ce que c'est les États ? Est-ce qu'il faut tout simplement ne pas le faire ? Moi, je commence à me poser cette question, puisque c'est vrai qu'aujourd'hui, on parle beaucoup de bulles et d'impact négatif.

Pierre Vannier (25:13)
Est-ce qu'il

faut pas faire faire ou ne pas faire d'IA ? Ça c'est la grosse question, c'est ça ?

Thomas (25:17)
À un moment on en arrive à ce point là puisque si aujourd'hui en tant qu'humain on est capable de... Et là ça peut devenir très philosophique mais si en tant qu'humain on est capable de produire, de créer, d'intelligence artificielle. Je vais très loin dans le raisonnement et on peut voir ce qu'on veut d'intelligence artificielle. Qui doit le faire ? Ou est-ce qu'on ne doit pas le faire tout simplement ? Pour moi on doit le faire puisqu'on est prêt à capter cette technologie. Je parle vraiment de créer. On a touché, on touche du doigt quelque chose

C'est un sujet fort, mais ce pas l'intelligence artificielle comme on peut l'entendre avec les GIs, donc l'intelligence artificielle généralisée. Est-ce qu'on doit mettre ça de côté parce que trop dangereux ? Ou est-ce que c'est les États qui doivent gérer ça sur 10, 20, 30 ans, 40 ans ?

Pierre Vannier (26:01)
C'est les vraies questions qui m'ont tarodé et m'ont tenu éveillé de nombreux mois. D'ailleurs, y a pas mal de gens qui m'ont vu quand même transformer depuis trois ans où j'ai pu faire des photos avec Sam Altman dans la Silicon Valley et j'étais le premier fanboy de l'IA. J'en mettais partout, mon équipe chez Flint, ils n'en pouvaient plus.

je parlais et je dormais et je mangeais et etc. Et aujourd'hui, j'ai pris énormément de recul par rapport à ces technologies là. Je pense qu'il y a dans ces technologies des très bonnes mais je pense aussi qu'il beaucoup de choses qui sont à minima beaucoup plus discutables sur le fait qu'on ait envie de le faire en tant que société. C'est à qu'en fait, on n'a quand même pas posé la question à la société.

nulle part à nos sociétés si on voulait ou pas de cette technologie. On n'en a pas à trop parler. Donc c'est pas la société, c'est pas la démocratie, c'est pas la société qui décide. Aujourd'hui c'est les États, les gouvernements et le technocapitalisme qui décident d'avancer et de pousser un maximum sur ces technologies là. Mais je pense qu'elles sont potentiellement hautement dangereuses à la fois pour la société mais pour les gens qui les utilisent même.

Puisqu'en fait, cette technologie, tu l'as dit tout à l'heure, Google a gagné beaucoup, beaucoup, beaucoup d'argent, c'est ça, tu m'as dit, principalement par la pub. Rappelons-le, depuis Internet, depuis donc les années 2000, le modèle de ces entreprises est principalement de faire de l'argent en vendant de la publicité. Ils vendent de la publicité en optimisant la publicité qu'ils vendent auprès des annonceurs, puisqu'en fait...

Thomas (27:41)
Exactement.

Pierre Vannier (27:59)
et ils optimisent ces publicités et ces affichages par toujours une meilleure connaissance des utilisateurs qui sont en face de leur écran et donc par récupérer et capter un maximum de data. Donc ça, ils l'ont fait avec du suivi sur Internet, avec les cookies que vous acceptez, que vous refusez, etc. Et au fur et mesure, ces big tech et ces grosses entreprises ont acquis

une extrême connaissance, on disait qu'au bout d'un like sur Facebook, Facebook te connaissait aussi bien qu'un de tes potes, au bout de deux likes ou de deux publications, il te connaissait bien aussi bien que ta famille, et au bout de trois likes, il te connaissait aussi bien que ton conjoint par exemple. Donc en fait aujourd'hui ces grosses sociétés ont basé leur empire sur de la récupération de data

ou moins profilé de qualité avec du tracking avec des choses comme ça pour vendre de la publicité d'accord donc que ça soit méta ou que ce soit la plupart de ces boîtes là sont sont sur ces modèles là les assistants conversationnels chat gpt le chat Claude etc l'explosion de ces assistants conversationnels change de paradigme en ce sens qu'en fait

Là où avant avec les applications mobiles et les réseaux sociaux ils avaient des informations intéressantes, tu as cliqué sur tel lien, tu as liké tête poste, tu follow telle personne, etc. Là avec les assistants conversationnels, les gens s'ouvrent, les gens partagent leur intime, les gens partagent leur raisonnement, les gens partagent leurs opinions avec ces outils-là.

Thomas (29:48)
Je vais peut-être faire juste un rappel comme ça. Je vais faire un rappel pour Google

puisque à un moment tu l'as mentionné, on n'en a pas du tout parlé des chiffres, mais pour le troisième trimestre, donc on parle de juillet, août, septembre 2025, Google a fait un chiffre d'affaires, donc ce n'est pas un bénéfice, mais un chiffre d'affaires de 100 milliards de dollars. Donc il a dépassé 100 milliards de dollars de chiffre d'affaires dont la publicité représente 74 milliards, donc 74 % du chiffre d'affaires.

Pierre Vannier (30:13)
de qui est d'autre façon, tu sais non ?

Thomas (30:17)
Là je rebondis sur le point de l'interconnexion quand tu parles des likes, juste à titre de chiffre. Donc sur Google, et Google n'est pas openair et c'est deux outils complètement différents même si la finalité sert la même chose, il a 650 millions d'utilisateurs mensuels sur Gemini.

Pierre Vannier (30:33)
Ok. Million. Et c'est 800

millions d'utilisateurs par semaine chez Tcha Tcha Tcha Tcha Tcha Tcha Tcha Tcha Tcha Tcha Tcha

Thomas (30:41)
Oui, en fait, ça, un chiffre qui est un peu faussé puisque tu peux avoir les mêmes utilisateurs semaine après semaine. Donc c'est pour ça que je prends le chiffre qui est mensuel. as quand 650 millions. C'est 10 fois la France, plus ou moins, plus ou moins 10 fois la France pour se donner un truc. Et en fait, leur objectif, là, ça rebondit sur la dernière partie que tu as mentionnée. Leur objectif à Google, mais c'est pareil pour tous, c'est de créer un environnement full stack. Et quand on parle de ça, c'est-à-dire que l'intelligence artificielle via Gemini ou les autres outils se interconnectent avec.

le search, donc quand vous utilisez le moteur de recherche Google, le cloud avec Drive et YouTube. Donc en fait, c'est trois choses complètement distinctes.

Pierre Vannier (31:12)
Youtube

En fait,

il faut bien se rendre compte que quand on ouvre un assistant conversationnel, là tu viens de dire avec Google, on aura des assistants conversationnels qui seront transverses à de multiples produits, mais ça va être la même chose avec Meta, avec WhatsApp, avec leur site, etc. avec Instagram. En fait, ils vont interconnecter. L'idée est de récupérer un maximum de data. D'accord ? L'IA aujourd'hui fait que les gens parlent.

aux ordinateurs, les gens ouvrent des navigateurs sur lesquels ils font des scénarios d'agents, etc. Donc en fait, la data récupérée par ces sociétés est sémantiquement beaucoup plus forte. Et donc, de par le fait, elle va valoir quelque chose qui est aujourd'hui incommensurable en termes de valeur. C'est-à-dire qu'en fait, c'est pour ça, parce que je prends un exemple, tu partages ton résultat d'analyse médicale sanguine.

à OpenAI ou à Claude pour savoir pourquoi tel ou tel marqueur est supérieur à la moyenne. Tu vas partager tes états d'âme. Les gens qui utilisent maintenant ces outils pour partager leurs problématiques spirituelles, psychologiques, etc. s'ouvrent complètement. Donc en fait là on partage des données qu'aucune société aujourd'hui n'a.

Thomas (32:16)
...

Pierre Vannier (32:36)
Parce que tout ça, c'est encore dans notre cerveau jusqu'à ce que ces assistants conversationnels s'ouvrent. Donc ils vont avoir des données d'une qualité extraordinaire. Et une fois qu'ils auront ces données là, ils pourront faire à peu près ce qu'ils veulent en termes de, effectivement, pousser du contenu qui va bien. Parce qu'ils ont remarqué que tu as parlé de prendre des vacances et qu'ils savent que tu aimes bien les canaries, par exemple. J'en sais rien. Ils vont pousser le bon truc au bon moment.

parce que les publicités vont arriver, parce que c'est le moteur. Et quand OpenAI dit qu'ils vont lancer aussi un type de plateforme à la TikTok, ne soyons pas dupes, ils vont utiliser les mêmes stratégies que les stratégies qu'ils ont utilisées avec les plateformes et les applications mobiles, à savoir en fait capter l'attention des utilisateurs un maximum. Donc aujourd'hui, moi, c'est aussi un peu ça que j'ai.

sur lesquels j'ai beaucoup travaillé ces trois dernières années, de m'apercevoir que l'envers du décor, il quelque chose qui dit, si tu payes pas, c'est que c'est toi le produit. On a beaucoup d'outils qui sont gratuits aujourd'hui dans l'IA. Chaque parole, mot, phrase qu'on coécrit, qu'on écrit, qu'on partage avec ces outils-là, à un moment donné, il sera valorisé par ces entreprises. Il sera valorisé.

et ça capte notre attention et potentiellement pour certains usages plus risqués que d'autres, notamment les usages liés à la cognition, au raisonnement, à la créativité, ces outils peuvent être potentiellement dangereux. On ne s'est absolument pas posé la question de manière épidémiologique, on n'a pas le recul nécessaire. Par contre, on sait que les applications mobiles, elles ont quand même pourri le cerveau et la psyché de nombreuses personnes. Et on refait les mêmes schémas avec les mêmes acteurs.

avec des outils un peu différents qu'on appelle IA et avec les mêmes motifs qui sont le profit. Donc moi je lève un peu la sonnette d'alarme en disant, en fait on va dans le même mur, voire peut-être plus vite, plus fort. Ça c'est mon avis.

Thomas (34:44)
Moi je trouve que, bah ça c'est mon avis, mais je trouve que c'est un peu dur quand même comment tu es vis-à-vis de l'intelligence artificielle puisqu'aujourd'hui effectivement il y a ces chatbots type Gémenaï ou ChatGPT et tout ça qui existent et tu construis des promptes ou des phrases un peu plus sophistiquées mais à l'époque Google on pouvait déjà enfin Google pouvait déjà savoir plus ou moins comment tu réfléchissais puisque tu allais faire des recherches et en fait toujours connecter ton compte Gmail bien sûr c'est... oui mais c'est...

Pierre Vannier (35:09)
Tu as des bribes.

Thomas (35:12)
Ce n'est pas la même phrase, sûr, mais après, il suffit de ça, d'aller faire une recherche sur YouTube, puisque YouTube, c'est toi aussi, donc on arrive à connecter. puis quand tu vas consommer du YouTube, tu vas de façon... Je vais vraiment faire un parallèle qui est un peu fort, et je ne sais pas si c'est l'objectif du podcast, mais quand tu vas sur YouTube, tu choisis ce que tu veux regarder en général. Tu consommes un long contenu. Alors que par exemple, quand tu es sur Facebook ou que tu es sur Instagram, tu te fais happer par ce qu'on peut appeler aujourd'hui le doom scrolling, c'est-à-dire que tu vas...

descendre dans les vidéos et le but c'est de t'appâter et te faire rester sur la vidéo trois ou quatre ou cinq secondes. Donc il a une méthode de consommation qui est complètement différente et aussi quand tu es sur WhatsApp c'est bête comme tout mais aujourd'hui WhatsApp ça reste quand même un outil qui est extrêmement utilisé et on... Alors ça dépend des gens mais souvent les gens ils vont un peu les yeux fermés, ils partagent des données, ça soit des photos, des documents et effectivement on peut partager je sais pas à son médecin ou à ses amis, à son conjoint des études, pardon, quand on fait des...

Pierre Vannier (36:10)
débilant,

l'analyse, documentatif et personnel.

Thomas (36:11)
⁓ Exactement, débilent. en fait, ça, c'est des informations que tu donnes. Mais

quand tu discutes avec tes amis ou ton, je sais pas, ton pote, ou on sait rien sur WhatsApp, tu donnes un niveau de discussion qui est plus fort que de chat GPT pour moi.

Pierre Vannier (36:27)
Oui, tout à fait. ces outils récupèrent à un moment donné effectivement... On peut se dire, oui mais attends, il y a quand même là...

la RGPD, les IHAC, le fait que les données nous disent que transparentes, patins, couffins, etc. En fait, non, oubliez tout ça. Partez du principe que vos données, de toute façon, elles seront prises, elles seront utilisées, elles seront monétisées. D'accord ? D'ailleurs, fait, il y a eu quand même des gens qui ont partagé des choses sur WhatsApp, qui se sont retrouvées des choses qui étaient publiées. Parce qu'en fait, ils s'étaient trompés parce qu'en publiant...

en partageant, ils avaient partagé un lien public ou je ne pas quoi et en fait les promptes et les discussions personnelles avec l'assistant conversationnel de WhatsApp étaient retrouvées publiées sur le net. Donc bon, y a des risques de sécurité, il a des risques par rapport à la privacy, mais partie du principe qu'en fait toutes ces données qu'on va... Aujourd'hui les assistants conversationnels, ça permet de capter les données directement dans les cerveaux des gens.

et pour plus tard, à un moment donné, les monétiser et récupérer dessus.

Thomas (37:41)
Justement, je n'ai pas l'information sous les yeux, mais je sais ce qu'il passé ce mois-ci. Le META a été condamné à une amende de 470 millions d'euros ou de dollars, puisque en Espagne, ils ont utilisé des données à des fins publicitaires. À la fin, se rend compte que le combat, n'est pas intelligence artificielle en temps de test, c'est la donnée. C'est pour ça qu'on appelle ce podcast « Y a pas de la data ».

Pierre Vannier (38:03)
Oui et puis derrière

tu as des usages, y a eu des, rappelons-le, y a eu quand même des suicides de jeunes au travers de l'usage de ces assistants conversationnels parce que quand bien même il y a des guardrails, des systèmes de vérification et des systèmes de... les gens s'ouvrent, ces outils sont très anthropomorphiques.

Donc ils te font penser par de l'empathie, par l'usage de dark patterns, qu'en fait ils t'entendent, ils t'écoutent, qu'ils comprennent et qu'ils réfléchissent. toi et moi, sait très bien qu'en fait, c'est juste des souples de mots améliorés. Ça te sort le prochain token de manière très certaine et ça garde une espèce de consensus par rapport à l'idée moyenne qu'ils ont récupéré sur tout le contenu sur le web, aspiré sur le web. Mais les gens se confient, les gens même se marient ou se lient d'amour ou d'amitié pour ces outils-là.

Donc il a un réel quand même danger. Je ne te parle pas pour toi et moi. Je ne parle pas pour les gens qui sont entre guillemets lettrés, qui s'y connaissent dans la tech. Le risque est moindre. Mais pars dans une discussion philosophique avec JudgeGPT et au bout d'une demi-heure aux 35 minutes, tu vas voir que tu vas commencer à te prendre au jeu que la chose en face réfléchit et résonne. Parce que tout est fait pour te faire penser ça.

Thomas (39:24)
Merci.

Pierre Vannier (39:27)
Tout est fait pour t'impliquer

là-dedans. Du design de l'interface jusqu'aux mots qui sont utilisés, jusqu'aux façons, etc. Les gens qui me suivent sur LinkedIn, ils peuvent le voir. Quand à un moment donné, tu vois un chat bot qui te dit en réponse à un de mes textes, le chat bot écrit « Moi, ce qui me touche personnellement ». Excuse-moi, what the fuck ? Comment un chat bot peut écrire « Moi, ce qui me touche personnellement ». Tu comprends ce que je veux dire ? On est dans une espèce de délire dystopique.

qui est entretenu par ces big tech dont le but est le profit et l'argent et c'est quand même relativement simple pour ceux qui sont intéressés, lisez Eric du coup le dernier livre d'Eric Sadin qui est philosophe le désert de nous même regardez, ouvrez vos yeux un peu donc moi je vais être beaucoup plus critique aujourd'hui par rapport à ces sociétés là, à ces usages là attention, il a aussi d'autres usages qui sont top

Effectivement, détecter des tumeurs dans des radios, c'est top. Effectivement, permettre à des publics défavorisés d'avoir un meilleur accès à la tech, ça c'est top. Il y a tout un tas d'usages de la tech et de l'IA qui sont cool et qui sont bien et qu'il faut stimuler, favoriser et il faut être ambassadeur de ces usages-là. Mais il y a tout un tas de dark pattern et d'usages qui sont à minima crado, voire vraiment...

vraiment du brainwashing et moi je veux me battre contre ces sujets là, contre ces choses là voilà

Thomas (40:57)
C'est beau ce

que je te dis. C'est beau.

Mais justement, j'avais une question pour toi, puisqu'il y avait aussi un autre sujet qui m'intéressait, je voulais avoir ton avis, c'est que ce mois-ci ou le mois dernier, on n'en pas parlé, META, ont annoncé qu'ils allaient ajouter dans leur évaluation annuelle le fait de considérer l'utilisation de l'intelligence artificielle. À mes yeux, c'est bien.

Pierre Vannier (41:14)
je t'ai vu ça.

Superbe. Ça m'étonne que, moyennement,

que ça soit méta. J'étais tellement pas étonné quand j'ai lu ça. Donc, effectivement, ils vont mettre des métriques, des objectifs qui seront calculés par des intelligences artificielles, justement sur l'IA, l'usage de l'IA et comment ils gagnent en productivité les salariés, etc. Et en fait, pareil, on se dirige vers de la dystopie, vers de la surveillance généralisée, vers les mêmes dérives techno.

totalitaristes qu'on connaît et qu'on a déjà vu et qui sont en place et qui existent dans le domaine de la guerre, dans le domaine de l'intelligence, du renseignement, dans le domaine de contrôle aux frontières et dans le domaine de la surveillance. Et là, c'est le domaine de la surveillance en entreprise où effectivement ceux qui auront la chance de rester et qui ne sont pas mis au banc de ceux qui sont relégués.

et foutu dehors parce qu'en fait l'IA les a automatisés, ben ils se verront mettre des indicateurs avec des petits critères qui auront été choisis par des IA. Donc ça moi je trouve que c'est ultra dégueulasse et c'est vraiment des usages sur lesquels à mon sens il faut qu'on se batte et il faut qu'on tienne si on veut rester une société. Voilà.

Thomas (42:34)
Donc, écoute, je vais être complètement bonnets puisque moi je le vois d'un bon œil le fait de pousser les gens à utiliser de l'intelligence artificielle pour qu'il soit plus productif. Mais c'est vrai que quand tu le mets en face d'un aspect capitaliste, en fait, c'est ça, pense, le problème, c'est que je suis de ceux qui pensent encore que l'intelligence artificielle peut être un bon outil de productivité, mais qui ne colle pas avec notre société actuelle. C'est très philosophique, encore une fois, et ça va peut-être un peu trop loin. Mais moi, j'ose espérer qu'on arrive...

Pierre Vannier (42:42)
Me... ...n'aimes.

Thomas (43:01)
pousse un peu le vice pour que ce soit plus clair, mais j'ose espérer que l'intelligence artificielle nous fera aller vers le 3-5ème, la semaine de trois jours, pour plus ou moins un salaire équivalent. J'extrapole un peu, mais pour moi c'est vers ça qu'on devrait aller grâce à l'intelligence artificielle. aujourd'hui tout, oui en fait ça n'arrivera pas puisque toute la société est plutôt défaitiste par la nature. Et effectivement maintenant que tu me donnes ce point de vue avec le méta et j'ai vraiment pas poussé la chose.

Pierre Vannier (43:17)
ça ça n'arrivera absolument

Thomas (43:31)
Oui, ça va poser un problème puisque ça ne devrait pas être une intelligence artificielle qui te juge, qui te jauge et qui te dit si tu fais bien ton travail effectivement. c'est en fait le problème. En fait, tu veux, je vais dire ma déception, mais mon doute, c'est l'utilisation que l'humain fait actuellement de l'intelligence artificielle me crée de la frustration.

Pierre Vannier (43:56)
Moi pour moi quand j'ai démarré la tech, Thomas, c'était des gens qui avaient... J'avais encore dans l'esprit des gens qui avaient les cheveux longs et qui avaient des convictions sociales et humanistes. Ça a été démarré par de l'underground, du punk, des gens qui étaient de gauche, qui étaient... étaient... étaient... emprunts de valeurs humanistes et aujourd'hui on se transforme avec une société... avec une tech qui donnava...

l'humain est la variable d'ajustement qui va permettre ou pas de pousser telle ou telle technologie. C'est à dire qu'en fait, excuse-moi, en fait on a tourné le truc, c'est à dire qu'en fait aujourd'hui c'est l'humain qui sert la tech et tant qu'il sert la tech c'est bien mais s'il ne plus la tech il dégage. Et c'est un peu ça le truc, c'est à qu'en ces technologies et l'IA sont devenues le fer de lance et le bras armé du technocapitalisme. Et ça, j'ai 50 ans.

non seulement je suis plus prêt à l'accepter mais en plus je vais me battre parce qu'en fait ça je ne le supporte plus quoi je supporte plus d'entendre des amis qui me disent que leur gamin ont le cerveau complètement éclaté par du tiktok et du doom scrolling et par toutes les plateformes à la con ça je le supporte plus je supporte plus qu'il des méta qui soit qui te mettent des indicateurs sur des pauvres salariés pour savoir s'ils utilisent ou pas l'IA notamment grâce à l'IA je supporte plus qu'il a il soit dans tous les systèmes

que par exemple on nous dise la justice française va mettre de l'IA dans les systèmes de justice, de compte rendu, de choses comme ça. L'IA et la justice c'est ultra dangereux, maintenant on va mettre de l'IA dans tout ce qui va être guerre, drone, etc. C'est ultra dangereux aussi. Et donc, tu veux, je n'accepte plus cet usage de la tech qui est aujourd'hui déshumanisante, désémancipatrice et aliénante en fait.

C'est ça que je ne supporte plus. Au bout d'un moment, on est arrivé sur quelque chose qui dessert. Je te prends un exemple. Ils auraient très bien pu, s'ils avaient voulu, s'ils avaient voulu que les assistants conversationnels soient un tant soit peu humanistes et soient là pour faire grandir et élever les hommes. Ils auraient très bien pu, dans les promptes système de ces chatbots,

insérer des méthodes de type méthode socratique ou maïautique pour qu'en fait les gens, au lieu d'avoir la réponse toute crue, basique, le chatbot puisse en fait interagir avec la personne et lui poser des questions et accoucher des idées de la personne tout en la faisant apprendre. D'accord ? Ils ont pas décidé ça. Ils ont décidé plutôt d'avoir une utilisation anthropomorphique avec de l'empathie insidieuse avec des dark patterns qui permettent de garder les gens dans des boucles exactement à l'instar de ce que...

les gamins sont gardés dans les boucles du doomscrolling avec TipTock, c'est pareil. Donc il faut que les gens ouvrent les yeux par rapport à ça. Il faut que les gens descendent de leur roue de hamster dans laquelle la société les place. il faut qu'on se batte parce qu'en fait, sinon la tech va nous aspirer. Ni plus ni moins. Et ça, je trouve que c'est super dangereux. Voilà. Moi je l'ai compris. Il m'a fallu trois ans, dans les six derniers mois, j'étais au fond de ma caverne en PLS.

Mais maintenant, j'ai envie de faire comprendre les gens et d'ouvrir les yeux des gens. Parce que de l'autre côté, a aussi des usages qui peuvent être super. Il a aussi des usages qui pourraient recréer du lien social et local avec les gens, qui sont déconnectés. La société a déconnecté les gens. Dix fois plus aujourd'hui, on est déconnecté, alors que pourtant, nous fait croire faussement qu'on est hyper connecté. Mais fait, est connecté que dalle ! Les gens sont sur Zoom et sur Google Meet toute la journée. Personne se sert dans les bras, vraiment. Donc excuse-moi, moi, je suis énervé. Voilà.

Thomas (47:47)
Ouais t'as l'air énervé. Mais t'as l'air un petit peu positif quand même. Puis t'as peut-être envie qu'on te prenne dans les bras finalement, c'est ça le message.

Pierre Vannier (47:50)
Oui, parce que j'y crois. Non, parce

que comme dirait l'autre, tant qu'il y aura des hommes. Non, mais tant qu'il a de l'espoir et il y a des gens, y a des philosophes, il a des écrivains, il a des gens qui commencent à ouvrir les yeux. Parce qu'en fait, on a les mêmes acteurs, a les mêmes leviers de motivation, l'argent, le profit et juste d'autres outils. Tu vois ce mime là où tu as Scooby-Doo qui lève le chapeau ? Tu sais, tu vois le mime ?

Thomas (48:18)
Ouais, bien sûr, bien

Pierre Vannier (48:19)
où le

Thomas (48:19)
sûr.

Pierre Vannier (48:19)
gars il lève le chapeau. Là, tu vois, on lève le chapeau mais en fait c'est la même chose derrière. C'est les mêmes mécanismes, c'est le même fonctionnement. Donc je pense qu'avant qu'il ne soit trop tard et qu'on se réveille dans cinq ans en se disant, un, il n'y a plus de job, deux, on est tous brainwashed, on pense tous pareil, trois, on a installé des technototalitarismes partout. Essayons de descendre de la roue de hamster maintenant pour essayer de choisir la tech et l'IA qu'on veut pour nous et pour nos enfants.

Thomas (48:51)
Mais tu parles en tant que enfant du monde ou enfant français là ? Je te t'aurai pas le compte.

Pierre Vannier (48:55)
du monde honnêtement.

Non mais des sociétés... Il y a combien ? 1,2 milliard de travailleurs col blancs. Potentiellement en fait, dans 3 à 5 ans en fait, il n'y en a plus. Qu'est-ce que tu fais en tant que société en fait ? Personne ne réfléchit à la façon dont on... Si tu retires la notion, le concept même du travail, tu retires un pan de l'humain au niveau anthropologique,

qui est constitutif de ce qu'on est, de la raison d'être, d'être satisfait dans ce qu'on fait, de rencontrer des gens, etc. Supprimer le concept de travail n'a pas de sens, ne serait-ce d'un point de vue anthropologique. Personne n'a réfléchi à ça. Donc avant qu'ils nous amènent, parce qu'en fait ils nous amènent par leurs pensées courtes, termistes et uniquement profites, ils nous amènent dans un mur civilisationnel. Donc moi je ne pas d'accord avec ça, je suis désolé.

Et je ne pas être technobéat et accélérationniste parce que tout le monde a dit, osez, osez les gars, il faut y aller à fond, quoi. Appuyons sur le champignon. Je pense qu'il faut relire, faut exclire. Non, mais je trouve qu'on est à un moment charnière ultra important où il faut que les gens prennent position. Voilà.

Thomas (50:01)
aux hélias. C'est un truc qui vient de sortir maintenant en France.

de la sortie de Tchède GPT. Est-ce qu'on a parlé de ça finalement ? Bon anniversaire mais en tout cas ça a eu le mérite de changer pas mal des choses. Est-ce qu'on a envie de parler de ça ? Non, on a un peu juste entendu je crois.

Pierre Vannier (50:18)
Bon anniversaire, tchè tchè pété !

J'ai l'impression que ça fait...

Tu dis trois ans, mais j'ai l'impression que ça fait dix ans que le truc est sorti. Tellement il y a eu de trucs ! Tu vois ce que je dire ?

Thomas (50:32)
Bah ouais.

Moi je suis franchement content de ce qui s'est passé avec ChatGPT, parce que ça amené l'intelligence artificielle à un autre niveau. Et effectivement quand le métier, je reviens toujours à mon métier, mais le métier d'adaptation c'était un peu sexy, on va dire il a 5 ans, 6 ans, il a re... ChatGPT et donc OpenAI ont remis au goût du jour l'utilité, l'utilité de nos métiers dans la modélisation mathématique et statistique, donc ça j'ai vraiment apprécié. Ensuite c'est devenu un phénomène un peu...

je ne pas dire générationnel, mais transgénérationnel où tout le l'a appris à... je vais utiliser le terme « de bras » et finalement, c'est ce qui traite un peu ses avantages, mais aussi ses dérives. bon, trois ans, trois ans déjà. Mais ça, c'est important.

Pierre Vannier (51:20)
Ouais, tout le... Je pense que le gros du travail reste devant maintenant. Parce que là, l'effet d'annonce il est passé, l'effet de stupéfaction il est passé. Maintenant, pense que beaucoup de gens comprennent ce qui se cache. D'ailleurs même, je vais même te dire quelque chose, je pense qu'en fait, il y a une espèce de fausse complexité qui a été entretenue dans la com de ces grosses entreprises.

pour dire non attendez de façon les LLM c'est trop compliqué

ne sait ce qui se passe dedans c'est trop compliqué c'est trop compliqué en fait en vrai c'est un espèce de grosse machine qui te pond le prochain mot le plus probable par rapport à tout ce qu'ils ont aspiré c'est juste que ça l'explication la plus simple

Thomas (52:04)
Oui mais en

fait, oui c'est une explication simple mais c'est beaucoup plus compliqué que ça, c'est beaucoup plus compliqué que ça puisque les gens ne comprennent pas comment les modèles sont entraînés, les gens ne comprennent pas comment les images sont consommées, le contenu vidéo est consommé, comment il est restitué, cette histoire de pixels, cette histoire de mots, les gens ne comprennent pas et c'est difficile en fait puisque c'est des gens qui ont fait par moments des années d'études pour bien saisir tous les tenants et les aboutissants et surtout...

Pierre Vannier (52:21)
Oui mais...

et...

Thomas (52:31)
surtout que

Pierre Vannier (52:31)
c'est...

Thomas (52:32)
tu connais pas la sauce secrète à l'intérieur de chaque modèle. Et ça, devient un vrai problème.

Pierre Vannier (52:35)
Oui, mais Thomas, c'est

plus facile de dire à quelqu'un dont on veut qu'il suive le mouvement, de lui dire, écoute, c'est trop compliqué, tu peux pas comprendre. Que tu expliquais vraiment, fait. Est-ce qu'on t'a expliqué au tout démarrage de TchadGPT, par exemple, que leur modèle de fonctionnement statistique, comme ils aspirent tout le web, et que ça marche par une descente de gradient, par du feedback loop, et en fait, qu'on va vers une espèce de...

moyenne générale de tout ce qui a été finalement pondu d'un point de vue opinion, feedback, etc. C'est à qu'en fait ces outils vont aussi stimuler la propagation d'idées médianes sur à peu près tous les sujets que tu imagines. Parce qu'en fait, comme ces idées médianes t'arrivent sur quelque chose où tu as de toute façon dans la moyenne de plus en plus d'occurrences, tu te retrouves sur

le prochain token qui fait le plus de sens, va aller vers t'expliquer un raisonnement ou te détailler une opinion ou te mettre un point de vue qui aura été l'opinion, le point de vue ou le raisonnement le plus moyen qu'il trouve et le plus statistiquement probable. Donc finalement ça va vers dégager tous les outliers, on est d'accord, donc ça va vers dégager toutes les personnes qui...

toutes les pensées, les opinions, les feedbacks, les points de vue qui

Thomas (53:56)
...

Pierre Vannier (53:58)
seront en dehors de cette moyenne. En fait, ça te fait une espèce de t'sais l'algorithme MP3 qui t'écrète un petit peu tout le son pour gagner de l'espace. En fait là ça t'écrète toutes les opinions, les feedbacks et les points de vue. C'est un MP3 pour la pensée.

Thomas (54:10)
condition,

à condition de ne pas la température, elle est là en fait. C'est ça qui est difficile, c'est que oui, c'est vrai ce que tu dis, mais non, non, mais c'est vrai ce que tu dis, mais en fait, à partir du moment où tu vas changer un de ces paramètres, donc en l'occurrence la température et qui change un peu l'aspect déterministe ou probabilistique, en fait, si tu changes la température, tu vas par nature changer, ça ressemble un peu aux mathématiques bayasiennes, c'est-à-dire que tu vas prendre

Pierre Vannier (54:17)
suis philosophe, je technicien en fait.

Donc à tous.

Ouais ? Ouais ?

Ok Ok.

Thomas (54:38)
plus de risques et tu vas aller un peu plus ailleurs. Tu vas chercher des choses un peu plus exotiques.

Pierre Vannier (54:42)
Et là, n'y a absolument personne

qui est capable de me dire par contre si ça va peut-être potentiellement plutôt appuyer les dialogues politiques de Coluche ou au contraire la dernière vision de Che Guevara avant qu'il décède. J'en sais rien.

Thomas (54:56)
Non mais ça tu le sauras jamais puisque c'est propre à chaque modèle de type LLM ou de Machine Learning la plus forte, Intelligence Artificial la plus forte mesure. Mais c'est ça aussi, ils peuvent pas se permettre de donner cette information.

Pierre Vannier (55:06)
Donc personne ne joue avec la compérature.

Parce qu'en fait, grosso modo, tu rajoutes du non-déterminisme sur du non-déterminisme. En fait, tu fais que le modèle, il est beaucoup plus yolo, c'est ça ?

Thomas (55:17)
⁓ En fait, le problème c'est que tu connais pas ton modèle de base et tu sais pas les mises à jour qui sont effectuées sur tes modèles. Donc si je prends l'exemple de JGPT Sound par exemple, une température à zéro qui est normalement déterministe pour des inputs complètement similaires, c'est à que ta discussion est la même, le savoir est le même, qu'il n'a pas stocké plus d'informations entre temps sur ta personne, t'es censé obtenir les mêmes résultats. Sauf qu'il a rien qui prouve que les modèles sont pas un tout petit peu tweaked.

Pierre Vannier (55:19)
BAM!

Thomas (55:46)
Donc un tout petit peu changé à travers le temps. Donc effectivement, cet aspect-là, même à une température de 0, ça donne un aspect non déterministe, même si sur le papier c'est déterministe. Et le fait d'aller ajouter une température qui peut aller de 0 à 1, donc de 0 à 100%, ça vient rajouter de l'exotisme. Mais ça, on ne pourra jamais le savoir. Si tu veux, oui, c'est ça quand tu dis du non déterministe sur du non déterministe.

Pierre Vannier (56:09)
Ce qui

m'embête aussi avec ces sociétés, c'est entre les choses qu'on ne peut pas savoir parce que la science et la complexité des calculs derrière est beaucoup trop complexe et les choses qu'on ne peut pas savoir parce que ces entreprises décident sciemment de les cacher, les prompt systems, tu n'y as jamais accès. Les systèmes de guardrails, etc. tu n'as jamais accès. Tu ne sais pas en fait, tu ne sais pas dans quel univers ils ont décidé d'encadrer les réponses de ces outils. On est d'accord ?

Alors il y a une espèce d'incertitude liée au modèle mathématique et scientifique beaucoup trop complexe à concevoir, mais il a aussi de l'incertitude qui est liée parce qu'en fait ils nous ont caché certaines choses. Et ça moi je trouve aussi que c'est un problème. C'est pour ça qu'il faut d'ailleurs pousser l'open source, l'open weight et un maximum la transparence par rapport à ces outils là.

Thomas (57:03)
Un open white c'est pas la même chose. Pour moi ça reste pas encore la même chose. C'est vraiment de l'open source. Aujourd'hui c'est un abus de langage de dire open white.

Pierre Vannier (57:10)
Ben il euh...

il faut... il faut euh... les gens qui euh... jailbreak les modèles et qui les font sortir ou... ou il faut qu'on puisse avoir les prompts système ! J'aimerais bien... j'aimerais bien avoir les prompts système en fait ! A minima ! Qu'est-ce qu'ils disent ? Parce qu'en fait un prompt système, grosso modo, je vais prendre une image aux gens, mais c'est un prompt système, c'est... tiens je vais te rencontrer, tu vas à une soirée, t'es dans une soirée, je vais te rencontrer Thomas. Le prompt système, c'est qu'en fait je m'arrête, au milieu il a un voiturier qui me dit... bon attends Thomas...

Thomas (57:20)
ça ouais effectivement.

Pierre Vannier (57:39)
aujourd'hui il faut pas l'énerver Thomas aujourd'hui il faut que tu lui parles surtout pas de ça ou de ça ou de ça et de façon il te répondra uniquement si tu lui parle de l'IA parce que tout le reste il connaît pas grosso modo ça vient en fait contraindre l'espace du potentiel des réponses du LLM dans ce qu'ils ont décidé de ce que pour eux était l'alignement donc on n'en sait rien voilà on n'en sait rien c'est une boîte noire moi j'aime pas les boîtes noires

Thomas (58:07)
Exact.

Mais surtout, ce cas-là, peut être par exemple, je reprends l'exemple de TchadGPT, ça peut être ça pour TchadGPT 4 et ça peut être complètement différent pour TchadGPT 5.

Pierre Vannier (58:09)
de moins en moins.

Bon, écoute, j'ai encore fait monter ma tension. Mais si, ça va, mais si, ça va. Écoute, je suis content parce qu'en fait, moi ce qui m'embêtait, c'était d'être désaligné par rapport à moi-même. Aujourd'hui, je suis aligné, droit dans mes baskets. Je sais ce qui bon à prendre, je sais ce qui est très mauvais et je sais où est ma mission. Donc ça, déjà, c'est...

Thomas (58:23)
Non mais je sens que ça va pas. Je sens que ça va pas. Il va falloir qu'on continue à parler.

Est-ce qu'on en parlera peut-être en 2026 maintenant ? Puisqu'on va se retrouver pour Yad l'Actu en 2026, on fera pas d'épisodes en fin décembre puisque c'est Noël ou le nouvel an ou ce que vous voulez et on va se retrouver début 2026, on en reparlera avec des nouvelles résolutions peut-être ?

Pierre Vannier (58:48)
Exactement.

Et entre temps, va avoir aussi

une invitée. Justement, qui va venir nous parler, Marie Potel Saville, est la co-CEO de Fair Patterns, est une boîte française, mais en fait, s'occupe justement de ces questions de Dark Patterns dans les LLM. Donc très intéressant, le côté obscur de la force des LLM. Ça, sera cool et ça viendra effectivement imager et mettre en musique tout ce que...

toute ma diatribe et l'énergie que j'ai pu mettre dans ce podcast.

Thomas (59:32)
Est-ce que tu penses que ça nous permettra de briller en société en cette fin d'année ? Bon bah... On se retrouve dans... Allez, deux semaines ?

Pierre Vannier (59:36)
Exactement. Tout à fait.

Allez merci à tous qui nous écoutez, merci Thomas.

Thomas (59:43)
Salut, merci Pierre.