IA pas que la Data - Reprendre le contrôle sur tout ce qui se dit autour de l’intelligence artificielle

Dans ce 9ème épisode du podcast, nous avons le plaisir d'accueillir Adrien Vesteghem, AI Program Director chez BNP Paribas BCEF. 

L'usage de l'intelligence artificielle dans le secteur bancaire n'est pas nouveau. La gestion des données, la souveraineté et leur sécurité sont déjà au coeur des réflexions des DSI depuis de nombreuses années. 
Aujourd'hui, il est passionnant de découvrir la réaction de la BNP Paribas face à l'arrivée fulgurante des IA génératives. Gestion des risques, acculturation en interne, priorisation des sujets sont autant de nouveaux défis pour Adrien et son équipe. 

Au programme : 
  • (00:00) - Intro
  • (01:00) - Quels sont les sujets clés d'IA traités à la BNPP et comment ont-ils évolué au cours du temps ?
  • (03:32) - L'IA, est-elle privilégiée pour une utilisation pour l'interne au sein de BNP Paribas ou pour l'externe auprès des clients ?
  • (07:55) - Responsable du centre d'expertise IA, en quoi consiste ce poste ? Est-ce que l'IA créée des nouveaux postes ?
  • (12:30) - Comment avoir des résultats tangibles et un vrai ROI avec des projets Gen AI ?
  • (14:00) - Quelles métriques suivre dans le cadre de projet Gen AI ?
  • (18:58) - Quand prendre la décision de poursuivre ou arrêter un projet Gen AI ?
  • (22:12) - Comment garantir une confiance totale aux end-users, lorsqu'on utilise des modèles LLM externes ?
  • (30:55) - Avec l'arrivée de GPT-4o par exemple, comment faire face aux fraudes via l'utilisation malhonnête de la voix ?
  • (34:14) - Comment BNPP a géré l'arrivée de ChatGPT, Copilot, etc. en interne ?
  • (43:05) - Question de Ludi Akue, précédente invitée : Comment construire une IA frugale ?
  • (49:55) - Question d'Adrien pour le/la prochain(e) invité(e)

Creators & Guests

Host
Pierre Vannier
Fondateur et PDG Flint, Dev Backend / IA, agitateur Tech ✨
Host
Thomas Meimoun
Machine Learning Engineer / Data Scientist
Guest
Adrien Vesteghem
AI Program Director for BNP Paribas BCEF

What is IA pas que la Data - Reprendre le contrôle sur tout ce qui se dit autour de l’intelligence artificielle?

Reprendre le contrôle sur tout ce qui se dit autour de l’intelligence artificielle, voilà pourquoi nous avons créé ce podcast IA pas que la Data !

Tous les mois, nous aurons le plaisir d’accueillir des experts de l’IA, de la data et de la tech, qui nous partageront leur opinion et regard critique sur cette révolution.

Technophiles, ce podcast vous apportera un éclairage sur ce qui se cache derrière l’IA et vous permettra de prendre de la hauteur sur ce que l’on entend quotidiennement.

#IA #GenAI

Thomas Meimoun | 00:09.253
Bonjour à tous et bienvenue dans ce neuvième épisode du podcast IA pas que la Data. Vous êtes de plus en plus nombreux à nous écouter, alors merci beaucoup pour ça. Pour ce nouvel épisode, nous allons plonger dans l'univers de la banque. En effet, nous avons le plaisir d'accueillir Adrien Vesteghem, directeur du Centre d'excellence en intelligence artificielle et directeur du programme d'accélération IA de la BNP Paribas. Adrien a plus de 25 ans d'expérience, dont 9 ans dédiés au sujet de l'intelligence artificielle au sein de la BNP Paribas. Bonjour Pierre.

Pierre Vannier | 00:38.102
Salut Thomas.

Thomas Meimoun | 00:38.804
Bonjour Adrien. Merci de venir partager tes expériences et tes opinions autour de l'IA dans l'univers de la banque.

Pierre Vannier | 00:44.060
Salut Adrien.

Adrien Vesteghem | 00:44.663
Bonjour à tous. Merci Thomas. Merci Pierre pour l'opportunité.

Thomas Meimoun | 00:47.700
C'est un grand plaisir. On va tout de suite commencer avec la première question. Ça fait plus de neuf ans que tu travailles autour des sujets de l'IA au sein de BNP Paribas. Quels sont les sujets clés que vous traitez et comment ont-ils évolué au cours du temps ?

Adrien Vesteghem | 00:59.140
Alors, c'est une très bonne question. et qui ramène à un point un peu compliqué qui est la définition de l’IA. Il y a eu de très belles définitions qui ont été données dans les années 50. Et en fait, c'est marrant, ça existe depuis très longtemps. BNP Paribas fait du machine learning. Depuis peut-être 30 ans, je n'étais pas né professionnellement à ce moment-là. Donc, on fait du machine learning pour des risques de fraude, pour des sujets d'assurance, pour des sujets d'optimisation de portefeuille, différentes choses comme ça. Ça, ça existe depuis très longtemps. Chez nous, ce n'est pas appelé de lire. C'est un peu le business as usual, même si en vrai ça pourrait être qualifié comme ça. L'IA est né chez BNP Paribas il y a à peu près 9 ans justement. On a lancé le premier programme d'IA et lui, il avait vocation à regarder toutes les capacités de data science qu'on avait. Et à l'époque, il y en avait deux. Il y avait le machine learning structuré qu'on faisait déjà, mais qu'on pouvait peut-être appliquer à d'autres choses que du risque ou du marketing qui était très utilisé, ou de l'assurance, peut-être par exemple du ciblage, peut-être à de l'efficacité opérationnelle, enfin, différents sujets, du traitement du langage, par exemple. Et ça, ça fait le lien avec le deuxième point, justement, qui est... les capacités qui sont arrivées à peu près au même moment, donc il y a une petite dizaine d'années, vraiment dispo, off the shelf, pour des corporates comme nous, pour aller faire du deep learning. Et donc le deep learning, c'est notamment le traitement du langage, qui est très utilisé chez nous, on est un peu moins sur la reconnaissance d'images, mais en revanche, on utilise aussi pas mal les capacités de speech to text, qui se sont déployées progressivement. Voilà, ça c'est de nouveaux éléments technologiques, et bon, là, on se prend comme tout le monde de plein fouet le... le dernier entrant de l'IA technologiquement parlant, qui est l'IA générative. On connaît tous par les nombreuses mises en avant qui ont pu être faites par les journalistes et pas mal de startups. Je ne cite pas encore.

Thomas Meimoun | 03:19.269
On a le droit de les citer. Peut-être que Pierre, tu veux en citer quelques-unes. Je pense qu'on les mentionne à chaque fois.

Pierre Vannier | 03:24.357
On les connaît toutes. On connaît tous les grands noms. OpenAI, Anthropic, Google, Mistral, on en passait des meilleurs.

Thomas Meimoun | 03:32.876
Il y en a beaucoup trop maintenant. Moi, j'ai tout de suite une question qui me vient en tête, Adrien. L'IA, c'est plutôt une utilisation pour l'interne au sein de BNP Paribas ou pour l'externe auprès des clients ?

Adrien Vesteghem | 03:44.442
Ça, c'est une très bonne question. L'objectif, c'est de faire les deux. Donc là, je vais faire un petit distinguo entre... tout ce qui est pré-GenAI et GenAI, qui est un sujet où la réponse n'est pas la même. Sur ce qui est pré-GenAI, on va mettre de l'IA au service de tout ce qui nous semble utile. Donc par exemple, pour les clients, très directement, et un petit peu pour la banque, un peu moins directement, mais c'est important aussi, il y a les sujets de fraude. Donc ça, détection de la fraude, c'est un vrai point qui est absolument clé, et ça va protéger nos clients, et c'est particulièrement important. Pour nos clients, pour mieux les orienter dans les différentes équipes d'experts que nous pouvons avoir à l'intérieur, on va faire de la reconnaissance en langage. Il y a du langage naturel. Si vous appelez, vous allez tomber sur un petit robot qui vous dit qu'est-ce que vous voulez ? Dites-le en langage naturel. Ça, c'est très orienté client. Et il y a aussi des choses qui sont très orientées collaborateurs. Donc ça, par exemple, si je suis près de Genia, je peux parler de ce qu'on fait sur le traitement des documents. Donc ça va faire gagner du temps de traitement en back office quand il y a un dossier de crédit immobilier qui est posé. Historiquement, on prenait ce dossier, on le lisait et puis on récupérait les informations, on les extrayait. Là on va pouvoir automatiser ces traitements-là, ça fait gagner du temps aux collaborateurs. Indirectement ça sert les clients, c'est-à-dire que derrière ça va leur proposer une expérience au fur et à mesure qui va être de plus en plus rapide, de plus en plus fiable. Et sur le sujet des crédits immobiliers c'est un vrai point assez important. Donc ça c'est ma réponse pour le prêt, les deux, vraiment sans aucune hésitation. partout c'est utile et c'est utile à plein d'endroits sur Genii c'est un petit peu différent c'est à dire qu'on a on voit les risques sur Genii et donc là et ils existent toujours, il y a un risque résiduel même si de temps en vers zéro, mais en tout cas il est toujours pas nul d'hallucination, et surtout quand les modèles sont petits quand les gros modèles c'est très faible quand les modèles sont plus petits le risque est assez significatif notamment, il y a d'autres risques derrière aussi et celui là il n'est pas encore craqué, c'est un vrai sujet, la responsabilité derrière de la banque est engagée. Donc on a une petite préférence pour traiter d'abord conceptuellement nos collaborateurs, pour bien augmenter le niveau d'adoption de compréhension et de gestion du risque qui est associé, et après, en deuxième temps, les clients. Alors on mène ces deux natures de projet en parallèle, mais dans les déploiements à venir... Les premiers tests seront faits avec l'aide et la bienveillance des collaborateurs.

Pierre Vannier | 06:32.913
Donc pour l'instant, c'est le côté un peu non déterministe des IA génératifs par rapport au machine learning, deep learning, qui font que c'est un peu plus cantonné au niveau de ses usages et des use cases sur un petit peu du back office, c'est ça que tu veux dire ?

Adrien Vesteghem | 06:51.392
Oui, tout à fait, c'est-à-dire que tu fais un moteur de traitement du langage avec des technologies state-of-the-art de deep learning, tu vas connaître ton accuracie. Tu vas savoir que tu es précis à 99% ou 92%, auquel cas tu sais que tu as un écart, ça veut dire qu'il faut que tu remettes du traitement derrière. Ça, c'est très bien, ça arrive avec le modèle, c'est comme ça qu'on les construit, et ça aide beaucoup. Ça fait partie intégrante du moteur, ça veut dire qu'il n'y a pas de moteur d'IA tout à fait autonome, il y a toujours un moteur avec de l'humain derrière. Ça, c'est très clair, bien intégré. Sur la partie générative, effectivement on ne sait pas ce qu'il va dire on ne sait pas ce que le client va demander les réponses ne sont pas déjà écrites et donc dans ce champ infini des possibles qu'est-ce qui peut se passer c'est ce sur quoi on ne veut pas dire de bêtises à nos clients ça c'est un point assez évident parce qu'on va mal les orienter parce qu'on va se mettre en risque parce qu'il se passe des choses donc ça dessus on va prendre le temps de bien se rassurer et comme on le sait tous

Pierre Vannier | 07:55.630
La banque horreur du risque, ça fait quand même une des parties les plus touchy du métier de l'industrie de la banque. Du coup, toi, depuis 50 ans, tu es responsable du centre d'expertise IA. En quoi consiste ce poste ? Est-ce que ça existait avant ? Est-ce que c'est un nouveau poste ? Tu vois, je disais un tweet l'autre jour qui disait... Est-ce qu'on va avoir besoin en France d'un ministre de l'IA ? En fait, ma question, est finalement, est-ce que toutes ces nouvelles découvertes, nouveaux outils, ce pan de l'informatique qui a l'air d'être tellement important, qui l'imprègne toutes nos organisations, toutes nos entreprises, etc. Est-ce que ça génère finalement des nouveaux postes ? D'où l'importance stratégique de... de l'IA au sein de ton entreprise il y a deux questions

Adrien Vesteghem | 09:00.574
Pierre rôle et nouveau poste, ça c'est une grande question aussi donc les deux, pardon je vais faire les deux séparés parce qu'elles sont longues les deux donc Moi, je suis arrivé il y a neuf ans. On a lancé un premier programme d'IA chez BNP Paribas pour Personal Finance, qui est une des filiales de BNP Paribas, sur le plan stratégique 2020, qui a délivré beaucoup de valeurs banques et clients très utiles. Rapidement,

Pierre Vannier | 09:31.730
Personal Finance, c'est de l'optimisation de portefeuille, gestion de patrimoine, des choses comme ça ?

Adrien Vesteghem | 09:38.268
C'est du crédit à la consommation. La grande marque française, c'est CTLM. Ah oui, ok, d'accord. Film domestique en Italie.

Pierre Vannier | 09:45.020
Donc il y a du scrupuleux.

Adrien Vesteghem | 09:46.544
Oui, tout à fait. Des choses comme ça, ok. Et là, tu as un bon premier range d'interactions clients, que tu peux optimiser, de servicing, que tu peux optimiser, de plein de sujets que tu peux améliorer. Il a très bien marché ce programme. J'en ai lancé un deuxième, du coup. très peu de temps après, qui était plutôt à vocation de partage niveau groupe, et après, et là récemment j'ai rejoint BCEF, enfin récemment il y a trois ans maintenant, j'ai reçoit la Banque Commerciale en France, où je suis maintenant, et on... au début pour regarder s'il y avait une opportunité d'accélérer les sujets d'IA. Il y a trois ans, on faisait de l'IA, mais on n'avait pas nécessairement encore mis les éléments de valeur en face de ça. On le faisait en intuitant que c'était utile, efficace, pertinent. Il y avait plusieurs initiatives qui étaient lancées, mais on n'avait pas encore passé le pas. C'est vrai qu'il y a trois ans, la tech était un tout petit peu moins ready. Il faut bien les remercier sur ça. Le gros effort de communication qui a été mis par les journalistes et les startups que tu as citées autour de la communication aide beaucoup à l'adoption. C'est un vrai point qui est hyper utile.

Pierre Vannier | 10:57.664
À cette époque, au début, quand tu dis il y a trois ans, c'était qu'il manquait un aspect gouvernance. Dans la mesure où c'était jeune, il y avait des initiatives un petit peu dans tous les coins où peut-être manquait de...

Adrien Vesteghem | 11:11.902
Il manquait... on va dire, une ambition sur l'IA. Tout le monde pressentait l'intérêt, et il y avait vraiment ce brouissement de questionnements, d'intérêts autour de l'IA. Plusieurs petits projets se lançaient en parallèle, mais du coup... pas nécessairement parfaitement structurés, et donc on s'est dit, mais est-ce qu'il n'y a pas moyen de faire mieux, plus significatif ? Et c'est ce qu'on a regardé il y a trois ans, et donc au début j'étais sur un poste d'accélération IA. En fait, on s'est dit, bah oui, c'est sûr. Donc déjà, on va commencer par mettre un centre d'expertise en intelligence artificielle. Donc on a mis un centre d'expertise qui avait deux fonctions, il aidait ceux qui en faisaient déjà, et il prenait aussi lui-même des projets, mais on faisait des projets cette fois-ci vraiment state-of-the-art, avec du deep learning. qui est un peu plus dur, qui nécessite des skills un tout petit peu différents, avec du machine learning avancé, avec des sujets de temps réel qu'on a pu livrer entre-temps. Ce qui était assez utile parce qu'en parallèle de ces travaux, on a pu aussi faire la preuve progressivement, et c'est un vrai point, auprès de nos sponsors de la tangibilité et de la valeur que ça pouvait apporter. Ça c'est un vrai point d'adoption dans une entreprise, c'est qu'il faut absolument que les sponsors se disent oui j'y crois, j'y crois et c'est vrai Et la preuve c'est que... ils savent faire, c'est bien.

Pierre Vannier | 12:30.479
En fait, il te faut une espèce de... Ça, c'est toujours aussi beaucoup d'actualité à l'heure où les IA génératives arrivent et où il y a une forte demande aussi. De la part des exécutants et de ceux qui doivent mettre en œuvre et implémenter, il y a une vraie pression d'arriver à des résultats tangibles, montrables et un vrai ROI. C'est ce qu'on entend nous souvent, en fait,

Adrien Vesteghem | 12:51.414
aussi. Complètement. Et ça, c'est aussi ce qu'on a fait et on l'a suffisamment bien fait, notamment l'année dernière, pour se dire que... maintenant on va monter un programme. Et donc, on a fait un programme très... On a imaginé un programme très significatif d'accélération, on l'a présenté, fait valider, on l'a commencé, il est sur des rails à date, mais le train doit partir de la gare, il avance bien, mais pas encore à sa vitesse nominale, et en revanche, il a toute la structure pour faire ça, et c'est justement très axé sur la valeur. C'est-à-dire que... on essaie de se dire cette chose-là ne doit pas être de l'IA pour de l'IA ce n'est pas du POC ça doit être utile au business utile au client c'est quelque chose qui doit être appliqué ce qui fait notamment qu'on n'imagine pas de moteur tout seul c'est-à-dire qu'on les fait systématiquement avec les

Pierre Vannier | 13:43.519
métiers avec l'organisation Agile at Scale qui est déployée chez BCVF ça veut dire que vous avez quand même des métriques vous avez quand même des objectifs d'OKR ou de KPI ou de choses à respecter qui vont à un moment donné vous... permettent d'accesser que tel ou tel type de projet a délivré ou pas, ou moyennement ?

Adrien Vesteghem | 14:01.802
On a des métriques, c'est un vrai sujet. Ces métriques existent niveau groupe. Il y en a deux qui sont très simples. Une première sur laquelle on communique très largement, qui est le nombre de cas d'usage en prod. Ça, c'est un point... Il est très bien ce point, il permet de se mettre en avant. Il nous a été très utile au début en disant il faut en faire Et on regardera l'utilité réelle derrière. Ce n'est pas tout à fait suffisant pour que ça marche bien. Il faut la deuxième métrique qu'on a aussi déployée assez rapidement, qui était une métrique de valeur. Pourquoi ça sert ? Et valeur, en revanche, là on est très ouvert sur la valeur. Et là il y a un OKR aussi associé à ça. On commence à en parler, pour objectif le groupe BNP Paribas projette de faire 500 millions d'euros de gains additionnels grâce à l'IA. Ces gains, moi je les mesure sur principalement trois axes. Soit on a, et notre priorité est vraiment sur l'efficacité opérationnelle. Ça libère du temps, ça permet de... de faire les choses plus vite et en se faisant moins de travail pour nous, plus de meilleures expériences pour le client. Deuxième point, il va être autour de la satisfaction client. Mieux comprendre ce que nous disent nos clients et du coup mieux les traiter et voir où est-ce que l'IA doit pouvoir aller aussi aider. Et dernier point, il est plus prosaïquement sur le volet prendre des parts de marché et prendre les bonnes parts de marché. Donc ça c'est un volet qui est plutôt top line de P&L sur lequel on se développe. Donc ça c'est les trois métriques que je regarde principalement. Et donc on se met des objectifs. C'est on moniteure l'atteinte de ses objectifs, et le groupe devrait communiquer sur le fait que ça avance bien. Très bien. Du coup, je n'ai pas répondu, Pierre, à ta deuxième question, sur les profils, qui est une bonne question. Et effectivement, ça... Et là, j'ai envie de faire une comparaison avec le digital. Le digital est arrivé... 1999, on s'est dit tiens, on va faire du commerce, c'est la fin des magasins, qu'est-ce qui va se passer ? et il était révolutionnaire à ce moment-là. C'était le Web 1.0. Ça s'est lancé avant qu'il y ait une réadoption, que toutes les entreprises mettent un chief digital officer, puis voire l'abandonnent, parce qu'en fait le digital, justement, est réparti un peu partout. Il a fallu du temps. Avant qu'on voit tous les profils nécessaires, les UX designers, des développeurs web, ou des profils un peu plus spécialisés, il a fallu du temps aussi. Il y a, on en est... un petit peu au début de ça, il y a ce profil emblématique qu'on connaît tous, le Data Scientist, qui est clé dans un programme, dans un projet d'IA. Et on voit apparaître la nécessité de, pour sortir du POC, d'autres profils, des profils qui vont être plus côté IT, les ML Ops, les ML Inge, et ceux qui permettent de faire des stacks complètes, et d'autres profils aussi plutôt côté business, qui vont faire ce pont-là. que moi j'appelle des AI for business experts ou des AI PO en fonction des...

Pierre Vannier | 17:13.919
Oui c'est ça, j'allais en parler une AI stratégiste,

Adrien Vesteghem | 17:16.911
product stratégiste par exemple qui aime AI mais autant je pense que Data Scientist il est bien nommé, le nom est acquis autant ML Ops, ML Ing. même si c'est pas nécessairement clair pour tout le monde c'est bien nommé et c'est acquis. Autant ce dernier profil qui est plutôt côté business, il n'a pas vraiment de nom. C'est-à-dire que chacun a un peu son nom et tu viens de citer exactement un point qui rend encore ce poste compliqué, c'est qu'il n'a pas vraiment de nom. Et après, je pense qu'il y en a d'autres qui vont arriver. Ceux qui continuent de réentraîner les IA en les corrigeant pour qu'on puisse faire réapprendre avec des principes de feedback loop, ils devraient avoir un nom parce qu'il y a une petite spécialisation dans ça. Quand on fait de... des modèles de langage pour bien comprendre ce que disent les clients. On est obligé aussi de bien comprendre comment on veut la catégoriser, quel est le concept derrière. Ça, ça va être de nouveaux profils, ils n'ont pas encore de nom. J'insiste sur le nom parce que ce qui est un peu dur, c'est que tout ce qui n'a pas de nom n'existe pas vraiment. La première chose qu'on fait quand on a un enfant, c'est qu'on lui donne un nom. C'est la première chose et c'est un acte d'existence. Donc il faut qu'on arrive à la communauté IA mondiale, il faut qu'on arrive à se dire, ça c'est des postes connus, identifiés, voilà le nom. Les journalistes s'en empareront et puis à la fin, c'est... la voix du plus grand nombre qui aura raison, mais ouais, tout à fait. Il y a beaucoup de nouveaux profils qui arrivent. C'est ce qu'on voit aussi, c'est assez intéressant, c'est que les projets d'IA créent de l'emploi. En fait, tous les projets d'IA où on a créé des postes qu'on a pu déployer à différents endroits, en fait, ça permet de... de créer de l'emploi ou faire du risk healing ça propose des opportunités,

Thomas Meimoun | 18:58.934
c'est assez intéressant je voulais revenir sur un point puisque tu mentionnais le fait qu'une des métriques fortes c'était de voir le nombre de projets en production je pense que les choses aujourd'hui elles ont quand même pas mal changé sur ce sujet là toutes les mises en production ne se valent pas est-ce que vous êtes dans la possibilité de couper un projet en production si vous vous rendez compte qu'il ne répond pas à un de vos trois axes, c'est à dire l'efficacité opérationnelle que tu as mentionné, la satisfaction client ou la prise de part de marché est-ce que vous êtes capable de dire on arrête ce projet, on le coupe, on passe à autre chose

Adrien Vesteghem | 19:35.452
c'est une bonne question je réfléchis à des exemples

Thomas Meimoun | 19:38.664
Google qui tue des projets comme ça tous les deux jours on est un petit peu moins riche que Google peut-être parfois un peu moins tech je peux aller un peu plus loin dans le raisonnement puisque par exemple la satisfaction client c'est un énorme sujet on quitte le côté quantitatif du machine learning de l'intelligence artificielle pour arriver sur quelque chose de qualitatif Et les enjeux, ils sont là. est-ce qu'on va attendre trois mois de voir si ce projet-là a créé de la satisfaction au client ? Est-ce qu'on attend six mois, un an, deux ans ? À partir de quand on se dit peut-être que ça n'a pas eu les retours attendus. Allez, on va voir autre chose. C'est plus dans ce sens là ma question.

Adrien Vesteghem | 20:19.911
Oui, elle est très claire et c'est une très bonne question. Donc, à la différence peut-être de Google, on a moins de projets un peu de R&D. La plupart des projets qu'on a, ils sont évidents. Il est absolument nécessaire de mettre du machine learning pour se protéger contre la fraude, la banque et les clients. C'est hyper important. Il n'y a pas de doute, c'est sûr que c'est utile. En revanche, on a eu des cas où les projets de protection contre la faute, on l'a testé, on l'a construit, on l'a back-testé, il marchait très bien, on l'a testé en live. il ne marchait plus. Il ne marchait plus parce que la fraude, c'est hyper mouvant, c'est un environnement qui bouge très vite. Et donc, on ne l'a pas mis en prod. Et ça, on l'a fait plusieurs fois. Là, on vient d'en mettre un en prod, et ça y est, il marche bien et il tient dans le temps parce qu'on a mis une meilleure adoption auprès des équipes qui s'occupent de la lutte contre la fraude, aussi pour qu'ils comprennent, ah oui, je vois comment ça marche, et donc je vais bien l'utiliser. Et donc, on est en train de le déployer, d'augmenter son impact. Donc dans ce cas-là, on a su le faire, mais on n'a pas vraiment renoncé au projet. de R&D un peu, enfin de R&D pas directement utile, c'est-à-dire qu'on a fait que des choses qui sont absolument vitales. Peut-être que dans 2 ans, 3 ans, à la fin du programme d'accélération, on sera tellement mature qu'on commencera à attaquer des projets un petit peu plus les low-hanging fruit on va dire, mais plutôt les projets plus durs avec des oreilles plus discutables, et là on pourra se mettre dans cette situation. Dans tous les projets que j'ai en tête qu'on a lancés, il y en a pour servir un peu toutes les thématiques de l'entreprise, c'est-à-dire le marketing, le commerce, le service, la gestion de la connaissance, la fraude bien sûr, ce qu'on a dans ces jeux. je ne suis pas sûr qu'on les arrête, parce qu'ils sont certains. Peut-être qu'on ne les a pas fait de la même façon et qu'on va les refaire.

Thomas Meimoun | 22:12.700
Ça a déjà fait ses preuves. Ça a déjà fait ses preuves et en fait, vous rentrez dans des problématiques de ML Ops, de se dire, bon, OK, ce modèle-là, il ne marche pas. On le garde, le projet, on le garde, mais on reprend. On essaie de comprendre ce qui n'a pas marché. Et ça me permet d'arriver à un nouveau point. Vous l'avez mentionné, la banque, elle inverse au risque par nature. Le monde bancaire, il n'est pas dans la tech. Il est nécessaire pour notre économie au sens très large. Comment on gère un peu cette déferlante, j'aime pas le mot, mais cette déferlante intelligence artificielle, donc Gen AI, ML, LLM et ce genre de choses, pour prendre en main ces sujets malgré la taille de votre entreprise ? Aujourd'hui BNP Paribas, je crois en 2024 c'est plus de 150 000, 180 000 personnes, surtout que, et surtout que, la Generative AI est beaucoup plus opaque. par rapport au machine learning, quand tu parles de ce projet de fraude, on a du MLOps, on va chercher à comprendre ce qui ne marche pas. Il y a ce subject matter expert, donc cette personne qui connaît la partie quantitative et la partie technique business, qui peut accompagner. Là, on utilise des modèles, on se dit, bon, on fait confiance, mais ça se trouve, dans trois mois, il y a une mise à jour et il faut repartir de zéro sur la compréhension. Comment on fait ? Quand on est une banque, moi,

Adrien Vesteghem | 23:25.409
je trouve ça fou. Alors, plein de bonnes questions. Donc déjà, premier commentaire important. Effectivement, la banque, ce n'est pas qu'une boîte de texte, c'est une boîte qui est que digitale. Aujourd'hui, c'est-à-dire qu'on ne fait plus de coffre-forts, on en a, mais pas beaucoup. C'est très très peu, toute petite partie de l'activité. Il y a 100 ans, les banquiers étaient des gens qui faisaient fabriquer des coffre-forts, avec des caricatures un tout petit peu, mais 200 ans. Dans l'idée, aujourd'hui, c'est... quasiment tout est digitalisé, c'est un vrai point de transformation majeure. Et pourquoi je dis qu'on n'est pas une boîte de tech, même si tout est digitalisé, c'est qu'on est une boîte de trust. Nous, il faut nous faire confiance. Notre asset numéro un, c'est la confiance. C'est si nos clients doutent de nous, Ce n'est pas bon. Si jamais on fait une erreur sur un compte bancaire qui se retrouve vidé, notre asset numéro un, on fait tout pour éviter ça, ce n'est pas d'aller vite contrairement à Google, Facebook, Meta, ou à des GAFAM ou des BATX en Chine, ce n'est pas ça notre mindset, notre mindset c'est d'avancer de façon sécurisée. C'est un vrai point hyper différent. à ce titre on pourrait dire qu'on n'est pas une boîte de tech même si en vrai on est un peu une boîte de tech en tout cas on n'est pas une boîte de tech comme les GAFAM sur la deuxième enfin sur ce petit commentaire mais après deux éléments qui sont intéressants un Après, avant l'arrivée de Genia, je me disais qu'en fait on est bien, ça y est, on commence à avoir des stacks complètes, on commence à avoir du MLOps, on a des zones d'exploration, des zones de mise en prod, super, le job est fait. on a les outils. Et là, arrive Jenny Hai, et là, il y a un grand trou dans la raquette qui est comment on adopte ça, etc. Et là, je dois reconnaître que j'ai été très surpris, très favorablement surpris par la vitesse d'adoption de l'IT Group de BNP Paribas qui a un rôle très fort, qui nous protège tous, toutes les entités de BNP, les 180 000 salariés, les trois pôles, et toutes les entités qu'il y a derrière. ils ont pris la balle au bourre on pourra parler plus de comment ils l'ont prise, enfin comment on l'a prise, mais ils ont pris à mal et on se structure pour aller chercher ça, on avance, on achète des GPU, c'est-à-dire très concrètement, on structure des équipes, il y a des annonces récemment de nouvelles entrées chez nous qui vont aider, donc on prend le point effectivement pas comme une start-up, pas comme un GAFA, un petit peu différemment. Si tu veux, Thomas, je peux zoomer sur comment on l'a vécu, parce que c'est un vrai sujet. On regardait les liens génératifs. très tôt, donc là c'est quelques équipes dans le groupe qui se disaient mais ce DaVinci 003 là on vient de passer un stade, il est très bien, je ne sais pas si vous vous souvenez c'était en juin 2022 à peu près que DaVinci 003 qui était en gros le modèle le papa de GPT-3 est sorti et déjà il faisait des choses c'était assez étonnant donc on a très peu de personnes ont commencé à regarder ces sujets là, plutôt les experts, ce qui est assez logique, donc un centre d'expertise, du coup il était dessus, on l'a fait, c'était très bien, on a commencé à réfléchir, à se dire qu'est-ce qui peut se passer. Et là, arrive la sortie de GPT 3.5, et là la déferlante est arrivée. Ce qu'on a commencé à comprendre, à intuiter, et ça notre IT group justement l'a très bien intuité, c'est qu'il y avait des risques d'erreur. Je ne sais pas si vous vous souvenez des histoires qui étaient assez incroyables à l'époque, où on pouvait faire dire à ChatGPT que les vaches pondaient des œufs. On pouvait lui faire dire pas mal de choses qui étaient assez embarrassantes. ITG a pris une très bonne décision, c'est qu'ils ont dit protection, on se protège, et c'est notre job. Notre job c'est de se protéger, c'est-à-dire qu'on se protège, on se protège nous et nos clients, et on ne veut pas faire de bêtises. Et donc, moi j'ai eu une année 2023 compliquée. parce que j'étais à la fois en train de suivre tout ce qui se passait et c'était complètement complètement incroyable, j'ai fait une erreur personnelle c'est que j'ai mélangé mon travail et ma vie perso puisque la journée je regardais ce que faisait l'IA Générative et en même temps que faire les projets et puis le soir j'allais faire avec la GPT des histoires pour mes enfants pour comprendre comment ça marchait et puis aussi pour les amuser, ça a plutôt marché mais grosse saturation en 2023, personnelle, et en revanche, une fois qu'on a bloqué, on a commencé à regarder en disant, bon, il y a un vrai phénomène. Et là, tout le monde a commencé à regarder sous plusieurs axes, les équipes IT, de quoi on a besoin, comment on fait pour accéder à ça, est-ce qu'on peut aller faire un deal avec Microsoft pour accéder à ça, est-ce qu'il faut acheter des GPU, combien ? commencé à se construire sur ça de façon très prudente et progressive. C'est vraiment notre marque de fabrique. Et puis côté métier, on a regardé ça sert à quoi en fait tout ça ? Et donc c'est là qu'on a vu les fameux RAG qui sont des bases de connaissances intelligentes avec lesquelles on peut parler et qui nous permettent d'accéder à plein d'infos qui sont beaucoup plus riches que ces... je pensais il y a 9 mois, je me disais mais mince, ça se trouve, c'est juste un update, une upgrade des chatbots. Et non, pas du tout. C'est pas du tout la même chose. Ça n'a absolument rien à voir. C'est une autre dimension. et donc on s'est tous dit c'est possible, l'IT c'est possible c'est intéressant et donc on a avancé ensemble. Donc si tu compares ça à une startup qui a la capacité à dire tout de suite je vais aller ouvrir un tenant chez Microsoft Azure, de toute façon j'ai pas de données clients c'est pas grave, on a été extrêmement lent mais si tu compares ça à une banque et au niveau de sécurité qu'on souhaite avoir et de prudence qui est la clé, c'est la clé de notre business en fait. si tu comprends ça on a été assez rapide je suis très fier de ça c'est un très bon point

Thomas Meimoun | 29:37.731
J'ouvre une parenthèse on tourne cet épisode au moment où Astra et GPT4 sont sortis cette semaine sont mentionnés effectivement tu parles des rags je pense que les rags c'est extrêmement rassurant pour le domaine bancaire on a un peu plus de contrôle sur ce qui se passe et ce qu'on donne à notre modèle moi j'ai une grande inquiétude on tourne cet épisode avec le domaine bancaire aujourd'hui Astra, mercredi ou jeudi, fait une présentation où il montre un peu comment ça fonctionne. Et ils utilisent en temps réel une caméra et il y a un modèle qui lui répond en temps réel. Et en fait, à un moment, il montre... il traverse son espace de travail et il y a une paire de lunettes quelque part et à un moment il dit à Astra où est ma paire de lunettes ? il dit bah elle était là donc il y a tout un phénomène de mémoire qui se rappelle des choses moi je pense tout de suite à l'épisode qu'on va avoir aujourd'hui et je me dis, mais en fait si quelqu'un utilise son téléphone devant un guichet ou quelqu'un est en train de tirer alors que la personne est en train de marcher, c'est un risque de dingue. Est-ce que vous y avez un tout petit peu pensé ? Est-ce que c'est des choses qui, ça vous fait peur ? Ou GPT-4O, il y a la partie voix, on peut faire croire qu'on est quelqu'un d'autre. Il y a vraiment beaucoup de choses aujourd'hui. Je suis data scientist, c'est mon métier, j'adore ça.

Adrien Vesteghem | 30:55.326
mais il y a plein de choses comment on va gérer tout ça on peut fermer la parenthèse si vous voulez c'est Black Mirror là non non c'est une super parenthèse moi j'ai pas vu Astra parce que comme j'ai fait une overdose de d’IA générative en 2023 du coup je tempère un petit peu j'attends que ça 3 jours après j'y vais j'ai vu GPT-4O effectivement bluffant il y a un côté positif et un côté négatif mais ça c'est vrai c'était déjà vrai pré-avancée solution c'est à dire que sur les risques associés à la dégénérative, on en parlait, ils sont très importants. Tu as des risques d'usage, bon, et tu as des risques de mauvaise, d'utilisation mal intentionnée. Et donc, tu vois, nous on fait des acculturations internes pour dire attention, il y a ça. On passe des messages à nos clients pour dire attention, il y a ça. On est pédagogue autant qu'on peut l'être sur ces sujets. Tu vois, moi, les premiers points d'inquiétude, c'était, mais en fait, les deepfakes vidéos, les deepfakes de voix, potentiel absolument incroyable. Là où c'est rassurant sur ces sujets de deepfakes, c'est qu'ils sont faits pour détourner de l'argent. Et ça, en fait, c'est pas nouveau. Ça fait très longtemps qu'il y a des gens qui essaient de détourner de l'argent d'autres personnes. Je ne dis pas que c'est bien, je le regrette. Et que nous, on se bat contre eux. Et ça, ça fait qu'on a déjà un socle de protection qui fait que, en fait, si tu es client chez nous, si tu es en train de te faire ficher même par un deepfake, tu vas avoir des petites alertes qui vont t'arriver, qui vont te protéger. Alors évidemment, il faut qu'on... c'est comme le... le dopage et la détection du dopage. Il faut faire avancer les deux en même temps. Il faut que nous, on ait les bonnes contre-mesures. Mais il y a déjà quelque chose qui protège conceptuellement la banque et ses clients de ces intrusions. Il va falloir qu'on continue. Il va y avoir des deepfakes de documents. Il va y avoir peut-être de l'espionnage comme tu le mentionnes, Thomas. C'est un exemple hyper intéressant. Mais tu vois, pareil, tu pouvais le faire avant. et ça s'est déjà fait il y a déjà des yeux humains qui ont regardé des codes et qui ont tiré un truc tout cette ingénierie elle existe déjà mais c'est de l'ordre du génie ces gens là qui arrivent à se rappeler des choses c'est du génie alors que là on est sur un truc où tout le monde a un smartphone et si on arrive à connaître c'est

Pierre Vannier | 33:13.865
de l'ordre de tout le monde du commun et c'est un vrai sujet c'est à dire que j'enregistre 3 secondes à travers ce podcast 15 secondes de la voix de Thomas demain j'appelle sa banque au Canada je connais son numéro sa date de naissance et son adresse et je leur dis de me renvoyer son code de connexion à son espace bancaire moi mon inquiétude elle est si

Adrien Vesteghem | 33:37.941
tu appelles ses parents et avec l'ingénierie sociale tu peux le faire tu appelles ses parents avec sa voix en disant maman j'ai besoin d'argent donc on doit protéger et Enfin, c'est pas pour donner des idées, parce que c'est pas ça, je sais que ça existe déjà. Donc, c'est un super exemple. Bref, il faut qu'on soit particulièrement attentif là-dessus. Nous, on continue de progresser, on continue de mettre plein de choses qui permettent de se protéger de ça. on ne le sera jamais assez. Pour moi, on va continuellement lutter contre ces malveillances.

Pierre Vannier | 34:14.763
La cybersécurité est engendrée par les nouvelles capacités de menaces qui émergent avec ces nouvelles technologies d'IA générative, notamment multimodales, comme l'a dit Thomas. vont être vraiment à l'ordre des mois et années qui vont arriver. Et du coup, ça me donne un peu une transition parce que... ChatGPT, Copilot, j'imagine qu'au travers des 180 000 personnes qui travaillent pour BNP Paribas, je pense que vous avez quelques développeurs, ils utilisent Copilot, ils ne l'utilisent pas, vous avez séquestré, vous utilisez des modèles internes, vous utilisez Copilot pour certaines parties du code, et ChatGPT là-dedans pour les collaborateurs. Comment vous faites pour ces outils end-user ? Pareil, vous avez des outils de visioconférence, vous faites les minutes des meetings automatiquement avec les transcripts. Si oui, quel outil ? Comment vous faites pour les modèles, la sécurité des données, etc. 19 questions dans ma question.

Adrien Vesteghem | 35:20.870
19 questions. alors et je vais surtout même pas répondre à cela tout de suite mais je réponds juste après Pierre bien sûr sur le sujet des risques autour de liens génétiques il y a aussi une opportunité incroyable et tu vois moi le GPT-4O il me fait dire mais en fait c'est hyper intéressant c'est hyper intéressant alors pour moi il y a un vrai truc qui a été craqué à ce moment là c'est un peu anecdotique pour le business mais c'est un truc qui n'existait jamais c'est l'émotion dans la voix c'est à dire qu'on avait déjà des voix qui savaient faire de l'émotion mais changer d'émotion si c'est vrai c'est incroyable donc ça, ça progresse ça rend les choses ça commence à être acceptable ce que je veux dire c'est que là où le potentiel est hyper intéressant, tu dis un rag c'est dingue un rag, c'est une base de connaissances voilà ce qu'on sait pour que bientôt tu vas pouvoir lui parler tu vas pouvoir interagir avec elle tu vas pouvoir lui demander des choses fais moi des schémas parce que moi je suis un visuel je comprends pas j'ai fait un schéma, ça c'est ça, qu'est-ce que t'en penses ? je vois aussi le côté extrêmement positif de ça et le fait de me dire en fait on est parti dans la bonne direction ça a beaucoup de chance et le prendre par ces projets là de manière optimiste je remets de l'optimiste il y a un risque et il va falloir qu'on le traite et il y a aussi des opportunités que je trouve hyper bien. Moi, je suis un assez optimiste au global. Il ne faut pas qu'on soit tous comme moi, mais je trouve que c'est bien. Alors, maintenant, Pierre, pour répondre à tes 19 questions, et j'ai bien noté les 19 questions, donc, on a tout bloqué en mars 2023, et on a très bien fait. on a vu après ça beaucoup de cas très médiatisés donc rien zéro sur rien après, pourquoi ? parce que, pour expliquer les risques hallucinations, c'est pas bien, mais après si on a des critiques c'est pas très grave quand c'est utilisé par des collaborateurs mais aussi fuite de données. Si tu fais un copier-coller d'un mail client sur GPT-4, tu viens de donner des infos client. Et tu viens de dire à Microsoft, à GPT-4, tiens, cette personne est inclinée. Et ça, c'est un risque majeur. C'est un risque du RGPD, les amendes en face sont spectaculaires. Bref, c'est hyper important. Donc, on a bien fait. En revanche, sur des modèles open source, là pour le coup, c'est chez nous. Il n'y a pas de sortie de données. Donc oui, il y a le risque d'hallucination qui perdure, mais les deux autres risques, celui de sortie de données et celui de souveraineté, on va dire, parce qu'il y a un autre point, c'est que si on confie notre intelligence à OpenAI, qui est le banquier ? C'est BNP, Paribas ou OpenAI ? Bonne question. Donc, deuxième risque de souveraineté auquel je suis attentif, Bref, on enlevait ces deux risques-là. Et donc là, on a commencé à faire des premières expérimentations, et on a commencé à produire des... Alors, ils étaient beaucoup plus petits, ils étaient sur des modèles open source, donc un petit peu moins performants, mais il y avait déjà des petites choses qui nous ont permis de tester, commencer, regarder. ce qu'on a commencé à regarder en parallèle de ça, c'est comment accéder à des versions plus sécurisées de GPT, qui est quand même une des grandes références sur le sujet. Donc on a vraiment eu les deux streams. On a une préférence pour la partie open source, open weight, parce qu'elle est beaucoup plus safe. Mais c'est vrai que faire des expérimentations avec GPT, ça peut te permettre de gagner du temps, et ça c'est assez intéressant. Donc, on a avancé dans cette direction. Alors, en mettant des conditions, c'est-à-dire, est-ce que... quelles données on peut mettre dessus. Donc, on s'est dit, attention, on ne le donne pas à des big boss, ce truc-là, parce qu'ils vont manipuler de l'information essentielle. Attention, on ne le donne pas à des gens qui sont en contact direct avec des collaborateurs parce qu'ils vont manipuler de l'info client. Donc, tout ça...

Pierre Vannier | 39:32.258
Je disais tout à l'heure, les guidelines qui aident finalement de niveaux de dangerosité et de risque des données en fonction de ta position dans l'entreprise, de ton département, de la typologie de données, en fait, avec une espèce de gouvernance, finalement, déjà.

Adrien Vesteghem | 39:48.522
tout à fait et donc on a appliqué la gouvernance existante sur ces modèles qui sont nouveaux on essaie de comprendre un petit peu ce que ça voulait dire et on les a on a commencé les tests voilà donc ça ça nous a permis de débloquer l'accès à GPT-4 qui a été qui est encore aujourd'hui dans les top top préférents donc c'est ça c'est hyper intéressant c'était quand même plus à des fins d'expérimentation deuxième expérimentation qu'on a fait c'est pas avec le copilote auquel vous pensez c'est avec le Microsoft copilote pas le GitHub Avec le Microsoft Copilot, on s'est dit mais ça aussi, ça a un potentiel incroyable. Mais c'est GPT-4, c'est sur un tenant, mais c'est quand même aux US, donc attention. Donc on a commencé à faire des tests, mais cette fois-ci de façon extrêmement sélectionnée, en ne prenant que les populations parfaitement averties, et qui en est parfaitement expliquée, sur lesquelles on s'est assuré qu'il n'y avait pas de risque de sortie de données. ce n'était pas le GPT-4 public, attention, on est sur un GPT-4 qui est privé, mais même ça, on veut vraiment être sûr que c'est paris enviable, et on a commencé à regarder. Donc on a commencé à regarder, toute petite diffusion, on se dit le potentiel est assez spectaculaire, on se dit qu'on a bien fait de commencer à regarder, on se dit qu'on va regarder maintenant un peu plus en détail. et faire une deuxième série de tests. Et seulement à la fin de cette deuxième série de tests un petit peu plus large, on ira voir si on généralise ou pas et auprès de qui. Ce point, on est particulièrement prudent. Notre métier, c'est la confiance. On veut vraiment être sûr. On ne veut pas qu'il y ait de choses qui sortent. C'est vraiment un point important. Alors, sur le code. Sur le code, on a vu le potentiel aussi très vite, et effectivement, assez naturellement, ça sort comme cas d'usage assez spectaculaire. Sur le code, on n'a pas encore passé le pas de... Enfin, voilà, on a notre solution cible, et elle n'est pas GPT-4. On est en train de la tester pareil. Le code... c'est pas la donnée client donc là il n'y a pas de risque de GDPR mais il y a un risque de quelqu'un de malin au sens péjoratif du terme, pourrait aller se débrouiller pour récupérer des infos chez OpenAI et en fait regarder ça. Donc, pareil sur le code, il y a un niveau de prudence. En fait, on a les front qui sont visibles et ce qu'on veut, c'est que le back soit parfaitement visible. Et donc, ça rentre dans ce cadre-là. Donc, pareil sur ça, on est particulièrement prudent aussi sur les mêmes méthodologies de test où on regarde dans un âge progressivement, etc. et on fait de la calculation. Mais aujourd'hui, très clairement, c'est dans la cible. C'est-à-dire qu'on va Je suis absolument convaincu de l'intérêt pour les développeurs, pour les data scientists en particulier. Ceux qui ont la chance de travailler sur des petits modèles open source, open-weight, ils ont la chance aussi de pouvoir poser des questions sur tiens, comment tu ferais ce code-là ? C'est très utile. Des regex par exemple, c'est horrible à coder, mais en fait ils peuvent composer, c'est plutôt bien. Voilà, donc ça avance à la meilleure vitesse d'une entreprise dont le business est la confiance.

Thomas Meimoun | 43:05.046
C'est intéressant. J'en profite pour poser la question de notre précédente invitée, donc Ludi Akué, qui était CTO digital chez BPI France, donc aussi le domaine bancaire. Et il y avait toute une discussion associée à comment on pouvait définir un cadre d'usage pour une IA frugale. Aujourd'hui, on ne l'a pas du tout mentionné dans notre échange. Est-ce que c'est quelque chose à laquelle vous pensez ? C'est-à-dire ? faire des petits langages des petits modèles pour répondre à des problématiques peut-être plus précises ou optimiser son utilisation au large language model ok,

Adrien Vesteghem | 43:37.811
tu as trois axes de réflexion derrière ça tu as l'impact carbone tu as le coût d'inférence on va dire et la taille d'équipe. Il y a trois discussions derrière Fregal. Impact carbone, c'est un vrai sujet. Et il y a un an, tout le monde se posait la question, mais combien ça a coûté d'entraîner ça ? Est-ce qu'on n'est pas en train de brûler l'Amazonie ? Là, on entend ça. Donc maintenant, on a les chiffres. On commence à avoir les chiffres sur l'Iama 3, Meta a sorti des chiffres qui sont intéressants sur les modèles open source qu'ils entraînaient. On voit ce que ça représente. un des gros liamats 3 représente l'équivalent de consommation CO2 de 200 ménages. Donc c'est quand même significatif. Ce n'est pas aussi gros que ce que j'avais eu peur que ce soit, mais c'est assez significatif. Ce qui veut dire que sur ce sujet, il faut quand même avoir des stratégies sur l'entraînement de modèles, des stratégies de reuse. Donc les modèles open weight, autant qu'on peut les réutiliser, c'est bien. Entraîner son propre modèle comme certains l'ont fait. Bon, pourquoi pas, si l'usage est vraiment vital, etc. Mais repartir de choses existantes, ça semble quand même avoir du sens. Donc là-dessus, il y a des points qu'on essaie d'observer. Et au passage, optimiser l'impact carbone, c'est un point très positif, ça permet d'optimiser aussi le coût, donc c'est gagnant-gagnant. Je trouve que c'est super ces optimisations quand elles sont... aligné avec l'objectif, c'est un très bon point. Donc, impact carbone, c'est un vrai sujet qu'il faut continuer de monitorer. Et ça, je suis assez fier de ce qui est fait sur ces sujets chez BNP Paribas, il faut qu'on continue, c'est un peu comme la fraude, c'est un never ending story. Donc, à suivre. Sur la partie, donc, coût d'inférence. Donc, enfin, comment dire, coût d'inférence. intelligence de l'IA que tu utilises pour la tâche ? Est-ce qu'on a besoin de demander à Albert Einstein de résoudre des problèmes extrêmement simples ?

Pierre Vannier | 45:50.916
Oui, bien sûr. Est-ce que tu as besoin d'avoir un énorme modèle qui connaisse la date de naissance d'Henri IV, alors qu'en fait tu veux répondre à tes clients et tu as un customer support ?

Adrien Vesteghem | 46:01.204
Mais c'est tout à fait ça. Donc, instinctivement, on se dit tous Non, peut-être pas Et en fait, des BERT 300 MHz font des tâches qui sont très bien. Donc, je ne crois pas à une IA où... J'ai eu un doute à un moment, mais c'est très clair maintenant, c'est sûr qu'il n'y aura pas une énorme IA que tout le monde va avoir, ce sera plein de petites IA modulaires qu'on ira consommer, et dont la taille de l'IA sera proportionnelle à la complexité de la tâche qu'on attend, et vraisemblablement, on essaiera de... enfin, voilà, il y a de la place pour tout détail d'IA là-dessus, et bien sûr que c'est un sujet qu'on regarde, on a regardé très vite, alors là, pour des raisons beaucoup plus... pragmatiques les tailles de modèles parce qu'au début ça rentrait pas donc il a fallu les quantifier tout simplement il y a des petites choses qu'on a faites comme ça qui était intéressant, qui permettait de faire les premières explorations et il faut qu'on continue maintenant de se dire, maintenant coup d'inférence etc. et impact ESG aussi bien sûr. Donc celui-là c'est un vrai sujet et tu vois c'est marrant parce que pour moi c'est la conférence de Sam Altman en novembre l'année dernière qui a donné le la bascule. C'est-à-dire quand ils ont dit Ok, nous on arrête la guerre au plus gros modèle possible, on passe maintenant sur des GPT, sur des petites IA qui sont un peu spécialisées sur ça. Je me suis dit Mais ils ont raison. C'est la bonne direction. C'est-à-dire qu'il faut aller chercher de la spécialité pour avoir des choses pas trop grosses, qui savent bien faire une tâche. Et ça me semble évident maintenant, là où ça n'était pas nécessairement pour moi avant. Et c'est ce qu'on voit, c'est-à-dire que les concurrents, la course au gros modèle s'est un petit peu arrêtée. Avant, il y avait des batailles de 500 milliards, enfin, les 500 B de Chine qui étaient sorties, etc., qui ne faisaient pas beaucoup, enfin, de Google aussi, c'est pas beaucoup mieux. Donc, ça, vrai sujet, tu as raison, et c'est là où c'est intéressant, et c'est là où les data scientists ont été un peu dépossédés de ce sujet de l'IA générative, parce qu'en fait, maintenant, il suffit d'être... ou même développeur et tu peux appeler des API, faire des choses où tu n'as plus besoin d'être data scientist moi j'en ai fait alors que je ne suis pas data scientist de formation et bien là ils reviennent dans la course parce qu'il va falloir qu'on cherche vraiment des sujets d'optimisation fine de chacune de ces étages pour des sujets de coût d'inférence et on voit ce que ça coûte et c'est spectaculaire Dernier point sur l'IA frugale ce qui est hyper intéressant avec l'IA générative c'est qu'on commence à vraiment faire pouvoir faire de l'IA frugale dans un contexte, là je parle de AI for business si tu veux faire de l'IA chez toi tu pouvais en faire avant tu pouvais avoir des petits modèles, tu prenais du R tu faisais des choses, c'était sympa mais si tu veux faire de l'IA pour le business jusqu'à maintenant c'était des projets toujours un petit peu gros c'était pas facile à y trouver, il fallait une taille critique il fallait des choses là ça commence à être intéressant parce que maintenant avec une toute petite équipe déjà tu peux faire des choses assez spectaculaires et là dessus c'est je pense que c'est une très bonne nouvelle c'est à dire que maintenant chaque entreprise même des, alors peut-être pas les plus petites mais enfin aussi chaque entreprise doit pouvoir avoir une équipe IA et là où avant une équipe y a de moins de 10 personnes ça n'avait pas beaucoup de sens ça existait mais ça n'avait pas beaucoup de sens en tout cas pour une entreprise là maintenant ça commence à avoir du sens donc c'est assez intéressant donc ouais je ne peux pas te prédire l'avenir tout à fait sur ça je pense qu'il y a aussi de la place pour des grosses équipes et besoin de grosses équipes quand on a beaucoup de besoins d'IA mais je pense qu'on va avoir une meilleure mixité d'équipes et je pense que ça va être ceux qui étaient un peu exclus, les PME, étaient pour moi complètement exclus de l'histoire, en fait. Là, elle re-rentre dans le sujet, et je trouve que c'est hyper enthousiasmant.

Pierre Vannier | 49:55.822
Tu sais qu'on a une tradition dans notre podcast, c'est de demander à notre invité, comme tu as répondu à la question de Ludi, est-ce que tu aurais une question pour le ou la prochaine question ? invité du podcast Y'a pas que la data, évidemment autour de l'IA, de la data, ou une question plus générale, plus sociale, plus stratégique, plus philosophique,

Adrien Vesteghem | 50:18.624
pourquoi pas. Ok, j'ai des idées Est-ce qu'on sait qui sera le prochain ? Vous savez déjà qui est le prochain ? Non,

Pierre Vannier | 50:25.975
justement, on ne sait pas

Adrien Vesteghem | 50:27.817
C'est dommage, parce que j'aurais pu faire plus ou moins piège

Pierre Vannier | 50:32.000
Franchement, ça sera une personne d'un grand groupe C'est au moins un indice

Adrien Vesteghem | 50:36.581
Ok, parfait Je vais essayer de le mettre le plus mal à l'aise possible Je vais trouver une question vraiment embarrassante C'est parfait,

Pierre Vannier | 50:42.342
on adore ça

Adrien Vesteghem | 50:44.644
Donc, un... aujourd'hui l'IA ça crée des emplois c'est évident quand tu compares à l'industrie automobile au début automatiser, robotiser ça crée plein d'emplois c'était des vrais sujets qui développent et qui permettent aussi à la société d'accéder à des niveaux de qualité de service qui sont incroyables mais Donc les emplois du secondaire lors de la révolution industrielle sont passés vers le tertiaire, sauf qu'il n'y a pas de quaternaire. Et donc, si l'IA générative est aussi puissante que ce qu'elle semble être, et surtout qu'elle va continuer de s'améliorer, à quoi ressemble la société dans 15 ans ?

Pierre Vannier | 51:30.844
Ok Tu nous as mis tous les deux mal à l'aise Très très belle question Super question On a passé un très très bon moment en ta compagnie Adrien Vraiment super, belle expérience Tout un tas de choses très très intéressantes Tout un tas de petites cerises Et de choses vraiment Délicieuses à écouter Merci beaucoup Adrien Et merci Thomas pour ce ping-pong et pour nous accompagner dans ce podcast depuis maintenant presque 8 mois. Merci beaucoup, messieurs. Merci à vous.

Adrien Vesteghem | 52:08.605
Merci à vous.

Thomas Meimoun | 52:09.327
Merci beaucoup.