Les balados du CIRCEM


Sciences, savoirs et sociétés (Partie 3) : Enjeux du numérique et de l’IA




Dans cet épisode des balados du CIRCEM de la série de conférences Mauril-Bélanger, Stéphanie Gaudet discute des enjeux du numérique et de l’intelligence artificielle avec Lyse Langlois de l’Université Laval et Olivier Servais de l’Université catholique de Louvain. Les invités questionnent comment les nouvelles technologies façonnent nos imaginaires et notre rapport au monde et abordent certains paradoxes, dont les enjeux éthiques et la dépendance sociétale à la technologie. Cette réflexion a été entamée dans le cadre du XXIIᵉ Congrès de l'Association internationale des sociologues de langue française avec pour thème « Sciences, savoirs et sociétés ».

Pour en savoir plus sur le XXIIᵉ Congrès de l’AISLF, qui a eu lieu en juillet 2024 à l’Université d’Ottawa : https://congres2024.aislf.org/

What is Les balados du CIRCEM?

Les balados du CIRCEM visent à promouvoir la recherche interdisciplinaire sur la citoyenneté démocratique et les groupes minoritaires et minorisés, à partir de la tradition intellectuelle du monde francophone.

[Musique de fond]

00:00:10 Marie-Hélène Frenette-Assad
Les balados du CIRCEM visent à promouvoir la recherche interdisciplinaire sur la citoyenneté démocratique et les groupes minoritaires et minorisés, à partir de la tradition intellectuelle du monde francophone.

[Fin de la musique de fond]

00:00:33 Stéphanie Gaudet
Bonjour, ici Stéphanie Gaudet et vous écoutez un balado du CIRCEM de la série Mauril-Bélanger consacré au XXIIᵉ congrès de l’Association internationale des sociologues de langue française, qui a pour thème « Sciences, savoirs et sociétés ». Nous réfléchirons aujourd’hui autour des enjeux du numérique et de l’intelligence artificielle. Quels défis éthiques et scientifiques posent l’omniprésence de la technologie et de la technique dans nos univers scientifiques et nos sociétés contemporaines? Pour discuter de ce sujet, j’accueille Lyse Langlois, professeure titulaire au département des relations industrielles de l’Université Laval et directrice générale de l’Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique, Obvia. Je reçois également Olivier Servais, qui est professeur de sociologie et d’anthropologie à l’Université de Louvain, en Belgique. Bienvenue aux Balados du CIRCEM, et j’aimerais vous poser la première question, donc à Lyse Langlois, comment les nouvelles technologies façonnent-elles nos imaginaires et notre rapport au monde?

00:01:47 Lyse Langlois
C’est une question intéressante et je ne pense pas qu’on va réussir à obtenir des réponses parce que ça évolue très rapidement, les technologies, puis les recherches commencent à sortir un peu plus sur son impact, du moins. Puis la question sur les imaginaires, je pense qu’on va l’exploiter à fond au cours des prochaines années, même si on sait que l’environnement technologique a été fortement teinté par la science-fiction, qui a peuplé cet imaginaire-là, qui a nourri la communauté des développeurs et des concepteurs, et ça en soi, ça pourrait faire l’objet d’un projet de recherche assez intéressant. Je vais faire un petit pas de recul, puis je vais citer une philosophe française – probablement Olivier, tu la connais –, c’est Vanessa Nurock, qui a écrit, qui a soulevé une question à un moment donné, on l’a invitée à quelques reprises et elle a soulevé la question suivante : est-ce que l’intelligence artificielle a un genre? Et, une réponse logique, évidente à une telle question est que l’IA n’a pas de corps, donc elle ne peut pas avoir de genre [rire]. Mais pourtant, la question est peu banale parce qu’elle teinte, en effet, la question que vous avez soulevée, l’imaginaire. Donc, on voit que depuis le début, on a conçu des robots qui avaient des caractéristiques humaines. Et on a conçu certains logiciels et applications en y ajoutant des voix, souvent féminines, lorsque cela faisait appel à des services; masculines lorsqu’il s’agissait plus de services d’autorité ou de réponses plus formelles. Donc on a vu que les assistants technologiques ont souvent des traits dits féminins, et là, je pense entre autres aux assistants vocaux d’Alexa, Cortana, qui ont été mis au point par Amazon et Microsoft, sans oublier Siri, qui est la création d’Apple, qui en norvégien signifie « femme magnifique, vous guidant vers la victoire ».

00:03:59 Stéphanie Gaudet
Oh, c’est beau! [Rire]

00:04:02 Lyse Langlois
[Rire] J’ai trouvé ça quand même assez intéressant quand j’ai approfondi ce que ça voulait dire. Donc, ce qu’on constate par la question soulevée par la philosophe, c’est que les assistants vocaux sont clairement calqués sur le modèle des femmes secrétaires. Alors, outre le genre, les agents conversationnels ont aussi pour fonction d’imiter des conversations humaines. C’est un phénomène que vous connaissez tous, l’anthropomorphisme. Puis ce que je trouve intéressant, c’est qu’il y a des chercheurs allemands, je vais les citer, Anna-Maria Seeger, Jella Pfeiffer et Armin Heinzl, qui ont écrit un article « Texting with Humanlike Conversational Agents: Designing for Anthropomorphism ». Ils ont exploré ce sujet en 2021 et ils ont mis en évidence le fait que l’anthropomorphisme permet aux utilisateurs de se sentir plus en contrôle face à une nouvelle technologie, puisqu’il lui prête des caractéristiques qu’ils connaissent bien. Les chercheurs affirment aussi que la tendance à représenter l’IA avec des traits humains reflète aussi la compréhension limitée du grand public face à cette technologie. Donc on voit bien que ça peut paraître banal dans le quotidien de monsieur et madame Tout-le-Monde, mais il y a tout un imaginaire et il y a… c’est ça, tout un imaginaire qui est teinté par les choix qui sont faits. Donc on voit que la technique et la manière de la représenter induit en elle-même une vision du monde qui est parfois biaisée, parfois limitée. Et c’est important de se rappeler, puis là je vais citer une auteure, Béatrice Galinon-Mélénec, qui nous dit que les machines n’engendrent que des protocoles et des procédures, et on tente à oublier cet aspect-là qu’elle met en évidence parce que justement notre imaginaire est teinté par ce qu’on veut projeter via la machine. Donc, la codification, la transmission numérique du savoir, la standardisation, le stockage des données, la gestion des modes d’accès sont des sémiotiques, pour moi, descriptives de cette civilisation numérique. Et comme la même chercheure le dit si bien, l’internaute qui cherche une information sur un moteur de recherche « va se trouver en contact avec des liens inattendus qui permettent de faire émerger de nouvelles représentations du réel humain et non humain ». Et ça aussi, c’est tout encore un champ de connaissances à explorer. Du moins, on est encore, à mon avis, au tout début de cette exploration d’interrelations numériques.

00:07:10 Lyse Langlois (suite)
Mais la question, à mon avis, à se poser face à celle que vous avez lancée plus générale, c’est : quelle est la vision du monde qui est proposée à travers la technologie? Est-ce qu’elle est un facteur d’enrichissement, d’appauvrissement? Et je pense que cette question-là hante beaucoup de philosophes. Et là on voit souvent les éléments des technophiles versus les technophobes, on a toujours encore une fois cette vision binaire à proposer, mais il faut aller creuser un peu plus, et à mon avis les sciences humaines et sociales permettent d’aller vraiment au fin fond des choses sur ce qui est véhiculé. Je vais citer Ellul, qui disait que : « La technique en elle-même est une idéologie qui ne dit pas son nom et qui travaille à organiser un certain rapport au réel et aux hommes. » J’aurais aimé ça dire ça [rire], mais c’est le grand Ellul qui l’a dit et c’est tout à fait très juste. Et pour moi, l’intelligence artificielle, c’est un enjeu qui est non seulement technologique, mais c’est surtout un enjeu social, éthique, et politique. Ellul, encore une fois, et Heidegger disaient qu’ils considéraient la technique et la rationalité scientifique comme des essences qui tendent à organiser leur propre hégémonie, en balayant les autres représentations humaines, et c’est ça un danger, à mon avis, dans lequel il faut faire attention, dans lequel on voit de plus en plus des considérations pour les voix du Sud, pour les pays émergents, parce qu’ils ont leur propre représentation qui a de la difficulté à émerger dans ce grand débat et dans ce grand écosystème-là qu’est l’intelligence artificielle. Et on parle de plus en plus de « domination coloniale » qui impose ses propres critères, postulats, au premier rang desquels on va retrouver l’efficacité mesurable, une vision du monde où l’imaginaire humain est unidimensionnel, il est technicisé, et c’est le point de vue technicien sur le monde, la technicisation du social – je pense Gilbert Hottois avait déjà mis les belles bases à cet effet envers la technique. Mais à mon avis, cette domination coloniale, c’est un nouveau concept, qu’on n’est pas familier à mettre dans le monde technologique, du moins sous cette forme-là, et il ne faut pas être dupe qu’il y a ces éléments-là qu’on peut retrouver et il y a une recherche en ébullition en ce moment un peu partout sur ces enjeux-là.

00:10:09 Lyse Langlois (suite)
Et moi, ce que je vois, c’est, ce qui est difficile avec les développements des systèmes techniques, en particulier l’IA et l’IA générative, c’est vraiment le fait que le contrôle nous échappe, de même que sa légitimisation. Les développements et les choix se situent souvent en amont d’un débat démocratique et cela fait en sorte que ça va déterminer le débat social sans véritable délibération, puis ça joue sur nos imaginaires, ça a un impact, ça se décide souvent loin de débats démocratiques, dans le secret des conseils d’administration des grandes entreprises technologiques, même dans les laboratoires de recherche, il ne faut pas non plus penser que c’est neutre là non plus. Et ça me fait penser justement au concept d’Ulrich Beck sur la « subpolitique », qui parle de cette « société du risque » ou la « peur du risque ». Et ce qu’on voit dans le domaine de l’intelligence artificielle, c’est cette opacité, loin des débats démocratiques, ça fait en sorte que ça dispose d’un statut politique particulier, qui se rapproche justement de la subpolitique de Beck. Dans cet espace d’indécision, d’illégitimité parfois, parce que là, on voit les encadrements, l’Europe est vraiment avant-gardiste sur les encadrements de l’IA et tend justement à légitimer certains objets et une reddition de compte importante envers les entreprises technologiques. Bien, n’empêche qu’il y a des pans, il y a des pans qui restent, il y a des angles morts qui se retrouvent dans une sphère où on n’a pas cette discussion-là démocratique. Puis il y a des enjeux qui vont déterminer le futur de l’humanité, parce qu’on voit que, quand moi je regarde ça d’un point de vue éthique, il y a des normes, on invente des normes, des règles qui ont un impact sur la transformation sociale; il y a des transgressions qui ne sont pas encore toutes encadrées, puis on nous demande de faire confiance à l’inconnu, à ce qui peut advenir sur le terrain sans que, parfois, ce soit robuste. Il y a des recherches qui ont bien démontré les défaillances de systèmes qui étaient lancés au sein de la société, qui ont eu des ratés importants, qui ont eu des conséquences sur les gens. Donc, c’est pour ça que je trouvais que le lien avec la subpolitique de Beck était parlant dans son concept et dans le transfert dans ce qui se passe dans le domaine de l’IA. Et moi, je trouve que cette vision-là nous aide à comprendre les bouleversements que l’on vit. Pensons à la COVID, aux outils de traçage ou de notification de contact, à la commercialisation de l’IA générative, il y a ChatGPT qui a bouleversé nos institutions académiques, les milieux de travail. Alors c’est un peu tout ça qui fait en sorte que je suis encore étonnée de voir qu’on n’a pas un discours assez fort comme société sur cette révolution technologique. Il y a des débats, je ne dis pas qu’il n’y a pas de débat, il y a eu la fameuse lettre signée par plusieurs acteurs du monde de l’intelligence artificielle qui demandait une pause de six mois pour mieux réfléchir sur ce qui allait advenir. On a vu ça, et moi la première, comme étant un peu utopique, en me disant, [rire] c’est peut-être pas possible de faire cette pause-là, ça prendrait une volonté, mais je me suis dit que peut-être qu’on a manqué une occasion, pas simplement dû au fait qu’il y a eu cette lettre-là, mais ça aurait pu ouvrir un débat. J’en ai vu, comme je disais, mais c’est toujours très fermé, c’est moins ouvert sur la société comme telle.

00:14:34 Stéphanie Gaudet
C’est moins une réflexion sur notre rapport au monde. Ce sont souvent des questionnements plutôt techniques, plutôt appliqués alors qu’on aurait besoin de se poser une question beaucoup plus généralisée, plus fondamentale peut-être sur notre rapport au monde.

[Transition musicale]

00:15:01 Stéphanie Gaudet
Olivier Servais, qu’est-ce que tu – je me permets de te tutoyer parce qu’on se tutoie entre nous [rire].

00:15:07 Olivier Servais
[Rire] Parfait.

00:15:08 Stéphanie Gaudet
Alors, qu’est-ce que tu en penses de ce rapport au monde? Comment les technologies façonnent nos imaginaires?

00:15:17 Olivier Servais
Alors moi je dis souvent, je suis aux jointures de l’anthropologie, de la sociologie et de l’histoire, puisque j’ai les trois formations. Et je me souviens qu’au départ, en fait, moi je ne suis pas, comme Lyse, arrivé à la technique par la technique, je suis un anthropologue et un sociologue des religions. Et donc, j’ai travaillé sur tout à fait autre chose, et d’ailleurs, quand vous regardez vos classiques en sociologie, reprenez vos manuels de première année à l’université, on va vous parler de Durkheim, on va vous parler de Weber et quand vous regardez ce sur quoi ils écrivaient, en fait, c’était sur la religion, et la religion était vraiment, fin du 19e, début du 20e siècle, l’élément clé pour penser le social. Alors, c’est intéressant parce que voir ce que c’est devenu aujourd’hui, on a l’impression qu’on est basculé dans tout à fait autre chose, mais le rapprochement ne me paraît pas en fait tout à fait, enfin, si problématique. Depuis 15 ans maintenant, je travaille sur les questions du digital, sur la manière dont le digital renoue le lien social, ou noue autrement que le faisaient d’autres processus ou dispositifs le lien social, et l’analogie vite faite entre religion et digital ne me paraît pas indue en fait. En plaisanterie, j’avais dit à plusieurs reprises que j’étais passé du chapelet au smartphone, c’est un petit peu ça en fait, parce que quand vous regardez dans les transports en commun, où qu’on soit dans les villes, on se rend compte que là où, il y a une quinzaine d’années, tout le monde était dans des interactions au moins de regard sur l’autre, aujourd’hui, on est surtout dans l’interaction avec son smartphone, en tout cas pour la majorité de ceux qui sont dans ces transports; et donc, il y a vraiment quelque chose dans le lien aux autres qui s’est produit avec la technique. Et si, effectivement, je dis souvent, ma grand-mère catholique belge était reliée à une transcendance par son chapelet, aujourd’hui nos jeunes sont reliés à une immanence qui sont tous ces réseaux sociaux, et le terme est d’ailleurs intéressant, aux autres; et donc au fond, ce qui fondait la société, qui était une divinité auquel on était une transcendance, auquel on était relié, bien aujourd’hui, en fait, ça s’organise tout à fait autrement dans des logiques d’immanence, à partir d’une relation sociale horizontale entre moi et mes contacts, moi et les autres. Et donc, on voit vraiment que fonctionnellement, tout au moins, il y a des choses qui peuvent s’apparenter; il y a des choses qui peuvent être proches, et donc, ça veut dire quoi? Moi, je dis souvent à mes étudiants : si Weber naissait aujourd’hui, ou Durkheim naissait aujourd’hui, bien en fait, chez Weber, les processus de rationalisation, probablement qu’il travaillerait sur l’IA générative ou sur ces nouvelles rationalités émergentes, et pas sur la rationalisation face à la religion; et Durkheim, sa grande question, ou une de ses grandes questions, c’est la religion comme, on va dire, hypostasie du collectif, comme manière de faire collectivité, bien il travaillerait inévitablement sur les réseaux sociaux, ou le gaming, ou en fait tout ce qui fait lien aujourd’hui à travers ce digital. Et donc j’invite vraiment mes collègues, je pense que c’est important, et je renoue à ce que Lyse a fait quand elle a lié beaucoup de philosophes avec la sociologie, je pense que c’est important, le digital nous amène à relire les choses, à relire les choses de manière, on va dire, au-delà des frontières purement classiques de la sociologie, mais au-delà aussi de la période historique dans laquelle nous sommes. Et croire en fait que les technologies ont tout changé, évidemment, c’est un discours un peu simple et je pense que c’est fondamental de regarder sur le temps long et de voir que des questions fondamentales qui étaient posées par nos ancêtres sociologues, bien en fait, sont des questions qu’on renouvelle aujourd’hui, alors, par la technique, mais qui posent encore des questions qui étaient des questions fondamentales déjà à l’époque. Donc, faire dialoguer ces pères fondateurs de la discipline avec des questions contemporaines, ça m’apparaît – qui n’étaient pas du tout les leurs – ça m’apparaît tout à fait capital.

00:19:17 Olivier Servais (suite)
Ça, c’est la première chose. Alors cette première chose, elle m’apparaît importante parce que si je viens à la question des imaginaires, qui était la question du rapport au monde, qui était la question clé que Stéphanie a posée, évidemment cette question des imaginaires religieux était en fait ce qui façonnait, qui portait les valeurs, qui façonnait les rapports entre les genres; Lyse a parlé du genre de l’IA, bien à quelque part ces rapports de genre étaient structurés en fait par ce religieux. Alors quand je dis religieux, je l’étends à la laïcité, je l’étends à tous ces débats qui sont émergés évidemment durant le 20e siècle. Aujourd’hui la technologie elle va amener une redéfinition tout à fait différente et je pense que c’est capital de se rendre compte que ce qui s’immisce depuis la révolution de la micro-informatique, parce qu’avant, ces techniques numériques étaient embryonnaires, elles étaient encore analogiques, elles étaient surtout contingentées à des milieux universitaires ou militaires. Il faut vraiment attendre la fin des années 70 – la fin des années septante, je suis Belge – pour voir émerger avec la micro-informatique une popularisation de la technique et de la technique digitale. Auparavant, on était vraiment dans des endroits contingentés, que ce soit essentiellement l’université et l’armée, qui sont les deux lieux d’ailleurs où vont naître Internet par la suite. Mais c’est vraiment une étape majeure, c’est-à-dire que la population, les humains, les sociétés, à partir de cette période-là, vont commencer à voir s’immiscer cette technique de manière massive, et ça va pas être réservé à certains. Et la micro-informatique, c’est le fait de dire « j’ai moi-même chez moi » – donc c’est pas « je vais dans une salle où il y a un grand ordinateur » – « j’ai moi-même chez moi, dans mon espace intime, une interface, en fait, digitale qui va me permettre » – alors au départ on n’est pas connecté, c’est plutôt chez soi que ça se passe, mais on est déjà en interfaçage intime avec la technique. Puis les années 90, Internet apparaît, la deuxième moitié des années 90, on sort de l’armée et de l’université, et de nouveau, généralisation sociale et sociologique d’Internet, les réseaux sociaux dans les années 2000 et le gaming connecté, qui sont vraiment deux popularisations majeures, et enfin, à partir des années 2010, les réseaux sociaux, et on y arrive, l’IA générative. Et je pense que c’est capital de ne pas voir l’IA comme un momentum, mais de voir l’IA comme un continuum, en fait. Cet élément-là, il est tout à fait fondamental. Alors évidemment, chaque fois, on a quelque chose qui se cumule, je dirais, à de multiples niveaux, et là je connecte évidemment avec ce que Lyse a évoqué, ça me paraît capital. Mais c’est vraiment important, à l’image de la discipline sociologique qui est une évolution de problèmes sociaux nouveaux, mais où les cadres théoriques ont été déjà largement débattus et peuvent être réactualisés, bien la question de la technique, c’est la même chose en fait. Alors évidemment avec des nouveautés radicales, l’IA générative elle amène quand même une série de transformations potentiellement majeures, mais comme Internet a amené des transformations majeures, comme les connexions que les réseaux sociaux et l’interactivité et l’accélération des flux, flux d’images notamment, a amené, chaque fois, en fait, on a un renouvellement par la technique du questionnement. Alors ça, ça m’apparaît vraiment important parce que si on regarde de nouveau l’histoire de nos sociétés, bien le religieux de même, à travers les moments théologiques, en fait, les questions du sujet, les questions de la morale, les questions de la métaphysique et donc de la transcendance, toutes ces questions ont été, au fur et à mesure de l’histoire, réactualisées, alors plutôt dans le champ de la philosophie, puis dans le champ de la sociologie, bien de même la technique va réactiver par ses évolutions chaque fois nos questionnements sociologiques. Ça m’apparaît important parce qu’aujourd’hui la technique me semble un des référents clés, en fait, de la construction des imaginaires sociaux, aujourd’hui.

00:23:14 Olivier Servais (suite)
Alors, deuxième élément qui m’apparaît important : le rapport à la nouveauté. C’est intéressant de voir que depuis, on va dire, le télégraphe qui est peut-être la première innovation technique où le rapport au temps va se transformer – comme le flux du réseau social où je peux être avec X ou avec d’autres réseaux sociaux en contact direct avec ce qui se passe à la guerre en Ukraine, à Gaza, ou dans d’autres parties du monde, donc j’ai vraiment un rapport au temps extrêmement ténu, je ne dois plus du tout me déplacer à l’autre bout du monde – bien le premier moment qui change radicalement la donne, c’est un moment technique, c’est ce moment du télégraphe. L’anthropologue Tom Boellstorff de l’Université de Californie comparait d’ailleurs, de manière magistrale, la manière dont l’imaginaire que le télégraphe a créé, c’est-à-dire le fait de dire j’envoie un message binaire – le fameux morse évidemment, un message binaire – à l’autre bout des États-Unis, en quelques secondes. Et ça, ça change tout, avant ça, on était dans les diligences, on était dans les coursiers à chevaux, vous imaginez un peu tout ce que ça nécessitait, éventuellement le bateau, mais en fait, les temporalités étaient radicalement différentes. Et en quelques décennies, le temps de mettre ces fils de part et d’autre de l’Atlantique et du Pacifique, bien on va changer en fait ce rapport à la temporalité. Et ça, ça va construire à la fois des imaginaires sur la technique, mais des transformations aussi, à travers le rapport au temps, notamment, des imaginaires de nos sociétés. Et donc, à l’époque, Boellstorff signale, en fait, les journaux de l’époque racontent combien il y a une angoisse immense qui saisit les gens en disant : « Mais en fait, on va rester tous enfermés chez nous à tapoter sur nos télégraphes. » Alors, c’est rigolo parce que quand on voit ça, on voit exactement ce que je dis de mes enfants quand ils sont sur leurs jeux vidéo au quotidien, à la maison, enfermés dans leur chambre et qu’ils n’en sortent pas, bien les mêmes peurs s’activaient, les mêmes imaginaires s’activaient. Alors c’est important parce que ça permet de nouveau de voir ce continuum de manière très très importante. Et donc en fait les mêmes peurs sont réactivées, les mêmes imaginaires sont mobilisés, parce qu’effectivement la technique est en train de changer des éléments et des repères qu’on doit voir à l’aune de plusieurs décennies, voire de quelques siècles. Et ce rapport au temps notamment, c’est une transformation qui a lieu au fond en 150 ans, ce qui à l’aune de l’histoire humaine est extrêmement ténu, ça nous paraît très long parce que c’est plus long qu’une vie humaine, mais, concrètement, quand on regarde depuis l’émergence de l’humanité, c’est extrêmement court, et ça va tout redéfinir. Et ça, ça me paraît le deuxième élément capital.

00:25:45 Olivier Servais (suite)
Le troisième élément – et je terminerai par là pour rester dans le temps – ces dispositifs techniques jusqu’à l’IA générative, ce sont des dispositifs contraints, ça veut dire que à part quelques programmeurs, et encore aujourd’hui, on ne programme pas une IA générative seul, aujourd’hui, le mythe du hacker seul, ça n’existe presque plus, ce sont des collectivités, collectivités de hackers, collectivités de designers de jeux vidéo, collectivités… On est face à des objets d’une complexité immense, on sait d’ailleurs combien les codes, en fait, ont de multiples lignes d’erreur, et la gestion des lignes d’erreur cumulées est vraiment devenue un élément fondamental de la gestion de la complexité. Mais ça veut dire quoi? Ça veut dire que ces dispositifs techniques, ces systèmes techniques, sont des dispositifs contraints que nous recevons comme tels et sur lesquels on peut influer de manière mineure, en fait. Quand j’écrivais ma lettre à ma meilleure amie à un moment – parce que moi j’ai quand même connu cette période-là, où j’ai communiqué à l’autre bout d’un continent par lettre –, bien je contrôlais quand même, à part la poste, l’ensemble du dispositif. Aujourd’hui, j’avoue que je ne contrôle plus rien; quand mon logiciel d’édition ne fonctionne pas, je suis perdu. Quand nous n’arrivons pas à nous connecter pour faire ici notre balado, nous sommes contraints en fait par la technique. Et donc il y a un basculement de cette contrainte de la technique. Une technique qui est, et ça c’est un élément important, aujourd’hui une technique privée capitalistique, alors que les systèmes antérieurs ont pratiquement toujours été des systèmes partiellement privés, partiellement publics, et donc la puissance publique s’en saisissait. Aujourd’hui en fait c’est extrêmement limité, l’essentiel du développement de ces technologies et de ces infrastructures est de l’ordre de la sphère privée, en tout cas, et du capitalisme, et donc on sort de la logique de l’État. Et dernier élément lié à cette spécificité, elle va entraîner des transformations sociologiques par emprise de la technologie, mais dont on ne mesure pas encore l’impact. On est dans beaucoup d’hypothèses. Est-ce que, par exemple, on le voit quand on travaille en sociologie de l’éducation et de la transmission, le rapport à la mémoire est en train de se transformer, parce que ce petit outil qu’est le smartphone que j’ai ici, bien ça devient une extension mémorielle pour retenir toute une série de choses. Quand j’étais jeune étudiant, je retenais une quarantaine de numéros de téléphone par cœur; aujourd’hui, j’avoue que je n’en connais pas dix, parce que ma mémoire, en fait, elle est déléguée à ces artefacts techniques. C’est la même chose pour toute une série d’autres compétences que nous allons déléguer à la technique. Et ça, ça entraîne une transformation et collective des sociétés, la manière dont on fonctionne collectivement ensemble, et de l’individu, de l’humain qui là aussi, et ça va loin, ça va jusque dans le cognitif, ça va jusque dans le neurologique, on voit des transformations même dans les connexions neuronales par exemple. Voilà quelques éléments pour répondre à cette question de l’imaginaire.

[Transition musicale]

00:29:03 Stéphanie Gaudet
Alors je trouve intéressant, Olivier, que tu mentionnes le fait que nous sommes en transformation, donc nous ne maîtrisons pas tous les aspects de ces changements technologiques sur nos sociétés, sur les individus, ce qui amène plusieurs paradoxes, parce qu’il y a plusieurs messages des gens qui maîtrisent ces grandes technologies, des messages qui sont contradictoires avec d’autres sur la collectivité ou la démocratie, par exemple. Lyse, j’aimerais te poser la question, selon toi, quels sont les paradoxes que ces nouvelles technologies-là produisent dans nos sociétés actuellement? Il y en a plusieurs [rire], mais disons si on en identifiait quelques-uns.

00:29:52 Lyse Langlois
C’est une question quand même assez intéressante, puis Olivier, quand tu disais tout à l’heure qu’on déléguait le contrôle, qu’on n’avait pas le contrôle sur les processus, puis tu donnais l’exemple de la lettre, je trouvais ça intéressant. Puis je voyais aussi que dans un de ces paradoxes-là, c’est l’illusion du contrôle. On a vraiment l’impression que dans cet univers-là technologique, on a le contrôle, mais on ne l’a pas. On voit que la technologie nous dit que ça nous rend autonomes, mais en même temps, on est très dépendant et on voit que la recherche démontre la dépendance technologique, en tout cas du moins l’impact que ça peut avoir sur nos jeunes. Alors, il y a vraiment le paradoxe du contrôle, le paradoxe de la dépendance versus l’autonomie, le paradoxe aussi que je vois c’est quand on dit que la technologie est accessible à tous, mais en même temps on voit que ça renforce des inégalités sociales. Donc, quand on réfléchit à ça, on voit que les infrastructures technologiques modernes sont parfois conçues et distribuées d’une manière qui ne profite pas à toute la population d’une société. On a des exemples quand même assez concrets, quand on pense au déploiement stratégique de la technologie au niveau national, on peut citer les investissements importants dans les programmes spatiaux et militaires, c’est un exemple, mais la notion simpliste selon laquelle la technologie est un moyen neutre, c’est un autre des paradoxes, de parvenir à des fins qui seraient librement choisies m’apparaît non tenable. Le progrès technologique façonne de plus en plus le terrain moral sur lequel nous prenons des décisions. Puis ça, Olivier, tu l’as bien soulevé en faisant la comparaison avec la métaphore du chapelet et l’univers religieux dans son sens large. Donc, ça soulève évidemment beaucoup de questions, ça soulève les notions de pouvoir qui était quand même un élément important, un pouvoir vu comme une domination, un pouvoir sur autrui. Ça m’apparaît aussi un questionnement qui n’est pas assez mis en évidence. On le voit juste au niveau de la dépendance, le paradoxe autonomie versus dépendance, quand on voit tout ce que ça génère, on est vraiment dans une conception d’un pouvoir sur autrui, sur les individus, pour accéder justement au maximum de son attention, de ses ressources, etc.

00:32:51 Lyse Langlois (suite)
Un autre paradoxe qui m’apparaissait aussi important, c’est le discours sur l’éthique, et je vais m’attarder un petit peu plus longuement sur l’éthique. On mentionne qu’on a un besoin d’éthique, que l’éthique en IA est vraiment importante, que ça doit faire partie des processus décisionnels, que ça doit être inséré dans les cursus académiques, dans les programmes de conception. Mais quand on regarde véritablement – une des réussites, par contre, je ne peux pas nier tout ce qui a été fait, mais c’est vrai que dans les cursus académiques universitaires, du moins en Amérique du Nord, je ne sais pas du côté de l’Europe, mais on voit de plus en plus de cours en éthique de l’IA. Donc déjà, je trouve que c’est un bon point, mais malgré tout, quand on réfléchit au fait qu’on crie sur tous les toits qu’on a un besoin d’éthique, et bien quand on arrive dans les véritables projets de conception, formaliser l’éthique dans toutes les étapes du développement d’un cycle de production d’un algorithme d’intelligence artificielle pour prédire par exemple un objet X, eh bien là on fait face à un paradoxe, on n’inclut pas cette réflexion-là. On va beaucoup plus privilégier l’univers technique en premier, en amont des développements, et quand on voit que tous les choix qui vont être faits vont être déterminants, puis on va venir chercher l’éthique à la toute fin du processus. Alors ça m’interroge sur le fait que, quelle est la place véritable de l’éthique malgré le fait que le monde de la technique le promeuve, le dit et l’encourage, mais n’empêche que dans cette difficulté-là réelle d’insertion et de formalisation de l’éthique à toutes les étapes, je vois quand même très très peu de projets. On va beaucoup plus tenter d’algorythm… – je ne sais pas si ça peut se dire, mathématiser [rire] ça va être mieux – l’éthique, quand l’éthique ne suit pas le même processus, n’a pas le même univers, ne part pas de la même finalité, mais on va tenter de la mettre dans une boîte pour pouvoir la contrôler sur le plan mathématique et pour pouvoir dire par la suite : et bien voilà, on a inséré l’éthique, on a travaillé sur un algorithme pour débiaiser le processus, donc on a fait la promotion de l’éthique. Et quand on arrive avec le fait que l’éthique n’a pas le même univers, que l’éthique est un processus réflexif, que l’éthique commande, si on veut, des conversations, des dialogues, idéalement avec plusieurs parties prenantes, parce que dans la conception d’un projet d’IA, il y a plusieurs intervenants. Et bien là, on fait face souvent à : on n’a pas le temps, l’éthique prend trop de temps, l’éthique demande trop de choses, demande des fois à revoir des processus. Et là, on est porté à couper la réflexion au profit justement de la rentabilité, de la vitesse à laquelle on doit fournir l’algorithme dans une telle situation. Alors, ça pour moi, c’est un autre paradoxe dans l’univers, si on veut, de l’IA où on a vu dès 2016, mais même un peu avant, quand j’ai fait des recherches, j’ai commencé à voir qu’à partir des années 70, on a commencé à soulever le besoin de l’éthique parce que ça avait un impact, il y avait des conséquences sur les individus. Puis après ça, il y a eu comme un temps mort, un grand espace où il y a très peu de chercheurs qui ont soulevé ces considérations-là. Puis ça a été repris, je dirais, au milieu des années 2015-2016 avec ce besoin-là de faire des chartes, des principes, etc. Mais on a vu avec le temps que pour certains, c’était une stratégie pour contrer la régulation et pour d’autres, c’était vraiment dans le but d’instrumentaliser l’éthique. Alors en ce moment, il y a comme un discours qui soulève un de ces paradoxes-là, qui me parle en particulier beaucoup plus sur le fait de demander une plus grande place à l’éthique, mais de ne pas être capable de formaliser ce concept-là dans les structures, dans les processus, ou du moins tout le long du cycle de développement, ce qu’on appelle communément l’éthique « by design » qui est en soi, qui demande beaucoup plus d’éléments et de mobilisation et de concertation des parties prenantes et qui n’est pas toujours au rendez-vous si on veut.

00:38:04 Lyse Langlois (suite)
Alors c’est un peu ce que je vois là, si on veut, comme paradoxes, le contrôle, ce que tu as soulevé, l’autonomie versus la dépendance, et je ne peux pas m’empêcher de soulever une remarque de Hilary Bergen, qui est une chercheuse à la New School University of New York, qui disait que l’IA, en fin de compte, l’IA agit comme un vrai miroir de notre société. Donc, aussi longtemps qu’on sera imparfaits, parce que l’IA est conçue par des humains, l’IA sera imparfaite. Et j’ajouterais que ça va avoir un impact justement sur le pouvoir, sur nos imaginaires et sur les paradoxes qui vont découler de ces processus de conception. Je ne sais pas où tu en es Olivier, qu’est-ce que tu en penses de cette question de paradoxes et de pouvoir?

00:39:00 Olivier Servais
Oui, je suis assez en accord. Je pense que, en fait, les technologies digitales, parce que l’IA pour moi est une évolution et une étape dans ce continuum, elles sont pétries de paradoxes depuis le début. Déjà, les deux lieux qui voient émerger ces technologies digitales, c’est l’université, qui est le lieu de la liberté, du risque, la prise de risque; et l’armée, lieu du contrôle et de la sécurité. On ne peut pas faire plus grand paradoxe que l’émergence de ces technologies. Internet de même, il a été pensé dans cet humus-là. Et donc on est vraiment dans un paradoxe fondateur. Donc dès le départ, en fait, on a ce paradoxe fondateur et on va le retrouver tout au long du déploiement de ces technologies. L’émergence d’Internet, par exemple, qui est une étape importante qui va permettre, puisque c’est ça qui va permettre de connecter et à partir de là de construire de la donnée, de la data de manière massive qui va alimenter la future IA, puisque pas d’IA sans data. Bien en fait, quand vous regardez l’utopie qu’il y a derrière, on a vraiment une utopie libertarienne de la liberté Internet, l’accès à tous. Et en même temps, quelles sont les sociétés qui font émerger ces technologies, c’est le capitalisme le plus capitaliste. Je veux dire, aujourd’hui, on regarde les grandes capitalisations boursières américaines, c’est Elon Musk, c’est Zuckerberg, c’est Bill Gates, c’est-à-dire quoi, enfin Microsoft, Meta, et puis plusieurs entreprises d’Elon Musk, c’est chaque fois la révolution digitale, et donc on a ce paradoxe-là en fait. Cette inégalité de richesse absolue, elle est portée par cette révolution digitale jusqu’à l’IA, et donc on a un paradoxe, libertarianisme, liberté absolue de l’individu, autonomie, et en même temps hyperinégalité, qui est un peu paradoxal avec cette question de la liberté. Donc on a ce paradoxe fondateur, il va se répéter continuellement.

00:41:01 Olivier Servais (suite)
Un autre paradoxe qu’on va retrouver abondamment dans les imaginaires de la tech, c’est celui de la dépendance au digital, en fait. On se rend bien compte qu’aujourd’hui, services sociaux en ligne, vote électronique, bitcoin, paiement électronique, contrôle biométrique, en fait le digital est partout, et derrière l’IA qui permet de traiter beaucoup plus rapidement et de manière complexe les informations récoltées par ce digital, en fait il est partout. Et donc on est là dans quelque chose qui est de la superdépendance. Le jour où aujourd’hui le digital s’effondre, nos sociétés ne fonctionnent plus. On a dans bien des cadres des systèmes bancaires qui ne peuvent plus marcher sans le digital, on a même des services sociaux qui ne peuvent plus fonctionner. Mais ça va beaucoup plus loin, c’est pas seulement dans la vie institutionnelle, publique ou politique, c’est aussi les loisirs, le streaming avec Netflix, le porno c’est 50% du trafic du web, les jeux vidéo, la TV en ligne. Bref, dans le monde des loisirs et de la vie privée, on trouve aussi une place considérable, en fait, qui est donnée au digital. Et donc on a là un autre paradoxe, c’est que sous le couvert d’une idéologie de liberté, en fait, on a une emprise extrêmement forte de dépendance qui est à un niveau structurel, en fait. Moi j’ai parlé du smartphone comme d’un chapelet en boutade, je peux aussi en parler comme d’une prothèse relationnelle. Aujourd’hui si je n’ai plus mon accès à Internet via le réseau, que ce soit mon smartphone, mon laptop, mon ordinateur fixe ou ma radio DAB, en fait je n’ai plus accès aux autres, ou en tout cas j’ai une diminution majeure de mon accès à l’information ou aux liens sociaux de manière extrêmement importante. Et donc on a là quelque chose de potentiellement pervers, puisqu’à la fois on a une idéologie marketing de cette logique du tout au numérique, qui est une logique de libération de l’humain, et en même temps qui nous rend totalement dépendants des technologies. Et dans des logiques relativement inégalitaires, je ne vais pas revenir sur ce que Lyse a dit, parce que j’y souscris complètement.

00:43:11 Olivier Servais (suite)
Alors, autre élément, avec l’IA, évidemment, on va pouvoir façonner la réalité de manière accélérée, comme on la souhaite. Et ça, ça pose des questions, évidemment, les questions de ce qu’on appelle la propagande computationnelle. On a vu récemment des images de câlins, voire plus, entre les deux candidats à la présidentielle américaine. Et c’était tellement véritable, tellement les images sont travaillées, que des gens hors contexte, qui ne comprennent pas ce qui se joue, pourraient croire qu’il s’agit de la réalité. Et donc là aussi, en fait, on a un enjeu majeur, et cet enjeu majeur, c’est le retour à l’école. Et c’est ça le paradoxe. On croit qu’Internet va pouvoir tout nous apprendre, mais en fait, la pensée critique, elle ne s’apprend pas nécessairement sur les réseaux. Et donc le retour à la pensée critique, le retour à la capacité par l’éducation de comprendre comment fonctionnent des médias qui ne sont pas juste des médias, mais qui sont des médias partiellement autonomes, capables de créer du savoir, de la réalité, etc. Ça nécessite en fait aujourd’hui des compétences cognitives que j’estime être des compétences de base dans le cadre scolaire. Et la difficulté étant qu’on doit construire ces cours, ces enseignements, au moment même où se construit la technologie. Donc on a comme une espèce de course de retard à éduquer à des choses qui nous arriveront demain, et dont on ne sait pas exactement ce qu’elles permettront de faire, mais c’est fondamental. C’est fondamental parce que nos sociétés et nos sciences, la sociologie notamment, ont toujours été fondées sur la question de la vérité. Et aujourd’hui, cette question de la vérité – alors je n’ai pas parlé des fake news, on pourrait aussi en parler – elle est menacée en fait par la dernière étape de cette révolution digitale que sont les IA. Et il m’apparaît capital, en fait, de pouvoir penser et repenser cette question de la vérité. Aujourd’hui, l’IA, elle ne cherche pas le vrai, elle cherche le plausible. Alors parce qu’elle a été designée pour ça, mais elle cherche le plausible et elle va essayer de vous convaincre, en fait, que le plausible qu’elle construit est vrai, mais c’est pas pour autant que c’est du vrai. Et donc on est là face à quelque chose d’extrêmement problématique, c’est que la distinction entre le plausible et le vrai va être de plus en plus difficile à élaborer. Et donc là, on a, tant pour les chercheurs en sciences sociales, que pour les chercheurs en intelligence artificielle, que pour les enseignants dans les cursus scolaires, une matière extrêmement fondamentale, en fait, à discuter, à réactiver dans nos sociétés.

00:45:42 Olivier Servais (suite)
Dernier élément, je pense que le digital, évidemment, il est ambivalent. Il est ambivalent parce qu’il est à la fois l’outil, quelque part, de notre captivité cognitive ou de notre enfermement, qui peut même être spatial dans certains cas, on a vu comment on a utilisé le digital durant la COVID, par exemple. Et en même temps, c’est un outil de résistance nouveau. Aujourd’hui, à travers les failles de la tech, à travers l’obsolescence programmée de la technologie, à travers des mouvements de guérilla aussi, détruire des caméras, bouger une série de choses, en fait, on se rend compte que la frontière entre la domination et la résistance, elle est très ténue. Et donc, certes, Internet et le digital sont des objets techniques qui vont amplifier via les filtrages algorithmiques, la désinformation, les théories complotistes, accentuer les biais de confirmation, l’auto-enfermement cognitif, les bulles de filtrage, etc., mais vont être aussi en fait les outils où, dans les interstices, on va pouvoir construire de la contestation, on va pouvoir construire de la résistance, on va pouvoir reconstruire de la pensée critique. Et donc le paradoxe, il est là, troisième paradoxe, finalement, c’est les failles de la tech. Et moi, je le vois sur mes terrains, un peu partout sur la planète, avec mes chercheurs, combien entre les promesses de la technologie, puis la réalité de ce qu’on peut faire avec, on se rend bien compte qu’il y a toujours des failles. Et c’est dans ces failles-là, en fait, que la démocratie réémerge, que le questionnement humain réémerge, et c’est tout à fait fondamental. On n’a pas d’ailleurs que des individus, mais on a des communautés qui animent en fait ce type de débat, communautés de hackers, songeons évidemment à Anonymous, qui a été un des premiers, en tout cas, notoirement connus. Mais toute une série d’autres. Au Brésil, les élections entre Bolsonaro et Lula se sont jouées sur des groupes WhatsApp qui ont été activés. On sait combien Telegram, dans l’espace slave aujourd’hui, Russie, Ukraine et plus largement, joue un rôle clé dans le maintien d’une liberté parce que ces communautés se jouent des contrôles. Elles arrivent à naviguer entre ces contrôles. Voilà, l’attention paradoxale elle est fondamentale parce qu’à la fois elle se joue des promesses illusoires et en même temps la technologie nous permet plein de nouvelles choses. Moi en recherche, l’IA me facilite toute une série de choses. Quand, à certains moments, je me retrouve avec une bibliographie très mal arrangée, je demande, alors c’est plutôt à Gemini que je demande ça, parce que je le trouve plus efficace, il faut choisir le bon, mais de me retrier tout ça et de me sortir en normes APA, il fait un travail qu’il y a une dizaine d’années on aurait fait fastidieusement, et qu’on ne doit plus faire. Donc évidemment, pas tout jeter, mais pas tout prendre non plus, et le choix au fond, il est justement dans ces paradoxes, il est dans ces tensions. Et donc les paradoxes pour moi sont vertueux. Le jour où il n’y a plus de paradoxes et il n’y a plus de tensions, là je m’inquièterais très très fort parce qu’alors là on bascule probablement dans une technologie digitale et une IA toute puissante que je ne souhaite pas pour l’humain.

00:48:49 Lyse Langlois
C’est drôle Olivier, ça me fait penser que peut-être, je ne sais pas, c’est peut-être une avenue pour réduire peut-être une certaine tension, c’est de reprendre le pouvoir sur l’IA. Puis que pour moi, l’utilisation des bons mots pour parler de l’IA m’apparaît capitale.

00:49:12 Olivier Servais
Oui, oui, déjà le mot « intelligent ».

00:49:13 Lyse Langlois
Bien c’est ça, déjà le mot intelligent, mais tu sais, des fois on entend « l’IA écoute », « l’IA comprend », mais on devrait peut-être dire « l’IA reçoit un signal », « l’IA traite de l’information ». On va dire « l’IA apprend », « l’IA fait », ça devrait être remplacé par « les applications d’IA » – bien là il y a le mot intelligence là – « sont développées pour » ou « les développeurs qui travaillent dans le domaine de l’IA développent des applications de ». Moi je pense que si on commençait à prendre ces quelques mesures, je pense qu’on placerait l’IA ou du moins la technologie à sa juste place, puis ça apporterait peut-être plus de clarté. Je pense que ça recadrerait beaucoup de choses si on utilisait les termes, on en revient à la question au début, sur les imaginaires et l’anthropomorphisme. Ça pourrait réduire certaines tensions pour certains paradoxes.

00:50:11 Stéphanie Gaudet
Ça recadrerait, en tout cas, le fait d’utiliser le bon vocabulaire, ça recadrerait le rôle de chacun.

00:50:17 Lyse Langlois
À sa juste place.

00:50:19 Stéphanie Gaudet
Puis une meilleure compréhension aussi de la technologie de la part de la société en général. Lyse Langlois, Olivier Servais, je vous remercie pour cette très, très intéressante discussion, parsemée d’enjeux technologiques. Donc, nous avons fait les frais, nous avons vécu les paradoxes de la technologie en faisant notre balado ensemble. Alors, je vous remercie énormément.

[Musique de fond]

00:50:48 Lyse Langlois
Merci beaucoup Stéphanie.

00:50:49 Olivier Servais
Merci à toi aussi, vraiment, c’était vraiment très chouette.

00:50:51 Lyse Langlois
Oui, merci Olivier.

00:50:52 Olivier Servais
Et puis tu vois, tu nous as connectés, j’espère Lyse qu’on aura l’occasion de se voir en Europe ou à Laval [rire].

00:50:57 Lyse Langlois
C’est sûr, c’est sûr Olivier, j’en suis persuadée. Grâce à Stéphanie, tu vois [rire].

00:51:04 Olivier Servais
Voilà, tout à fait.