11 décembre 2024
L'intelligence artificielle générative : savoir quand l'utiliser plutôt que comment
Cet article est tiré de The Conversation, un média en ligne d'information et d'analyse de l'actualité indépendant qui publie des articles grand public écrits par des scientifiques et des universitaires, dont l'Université Laval est partenaire.
Un texte signé par Gildas Agbon, étudiant au doctorat à la Faculté des sciences de l'administration.
À l'heure actuelle, toute personne attentive aura déjà flairé, ne serait-ce qu'une fois, le ton d'un phrasé robot dans un travail scolaire, un message sur LinkedIn, un courriel, ou même une communication gouvernementale.
Depuis le lancement de ChatGPT par OpenAI en novembre 2022, l'intelligence artificielle générative (IAG) a pénétré toutes les sphères de la société – l'éducation, la culture, les affaires, la recherche.
Aux dernières annonces d'OpenAI, ChatGPT est utilisé, à lui seul, par plus de 200 millions de personnes chaque semaine.
Fait intéressant, cet enthousiasme se fait sa propre morale. Aussi entend-on souvent dire : « Moi, je l'utilise parce que je sais comment bien l'utiliser ». Plus qu'une croyance auto-flatteuse, n'est-ce pas là l'illusion centrale de notre révolution IA ?
Depuis quelques années, je consacre une part importante de ma recherche à cette question. Ma thèse de doctorat à l'Université Laval s'intéresse justement aux manières inattendues dont les discours autour de la technologie fondent une culture numérique saine (ou malsaine) au sein des organisations et de la société.
Bien utiliser l'IAG: un discours presque rassurant
On sait, de sources scientifiques, que notre perception et notre utilisation d'une technologie peuvent fortement dépendre des discours qui la promeuvent. Les chercheurs Kamal Munir et Nelson Phillips l'ont bien montré avec l'exemple de l'appareil photo à pellicule, qui s'est intégré dans nos habitudes entre le 19e et le 20e siècle, grâce aux discours mobilisés par la multinationale américaine Kodak.
Dans le cas de l'IAG, les discours sont particulièrement complexes, car ils ne font pas que promouvoir la technologie, ils la « moralisent ». Cela veut dire qu'ils recommandent des recettes de tous genres pour limiter les nombreux risques d'aberration et de biais éthiques associés à l'IA. Par exemple, ces dernières années, nous avons vu émerger des spécialistes en « ingénierie de la requête » (prompt engineering) pour nous enseigner l'art subtil d'interroger les applications d'IAG, afin d'en maximiser l'efficacité.
Les écrits sur l'éthique de l'IA se sont également multipliés, de même que des normes internationales visant à réguler le secteur et établir des standards minimaux de sécurité : transparence, justice, équité…
Dans tous les cas de figure, le message dominant est clair : l'IA est là pour rester, il suffit de savoir comment l'utiliser. Se faisant ainsi rassurant, le discours moral de l'IA constitue une force motrice de la révolution IAG. Ainsi, même dans le milieu éducatif, certains deviennent convaincus que notre pédagogie peut s'adapter à une population étudiante de plus en plus dépendante d'assistants intelligents.
Une illusion de contrôle
Selon Ellen Langer, chercheuse en psychologie à l'Université Harvard, les individus peuvent surestimer leur capacité à contrôler les événements extérieurs, une tendance appelée « illusion de contrôle ».
Sous l'effet de cette illusion, nous croyons pouvoir éviter les mauvaises situations, juste en adoptant de bonnes pratiques. Le discours moral de l'IAG peut renforcer cette illusion en nous, notamment face aux risques qui y sont associés.
Par exemple, lors de mes conférences académiques, j'entends parfois des collègues soutenir qu'une personne sûre de son expertise peut se faire assister d'un modèle d'IAG sans risque d'erreur majeur.
Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous aujourd’hui à notre infolettre pour mieux comprendre les grands enjeux contemporains.
De même, plusieurs spécialistes croient que l'obligation de transparence faite aux entreprises conceptrices des systèmes d'IA (ex.: rendre accessibles les informations sur les impacts et les limites des modèles) peut en garantir un usage sécuritaire.
Et pourtant, selon le principe d’opacité algorithmique, il est techniquement impossible pour les individus de comprendre les calculs constitutifs d'un modèle d'IA, même quand ils sont accessibles. En effet, ces modèles s'appuient sur des données si volumineuses et des protocoles d'apprentissage si complexes qu'ils en deviennent indéchiffrables, même pour les personnes expertes. En d'autres termes, on peut nous « expliquer » l'IAG, mais nous demeurons soumis à ses volontés opaques .
Il faut noter que de plus en plus de scientifiques cherchent à traduire les principes éthiques de l'IA en des pratiques concrètes pour les entreprises, mais des résultats vraiment concluants sont encore attendus. Jusqu'à présent, l'idée même d'une IA véritablement responsable et sécuritaire reste donc à préciser. En attendant, nous devrions certainement commencer à renouveler notre discours.
Passer de comment à quand utiliser l'IAG
Le discours moral de l'IAG et sa promesse de garantir une utilisation sécuritaire de la technologie peuvent être trompeurs et illusoires. Au lieu de nous concentrer uniquement sur la manière d’utiliser l'IAG, pourrions-nous d’abord déterminer quand l'utiliser ? Cela reviendrait à clarifier, dans les organisations ou en milieu éducatif, à quelles tâches, en quelles circonstances, pour quels objectifs l'utilisation d'un modèle d'IAG est appropriée ou ne l'est pas. Après tout, si les technologies intelligentes sont des armes, comme l'a si bien dit la célèbre Cathy O'Neil, il y a d'autant plus de sagesse à savoir quand appuyer sur la gâchette.
Par exemple, alors que le personnel de Samsung est autorisé à utiliser ChatGPT, le département des appareils mobiles et électroménagers est excepté, pour des raisons stratégiques.
Dans ce contexte, la mesure a été appliquée à un niveau départemental, mais on pourrait bien l'imaginer à un niveau plus opérationnel, où les restrictions cibleraient des tâches et conditions spécifiques.
En bref, tandis que la rhétorique du « comment » aborde l'IA comme un problème essentiellement technique et comportemental, la sagesse du « quand » prônerait une culture collective de sobriété, basée sur une évaluation réfléchie des opportunités.
Vers la sobriété numérique
On connaît bien l'exemple de la sobriété énergétique. Vous avez beau gagner en efficience en achetant un véhicule électrique, ce ne sera pas aussi durable qu'en allant à vélo ! Au Québec, la pensée d'une IA sobre transparaît déjà dans des initiatives majeures, notamment à travers le concept de « sobriété numérique ».
Cette démarche vise à réduire les impacts négatifs du numérique en limitant ses usages quotidiens. Le thème gagne en visibilité dans les milieux universitaires, mais aussi dans le cadre d'initiatives de littératie numérique. Un bel exemple nous vient de Culture Laurentides, l'organisme régional qui a initié une Brigade numérique dédiée au secteur culturel, afin de promouvoir la sobriété numérique et d'autres concepts clés de l'univers numérique.
La sobriété numérique constitue également un axe de recherche prioritaire pour l'Observatoire international sur les impacts sociétaux de l’IA et du numérique (Obvia), dont je suis membre depuis peu.
À son stade actuel, le mouvement de la sobriété numérique est encore très orienté vers la conception des systèmes et leurs impacts environnementaux. Ses effets sociaux, quant à eux, restent encore à approfondir. Je proposerais que la priorité de ce volet social soit reconnue, à une ère où l’intelligence des machines semble progresser plus rapidement que la sagesse humaine !
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.