20 novembre 2025
Un itinérant dans votre salon ! ? L’« humour » généré par l’IA pose déjà des enjeux éthiques
Cet article est tiré de The Conversation, un média en ligne d'information et d'analyse de l'actualité indépendant qui publie des articles grand public écrits par des scientifiques et des universitaires, dont l'Université Laval est partenaire.

La tendance « AI Homeless Man Prank » pose des enjeux éthiques sur l'utilisation de l'IA.
— Photo tirée de TikTok
Un texte cosigné par Nadia Naffi, professeure à la Faculté des sciences de l'administration.
La nouvelle tendance TikTok « AI Homeless Man Prank » a déclenché une vague d’indignation et d’interventions policières aux États-Unis et ailleurs.
L’urgence n’est plus seulement d’apprendre à distinguer le vrai du faux, mais de réfléchir aux conséquences humaines de ce que nous créons.
Professeures en technologie éducative à l’Université Laval et en éducation et innovation à l’Université Concordia, nous étudions comment renforcer l’agentivité humaine – cette capacité à comprendre, questionner et transformer de façon consciente les environnements façonnés par l’intelligence artificielle et les médias synthétiques – pour contrer la désinformation.
Une tendance inquiétante
La tendance « AI Homeless Man Prank » désigne la publication par des utilisateurs d’images générées par intelligence artificielle montrant de faux sans-abri allongés dans leur salon ou leur chambre.
Dans l’une des vidéos les plus virales, vue plus de deux millions de fois, le créateur Nnamdi Anunobi piège sa mère en lui envoyant de fausses photos d’un homme sans-abri dormant sur son lit. La scène, devenue virale, a déclenché une vague d’imitations à travers le pays.
Deux adolescents de l’Ohio ont été inculpés pour avoir déclenché de fausses alertes d’intrusion entraînant des déplacements policiers inutiles et une panique réelle. Plusieurs services de police – notamment à Yonkers et Salem – ont publié des avertissements officiels, rappelant que ces « blagues stupides » gaspillent les ressources d’urgence et déshumanisent les personnes vulnérables.
À l’autre bout du spectre médiatique, le boxeur Jake Paul a accepté d’expérimenter la fonction cameo de Sora 2, l’outil de génération vidéo d’OpenAI, en donnant son consentement à l’utilisation de son image. Mais le phénomène lui a rapidement échappé : des internautes ont détourné son visage pour créer des vidéos ultra-réalistes où il apparaît sortant du placard ou donnant des tutoriels de maquillage.
Ce qui devait être une démonstration technique est devenu un raz-de-marée de contenus moqueurs. Sa compagne, la patineuse Jutta Leerdam, a condamné la situation : « Je n’aime pas ça, ce n’est pas drôle. Les gens y croient ».
Deux phénomènes, deux intentions différentes : l’une voulait faire rire, l’autre suivre une tendance. Mais toutes deux révèlent la même faille : nous avons démocratisé la puissance technologique sans porter attention à la conscience morale.
Des jeunes puissants, mais sans boussole
Les cybercrimes d’aujourd’hui – sextorsion, fraudes, deepnudes, cyberharcèlement – ne surgissent pas du néant.
Leurs auteurs sont les adolescents d’hier : ceux à qui l’on a appris à coder, créer, publier en ligne, mais rarement à réfléchir aux conséquences humaines de leurs gestes.
La cybercriminalité juvénile augmente rapidement, stimulée par la banalisation des outils d’IA et la perception d’impunité. Les jeunes ne sont plus seulement des victimes. Ils deviennent aussi acteurs de cyberinfractions, souvent « par curiosité, défi ou jeu ».
Et pourtant, cela fait plus d’une décennie que les écoles et les gouvernements éduquent à la citoyenneté et à la littératie numériques : développer son esprit critique, protéger ses données, adopter des comportements responsables en ligne, vérifier ses sources.
Malgré ces efforts, le cyberharcèlement, la désinformation et la mésinformation persistent, et s’intensifient, au point d’être reconnus comme le risque mondial prioritaire pour les prochaines années.
Une désensibilisation silencieuse mais profonde
Ces dérives ne naissent pas d’une malveillance innée, mais d’un manque d’encadrement moral adapté à l’ère numérique.
Nous éduquons des jeunes qui sont capables de manipuler la technologie, mais parfois incapables de mesurer la portée humaine de leurs gestes, surtout dans un environnement où certaines plates-formes repoussent délibérément les limites du socialement acceptable.
Les compagnons de Grok, le chatbot d’Elon Musk intégré à X (ex-Twitter), illustrent cette dérive. Des personnages générés par IA y tiennent des propos sexualisés, violents ou discriminatoires, présentés comme de simples contenus humoristiques. Ce type de banalisation brouille les repères moraux : dans un tel contexte, la transgression devient une forme d’expression et l’absence de responsabilité se confond avec la liberté.
Sans repères, plusieurs jeunes risquent de devenir des criminels augmentés : capables de manipuler, frauder ou humilier à une échelle inédite.
La simple absence d’intention malveillante dans la création de contenu ne suffit plus à éviter le mal.
Créer sans réfléchir aux conséquences humaines, même par curiosité ou pour divertir, alimente une désensibilisation collective où la dignité et la confiance s’effritent – rendant nos sociétés plus vulnérables à la manipulation et à l’indifférence.
De la crise du savoir à la crise morale
Les référentiels de littératie en IA – ces cadres conceptuels qui définissent les compétences, connaissances et attitudes nécessaires pour comprendre, utiliser et évaluer l’IA de manière critique et responsable – ont permis des avancées importantes en matière de pensée critique et de vigilance. La prochaine étape consiste à y intégrer une dimension plus humaine : réfléchir aux effets de ce que l’on crée sur autrui.
Les médias synthétiques fragilisent notre confiance dans la connaissance car ils rendent le faux crédible et le vrai discutable. On finit par douter de tout – des faits, des autres, parfois même de soi. Mais la crise à laquelle nous faisons face aujourd’hui dépasse le plan épistémique : c’est une crise morale.
La plupart des jeunes savent aujourd’hui douter d’un contenu manipulé, mais pas toujours en mesurer les conséquences humaines. Les jeunes activistes, eux, font figure d’exception. Qu’il s’agisse de Gaza ou d’autres luttes humanitaires, ils expérimentent à la fois la puissance du numérique comme outil de mobilisation – campagnes de hashtags, vidéos TikTok, blocages symboliques, actions coordonnées – et la responsabilité morale que cette puissance impose.
À l’ère des usages génératifs, ce n’est plus la vérité seule qui vacille, c’est notre sens de la responsabilité.
La relation entre l’humain et la technologie a été fortement étudiée. Celle entre humains à travers les contenus générés par la technologie, beaucoup moins. Et c’est précisément là que se joue l’avenir de la responsabilité morale dans l’environnement numérique.
Pour une sobriété morale du numérique
Nous savons désormais mesurer l’empreinte carbone du numérique et parler de sobriété énergétique. Mais l’impact humain – moral, psychologique, relationnel – reste la grande zone aveugle de nos réflexions sur les usages des IA.
Chaque deepfake, chaque « prank », chaque manipulation visuelle laisse une empreinte humaine : perte de confiance, peur, honte, déshumanisation.
Comme les émissions polluent l’air, ces atteintes polluent nos liens sociaux.
La sobriété morale, par analogie à la sobriété environnementale, vise à réduire les blessures invisibles créées par nos usages numériques.
Apprendre à mesurer cette empreinte humaine, c’est penser les conséquences de nos gestes numériques avant qu’elles ne se matérialisent. C’est se demander : Qui est affecté par ma création ? Quelle émotion, quelle perception suscite-t-elle ? Quelle trace laissera-t-elle dans la vie de quelqu’un ?
Construire une écologie morale du numérique, c’est reconnaître que chaque image, chaque diffusion façonne l’environnement humain dans lequel nous vivons.
Former des jeunes qui ne voudront pas nuire
Les lois, comme l’AI Act européen, définissent ce qu’il faut interdire, mais aucune loi ne peut enseigner pourquoi il ne faut pas vouloir nuire.
Concrètement, cela signifie :
Cultiver la responsabilité personnelle, en aidant les jeunes à se sentir responsables de leurs créations.
Transmettre les valeurs par l’expérience, en les invitant à créer puis à réfléchir : comment cette personne se sentirait-elle ?
Favoriser la motivation intrinsèque, pour qu’ils agissent éthiquement par cohérence avec eux-mêmes, non par crainte de sanctions.
Impliquer familles et communautés, en transformant écoles, maisons et espaces publics en lieux de discussion sur les impacts humains des utilisations non éthiques ou tout simplement peu réfléchies des IA génératives.
Parce qu’à l’ère des médias synthétiques, penser les conséquences humaines de ce que l’on crée est peut-être la forme la plus avancée d’intelligence.
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

























