Types d’erreurs

Accéder au résumé et à la version audio
Résumé : Cette page explique les limites et dérives de l’IA : biais, hallucinations et manipulation de l’information.
Elle présente les différents types de deepfakes et les formes de désinformation.
Elle vise à développer un regard critique face aux contenus générés par l’IA.
1. Je découvre
Les intelligences artificielles peuvent produire des biais, car elles apprennent à partir de données créées par les humains ; si ces données contiennent des stéréotypes ou des inégalités, l’IA peut les reproduire ou même les amplifier. Elles peuvent aussi générer des hallucinations, c’est-à-dire des réponses incorrectes ou inventées qui semblent pourtant crédibles, ce qui nécessite de toujours vérifier les informations produites.
2. Je comprends
Les biais
Ces phénomènes ne jouent pas le même rôle : certains relèvent des limites de l’IA, d’autres de son utilisation pour manipuler l’information.
Les intelligences artificielles apprennent à partir de données produites par les humains. Si ces données contiennent des biais ou des inégalités, l’IA peut reproduire ou amplifier ces problèmes.
Par exemple, un système d’IA utilisé pour analyser des candidatures peut privilégier certains profils si les données utilisées pour l’entraîner reflètent des pratiques de recrutement passées déjà biaisées.
Dans certains systèmes de reconnaissance faciale, on a également observé des taux d’erreur plus élevés pour certaines populations, notamment lorsque les données d’entraînement ne représentaient pas suffisamment la diversité des visages.
Ces situations posent des questions importantes sur l’équité et la justice dans l’utilisation des technologies.
Biais d’automatisation
Le biais d’automatisation correspond à la tendance à faire confiance excessivement à une décision prise par une machine, même lorsque celle-ci est erronée.
Exemple : un élève accepte une réponse générée par une IA sans la vérifier, pensant qu’elle est forcément correcte, alors qu’elle contient une erreur.
Biais linguistique
Ce biais apparaît lorsque l’IA fonctionne mieux dans certaines langues que dans d’autres, souvent parce qu’elle a été davantage entraînée sur ces langues.
Exemple : une IA donne une réponse très précise en anglais mais une réponse plus approximative ou simplifiée en français.
Biais historique
Le biais historique se produit lorsque l’IA reproduit des pratiques passées, même si celles-ci sont dépassées ou injustes.
Exemple : un algorithme d’orientation scolaire qui reproduit des inégalités anciennes en orientant systématiquement certains profils vers les mêmes filières.
Biais algorithmique
Ce biais est lié aux choix techniques faits lors de la conception de l’algorithme. L’IA peut privilégier certaines décisions en fonction de la manière dont elle a été programmée.
Exemple : une IA de recrutement qui favorise certains critères (âge, parcours, mots-clés) au détriment d’autres profils pourtant pertinents.
Biais de représentation
Ce biais apparaît lorsque certaines catégories de personnes sont sous-représentées ou mal représentées dans les données utilisées pour entraîner l’IA.
Exemple : une IA de reconnaissance faciale qui fonctionne moins bien sur certaines couleurs de peau car elle a été entraînée majoritairement sur des visages européens.
Biais de données
Le biais de données survient lorsque les données utilisées sont incomplètes, déséquilibrées ou de mauvaise qualité.
Exemple : une IA entraînée sur des données provenant uniquement d’un pays donne des résultats peu pertinents dans un autre contexte culturel.
Biais de confirmation
Le biais de confirmation correspond à la tendance à privilégier les informations qui confirment une idée préexistante.
Exemple : un utilisateur pose une question orientée à une IA et ne retient que les éléments qui vont dans son sens, renforçant ainsi sa conviction initiale.
Biais de sélection
Ce biais intervient lorsque les données utilisées ne représentent pas correctement l’ensemble de la réalité, car elles ont été sélectionnées de manière partielle.
Exemple : une étude basée uniquement sur des élèves performants conduit une IA à proposer des solutions inadaptées aux élèves en difficulté.
Biais culturel
Le biais culturel apparaît lorsque l’IA reflète les normes, valeurs ou références d’une culture dominante.
Exemple : une IA propose des exemples ou des contenus principalement issus de la culture américaine, peu adaptés à un contexte européen ou local.
Biais de mesure
Le biais de mesure survient lorsque les outils ou indicateurs utilisés pour évaluer une situation sont eux-mêmes imparfaits.
Exemple : une IA qui évalue la performance sportive uniquement sur le nombre de calories dépensées, sans tenir compte d’autres facteurs comme la technique ou l’endurance.
3. J’applique

Etes-vous capabe de repérer les 9 éléments qui indiquent que cette image a été réalisée par l’IA
Réponses :

Etes-vous capabe de repérer les 3 éléments qui indiquent que cette image a été réalisée par l’IA
Réponses :
4. J’analyse
Wooclap : on ne sait pas l’intégrer via un iframe à l’inverse de Wooflash mais ce dernier demande un compte pour se connecter au Quiz. Ces deux applications sont faciles en classe en partager le qrdcode et le code mais pour intégrer dans une plateforme accessible à tous, non.
Les deepfakes sont des contenus générés ou modifiés par l’IA pour imiter la réalité.
Deepfake vidéo
Un deepfake vidéo est une vidéo modifiée ou générée par une intelligence artificielle dans laquelle le visage, les expressions ou les gestes d’une personne sont remplacés ou imités de manière réaliste.
- Exemple : une vidéo montre une personnalité politique prononçant un discours qu’elle n’a jamais tenu.
- Exemple célèbre : fausse allocution de Volodymyr Zelensky appelant à la reddition.
Deepfake audio
Un deepfake audio consiste à reproduire artificiellement la voix d’une personne à partir d’enregistrements existants, afin de générer des paroles crédibles.
- Exemple : un faux message vocal imitant la voix d’un directeur demandant une action urgente à un enseignant.
- Exemple : clonage vocal utilisé dans des arnaques. Police belge
https://www.police.be/5998/fr/actualites/deepfakes-vocaux-attention-aux-logiciels-dia-qui-imitent-les-voix-de-vos-proches?utm_source=chatgpt.com
Deepfake image
Un deepfake image est une image générée ou modifiée par une IA, donnant l’impression qu’une scène réelle a été photographiée alors qu’elle n’a jamais existé.
- Exemple : une photo réaliste montrant un événement ou une rencontre qui n’a en réalité jamais eu lieu.
- Exemple : l’image virale du pape François en doudoune blanche. Le Monde
https://www.lemonde.fr/les-decodeurs/article/2023/03/30/comment-reconnaitre-une-image-generee-par-midjourney_6167525_4355770.html?utm_source=chatgpt.com
Deepfake textuel
Le deepfake textuel correspond à la production de textes crédibles mais faux, générés par une intelligence artificielle capable d’imiter des styles ou des sources.
- Exemple : article volontairement rédigé par IA avec présence de fake news
- Exemple : un faux article de presse ou une fausse déclaration attribuée à une personnalité.
Deepfake conversationnel
Le deepfake conversationnel consiste à simuler une interaction humaine réaliste à l’aide d’un chatbot ou d’un agent conversationnel, donnant l’impression de dialoguer avec une vraie personne.
- Exemple : un utilisateur échange avec un chatbot en pensant parler à un conseiller réel ou à un enseignant.
- Exemple : Replika, présenté comme un chatbot émotionnel pouvant devenir un “ami” virtuel. Université de Strasbourg
Quelques exemples :
Deepfake vidéo : Barack Obama (2018)
Ce que montre la vidéo : on voit Barack Obama parler face caméra. Il semble tenir un discours réaliste mais… la vidéo est entièrement manipulée
En réalité : la voix est celle de Jordan Peele, le visage a été recréé par IA
Deepfake audio : UK energy firm (2019))
Ce qui s’est passé : un dirigeant d’une entreprise énergétique au Royaume-Uni reçoit un appel téléphonique.
Deepfake image : l’arrestation de Donald Trump (2023)

Deepfake textuel : affaire Mata v. Avianca
Ce qui s’est passé
Un avocat américain a utilisé ChatGPT pour rédiger un document juridique.
Découvrez l’article
Deepfake conversationnel : fraude en visioconférence (Hong Kong, 2024)
Un employé participe à une visioconférence. Il pense parler à :
son directeur plusieurs collègues. Tous semblent réels (visage + voix)
Mais tous les participants étaient des deepfakes générés par IA
Découvre l’article
La désinformation correspond à la diffusion volontaire d’informations fausses ou trompeuses.
La désinformation regroupe différentes formes de contenus trompeurs, qui ne se distinguent pas seulement par leur contenu, mais aussi par l’intention et la manière dont ils sont utilisés.
Mésinformation
La mésinformation correspond à une information fausse ou inexacte diffusée sans intention de tromper. La personne qui la partage pense qu’elle est vraie.
- Exemple : partager sur un réseau social une information erronée sur un événement ou une donnée scientifique.
Désinformation
La désinformation est une information volontairement fausse, créée et diffusée dans le but de manipuler, influencer ou nuire.
- Exemple : créer un faux site ou une fausse information pour influencer une opinion ou un comportement.
Malinformation
La malinformation repose sur des informations vraies, mais utilisées de manière trompeuse, hors contexte ou détournées.
- Exemple : partager une image réelle mais ancienne en la présentant comme actuelle.
- Exemple célèbre : diffusion d’anciennes images de catastrophes naturelles présentées comme des événements récents pour créer de la panique ou de l’émotion.
Contenu trompeur (misleading content)
Il s’agit d’une information partiellement vraie, mais présentée de manière biaisée pour induire en erreur.
- Exemple : un titre d’article exagéré ou sensationnaliste qui ne reflète pas réellement le contenu.
- Exemple célèbre : certains titres de presse ou publications sur les réseaux sociaux qui amplifient un fait mineur pour générer du clic (“clickbait”).
Contenu fabriqué (fabricated content)
Le contenu est entièrement inventé, sans aucune base réelle.
- Exemple : une fausse citation ou un événement totalement fictif.
- Exemple célèbre : les “fake news” inventées de toutes pièces diffusées sur certains sites pendant des campagnes politiques ou médiatiques.
Quelques exemples :
Mésinformation
Exemple célèbre : pendant la pandémie de Covid-19, de nombreuses personnes ont relayé des remèdes inefficaces (comme boire certaines boissons ou prendre des substances non validées), sans vouloir nuire mais en pensant aider.
Désinformation
Exemple célèbre : les fausses informations diffusées lors de certaines élections (notamment aux États-Unis en 2016) pour influencer les électeurs.
Malinformation
Cette image a été prise en mars 2011 lors du tsunami au Japon (région de Miyako) après le séisme de Tōhoku.Elle a été réutilisée en 2018 sur les réseaux sociaux en étant présentée comme une image du tsunami en Indonésie (Sulawesi).
C’est une malinformation : l’image est réelle mais elle est ancienne (2011)
et utilisée pour illustrer un événement différent (2018). Elle donne donc une fausse information sur l’actualité, tout en s’appuyant sur une image authentique.

5. Je synthétise
6. J’évalue
Game
7. Je vais plus loin

Grover. (2021, 29 avril). Cet article a été écrit par une intelligence artificielle. WE DEMAIN. https://www.wedemain.fr/sauver-la-planete/innovation-verte/cet-article-a-ete-ecrit-par-une-intelligence-artificielle-1125552
Le Parisien. (2022, 18 mars). Vidéo. « Déposez vos armes » : des pirates diffusent une fausse allocution de Zelensky sur des sites ukrainiens. https://www.leparisien.fr/video/video-deposez-vos-armes-des-pirates-diffusent-une-fausse-allocution-de-zelensky-sur-des-sites-ukrainiens-18-03-2022-5J7TUOYPVBEWPFQBALFXJL36YE.php
Meydanlı, B. (2019, 14 juin). Replika : le chatbot émotionnel qui veut devenir votre ami. https://mastercaweb.unistra.fr/actualites/nouvelles-technologies/replika-chatbots-emotionnel-ami/
RTS Info. (2026, 14 février). Des adolescents diffusent des deepfakes dénudés de leurs camarades de classe. https://www.rts.ch/info/societe/2026/article/deepfakes-d-ados-nus-l-ia-detournee-choque-une-ecole-suisse-29148839.html