Types d’erreurs

Les limites et erreurs de l’intelligence artificielle

Malgré ses performances impressionnantes, l’intelligence artificielle possède plusieurs limites importantes. Les systèmes d’IA ne comprennent pas réellement le monde comme les humains. Ils analysent des données et calculent des probabilités pour produire des réponses, ce qui peut parfois conduire à des erreurs.

Comprendre ces limites est essentiel pour utiliser l’IA de manière critique et responsable.

Les hallucinations de l’IA

Une hallucination se produit lorsqu’une intelligence artificielle génère une information fausse mais présentée comme crédible. L’IA ne vérifie pas si l’information est vraie : elle produit simplement la réponse qui semble statistiquement la plus probable.

Exemples :

Un chatbot peut inventer une référence bibliographique.

Si on lui demande une étude scientifique sur un sujet précis, il peut créer un titre d’article, un auteur et une revue scientifique… alors que l’étude n’existe pas.

Un assistant conversationnel peut aussi inventer des faits historiques.

Par exemple, il pourrait affirmer qu’un traité historique a été signé en 1823 alors qu’il a été signé en 1830.

Ces erreurs peuvent sembler très convaincantes car l’IA produit souvent des réponses bien structurées et cohérentes.

Les biais algorithmiques

Les intelligences artificielles apprennent à partir de données. Si les données utilisées pour entraîner un modèle contiennent des biais ou des stéréotypes, l’IA risque de reproduire ces biais.

Exemples :

Un système de recrutement automatisé peut favoriser certains profils si les données d’entraînement reflètent des habitudes de recrutement biaisées.

Une IA de génération d’images peut produire majoritairement des hommes lorsque l’on demande une image de « scientifique », car les images d’entraînement représentent plus souvent des hommes dans ce rôle.

Un système de reconnaissance faciale peut fonctionner moins bien sur certains visages si les données utilisées pour l’entraînement ne représentent pas suffisamment la diversité des populations.

Une compréhension limitée du monde

Contrairement à un humain, une IA ne possède pas d’expérience du monde réel. Elle ne comprend pas réellement le sens des mots ou des situations.

Elle analyse simplement des relations statistiques entre les mots ou les images.

Exemples :

Si on demande à une IA :

« Peut-on mettre un éléphant dans un réfrigérateur ? »

Elle peut répondre par une explication logique, mais elle n’a aucune expérience réelle de ce qu’est un éléphant ou un réfrigérateur.

Dans certains cas, une IA génératrice d’images peut produire des objets impossibles, comme une tasse avec plusieurs poignées ou des mains humaines avec un nombre incorrect de doigts.

Les erreurs de raisonnement

Les systèmes d’IA peuvent aussi rencontrer des difficultés dans les raisonnements complexes, surtout lorsqu’il faut combiner plusieurs étapes logiques.

Exemples :

Un chatbot peut donner une mauvaise réponse à un problème mathématique simple si la question est formulée de manière ambiguë.

Il peut aussi mal interpréter une consigne comportant plusieurs conditions.

Par exemple :

« Donne-moi trois animaux qui vivent dans l’eau mais qui ne sont pas des poissons. »

L’IA pourrait malgré tout citer un poisson dans la liste si elle se concentre davantage sur la fréquence des mots que sur la logique de la question.

La dépendance aux données d’entraînement

Une IA ne peut apprendre que ce qui est présent dans les données utilisées pour l’entraîner. Si certaines informations sont absentes ou peu représentées, les réponses peuvent être incomplètes ou incorrectes.

Exemples :

Une IA entraînée principalement sur des textes en anglais peut être moins performante dans d’autres langues.

Un système d’IA qui analyse des données médicales peut être moins fiable pour certains groupes de patients si les données d’entraînement ne les représentent pas suffisamment.

Les limites liées au contexte et à l’actualité

Les modèles d’intelligence artificielle sont souvent entraînés à partir de données arrêtées à une certaine date. Ils peuvent donc manquer d’informations récentes.

Exemples :

Un chatbot peut ne pas connaître un événement politique récent ou une découverte scientifique récente.

Il peut également donner des informations dépassées si les connaissances ont évolué depuis l’entraînement du modèle.

La dépendance excessive à l’IA

Une autre limite importante concerne l’usage que les humains font de l’IA. Lorsque les utilisateurs font trop confiance aux réponses générées, ils risquent de ne plus vérifier les informations.

Exemples :

Un élève peut recopier directement une réponse générée par une IA sans vérifier son exactitude.

Un professionnel peut utiliser un résumé généré automatiquement sans vérifier si des informations importantes ont été oubliées.

1. Inventer des informations (hallucinations)

Une IA peut produire une réponse totalement inventée tout en la présentant comme vraie.

Exemple :

Un chatbot peut inventer une étude scientifique, un auteur ou une date historique qui n’existent pas.

2. Donner une réponse plausible mais fausse

L’IA peut générer une réponse qui semble logique mais qui contient une erreur.

Exemple :

Elle peut expliquer correctement un phénomène scientifique mais se tromper dans un chiffre ou dans une date.

3. Reproduire des biais

Si les données d’entraînement contiennent des stéréotypes, l’IA peut les reproduire.

Exemple :

Une IA génératrice d’images peut produire majoritairement des hommes lorsqu’on demande l’image d’un scientifique ou d’un ingénieur.

4. Mal comprendre une consigne

L’IA peut interpréter une question de manière incorrecte.

Exemple :

Si on demande « donne trois animaux marins qui ne sont pas des poissons », l’IA peut malgré tout citer un poisson.

5. Produire des contenus incohérents

Dans certaines situations, l’IA peut générer des résultats impossibles ou incohérents.

Exemple :

Une IA génératrice d’images peut créer une personne avec six doigts ou un objet avec une forme impossible.

6. Ignorer des informations récentes

Les modèles d’IA sont entraînés sur des données collectées à une certaine période et peuvent donc manquer d’informations récentes.

Exemple :

Un chatbot peut ne pas connaître un événement politique récent ou une découverte scientifique récente.

7. Donner une réponse avec trop d’assurance

L’IA peut affirmer une information avec beaucoup de certitude, même lorsqu’elle est fausse.

Exemple :

Elle peut écrire une explication très convaincante d’un phénomène… alors que certains éléments sont incorrects.