Types d’erreurs

Résumé
Les intelligences artificielles peuvent produire des biais, car elles apprennent à partir de données créées par les humains ; si ces données contiennent des stéréotypes ou des inégalités, l’IA peut les reproduire ou même les amplifier. Elles peuvent aussi générer des hallucinations, c’est-à-dire des réponses incorrectes ou inventées qui semblent pourtant crédibles, ce qui nécessite de toujours vérifier les informations produites.
Les biais et les discriminations
Les intelligences artificielles apprennent à partir de données produites par les humains. Si ces données contiennent des biais ou des inégalités, l’IA peut reproduire ou amplifier ces problèmes.
Par exemple, un système d’IA utilisé pour analyser des candidatures peut privilégier certains profils si les données utilisées pour l’entraîner reflètent des pratiques de recrutement passées déjà biaisées.
Dans certains systèmes de reconnaissance faciale, on a également observé des taux d’erreur plus élevés pour certaines populations, notamment lorsque les données d’entraînement ne représentaient pas suffisamment la diversité des visages.
Ces situations posent des questions importantes sur l’équité et la justice dans l’utilisation des technologies.

La désinformation et les deepfakes
Les intelligences artificielles génératives permettent aujourd’hui de produire des textes, des images, des vidéos ou des voix très réalistes. Cette capacité peut être utilisée de manière positive pour la création artistique ou l’éducation, mais elle peut aussi être détournée.
Les deepfakes sont des images ou des vidéos générées artificiellement qui peuvent donner l’impression qu’une personne a dit ou fait quelque chose qu’elle n’a jamais fait.
Exemple :
Une vidéo peut montrer une personnalité politique prononçant un discours qu’elle n’a jamais tenu.
Une image peut faire croire qu’un événement s’est produit alors qu’il a été entièrement généré par une IA.
Ces contenus peuvent être utilisés pour manipuler l’opinion publique ou diffuser de fausses informations.
