Actualités
🤖🎯 Quand l’IA confond des membres du congrès...
🧠 Un test mené par l'ACLU (American Civil Liberties Union) a mis à mal la technologie de reconnaissance faciale Rekognition d’Amazon.
🔍 Objectif ? Évaluer les biais de l’IA.
📸 Résultat : Rekognition a confondu 28 membres du Congrès américain avec des criminels présents dans une base de données judiciaire.
🚨 Et ce n’est pas tout :
👉 40% des personnes faussement identifiées étaient des personnes de couleur.
⚠️ Ce que ça montre :
• L'IA n'est pas neutre : elle reproduit les biais des données sur lesquelles elle est entraînée.
• Des erreurs comme celles-ci peuvent avoir des conséquences graves, surtout en contexte policier ou judiciaire.
• La reconnaissance faciale pose des risques discriminatoires majeurs si elle est mal encadrée.
📢 À retenir :
➡️ L’innovation ne doit jamais se faire au détriment des droits fondamentaux.
➡️ L’IA a besoin d’éthique, de transparence et de régulation.