Actualités

Quand l’IA voit flou 🤖👀

Intelligence Artificielle (IA) | 27/03/2025

📉 L’illusion de la neutralité technologique

🔍 Un cas troublant à Détroit
Aux États-Unis, la police de Détroit a arrêté plusieurs personnes injustement identifiées par un logiciel de reconnaissance faciale automatique. Parmi elles, Porcha Woodruff, une femme noire enceinte de huit mois, accusée à tort d’un vol en février 2023.

⚠️ Arrestation injustifiée et détention prolongée
📌 Identifiée par un algorithme et un témoin, elle est arrêtée devant ses enfants.
📌 Interrogée et maintenue en détention pendant 11 heures.
📌 Obligée de payer 100 000 $ de caution pour être libérée.
📌 Un mois plus tard, les charges sont abandonnées.

⚖️ Un combat pour la justice
💥 Porcha Woodruff a poursuivi la ville de Détroit et un policier pour :
Emprisonnement injustifié 🚔
Violation de ses droits fondamentaux ⚖️
Discrimination technologique 📊

🔎 Les biais algorithmiques sous les projecteurs
📢 De nombreuses études ont démontré que les technologies de reconnaissance faciale ont tendance à mal identifier les personnes de couleur. Ces erreurs entraînent des arrestations abusives et posent un problème fondamental sur l'éthique et la fiabilité de l’IA dans la sécurité publique.

📢 Conclusion
👉 Cette affaire met en évidence les dangers d’une IA non maîtrisée dans les procédures judiciaires.
👉 L’IA n’est pas neutre et reflète les biais des données sur lesquelles elle est entraînée.
👉 Une réglementation stricte et des mécanismes de contrôle sont indispensables pour éviter ces dérives.

Retour vers la liste des actualités