Actualités
Quand l’IA voit flou 🤖👀
📉 L’illusion de la neutralité technologique
🔍 Un cas troublant à Détroit
Aux États-Unis, la police de Détroit a arrêté plusieurs personnes injustement identifiées par un logiciel de reconnaissance faciale automatique. Parmi elles, Porcha Woodruff, une femme noire enceinte de huit mois, accusée à tort d’un vol en février 2023.
⚠️ Arrestation injustifiée et détention prolongée
📌 Identifiée par un algorithme et un témoin, elle est arrêtée devant ses enfants.
📌 Interrogée et maintenue en détention pendant 11 heures.
📌 Obligée de payer 100 000 $ de caution pour être libérée.
📌 Un mois plus tard, les charges sont abandonnées.
⚖️ Un combat pour la justice
💥 Porcha Woodruff a poursuivi la ville de Détroit et un policier pour :
✅ Emprisonnement injustifié 🚔
✅ Violation de ses droits fondamentaux ⚖️
✅ Discrimination technologique 📊
🔎 Les biais algorithmiques sous les projecteurs
📢 De nombreuses études ont démontré que les technologies de reconnaissance faciale ont tendance à mal identifier les personnes de couleur. Ces erreurs entraînent des arrestations abusives et posent un problème fondamental sur l'éthique et la fiabilité de l’IA dans la sécurité publique.
📢 Conclusion
👉 Cette affaire met en évidence les dangers d’une IA non maîtrisée dans les procédures judiciaires.
👉 L’IA n’est pas neutre et reflète les biais des données sur lesquelles elle est entraînée.
👉 Une réglementation stricte et des mécanismes de contrôle sont indispensables pour éviter ces dérives.