Blog de AIID

Récapitulatif des incidents d‘IA - 22 octobre

Posted 2022-11-14 by Janet Schwartz & Khoa Lam.

Bienvenue dans l'édition de ce mois-ci de The Monthly Roundup, une newsletter conçue pour vous donner un récapitulatif digeste des derniers incidents et rapports de la base de données des incidents d'IA.

Temps de lecture estimé : 5 minutes

🗞️ Nouveaux incidents

Incidents émergents survenus le mois dernier :

Incident #377 : Le modèle Weibo a du mal à détecter les changements dans le discours censuré

  • Que s'est-il passé ? Le modèle de modération des utilisateurs du site de médias sociaux chinois Weibo a du mal à suivre l'évolution de l'argot des utilisateurs au mépris des censeurs de l'État chinois.
  • Comment l'IA ne fonctionne-t-elle pas ? Bien que le site affirme avoir affiné son "modèle d'identification des mots clés" pour pouvoir filtrer l'utilisation de mots intentionnellement mal orthographiés et homophones, la diversité et la nature en constante évolution du langage en ligne en Chine rend peu probable que son modèle soit en mesure d'interdire totalement le langage controversé.
  • Quel a été l'impact de cet incident ? Les citoyens chinois ont pu saper les efforts de Weibo pour imposer la censure de la langue interdite, leur permettant ainsi de discuter de sujets controversés tels que la corruption gouvernementale.
  • Qui était impliqué ? Weibo a développé et déployé un système d'IA, qui a nui à Weibo et au gouvernement chinois.
  • 🚨 Note de l'éditeur : La définition de "préjudice" présumé à une partie n'indique pas qu'il incombe à la communauté au sens large d'atténuer ou de prévenir ce préjudice. Bien que cet incident réponde aux critères, les éditeurs de bases de données ne prétendent pas qu'il faut éviter que cet incident ne se reproduise. L'AIID indexe tous les incidents répondant à sa définition ; notre responsabilité est de faire connaître de tels incidents (par exemple, Incident #13, où les modèles de toxicité du langage se sont avérés être facilement trompés).

Incident #383 : Le mini haut-parleur Google Home aurait lu à voix haute le N-Word dans le titre de la chanson

  • Que s'est-il passé ? Le haut-parleur Google Home Mini a été signalé par des utilisateurs pour avoir annoncé à haute voix le n-word précédemment censuré dans un titre de chanson. On ne sait pas quand ni comment les haut-parleurs de Google ont cessé de censurer le n-word.
  • Qui était impliqué ? Google Home a développé et déployé un système d'IA, qui a nui aux utilisateurs noirs de Google Home Mini et utilisateurs de Google Home Mini.

Incident #384 : Un chauffeur Glovo en Italie a été licencié par e-mail automatisé après avoir été tué dans un accident

  • Que s'est-il passé ? Le système automatisé de la société de livraison Glovo a envoyé un e-mail licenciant un employé pour "non-respect des conditions générales" après que l'employé a été tué dans un accident de voiture alors qu'il effectuait une livraison au nom de Glovo.
  • Qui était impliqué ? Glovo a développé et déployé un système d'IA, qui a nui à Sebastian Galassi et à sa famille.

Incident #385 : La publication par la police canadienne de la photo faciale générée par l'IA d'un suspect aurait renforcé le profilage racial

  • Que s'est-il passé ? Le service de police d'Edmonton (EPS) au Canada a publié une image faciale d'un suspect masculin noir générée par un algorithme utilisant le phénotypage de l'ADN, qui a été signalée par la communauté locale comme un profilage racial.
  • Comment fonctionne l'IA ? Le système d'IA appelé Snapshot qui crée un croquis facial composite basé sur les attributs d'apparence physique générés par le phénotypage ADN, est le processus de prédiction de l'apparence physique et de l'ascendance à partir de preuves ADN non identifiées.
  • Comment cette IA a-t-elle causé des dommages ? Les composites de phénotypage d'ADN sont des approximations d'apparence, et il n'est pas clair que les profils Snapshot correspondent à leurs sujets. Dans ce cas, puisque le suspect généré par l'IA était noir, cela a soulevé des inquiétudes concernant le profilage racial dans une communauté marginalisée.
  • Qui était impliqué ? Parabon Nanolabs a développé un système d'IA déployé par Edmonton Police Service, qui a nui aux résidents noirs d'Edmonton .

📎 Nouveaux développements

Incidents plus anciens qui ont de nouveaux rapports ou mises à jour.

Incident d'origineNouveau(x) rapport(s)
Incident #376:

L'algorithme de RealPage a poussé les prix des loyers à un niveau élevé, prétendument artificiellement

  • Comment un algorithme de loyer secret pousse les loyers à la hausse -

    ProPublica

    , 15 octobre 2022

  • Un algorithme augmente-t-il votre loyer ? Un nouveau recours collectif dit que oui -

    Gizmodo

    , 21 octobre 2022

  • Le logiciel YieldStar de RealPage peut faire grimper les loyers -

    La vraie affaire

    , 17 octobre 2022

Incident #373 :

L'algorithme des allocations de chômage du Michigan MiDAS a émis de fausses réclamations pour fraude pour des milliers de personnes

  • La lutte de sept ans pour demander des comptes à un algorithme incontrôlable -

    The Markup

    , 8 octobre 2022

  • Le Michigan réglera le procès pour fraude au chômage de 2015 pour 20 millions de dollars

    Detroit Free Press

    , 20 octobre 2022

Incident 267 :

Algorithme d'IA Clearview basé sur des photos extraites de profils de réseaux sociaux sans consentement

  • Le régulateur français inflige une amende de 20 millions d'euros à la société américaine de reconnaissance faciale Clearview AI,

    Le Monde

    , 20 octobre 2022

Incident #382 :

L'exposition d'Instagram à un contenu préjudiciable a contribué au suicide d'une adolescente

  • La décision britannique blâme les médias sociaux pour le suicide d'un adolescent -

    New York Times

    , 1er octobre 2022

🗄 Extrait des Archives

Chaque édition, nous présentons un ou plusieurs incidents historiques que nous trouvons stimulants.

Alors qu'en octobre, nous avons vu des humains déjouer un système automatisé pour éviter la censure de l'État en Chine, d'autres incidents historiques récemment ajoutés à la base de données mettent en évidence des systèmes d'IA violant la vie privée dans l'intérêt de l'État ou des intérêts commerciaux. Un incident de 2019 fait écho aux préoccupations de la surveillance de l'État avec le gouvernement Ougandais qui aurait utilisé un logiciel de reconnaissance faciale pour surveiller l'opposition politique. Pendant ce temps, dans le secteur privé, Uber aurait violé les droits de confidentialité des données des conducteurs afin de surveiller les performances en 2020 et McDonald's a fait l'objet d'un procès en 2021 pour avoir potentiellement violé les lois sur la confidentialité de l'Illinois en collectant des données vocales via leur chatbot au volant.

En dehors de l'utilisation délibérée des systèmes d'IA pour collecter et utiliser des données privées, il existe plusieurs exemples antérieurs de systèmes automatisés collectant ou partageant par erreur ces données. En 2018, un Amazon Echo a envoyé par erreur une conversation privée enregistrée entre un mari et sa femme à l'un des employés du mari à leur insu. GPT-2, le prédécesseur de GPT-3, aurait été capable de réciter des informations personnelles identifiables (PII) qu'il a apprises grâce à une formation sur des quantités massives de données provenant d'Internet.

Ces événements de ces dernières années mettent en évidence des thèmes communs de préoccupations en matière de vie privée qui concernent de plus en plus les systèmes juridiques garantissant des droits à la vie privée et à la protection des données.

- par Janet Schwartz

👇 Plonger plus profondément


🦾 Soutenez nos efforts

Toujours en train de lire ? Aidez-nous à changer le monde pour le mieux !

  1. Partagez cette newsletter sur LinkedIn, Twitter et Facebook
  2. Soumettre les incidents à la base de données
  3. Contribuez à la fonctionnalité de la base de données