Registro de citas para el Incidente 114
Description: Rekognition's face comparison feature was shown by the ACLU to have misidentified members of congress, and particularly members of colors, as other people who have been arrested using a mugshot database built on publicly available arrest photos.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por Amazon, perjudicó a Rekognition users y arrested people.
Estadísticas de incidentes
ID
114
Cantidad de informes
1
Fecha del Incidente
2018-07-26
Editores
Sean McGregor, Khoa Lam
Informes del Incidente
Cronología de Informes
aclu.org · 2018
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
La tecnología de vigilancia facial de Amazon es objeto de una creciente oposición en todo el país y, en la actualidad, hay 28 motivos más de preocupación. En una prueba que la ACLU realizó recientemente de la herramienta de reconocimiento f…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Policing the Future
· 17 informes
Machine Bias - ProPublica
· 15 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Policing the Future
· 17 informes
Machine Bias - ProPublica
· 15 informes