Registro de citas para el Incidente 367
Description: Unsupervised image generation models trained using Internet images such as iGPT and SimCLR were shown to have embedded racial, gender, and intersectional biases, resulting in stereotypical depictions.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por OpenAI y Google, perjudicó a gender minority groups , racial minority groups y underrepresented groups in training data.
Estadísticas de incidentes
ID
367
Cantidad de informes
1
Fecha del Incidente
2020-06-17
Editores
Khoa Lam
Informes del Incidente
Cronología de Informes
technologyreview.com · 2021
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Ryan Steed, estudiante de doctorado en la Universidad Carnegie Mellon, y Aylin Caliskan, profesora asistente en la Universidad George Washington, analizaron dos algoritmos: [iGPT de OpenAI](https://www.technologyreview.com/2020/07/16/100528…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.