¿Por qué "Incidentes de IA"?

Actualmente, los sistemas inteligentes son propensos a fallas imprevistas y, a menudo, peligrosas cuando se implementan en el mundo real. Al igual que el sector del transporte anterior (por ejemplo, FAA y FARS y más recientemente sistemas informáticos, los sistemas inteligentes requieren un repositorio de problemas experimentados en el mundo real para que los futuros investigadores y desarrolladores puedan mitigar o evitar la repetición de malos resultados.

¿Qué es un incidente?

El conjunto inicial de más de 1000 informes de incidentes ha sido intencionalmente de naturaleza amplia. Los ejemplos actuales incluyen,

Lo invitamos a explorar los incidentes recopilados hasta la fecha, ver la lista completa y enviar informes de incidentes adicionales. Se invita a los investigadores a revisar nuestra definición de trabajo de incidentes de IA.

Usuarios actuales y futuros

La base de datos es un producto de datos y una colección de aplicaciones en constante evolución.

  • Usuarios actuales incluye arquitectos de sistemas, desarrolladores de productos industriales, gerentes de relaciones públicas, investigadores e investigadores de políticas públicas. Se invita a estos usuarios a usar la aplicación Discover para descubrir de manera proactiva cómo los sistemas inteligentes implementados recientemente han producido resultados inesperados en el mundo real. Al hacerlo, pueden evitar cometer errores similares en su desarrollo.
  • Los usos futuros evolucionarán a través de las contribuciones de código de la comunidad de código abierto, incluida la base de datos adicional resúmenes y taxonomías.

¿Cuándo debe informar un incidente?

Cuando tenga dudas sobre si un evento califica como incidente, envíelo. Este proyecto pretende converger en una definición compartida de "Incidente de IA" a través de la exploración de los incidentes candidatos presentados por la comunidad en general.

Junta Directiva

La base de datos de incidentes es administrada de manera participativa por personas y organizaciones que aportan código, investigación e impactos más amplios. Si desea participar en la gobernanza del proyecto, contactenos con nosotros e incluya su contribución prevista a la base de datos de incidentes de AI.

Miembros votantes

  • Helen Toner: Helen Toner es Directora de Estrategia en el Center for Security and Emerging Technology (CSET) de Georgetown. Anteriormente, trabajó como analista de investigación sénior en Open Philanthropy, donde asesoró a legisladores y donantes sobre políticas y estrategias de IA. Entre trabajar en Open Philanthropy y unirse a CSET, Helen vivió en Beijing y estudió el ecosistema chino de IA como investigadora afiliada del Centro para la Gobernanza de la IA de la Universidad de Oxford. Helen ha escrito para Foreign Affairs y otros medios sobre las implicaciones de seguridad nacional de la IA y el aprendizaje automático para China y los Estados Unidos, además de testificar ante la Comisión de Revisión Económica y de Seguridad de EE. UU.-China. Es miembro de la junta directiva de OpenAI. Helen tiene una Maestría en Estudios de Seguridad de Georgetown, así como una Licenciatura en Ingeniería Química y un Diplomado en Idiomas de la Universidad de Melbourne. Contribuciones: Investigación de incidentes de IA y supervisión de la taxonomía CSET.

  • Patrick Hall: Patrick es científico principal en bnh.ai, una firma de abogados con sede en D.C. que se especializa en IA y análisis de datos. Patrick también se desempeña como profesor visitante en la Escuela de Negocios de la Universidad George Washington. Antes de cofundar bnh.ai, Patrick lideró los esfuerzos de inteligencia artificial responsable en la firma de software de aprendizaje automático H2O.ai, donde su trabajo resultó en una de las primeras soluciones comerciales del mundo para el aprendizaje automático explicable y justo. Entre otros escritos académicos y de medios tecnológicos, Patrick es el autor principal de libros electrónicos populares sobre aprendizaje automático explicable y responsable. Patrick estudió química computacional en la Universidad de Illinois antes de graduarse del Instituto de Analítica Avanzada de la Universidad Estatal de Carolina del Norte. Contribuciones: Patrick es el colaborador principal de informes de incidentes para el Proyecto de base de datos de incidentes de AI.

  • Sean McGregor: Sean McGregor fundó el proyecto de la base de datos de incidentes de IA y recientemente dejó un puesto como arquitecto de aprendizaje automático en la startup del acelerador neuronal Syntiant para poder concentrarse en la seguridad de sistemas inteligentes a tiempo completo. El trabajo del Dr. McGregor abarca aceleradores neuronales para la inferencia de eficiencia energética, aprendizaje profundo para el habla y la heliofísica, y aprendizaje de refuerzo para la política de supresión de incendios forestales. Fuera de su trabajo remunerado, Sean organizó una serie de talleres en las principales conferencias académicas de IA sobre el tema "AI for Good" y actualmente está desarrollando un enfoque basado en incentivos para hacer que la IA sea más segura a través de auditorías y seguros. Contribuciones: Sean es voluntario como mantenedor de proyectos y editor del proyecto Base de datos de incidentes de IA (AIID).

Miembros sin derecho a voto

  • Neama Dadkhahnikoo: Neama Dadkhahnikoo es experto en inteligencia artificial y emprendimiento, con más de 15 años de experiencia en desarrollo de tecnología en startups, no beneficios y grandes empresas. Actualmente se desempeña como gerente de productos para Vertex AI, la plataforma unificada de Google Cloud para el aprendizaje automático de extremo a extremo. Anteriormente, el Sr. Dadkhahnikoo fue director de IA y operaciones de datos en la Fundación XPRIZE, CTO de CaregiversDirect (startup de IA para atención domiciliaria), cofundador y director de operaciones de Textpert (startup de IA para salud mental) y consultor de startup. Comenzó su carrera como desarrollador de software para The Boeing Company. El Sr. Dadkhahnikoo tiene un MBA de UCLA Anderson; una Maestría en Gestión de Proyectos del Stevens Institute of Technology; y una licenciatura en Matemáticas Aplicadas y Ciencias de la Computación, con especialización en Física, de UC Berkeley. Contribuciones: Neama se ofrece como voluntario para mantener organizada la Responsible AI Collaborative fuera de su rol como gerente de producto en Google.
  • Kit Harris: Kit dirige investigaciones de subvenciones e investiga campos prometedores en Longview Philanthropy. También escribe sobre las recomendaciones e investigaciones de Longview para clientes filántropos de Longview. Antes de centrarse en el trabajo filantrópico de alto impacto, Kit trabajó como comerciante de derivados de crédito con J.P. Morgan. Durante ese tiempo, donó la mayoría de sus ingresos a organizaciones benéficas de alto impacto. Kit tiene un título de primera clase en matemáticas de la Universidad de Oxford. Contribuciones: Kit sirve como observador de la junta, brinda asesoramiento estratégico y es el punto de contacto de RAIC en Longview.

Colaboradores

Contribuidores de código abierto: personas que han contribuido con más de una solicitud de incorporación de cambios, gráficos, copias del sitio o informes de errores a la base de datos de incidentes de AI.

Asociación en miembros del personal de AI: Jingying Yang y Dr. Christine Custis contribuyó significativamente a las primeras etapas del AIID.

Editores de incidentes: personas que resuelven los envíos de incidentes a la base de datos.

Editores de taxonomías: Organizaciones o personas que han contribuido taxonomías a la base de datos.

Contribuyentes de incidentes: personas que han contribuido con una gran cantidad de incidentes a la base de datos.

Las siguientes personas han recopilado una gran cantidad de incidentes que están pendientes de ingesta.

  • Zachary Arnold, Helen Toner, Ingrid Dickinson, Thomas Giallella y Nicolina Demakos (Center for Security and Emerging Technology, Georgetown)
  • Charlie Pownall a través de IA, repositorio de controversias e incidentes algorítmicos y de automatización (AIAAIC)
  • Lawrence Lee, Darlena Phuong Quyen Nguyen, Iftekhar Ahmed (UC Irvine)

Hay una comunidad creciente de personas preocupadas por la recopilación y caracterización de incidentes de IA, y alentamos a todos a contribuir al desarrollo de este sistema.


El Colaborativo de IA Responsable

La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro .

View the Responsible AI Collaborative’s Form 990 and tax-exempt application.