Blog de AIID

Resumen de incidentes de IA - 23 de enero

Ver Original Posted 2023-02-28 by Janet Schwartz & Khoa Lam.

Bienvenido a la edición de este mes de The Monthly Roundup, un boletín informativo diseñado para brindarle un resumen digerible de los últimos incidentes e informes de la base de datos de incidentes de IA.

Este mes profundizaremos en ChatGPT y otros modelos de lenguaje extenso (LLM), cuyos incidentes se anotan con el ícono 💬.

Tiempo estimado de lectura: 6 minutos

🗞️ Nuevos Incidentes

Incidentes emergentes que ocurrieron el mes pasado:

Incidente #446: ShotSpotter no alertó a las autoridades sobre un tiroteo masivo en Carolina del Norte

  • ¿Qué sucedió? ShotSpotter no detectó disparos ni alertó a la policía de Durham de un tiroteo desde un vehículo en movimiento en Durham, Carolina del Norte, que dejó a cinco personas en el hospital el día de Año Nuevo.
  • Acerca de la IA: ShotSpotter clasifica eventos de audio con un sensor como disparos potenciales, triangula la ubicación del evento y alerta a las autoridades del evento.

💬 Incidente #452: Informes de errores escritos por ChatGPT considerados "tonterías" por White Hat Platform, prohibiciones solicitadas

  • ¿Qué sucedió? Las respuestas generadas por ChatGPT enviadas a la plataforma de recompensas por errores de contratos inteligentes Immunefi supuestamente carecían de detalles para ayudar a diagnosticar problemas técnicos, lo que supuestamente hizo perder el tiempo de la plataforma, lo que provocó prohibiciones a los remitentes.

Incidente #453: La herramienta de moderación de IA de Twitter identificó erróneamente a cohetes espaciales como pornografía

  • ¿Qué sucedió? La moderación automática de contenido de Twitter identificó erróneamente imágenes de lanzamientos de cohetes como contenido pornográfico, lo que provocó suspensiones de cuentas incorrectas.

Incidente #459: Bomberos destrozaron la ventana delantera de un auto Cruise AV para evitar que pasara por encima de las mangueras contra incendios

  • ¿Qué sucedió? Los bomberos locales solo pudieron evitar que un Cruise AV pasara por encima de las mangueras contra incendios que estaban en uso en una escena de incendio activo cuando rompieron su ventana delantera.

📎 Nuevos desarrollos

Incidentes más antiguos que tienen nuevos informes o actualizaciones.

Incidente OriginalInforme(s) nuevo(s)

Incidente #112: Los departamentos de policía reportaron a ShotSpotter como poco confiable y derrochador

  • Portland cambiará de rumbo y aceptará ofertas competitivas para piloto de detección de disparos –

    opb.org

    , 2023-01-09

💬 Incidente #339: Modelos generativos de código abierto abusados ​​por los estudiantes para hacer trampa en las tareas

  • Herramienta ChatGPT AI utilizada por estudiantes para generar tareas, advierten académicos –

    thenationalnews.com

    , 2023-01-09

Incidente #430: A los abogados se les niega la entrada al lugar de la actuación por reconocimiento facial

  • Los abogados prohibidos por el Madison Square Garden encontraron un forma para ingresar –

    nytimes.com

    , 2023-01-16

Incidente #434: El frenado repentino de Tesla supuestamente en el modo de conducción autónoma provocó un choque de varios autos en un túnel

  • Exclusivo: imágenes de vigilancia del accidente de Tesla en el puente de la bahía de San Francisco horas después de que Elon Musk anunciara la función de "conducción autónoma" –

    theintercept.com

    , 2023-01-10

Incidente #436: Conductor de Tesla puso su auto en piloto automático antes de quedarse dormido en Alemania

  • La policía en Alemania persigue a Tesla durante 15 minutos después de que el conductor enciende el piloto automático y "se duerme" –

    news.sky.com

    , 2023-01-02

  • Tesla auf Autopilot wird von der Polizei angehalten, nachdem der Fahrer hinter dem Lenkrad eingeschlafen ist –

    teslapronews.ru

    , 2023-01-01

Incidente #440: La policía de Luisiana arrestó injustamente a un hombre negro usando una herramienta de reconocimiento facial errónea

  • JPSO usó tecnología de reconocimiento facial para arrestar a un hombre. La tecnología estaba equivocada. –

    nola.com

    , 2023-01-02

💬 Incidente #443: ChatGPT abusado por estudiantes para desarrollar softwares maliciosos

Incidente #448: VTuber impulsado por IA y Virtual Streamer hicieron comentarios tóxicos en Twitch

  • VTuber controlado por IA transmite juegos en Twitch, niega el Holocausto –

    kotaku.com

    , 2023-01-06

💬 Incidente #449: Startup engañó a los participantes de la investigación sobre el uso de GPT-3 en el apoyo a la atención de la salud mental

  • Startup usa AI Chatbot para brindar asesoramiento sobre salud mental y luego se da cuenta de que "se siente raro" –

    vice.com

    , 2023-01-10

💬 Incidente #450: Anotadores de datos de Kenia supuestamente expuestos a imágenes gráficas y texto para el contrato OpenAI

  • Exclusivo: Los trabajadores de $ 2 por hora que hicieron ChatGPT más seguro – time.com, 2023-01-18

🗄 De los archivos

En cada edición, presentamos uno o más incidentes históricos que encontramos estimulantes.

En enero, recibimos una afluencia de incidentes relacionados con el ChatGPT recientemente lanzado de OpenAI. Recopilamos y analizamos los distintos incidentes de ChatGPT y las categorías derivadas de daños, que incluyen:

  • Deshonestidad academica
  • Desarrollo de programas maliciosos
  • Jailbreaking con facilidad
  • Exposición del contenido del etiquetador
  • Citas falsas
  • Seguro de calidad

Un análisis detallado de uno de nuestros editores se publicará en breve en nuestro blog.

👇 Profundizando más


🦾 Apoya nuestros esfuerzos

¿Sigues leyendo? ¡Ayúdanos a cambiar el mundo para mejor!

  1. Comparte este boletín en LinkedIn, Twitter y Facebook
  2. Envía incidentes a la base de datos
  3. Contribuye a la funcionalidad de la base de datos