Blog de AIID

Resumen de incidentes de IA - marzo 2023

Ver Original Posted 2023-04-14 by Janet Schwartz & Khoa Lam.

Lea nuestro boletín de revisión mensual que resume todos los nuevos incidentes en la base de datos de incidentes de IA y observa las tendencias.

🗄 Tendencia en el AIID

En marzo, la avalancha de incidentes relacionados con Deepfake continuó a medida que el público aplicaba la IA generativa de manera creativa y, a veces, destructiva. En un ejemplo reciente, estudiantes de secundaria crearon una foto falsa de un director haciendo amenazas violentas y racistas, sembrando temores en la comunidad y dañando la reputación del director.

Otra tendencia es una serie de medidas de aplicación relacionadas con la privacidad, incluidas varias derivadas del Reglamento general de protección de datos (RGPD) de la Unión Europea. Recientemente, la  autoridad italiana de protección de datos emitió una prohibición de ChatGPT, así como del chatbot de Replika con tecnología de IA debido a la falta de mecanismos de verificación de edad, así como a otras inquietudes sobre la recopilación de datos personales. Otro fallo judicial reciente relacionado con la privacidad falló a favor de los conductores de Uber alegando que la plataforma violó los derechos de datos de los conductores en varios casos.

¿Conoces un incidente de IA relacionado con la privacidad que no está cubierto por la base de datos de incidentes de IA? ¡Ayúdanos a proteger el mundo de los daños causados por la IA enviando incidentes tú mismo!

🗞️ Nuevos incidentes

LLM y chatbots

  • #498: GPT-4 supuestamente se hizo pasar por una persona ciega para convencer a un humano de completar CAPTCHA
  • #503: Según se informa, la herramienta de búsqueda de Bing AI declaró amenazas contra los usuarios
  • #504: Los resultados de Bing Chat presentados en el video de demostración supuestamente contenían información falsa

Falsificación profunda

  • #488: Voces generadas por IA utilizadas para doblar actores de voz
  • #492: Padres canadienses engañados entre miles usando la voz de IA de su hijo
  • #493: Los videos de usuarios de TikTok se hicieron pasar por Andrew Tate usando AI Voice, lo que provocó la prohibición
  • #494: Rostros de celebridades femeninas que se muestran en anuncios sexualmente sugerentes para la aplicación Deepfake
  • #495: Estudiantes de secundaria publicaron un video falso en el que el director lanza amenazas racistas violentas
  • #496: Un estudiante de primer año de la universidad supuestamente hizo deepfakes porno usando la cara de una amiga
  • #499: Parodia de imágenes de IA de Donald Trump siendo arrestado republicadas como información errónea

IA generativa

  • #490: La revista Clarkesworld cerró envíos debido al aumento masivo de historias generadas por IA
  • #500: Los estafadores en línea engañaron a las personas para que enviaran dinero usando imágenes de IA del terremoto en Turquía

Sesgo y discriminación

  • #489: Las herramientas de IA de Workday supuestamente permitieron a los empleadores discriminar a los solicitantes de grupos protegidos
  • #502: La herramienta de detección familiar del condado de Pensilvania presuntamente exhibió efectos discriminatorios

Otros

  • #491: Según se informa, la experiencia de IA de Replika carecía de protección para menores, lo que resultó en la prohibición de datos
  • #497: DoNotPay supuestamente tergiversó su producto AI "Robot Lawyer"
  • #501: Duración de la estadía Diagnóstico falso Suspensión del pago de la aseguradora por el tratamiento de una anciana

👇 Profundizando más


🦾 Apoya nuestros esfuerzos

¿Sigues leyendo? ¡Ayúdanos a cambiar el mundo para mejor!

  1. Comparte este boletín en LinkedIn, Twitter y Facebook
  2. Envía incidentes a la base de datos
  3. Contribuye a la funcionalidad de la base de datos