CSETv1 Charts
La taxonomie CSET AI Harm pour AIID est la deuxième édition de la taxonomie CSET incident. Il caractérise les dommages, les entités et les technologies impliquées dans les incidents d'IA et les circonstances de leur apparition. Les graphiques ci-dessous montrent certains champs de la taxonomie CSET AI Harm pour AIID. Des détails sur chaque champ peuvent être trouvés . Cependant, de brèves descriptions du champ sont fournies au-dessus de chaque graphique.
La taxonomie fournit la définition CSET du préjudice causé par l'IA.
Le préjudice causé par l'IA comporte quatre éléments qui, une fois correctement définis, permettent d'identifier le préjudice causé par l'IA. Ces composantes clés servent à distinguer le préjudice du non-préjudice et le préjudice causé par l'IA du préjudice non causé par l'IA. Pour être un préjudice causé par l'IA, il doit y avoir :
- 1) une entité qui a vécu
- 2) a harm event or harm issue that
- 3) peut être directement lié à une conséquence du comportement de
- 4) un système d'IA.
Tous les incidents de l'AIID ne répondent pas à cette définition du préjudice causé par l'IA. Les graphiques à barres ci-dessous montrent les résultats annotés pour tous les incidents de l'AIID et les incidents qui répondent à la définition CSET du préjudice causé par l'IA.
Le CSET a développé des définitions spécifiques pour les phrases soulignées qui peuvent différer des définitions d'autres organisations. Par conséquent, d'autres organisations peuvent procéder à des évaluations différentes pour déterminer si un incident d'IA particulier est (ou n'est pas) un préjudice lié à l'IA. Des détails sur les définitions du CSET pour les dommages causés par l'IA peuvent être trouvés ici.
Chaque incident est classé indépendamment par deux annotateurs CSET. Les annotations sont examinées par des pairs et finalement sélectionnées au hasard pour un contrôle qualité avant publication. Malgré ce processus rigoureux, des erreurs se produisent et les lecteurs sont invités à toute erreur qu'ils pourraient découvrir en naviguant.
Does the incident involve a system that meets the CSET definition for an AI system?
AI System
(by Incident Count)If there was differential treatment, on what basis?
Differential treatment based upon a protected characteristic: This special interest intangible harm covers bias and fairness issues concerning AI. However, the bias must be associated with a group having a protected characteristic.Basis for differential treatment
(by Incident Count)All AIID Incidents
Category | Count |
---|---|
race | 8 |
sex | 8 |
nation of origin, citizenship, immigrant status | 3 |
sexual orientation or gender identity | 2 |
age | 1 |
disability | 1 |
financial means | 1 |
geography | 1 |
ideology | 1 |
religion | 1 |
none |
CSET AI Harm Definition
Category | Count |
---|---|
race | 5 |
sex | 5 |
nation of origin, citizenship, immigrant status | 2 |
sexual orientation or gender identity | 1 |
disability | 1 |
ideology | 1 |
religion | 1 |
age | |
financial means | |
geography | |
none |
In which sector did the incident occur?
Sector of Deployment
(by Incident Count)All AIID Incidents
Category | Count |
---|---|
information and communication | 18 |
transportation and storage | 12 |
Arts, entertainment and recreation | 6 |
administrative and support service activities | 5 |
wholesale and retail trade | 5 |
law enforcement | 4 |
professional, scientific and technical activities | 4 |
human health and social work activities | 3 |
manufacturing | 3 |
public administration | 3 |
Education | 2 |
accommodation and food service activities | 1 |
other | 1 |
CSET AI Harm Definition
Category | Count |
---|---|
information and communication | 11 |
transportation and storage | 7 |
Arts, entertainment and recreation | 2 |
administrative and support service activities | 2 |
law enforcement | 2 |
public administration | 2 |
wholesale and retail trade | 1 |
professional, scientific and technical activities | 1 |
accommodation and food service activities | 1 |
human health and social work activities | |
manufacturing | |
Education | |
other |
How autonomously did the technology operate at the time of the incident?
Autonomy is an AI's capability to operate independently. Levels of autonomy differ based on whether or not the AI makes independent decisions and the degree of human oversight. The level of autonomy does not depend on the type of input the AI receives, whether it is human- or machine-generated.
Currently, CSET is annotating three levels of autonomy.
- Level 1: the system operates independently with no simultaneous human oversight.
- Level 2: the system operates independently but with human oversight, where the system makes a decision or takes an action, but a human actively observes the behavior and can override the system in real-time.
- Level 3: the system provides inputs and suggested decisions or actions to a human that actively chooses to proceed with the AI's direction.
Autonomy Level
(by Incident Count)- Autonomy1 (fully autonomous): Does the system operate independently, without simultaneous human oversight, interaction or intervention?
- Autonomy2 (human-on-loop): Does the system operate independently but with human oversight, where the system makes decisions or takes actions but a human actively observes the behavior and can override the system in real time?
- Autonomy3 (human-in-the-loop): Does the system provide inputs and suggested decisions to a human that