Registro de citas para el Incidente 92
Entidades
Ver todas las entidadesEstadĂsticas de incidentes
Clasificaciones de la TaxonomĂa CSETv0
Detalles de la TaxonomĂaFull Description
In November 2019, customers of Goldman-Sachs and Apple's Apple Card, the first credit offering by Goldman-Sachs, claimed that there was gender discrimination in the credit assessment algorithm that distributes credit lines, with men receiving significantly higher credit limits than women with equal credit qualifications. Apple co-founder Steve Wozniak confirmed this also happened with him and his wife and the New York Department for Financial Services have launched an investigation regarding the discrimination claim. In response to this incident, Goldman Sachs made a statement that it has not and will never make decisions based on factors like gender, race, age, sexual orientation or any other legally prohibited factors when determining credit worthiness.
Short Description
In November 2019, Apple Card clients claimed that the credit assessment algorithm possesses a gender bias in favor of men.
Severity
Minor
Harm Distribution Basis
Sex
Harm Type
Financial harm
AI System Description
Goldman-Sachs uses a credit assessment algorithm that factors credit score, credit report, and reported income to determine credit lines for clients
System Developer
Goldman-Sachs
Sector of Deployment
Financial and insurance activities
Relevant AI functions
Perception, Cognition, Action
AI Techniques
machine learning, daya analytics
AI Applications
data analytics, recommendation engine, decision support
Location
United States
Named Entities
Goldman Sachs, Apple Card, Apple, Steve Wozniak, New York Department of Financial Services
Technology Purveyor
Apple, Goldman-Sachs
Beginning Date
11/2019
Ending Date
11/2019
Near Miss
Harm caused
Intent
Accident
Lives Lost
No
Laws Implicated
The Equal Credit Opportunity Act (ECOA) prohibits credit discrimination on the basis of race, color, religion, national origin, sex, marital status, age, or because you get public assistance.
Data Inputs
credit score, credit report, reported income
Informes del Incidente
CronologĂa de Informes
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Lo que comenzó con un hilo viral de Twitter se transformó en una investigación regulatoria de las prácticas de tarjetas de crédito de Goldman Sachs después de que un destacado desarrollador de software llamara la atención sobre las diferenc…
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
El algoritmo responsable de las decisiones de crĂ©dito para la Apple Card otorga a las mujeres lĂmites de crĂ©dito más bajos que a los hombres igualmente calificados. Esas son las acusaciones que comenzaron a difundirse cuando los consumidore…
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Cuando el empresario tecnolĂłgico David Heinmeier Hansson acudiĂł recientemente a Twitter diciendo que la Apple Card le otorgaba un lĂmite de crĂ©dito 20 veces mayor que el de su esposa, a pesar de que ella tenĂa un puntaje de crĂ©dito más alto…
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Los reguladores estadounidenses están investigando si la tarjeta de crédito de Apple, lanzada en agosto, está [sesgada contra las mujeres](https://qz.com/1746446/the-real-hero-of-the-sexist-applecard-saga-has-issued- una declaración/). El i…
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
La posibilidad de que los solicitantes de Apple Card estuvieran sujetos a prejuicios de género abre una nueva frontera para el sector de servicios financieros en el que los reguladores están prácticamente ausentes, argumenta Karen Mills.
A …
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Los defensores de la justicia algorĂtmica han comenzado a ver sus proverbiales "dĂas en la corte" con investigaciones legales de empresas como [UHG] (https://www.wsj.com/articles/new-york-regulator-probes-unitedhealth-algorithm-for -racial-…
Variantes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents