La Unión Americana de Libertades Civiles de Nueva Jersey (ACLU-NJ) ha iniciado el Proyecto de Injusticia Automatizada con una pregunta central en mente: ¿Cómo el uso de la inteligencia artificial, por parte del gobierno de Nueva Jersey, incluyendo sistemas de algoritmos o decisión automatizada, ha afectado a los derechos y bienestar de las personas viviendo en el estado? 

A diario, los gobiernos toman miles de decisiones que impactan nuestras vidas. Algunas de las decisiones nos afectan en una gran magnitud: ¿Cuántos fondos recibirá el distrito escolar local este año? Muchos más nos afectan en maneras más pequeñas, pero no menos impactantes: ¿a quién debería investigar la policía como sospechoso de un crimen? 

Cada una de estas decisiones, grandes y pequeñas, a menudo son determinadas por un algoritmo del gobierno. Muchas formas de algoritmos e inteligencia artificial han empeorado la inequidad racial, depravando a personas de la habilidad de apelar fallos injustos, y fundamentalmente cambia como las personas interactúan con el gobierno. Entonces, ¿cómo se utilizan los algoritmos para tomar decisiones como estas, y por qué? 

A través del Proyecto de Injusticia Automatizada, hemos empezado a investigar algunas instancias en que el gobierno de Nueva Jersey ha implementado sistemas de decisiones automatizadas y algoritmos:

Reconocimiento facial: ¿qué pasa cuando los cuerpos policiales dependen de la inteligencia artificial para intentar identificar posibles sospechosos en una fotografía? 

Presupuesto de Medicaid: ¿cómo puede una fórmula y evaluación automatizada determinar el cuidado médico que habitantes de Nueva Jersey son elegibles a recibir?  

Evaluación de riesgos previa al juicio: ¿por qué un juez se refiere a un reporte generado por una computadora para decidir qué habitantes de Nueva Jersey presentan un peligro a sus comunidades? 

Evaluación de riesgo de violencia doméstica: ¿debería un sistema automatizado decidir porque y como sobrevivientes de violencia doméstica reciben beneficios públicos? 

Cuando el gobierno de Nueva Jersey usa un algoritmo para tomar una decisión, queremos saber de él. Los algoritmos son notoriamente opacos, y hasta qué punto el “qué”, “cómo” y “porqué” de su uso está envuelto en el misterio. El Proyecto de Injusticia Automatizada busca exponer los algoritmos del gobierno, explora cómo las personas de Nueva Jersey son impactadas por este, aboga por supervisión comprensiva de su uso, y, en ocasiones, cuestiona si debieran ser usado en absoluto. 

Cada uno de los sistemas que estamos investigando abarca diferentes tecnologías y representa la amplia variedad de algoritmos utilizados por el gobierno de Nueva Jersey. Algunos involucran sistemas digitales complejos que a menudo se consideran inteligencia artificial, mientras que otros requieren que los humanos trabajen en conjunto para llegar a una determinación. Pero todos estos sistemas tienen algo en común: reemplazan el juicio humano con la toma de decisiones automatizada. 

Para algunos de los sistemas que estamos investigando, ya es obvio qué peligros representan para la comunidad de Nueva Jersey y, como resultado, hemos pedido que se prohíba su uso. Para otros, su secreto hace que sea mucho más difícil determinar hasta dónde llega su daño, pero nuestro esfuerzo por brindar transparencia y responsabilidad a los algoritmos gubernamentales perdurará mientras los derechos civiles y las libertades civiles de los habitantes de Nueva Jersey estén en juego. 

Durante las próximas cuatro semanas, únete a nosotros mientras lanzamos una serie multimedios que explica nuestros hallazgos hasta ahora sobre cómo los algoritmos gubernamentales afectan a todos los habitantes de Nueva Jersey. Suscríbete ahora.

Para compartir cómo los algoritmos gubernamentales o los sistemas automatizados pueden haber impactado en tu vida, cuéntanos su historia

 

Animation Playlist

mytubethumb play
%3Ciframe%20class%3D%22media-youtube-player%22%20thumb%3D%22https%3A%2F%2Fwww.aclu-nj.org%2Fsites%2Fdefault%2Ffiles%2Ffield_image%2Fmedicaid_algorithms-site.png%22%20width%3D%22580%22%20height%3D%22324%22%20title%3D%22How%20Algorithms%20are%20Used%20to%20Allocate%20Medicaid%20Benefits%20in%20NJ%20%E2%80%93%20and%20Why%20They%20Threaten%20Patients%E2%80%99%20Rights%22%20src%3D%22https%3A%2F%2Fwww.youtube-nocookie.com%2Fembed%2FgUfGKpdr48Q%3Fwmode%3Dopaque%26amp%3Bcontrols%3D1%26amp%3Bmodestbranding%3D1%26amp%3Brel%3D0%26amp%3Bshowinfo%3D0%26amp%3Bcolor%3Dwhite%26autoplay%3D1%26version%3D3%26playsinline%3D1%22%20name%3D%22How%20Algorithms%20are%20Used%20to%20Allocate%20Medicaid%20Benefits%20in%20NJ%20%E2%80%93%20and%20Why%20They%20Threaten%20Patients%E2%80%99%20Rights%22%20frameborder%3D%220%22%20allowfullscreen%20allow%3D%22autoplay%22%3EVideo%20of%20How%20Algorithms%20are%20Used%20to%20Allocate%20Medicaid%20Benefits%20in%20NJ%20%E2%80%93%20and%20Why%20They%20Threaten%20Patients%E2%80%99%20Rights%3C%2Fiframe%3E
Privacy statement. This embed will serve content from youtube-nocookie.com.
A secretive algorithm, health care, and your rights.

Algorithms ration care by limiting the quantity of services that insurance providers are willing to fund for each patient. But when the formula gets it wrong and misrepresents someone’s needs, the results can be catastrophic, denying people vital services they need to live safely and independently in their communities. Read the blog.

More in this series

Further Reading

Automating Inequality

By Virginia Eubanks. Learn more. Read an excerpt.

A graphic that reads: Further Reading

Report: "Family Surveillance by Algorithm"

By Anjana Samant, Aaron Horowitz, Kath Xu, and Sophie Beiers, ACLU. Read more.

A graphic that reads: Further Reading

Report: "Poverty Lawgorithms"

By Michele Gilman, Data & Society. Read more.

A graphic that reads: Further Reading