Módulo 3 / Semana 12

Evidencia final


Aplicar los conocimientos adquiridos, a través de un análisis de situaciones en donde existan problemas de equidad y sesgos en el uso de modelos de inteligencia artificial

Los modelos predictivos son de gran utilidad en la toma de decisiones y en ocasiones son difíciles para el hombre. Por ejemplo, en Allegheny, Pensilvania, crearon una herramienta de evaluación utilizando aprendizaje automático que daba soporte a los oficiales en decidir si un menor debía ser separado de su familia debido a un posible abuso (The Allegheny Screening Tool).

En casos como el de Allegheny, es de máxima prioridad evitar el sesgo. Cuando los modelos se entrenan en conjuntos de datos públicos, la herramienta de evaluación puede reflejar grandes problemas sociales.

Se documentó que las referencias obtenidas por la herramienta de evaluación son tres veces más probables para las familias negras que blancas, por lo que se fijaron límites en el uso de conjuntos de datos, ya que hay indicios de que las estructuras sociales y el racismo institucional juegan un papel importante en la capacidad de la toma de decisiones del modelo.

Se sugiere leer el siguiente artículo:

Dare, T., y Gambrill, E. (2017). Ethical Analysis: Predictive Risk Models at Call Screening for Allegheny County. Recuperado de https://bit.ly/3FW4Jvs

El siguiente enlace es externo a la Universidad Tecmilenio,
al acceder a éste considera que debes apegarte a sus términos y condiciones.

Contesta las siguientes preguntas que ayudan a resolver los problemas éticos que enfrentan herramientas como el sistema de evaluación de Allegheny.

  1. ¿Cómo se pueden mitigar los problemas de equidad y los sesgos en las herramientas o aplicaciones de evaluación familiar antes de que los resultados sean utilizados?
  2. ¿Qué tipo de alternativas se podrían implementar con el fin de ayudar a los algoritmos a tomar decisiones más informadas?
  3. Aun con elementos de justicia y equidad que pudieran implementarse, ¿consideras que este tipo de algoritmos son benéficos para la sociedad?
  4. ¿Cuáles son los inconvenientes que enfrenta la humanidad al depender de modelos predictivos para la toma de decisiones?

Reporte electrónico de los requisitos solicitados en las instrucciones, incluyendo imágenes que comprueben los resultados.

 

Nivel de desempeño

 

Criterios de evaluación

Altamente competente

100%-86%

Competente

85%-70%

 

Aún sin desarrollar la competencia

69%-0%

%

 

1.       Riesgos en el uso de algoritmos.

20 - 18

17 - 15

14 - 0

25

Identifica los riesgos en el uso de algoritmos con sesgo y desiguales, y propone alternativas de solución documentadas y viables.

Identifica los riesgos en el uso de algoritmos con sesgo y desiguales, y propone alternativas de solución, pero sin documentar.

No identifica los riesgos en el uso de algoritmos con sesgo y desiguales.

2.       Alternativas de solución.

15 - 14

13 - 11

10 - 0

25

Elabora alternativas de solución para que los algoritmos tomen decisiones más informadas.

Elabora alternativas de solución para que los algoritmos tomen decisiones más informadas, pero tienen errores.

No elabora alternativas de solución para que los algoritmos tomen decisiones más informadas.

3.       Equidad de los modelos.

 

15 - 14

13 - 11

10 - 0

20

Analiza la importancia de la equidad de los modelos utilizados en predicciones sensibles, con justificación documental.

Analiza la importancia de la equidad de los modelos utilizados en predicciones sensibles, pero sin justificación documental.

No analiza la importancia de la equidad de los modelos utilizados en predicciones sensibles.

4.       Riesgo de uso de modelos predictivos.

20 - 18

17 - 15

14 - 0

30

Expone el riesgo de utilizar modelos predictivos en la toma de decisiones y plantea de forma correcta sus implicaciones e inconvenientes.

Expone el riesgo de utilizar modelos predictivos en la toma de decisiones y plantea (con errores) sus implicaciones e inconvenientes

No expone el riesgo de utilizar modelos predictivos en la toma de decisiones.

TOTAL

100%