Módulo 3 / Semana 12
Aplicar los conocimientos adquiridos, a través de un análisis de situaciones en donde existan problemas de equidad y sesgos en el uso de modelos de inteligencia artificial
Los modelos predictivos son de gran utilidad en la toma de decisiones y en ocasiones son difíciles para el hombre. Por ejemplo, en Allegheny, Pensilvania, crearon una herramienta de evaluación utilizando aprendizaje automático que daba soporte a los oficiales en decidir si un menor debía ser separado de su familia debido a un posible abuso (The Allegheny Screening Tool).
En casos como el de Allegheny, es de máxima prioridad evitar el sesgo. Cuando los modelos se entrenan en conjuntos de datos públicos, la herramienta de evaluación puede reflejar grandes problemas sociales.
Se documentó que las referencias obtenidas por la herramienta de evaluación son tres veces más probables para las familias negras que blancas, por lo que se fijaron límites en el uso de conjuntos de datos, ya que hay indicios de que las estructuras sociales y el racismo institucional juegan un papel importante en la capacidad de la toma de decisiones del modelo.
Se sugiere leer el siguiente artículo:
Dare, T., y Gambrill, E. (2017). Ethical Analysis: Predictive Risk Models at Call Screening for Allegheny County. Recuperado de https://bit.ly/3FW4Jvs
El siguiente enlace es externo a la Universidad Tecmilenio,
al acceder a éste considera que debes apegarte a sus términos y condiciones.
Contesta las siguientes preguntas que ayudan a resolver los problemas éticos que enfrentan herramientas como el sistema de evaluación de Allegheny.
Reporte electrónico de los requisitos solicitados en las instrucciones, incluyendo imágenes que comprueben los resultados.
|
Nivel de desempeño |
|
||
Criterios de evaluación |
Altamente competente 100%-86% |
Competente 85%-70%
|
Aún sin desarrollar la competencia 69%-0% |
% |
1. Riesgos en el uso de algoritmos. |
20 - 18 |
17 - 15 |
14 - 0 |
25 |
Identifica los riesgos en el uso de algoritmos con sesgo y desiguales, y propone alternativas de solución documentadas y viables. |
Identifica los riesgos en el uso de algoritmos con sesgo y desiguales, y propone alternativas de solución, pero sin documentar. |
No identifica los riesgos en el uso de algoritmos con sesgo y desiguales. |
||
2. Alternativas de solución. |
15 - 14 |
13 - 11 |
10 - 0 |
25 |
Elabora alternativas de solución para que los algoritmos tomen decisiones más informadas. |
Elabora alternativas de solución para que los algoritmos tomen decisiones más informadas, pero tienen errores. |
No elabora alternativas de solución para que los algoritmos tomen decisiones más informadas. |
||
3. Equidad de los modelos.
|
15 - 14 |
13 - 11 |
10 - 0 |
20 |
Analiza la importancia de la equidad de los modelos utilizados en predicciones sensibles, con justificación documental. |
Analiza la importancia de la equidad de los modelos utilizados en predicciones sensibles, pero sin justificación documental. |
No analiza la importancia de la equidad de los modelos utilizados en predicciones sensibles. |
||
4. Riesgo de uso de modelos predictivos. |
20 - 18 |
17 - 15 |
14 - 0 |
30 |
Expone el riesgo de utilizar modelos predictivos en la toma de decisiones y plantea de forma correcta sus implicaciones e inconvenientes. |
Expone el riesgo de utilizar modelos predictivos en la toma de decisiones y plantea (con errores) sus implicaciones e inconvenientes |
No expone el riesgo de utilizar modelos predictivos en la toma de decisiones. |
||
TOTAL |
100% |