?>
Voir la documentation de assessBias
La acción `assessBias` del conjunto de acciones `fairAITools` se utiliza para calcular un conjunto completo de métricas de equidad para modelos predictivos. Permite a los analistas y científicos de datos evaluar si un modelo produce resultados sesgados con respecto a una o más variables sensibles (por ejemplo, género, raza). Esta evaluación es crucial para garantizar que los modelos de aprendizaje automático sean justos y no discriminen a ciertos subgrupos de la población. La acción genera tablas detalladas que resumen las métricas de sesgo, como la paridad demográfica, la paridad de oportunidades y el impacto dispar, facilitando la identificación y cuantificación de posibles sesgos.
The assessBias action calculates bias metrics for predictive models. This is a crucial step in ensuring fairness in artificial intelligence by identifying whether a model produces different outcomes for different subgroups, particularly those defined by sensitive variables like race or gender. The action can handle models saved as analytic stores (ASTORE) or as SAS DATA step code.
L'action `assessBias` du jeu d'actions `fairAITools` est un outil essentiel pour évaluer l'équité des modèles prédictifs. Elle calcule un ensemble complet de métriques de biais, permettant aux data scientists d'identifier et de quantifier les disparités de performance du modèle entre différents sous-groupes démographiques. Cette évaluation est cruciale pour garantir que les modèles ne perpétuent pas ou n'amplifient pas les biais existants, favorisant ainsi le développement d'une IA responsable et éthique.