?>
Voir la documentation de assessBias
La acción `assessBias` del conjunto de acciones `fairAITools` se utiliza para calcular un conjunto completo de métricas de equidad para modelos predictivos. Permite a los analistas y científicos de datos evaluar si un modelo produce resultados sesgados con respecto a una o más variables sensibles (por ejemplo, género, raza). Esta evaluación es crucial para garantizar que los modelos de aprendizaje automático sean justos y no discriminen a ciertos subgrupos de la población. La acción genera tablas detalladas que resumen las métricas de sesgo, como la paridad demográfica, la paridad de oportunidades y el impacto dispar, facilitando la identificación y cuantificación de posibles sesgos.
The assessBias action calculates bias metrics for predictive models. This is a crucial step in ensuring fairness in artificial intelligence by identifying whether a model produces different outcomes for different subgroups, particularly those defined by sensitive variables like race or gender. The action can handle models saved as analytic stores (ASTORE) or as SAS DATA step code.
Die Aktion `assessBias` aus dem Aktionssatz `fairAITools` wird verwendet, um Fairness-Metriken für Vorhersagemodelle zu berechnen. Sie hilft bei der Bewertung, ob ein Modell unterschiedliche Ergebnisse für verschiedene Untergruppen der Daten liefert, die durch eine 'sensible Variable' (z.B. Geschlecht, Rasse) definiert sind. Diese Aktion ist entscheidend für die Entwicklung verantwortungsvoller KI-Systeme, indem sie potenzielle Verzerrungen in den Vorhersagen des Modells aufdeckt. Sie generiert eine Reihe von Metriken, die Vergleiche zwischen Gruppen ermöglichen, wie z.B. die durchschnittliche Vorhersage, die Falsch-Positiv-Rate und die Falsch-Negativ-Rate.