?> When should I use the 'modelTables' parameter?... - Aide
QUESTION / RÉPONSE

When should I use the 'modelTables' parameter?

1 consultations

Réponse

The 'modelTables' parameter is used to specify the input tables that contain the model to explain when the model is composed of analytic stores and requires accompanying DS2 code specified in the 'code' parameter.
Action technique liée

Voir la documentation de assessBias

Voir l'Action
Thématiques

Voir aussi

assessBias
fairAITools

Die Aktion `assessBias` aus dem Aktionssatz `fairAITools` wird verwendet, um Fairness-Metriken für Vorhersagemodelle zu berechnen. Sie hilft bei der Bewertung, ob ein Modell unterschiedliche Ergebnisse für verschiedene Untergruppen der Daten liefert, die durch eine 'sensible Variable' (z.B. Geschlecht, Rasse) definiert sind. Diese Aktion ist entscheidend für die Entwicklung verantwortungsvoller KI-Systeme, indem sie potenzielle Verzerrungen in den Vorhersagen des Modells aufdeckt. Sie generiert eine Reihe von Metriken, die Vergleiche zwischen Gruppen ermöglichen, wie z.B. die durchschnittliche Vorhersage, die Falsch-Positiv-Rate und die Falsch-Negativ-Rate.

assessBias
fairAITools

La acción `assessBias` del conjunto de acciones `fairAITools` se utiliza para calcular un conjunto completo de métricas de equidad para modelos predictivos. Permite a los analistas y científicos de datos evaluar si un modelo produce resultados sesgados con respecto a una o más variables sensibles (por ejemplo, género, raza). Esta evaluación es crucial para garantizar que los modelos de aprendizaje automático sean justos y no discriminen a ciertos subgrupos de la población. La acción genera tablas detalladas que resumen las métricas de sesgo, como la paridad demográfica, la paridad de oportunidades y el impacto dispar, facilitando la identificación y cuantificación de posibles sesgos.

assessBias
fairAITools

L'action `assessBias` du jeu d'actions `fairAITools` est un outil essentiel pour évaluer l'équité des modèles prédictifs. Elle calcule un ensemble complet de métriques de biais, permettant aux data scientists d'identifier et de quantifier les disparités de performance du modèle entre différents sous-groupes démographiques. Cette évaluation est cruciale pour garantir que les modèles ne perpétuent pas ou n'amplifient pas les biais existants, favorisant ainsi le développement d'une IA responsable et éthique.