קל לארגן דפים בעזרת אוספים
אפשר לשמור ולסווג תוכן על סמך ההעדפות שלך.
כשבוחנים מודל, המדדים מחושבים ביחס לכל הבדיקה או האימות
לא תמיד מספקות תמונה מדויקת של מידת ההוגן של המודל.
ביצועים טובים של המודל באופן כללי עבור רוב הדוגמאות עלולים להסוות את הנתונים הגרועים
את הביצועים של קבוצת משנה של מיעוט דוגמאות, דבר שעלול להוביל
של החיזויים. שימוש במדדי ביצועים מצטברים כמו
precision,
recall,
הדיוק לא בהכרח ישפיע
כדי לחשוף את הבעיות האלה.
אנחנו יכולים לחזור אל מודל הקבלה שלנו ולחקור כמה שיטות חדשות
לגבי הערכת החיזויים שלה בנוגע להטיה, תוך התחשבות בהגינות.
נניח שמודל הסיווג של הקבלות בוחר 20 תלמידים שמאשרים
אוניברסיטה מתוך מאגר של 100 מועמדים, השייכים לשתי קבוצות דמוגרפיות:
קבוצת הרוב (כחול, 80 תלמידים) וקבוצת המיעוט
(כתום, 20 תלמידים).
איור 1. מאגר מועמדים של 100 תלמידים: 80 סטודנטים שייכים
קבוצת הרוב (כחול) ו-20 תלמידים שייכים לקבוצת המיעוט
(כתום).
המודל חייב לאשר לתלמידים שעומדים בדרישות באופן ההוגן כלפי
מועמדים בשתי הקבוצות הדמוגרפיות.
איך אנחנו צריכים להעריך את הוגנות החיזוי של המודל? יש מגוון
של מדדים שאפשר לבחון, שכל אחד מהם מספק שיטה מתמטית שונה
את ההגדרה של 'הוגנות'. בחלקים הבאים נסביר על שלושה
את מדדי ההוגנות האלה לעומק: שוויון דמוגרפי, שוויון הזדמנויות,
והוגן בניגוד לעובדות.
[[["התוכן קל להבנה","easyToUnderstand","thumb-up"],["התוכן עזר לי לפתור בעיה","solvedMyProblem","thumb-up"],["סיבה אחרת","otherUp","thumb-up"]],[["חסרים לי מידע או פרטים","missingTheInformationINeed","thumb-down"],["התוכן מורכב מדי או עם יותר מדי שלבים","tooComplicatedTooManySteps","thumb-down"],["התוכן לא עדכני","outOfDate","thumb-down"],["בעיה בתרגום","translationIssue","thumb-down"],["בעיה בדוגמאות/בקוד","samplesCodeIssue","thumb-down"],["סיבה אחרת","otherDown","thumb-down"]],["עדכון אחרון: 2024-08-13 (שעון UTC)."],[[["Aggregate model performance metrics like precision, recall, and accuracy can hide biases against minority groups."],["Fairness in model evaluation involves ensuring equitable outcomes across different demographic groups."],["This page explores various fairness metrics, including demographic parity, equality of opportunity, and counterfactual fairness, to assess model predictions for bias."],["Evaluating model predictions with these metrics helps in identifying and mitigating potential biases that can negatively affect minority groups."],["The goal is to develop models that not only achieve good overall performance but also ensure fair treatment for all individuals, regardless of their demographic background."]]],[]]