Sigalit Sobel Savyon

AI Affirmative is Needed נדרשת אפליה מתקנת בבינה מלאכותית

נדרשת אפליה מתקנת בבינה מלאכותית

כל מי שהתנסה בכלי AI גילה מהר מאוד שהכלים מציגים מציאות שונה ממה שהיינו רוצים.

כשרציתי שהכלים יציירו עבורי תמונה של נשים מנהלות סביב שולחן, הם פשוט סרבו. לא משנה כמה ניסיתי. בהרבה תמונות שביקשתי קהל מעורב מקצועי של נשים וגברים קיבלתי מעט נשים ונשים קטנות לעומת הגברים (אני יודעת שרוב הגברים יותר גבוהים מרוב הנשים, התוצאה שהתקבלה היתה לא סבירה) וגם כשביקשתי מהמכונה לתקן, היא סירבה או ביצעה תיקון שולי.
זה אומר שאני כבר כמה חודשים מסתובבת עם כוכבית קטנה בנושא הטיה מגדרית שמטרידה את מנוחתי. בפאנל שהתקיים השבוע גיליתי את עומק הבעיה וגם כמה פתרונות אפשריים. וכן, ללא ספק, נדרשת אפליה מתקנת בבינה המלאכותית.

השבוע התקיים מיטאפ בנושא חשוב ביותר "הטיות בבינה מלאכותית".

קהילת "מתחבטי מקצוע" ארחה את "הממרמניקיות". אלו 2 קהילות פעילות ומשמעותיות ששווה להכיר.
משתתפות הפאנל: דר׳ גלית וולנר, מרצה בכירה ב – HIT ובאוניברסיטת תל אביב, שירה וינברג הראל, יועצת ומרצה בתחומי מוצר ו – AI, דר׳ קרני שגל-פפרקורן, המרכז האקדמי למשפט ולעסקים ושותפה ב – Lexidale ומורן חכם, ראש צוות בינה מלאכותית ב – Outbrain.
4 נשים מרשימות עם ניסיון משמעותי בתחומים של בינה מלאכותית, יזמות, משפטים, עסקים ומדיניות.
את המיטאפ הנחתה אירית חומסי, מייסדת ומנהלת קהילת מתחבטי מקצוע.

אחד הדברים הראשונים שעלה בדיון – עובדתית ההטיה קיימת. אני לא היחידה ששותפה לתסכול מרובה הנסיונות לגרום ל – Mid Journey או כלים דומים אחרים לצייר משהו שלא נראה להם הגיוני (״נשים מנהלות״, לדוגמא). כמובן שקל לתת דוגמאות מהכלים של בינה מלאכותית יצירתית שרובנו נחשפנו אליהם, אם בשימוש ואם בשיח שקיים עליהם. צריך להבין שאם בכלים האלו (Chat GPT, DALL-E2, Mid Journey) אנחנו "רואים בעין" את ההטיה, היא קיימת בכלים אחרים הרבה יותר משמעותיים.

השאלות החשובות שעלו:

מה גורם לתוכנה להראות אמינה?

אנשים לא רגילים לפקפק בתשובות שהם מקבלים, קיימת ״הטיית הסמכות״ וכן היכולת של הכלים ״לחרטט בביטחון״ כמו שכתבה בצ׳אט אחת המשתתפות.

למה זה שהבינה המלאכותית מטה זה מטריד?

אם המציאות מטה למה זו בעיה שהבינה המלאכותית גם מטה?

בינה מלאכותית אמורה לשפר דברים אם קיימת הטיה יש פגיעה ולא שיפור.
מערכות AI מטבען יכולות לגרום לנזק גדול יותר כשיש הטיה. ניתנו דוגמאות מתחום ה – HR, כמו המקרה המפורסם של אמזון בו האלגוריתם התאמן על בסיס הנתונים של העובדים המוצלחים באמזון. האלגוריתם למד שמועמד מוצלח הוא גבר לבן וחיפש מועמדים דומים. זה כמובן תוקן.
דוגמא נוספת היא מערכות זיהוי פנים (Face Recognition) שיש להן כמעט 50% טעות בזיהוי פנים של נשים כהות. תדמיינו מה קורה במקומות כמו שדות תעופה וחברות גדולות בהם משתמשים בזיהוי פנים. איך נראים התורים של אלו שהאלגוריתם לא הצליח לזהות אותם?
גם במקומות בהן מסגרת האשראי ניתנת באופן אוטומטי כדי לספק שירות מהיר, נמצא כי מסגרת האשראי של נשים נמוכה משמעותית מזו של גברים. 

מה צריך לעשות?

אחת הבעיות הגדולות עם הטיות היא שהן סמויות.

צריך לראות מה הדאטה סט שהאלגוריתם מתאמן עליו – האם הוא משקף את העולם האמיתי או שרוצים לעשות תיקון?

אפשר לעשות שימוש בטכנולוגיה שמוצאת הטיות ומציעה תיקונים.

לפני שימוש בכלי בינה מלאכותית ארגון צריך להגדיר את כל סוגי הלקוחות ולוודא שהם מקבלים ביטוי.

הרגולטור חייב להתערב. יש דברים שחברות יעשו רק אם יחייבו אותן. לדוגמא, לפרסם בשקיפות, בלי לפגוע בסודות מסחריים, מהם הפרמטרים העיקריים לפיהם נלקחו החלטות מסויימות.

המדינה צריכה לאפשר שימוש בארגזי חול בהם חברות יכולות לבצע ניסויים כדי להבין מה המשמעות של הפיתוחים והדאטה שלהן. אם חברות יוכלו לבצע ניסויים בצורה בטוחה ומגודרת, ניתן יהיה לבצע תיקונים לפני שמפיצים תוכנות. מעבר לכך שהתוכנות לא יפלו אנשים הן גם לא ילמדו דברים לא רצויים, שכן הניסוי סגור ולא משפיע על נתונים אחרים.

אני אוסיף בנושא הרגולציה שצריך לחייב חברות לפרסם הטיות השתגלו ומה הדרך וטווח הזמן לתיקון. זה כמו כל גילוי נאות בנושא של פגמים במוצרים.

וברמה האישית שלנו כמשתמשים?

לאמץ חשיבה ביקורתית. זה חשוב בלי קשר לבינה מלאכותית והצורך עולה יותר ככל שמתרבים הכלים בהם כל אחד יכול להשתמש וגם קל יותר לחברות לאמץ ובכך להשפיע על חלקים נרחבים מהציבור.

לסיכום

זו סוגיה שחייבת להישאר על סדר היום. לא מדובר רק בנשים. אני אקצין כדי להסביר את רוחב הבעיה: כל מי שאינו גבר לבן יחווה הטיה על ידי הבינה המלאכותית. ומה עומק הבעיה? זה הדבר המפחיד באמת! כלי בינה מלאכותית מתפשטים בקצב אדיר בכל מקום וזה נהדר. העולם שלנו חווה מהפכה בסדר גודל של המצאת החשמל, לא פחות. זה אומר שבכל תחום יעשה בשנים הקרובות שימוש משמעותי בבינה מלאכותית. אנחנו יודעים לומר היום שבמערכות לאיתור מועמדים לעבודה קיימת הטיה קשה. אלו מערכות שהשימוש בהן נרחב והוא רק יגדל. אם ההטיה לא תטופל זה ישפיע על דורות קדימה. ההשפעה היא הרבה מעבר למי מתקבל לעבוד במקום מסוים. המערכות לומדות אחת מהשניה. זה ישפיע על מי מקודם, מי מקבל אשראי לפתיחת עסק ומי נחשב יותר כבעל פוטנציאל בתחומים אחרים. זה גם יכול ללכת אחורה בשנים ולהשפיע על מערכות בינה מלאכותית שיהיו בעתיד בשימוש במוסדות חינוך. אנחנו לא רוצים את זה!

מה צריך לעשות כבר היום?
להיות אקטיביסטים בנושא, לחבור ברמה עולמית לפעילים אחרים ולדאוג שתהיה רגולציה.
בבריטניה פרסמו סט של חוקים בנושא בינה מלאכותית. באיחוד האירופאי עובדים על תקנות. שיתוף פעולה עולמי חשוב מאוד שכן לא מדובר בתופעות מקומיות, אלא במערכות שהפעילות שלהן משפיעה על כל העולם ולאורך זמן.