מועצת האתיקה של גוגל מתמוטטת לאחר שבוע

583261 מעבד מוח מוחי הזורם דרך המחשב

בשבוע שעבר הודיעה גוגל על ​​הקמת מועצה חיצונית לייעוץ טכנולוגי מתקדם (ATEAC). מטרת ATEAC הייתה לבחון את האתגרים המורכבים שעלולים להתעורר בעת פיתוח טכנולוגיית AI ולספק נקודות מבט מגוונות בנושאים אלה. גוגל היא לא החברה הראשונה שעושה צעדים מסוג זה, מכיוון שלמיקרוסופט יש גם מועצה מייעצת AI משלה.

אבל הכל לא בסדר עם ייעוץ הבינה המלאכותית של גוגל. פחות משבוע לאחר ההכרזה, זה מתפרק. ביום שבת צייץ בטוויטר כלכלן ההתנהגות וחוקר הפרטיות אלסנדרו אקוויסטי:



ביום שני עובדי גוגל התחיל לתמוך לסילוק חבר אחר: קיי קול ג'יימס. כנשיא קרן המורשת, ג'יימס הצהיר מספר הצהרות שעובדי גוגל רואים בהם אנטי טרנס, אנטי- LGBTQ ואנטי מהגרים. גוגל נפגעה מהפגנות עובדים בשנה האחרונה, הן על המאמץ הסודי שלה לחידוש השירות בסין והן על מדיניות הבוררות הכפויה שלה. הסוגיה השנייה, לפחות, שונתה - גוגל כבר לא דורשת מהעובדים להגיש לבוררות כפויה. מעמד מאמציו לבנות מנוע חיפוש חדש וידידותי לצנזורה נשאר לא ברור.



לדברי חברת המועצה ג'ואנה ג'יי בריסון, הדחיפה של גוגל לכלול את נשיא קרן המורשת היא ניסיון להיראות מגוונים מבחינה חברתית באמצעות הכללת מגוון נקודות מבט על פיתוח AI.

לפעילים המודאגים מהדרכים בהטיה בלתי נראית יכולים להשפיע על התפתחות האלגוריתמים יש נקודה אמיתית מאוד. הטיה אלגוריתמית היא בעיה אמיתית שמספר חברות נאבקות בה. הועלו שאלות רציניות בנוגע לדיוק התוכנה שרגילה לה לחזות שיעורי רצידיביזם. אמזון נאלצה לגרוט כלי גיוס מכיוון שהיה מוטה נגד נשים. בדיקות הראו כי חבילות התוכנה המשמשות ברכבים עם נהיגה עצמית מזהות כראוי אנשים לבנים כהולכי רגל לעתים קרובות יותר באופן משמעותי מאשר אנשים עם גווני עור כהים יותר. גוגל נאלצה להסיר כינויי מגדר מתכונת ה- Smart Compose שלה ב- Gmail מכיוון שהתוכנה לא הצליחה לחזות נכון מגדר האדם שמגיבים אליו. לפני ארבע שנים נאלצה גוגל לטרוף כאשר תמונות Google החלו לסמן תמונות של אנשים שחורים כמו גורילות. ובעוד שטכנולוגיית זיהוי הפנים של אמזון הוכיחה שהיא לא עובדת טוב על אנשים לא לבנים, לחברה לא הייתה שום בעיה מנסה למכור את זה ל- ICE בכל מקרה.

אלה נושאים שצריכים לעסוק בכולם. לדיוק אין שייכות פוליטית. הפיכת פונקציות והערכות שונות לבינה מלאכותית היא רק מטרה חיובית אם התוצאה הסופית היא תוצאות טובות יותר או הוגנות יותר עבור כולם, כולל האנשים המוערכים. לא ברור כמה כוח יהיה למישהו בלוח ה- AI של גוגל, וגם לא איזה משקל ייצור הממצאים שלהם. אבל אנשים לא משוגעים לשאול שאלות רציניות לגבי סוג הבדיקה שנעשית בכדי להבטיח התמודדות עם הטיה אלגוריתמית.

תאונות הטיסה 302 של חברת התעופה Lion Air ו- Ethiopian Airlines יכולות לאחרונה עצמם להיחשב במונחים של הטיה אלגוריתמית. בשבוע שעבר, ניו יורק טיימס דיווח כי הדמיות נפילה מקיפות אישרו כי לטייסי Lion Air בנובמבר האחרון היו פחות מ- 40 שניות להימנע מהתרסקות. זה היה אפשרי רק לו היו מאומנים בדיוק באילו פעולות לנקוט ובעקבותיהם עד המכתב. במקום זאת, הטייסים ניסו שוב ושוב לבטל את עקיפת מערכת ה- MCAS באופן שגוי.

בהתרסקות Lion Air, טייסים השתמשו במתג האגודל יותר משני תריסר פעמים כדי לדרוס את המערכת. המערכת המשיכה לעסוק בכל זאת, ככל הנראה בגלל קריאות לא טובות מחיישן, עד שהמטוס התרסק לים ג'אווה והרג את כל 189 האנשים שעל הסיפון.

האלגוריתם, במקרה זה, היה מוטה לקריאה משלו. המערכת לא תוכננה לשקול אם יש להחשיב ניסיונות טייס חוזרים לבטל את ה- MCAS כראיה לכשל או תקלה בתוך ה- MCAS עצמו.

כאשר בני אדם ו- AI באים במגע, יש פוטנציאל לתוצאות בלתי צפויות, לא רצויות ולא מכוונות. איש בבואינג לא ניסה לבנות מערכת טייס אוטומטי שעלול לגרום למטוס לקרוס. אף מפתח ראיית מחשב אינו מעוניין לבנות מערכת זיהוי שלא מצליחה לזהות הולכי רגל, ללא קשר לצבע עורם. אבל הבעיות האלה הם קורה, והדרך היחידה לעצור אותם היא להכיר בכך.

ציטוט של אליסה פוט ב- Wired מסכם את המצב בצורה טובה מאוד. פוט עבד בפייסבוק כראש אופרס שלמות הבחירות העולמית. היא כותבת:

לא הכרתי מישהו שרצה בכוונה לשלב הטיה בעבודתם. אבל גם לא מצאתי מישהו שידע באמת מה המשמעות של התנגדות להטיה בצורה אמיתית ושיטתית.

אלה נושאים שכולם צריכים להיות מודאגים מהם. הדחיפה לכלול אלגוריתמים ו- AI בכל רמות קבלת ההחלטות, החל ממכוניות בנהיגה עצמית וכלה בבקשות להלוואות, כבר בעיצומה. איננו יכולים להתחמק מהאחריות להבטיח שמערכות כאלה יהיו חזקות, מדויקות והוגנות, שהן מודדות את מה שלטענתן מודדות, וכי הן אינן מכילות באגים או פגמים שפוגעים בטעות בחלק מהקבוצות או האנשים שלא באשמתם, בלי קשר למי שהקבוצות האלה במקרה.

Copyright © כל הזכויות שמורות | 2007es.com