חוקרת במיקרוסופט טוענת: הבינה המלאכותית אינה מלאכותית ואינה חכמה
קייט קרופורד, חוקרת בכירה בענקית מרדמונד, העניקה ראיון בו הסבירה שכיום ה-AI מוטה משום שהיא מהונדסת ונתונה בעצם בידי בני אדם ● לדבריה, "המערכות הללו נותנות יותר כוח לארגונים שגם כך הם רבי עוצמה - מחברות, דרך צבאות ועד משטרה"
הבינה המלאכותית, לפחות ברמה הנוכחית שלה, אינה ממש חכמה ואפילו אינה ממש מלאכותית, כך טוענת קייט קרופורד, חוקרת בכירה במיקרוסופט. טענותיה אלו הושמעו בעקבות מחקר על ההשלכות החברתיות ופוליטיות של בינה מלאכותית, שביצעה עבור אוניברסיטת דרום קליפורניה, שם היא משמשת כפרופסור מחקר בחוג למדעי התקשורת המדע והטכנולוגיה.
קרופורד העניקה לגארדיאן הבריטי ראיון לאחר שהוציאה ספר בשם "האטלס של הבינה המלאכותית" (Atlas of AI), המתייחס לצרכים ליצירת בינה מלאכותי וכיצד מעריכים שהיא תשנה את העולם. בדבריה טוענת החוקרת שלמעשה ה-AI מציעה רק משאבים טבעיים שמכוונים בידי אנשים, שהם אלו שקובעים בעצם כיצד המערכות הללו ייראו כאילו הן פועלות באופן אוטונומי. לדבריה, אחת הבעיות הקשות ביותר הקשורות לכך היא 'הטיה', שהוא המונח שבו היא משתמשת כדי לתאר את הדרך בה מערכות בינה מלאכותית מתייחסות לאנשים.
"שוב ושוב אנו רואים שהמערכות הללו מייצרות שגיאות – נשים קיבלו הצעות אשראי קטנות יותר על ידי אלגוריתמים שבוחנים את הזכאות לאשראי, פנים שחורות תויגו בצורה שגויה – והתגובה פשוט הייתה: אנחנו צריכים יותר נתונים. אבל כשהתחלתי לבחון את ההיגיון העמוק יותר של הסיווג, התחלתי לראות צורות של אפליה, לא רק בדרך בה המערכות מיושמות, אלא גם איך שהן בנויות ומאומנות לראות את העולם", אמרה קרופורד.
קביעות שמקורן בעבר האפל של האנושות
לטענתה, המערכות הללו מוגדרות ומאומנות בידי בסיסי נתונים ולימוד מכונה, אבל בדרך המושפעת מהאנשים עצמם, וזו הסיבה שלעיתים די קרובות נגרמות בעיות. היא אף טענה כי קביעות המכונה המבוססות על מין, גזע ואף מראה, כדי לקבל החלטות, מגיעות מהעבר האפל של האנושות.
קרופורד טוענת בנוסף שהתעשייה והאנושות צריכות להתמקד יותר בשאלה מי נהנה מהבינה המלאכותית במצב הנוכחי, ומי מקבל את הכוח לידיו. "אנחנו רואים שוב ושוב, ממעקב פנים ועד מעקב ואבטחה במקומות העבודה, שהמערכות הללו נותנות יותר כוח לארגונים שגם כך הם רבי עוצמה – מחברות, דרך צבאות ועד משטרה", היא אמרה.
החוקרת סיכמה שחייבים משטר רגולטורי חזק יותר, כדי לכפות יותר אחריות על יצירת ואימון מכונות בינה מלאכותית. לדבריה, רגולציה זו חייבת להיכלל במסגרת שאחראית לקבל החלטות, בתוך התחשבות באנשים שנמצאים בצד שיכול להיפגע מהמערכות הללו. "והכי חשוב, אנחנו זקוקים למדיניות מחודשת של סירוב שקוראת תיגר על האמירה הטוענת שרק בגלל שניתן ליצור טכנולוגיה, צריך ליישם אותה", היא טענה.
תגובות
(0)