ה-AI משתלטת על חיינו במהירות מסחררת; מי ישמור עלינו מפניה?

הבינה המלאכותית היוצרת - GenAI - מקבלת תפקיד הולך וגדל בחיי היום-יום שלנו, אבל האם היא אכן ראויה לאמון שלנו? כיצד נדע באיזו מידה היא מהימנה, אחראית, אתית?

פרופ' עירית הדר, ראשת המרכז לחקר סייבר, משפט ומדיניות באוניברסיטת חיפה.

חוקר בריאות מודאג מבלגיה, אב לשניים, שלח יד בנפשו לאחר שבועות של התדיינות עם הצ׳טבוט אלייזה, שבמהלכם שוכנע שהדרך היעילה ביותר להוריד את טביעת הרגל הפחמנית של בני האדם היא להפסיק לחיות. בארה״ב, נער בן 14, שהתאהב בדמות מ"משחקי הכס" באפליקציית בינה מלאכותית, שאיתה שוחח במשך חודשים, שוכנע להתאבד כדי להגיע אליה בעולם הבא, ונער בן 17 קיבל עידוד לרצוח את הוריו בעקבות הגבלת זמני מסך שהכתיבו.

הבינה המלאכותית היוצרת – Generative AI – מקבלת תפקיד הולך וגדל בחיי היום-יום שלנו, החל בשירותים שמסייעים במשימות יומיומיות ועד החלטות פיננסיות ובריאותיות. אנו מתרגלים להסתמך על אותה בינה "יודעת כל". אבל האם היא אכן ראויה לאמון שלנו? כיצד נדע באיזו מידה היא מהימנה, אחראית, אתית?

ככל שמודלי הבינה המלאכותית הולכים ונהיים מורכבים ומשוכללים, כך קשה לעקוב אחרי הרציונל שעומד בבסיסם. בניגוד לאלגוריתמים מסורתיים, שהסתמכו על קריטריוני החלטה מוגדרים, היום נבנים האלגוריתמים באמצעות למידת מכונה, על בסיס כמויות עצומות של נתונים. בסיס זה הוא המקור לחוזק – אך גם לחולשה – של בינה מלאכותית. אם נתוני עבר מובילים לזיהוי אוכלוסיות עם מאפיינים מסוימים (למשל אתניים או כלכליים) כמתקשות להחזיר הלוואות, הבינה המלאכותית עלולה להנציח החלשה גורפת של אוכלוסיות אלה. אם הבינה מתבססת על סיפורי פנטזיה הרואיים המפארים גבורה ומוות, השיחות איתה יפיקו תובנות והמלצות בהתאם. אם היא מבססת המלצה על מספרים ולוגיקה, ללא הבנת ערך חיי אדם, המלצה על התאבדות כדי להגן על כדור הארץ תהיה הפועל היוצא מכך.

ככל שאנחנו מאבדים את השליטה על הגדרת האלגוריתם, כך חשוב יותר להבין כיצד התקבלה ההחלטה. הבנה זו תאפשר לנו להפעיל שיקול דעת אם לקבל את ההמלצה. שקיפות אלגוריתמית היא האפשרות להבין את ״תהליכי החשיבה״ של הבינה המלאכותית.

בעוד שמשתמשי טכנולוגיה נוהגים בדרך כלל להתייחס לטכנולוגיה כקופסה שחורה, המקבלת קלט ומוציאה פלט, אנו שואפים להפוך את הקופסה לשקופה, כך שהמשתמש יקבל לא רק את הפלט המיוחל, אלא גם את הרציונל העומד מאחוריו. כך יוכל להפעיל שיקול דעת אם לקבל את המלצת הבינה המלאכותית. לדוגמה, אם החלטה לסרב להלוואה של מערכת בנקאית נובעת רק מפרמטרים דמוגרפיים, חשוב להפעיל שיקול דעת אנושי ערכי ולא לקבל את ההחלטה הזאת כפשוטה, שכן היא מפלה מבסיסה. אם מערכת המלצה רפואית נותנת אבחנה מסוימת, אבל רמת הדיוק שלה היא 70%, חשוב לדעת שיש 30% סיכוי שהיא שוגה לפני שמחליטים על טיפול המבוסס על החלטה זו.

מקרה מעניין שמדגים היטב את חשיבות השקיפות האלגוריתמית הוא המקרה של מערכת המלצה לאיתור אזרחים המבריחים סמים שפעלה בנתב"ג. תחקיר כלכליסט, שהוביל הכתב תומר גנון, חשף, כי מדובר במערכת הכללה (פרופיילינג), מבוססת בינה מלאכותית, הנסמכת על נתונים ממאגרי המשטרה והממשלה. מערכת זו ממליצה על שמות נוסעים, שנלקחים לחיפוש ברכושם ובגופם למרות שאין לגביהם מידע מודיעיני או חשד שהכניסו סמים. המשטרה סירבה למסור פרטים על אופן הפעלת המערכת, בתי המשפט לא מכירים אותה ולא יכולים לפקח עליה, והחיפושים ללא חשד מוקדם, שאסורים בחוק, נמשכו תקופה ארוכה. במהלך בירורים משפטיים בנושא, הודיעה משטרת ישראל כי הפסיקה את השימוש במערכת "לבחינה ובדיקה", לטענתה. כך נמנעה מלחשוף את אופן הפרופיליזציה של המערכת. זאת ועוד, באין פיקוח על אופן החלטה זו, אין מניעה בשלב זה מהמשטרה להפעיל מערכת אחרת דומה למקורית כעת או בעתיד.

לשקיפות אלגוריתמית תפקיד חשוב גם בזיהוי זיופים דיגיטליים מתוחכמים (deep fake) שהפכו נגישים ונפוצים מאוד לאחרונה. שקיפות נתוני על (meta-data) של תמונה או וידיאו שמופץ עשויה להעיד על אותנטיות התוכן. בנוסף, קיימים כלים טכנולוגיים שונים שתפקידם לזהות אותנטיות של תכנים. השקיפות האלגוריתמית של הכלים הללו יכולה לחזק אמון בתיוג שלהם על תכנים אותנטיים לעומת מזויפים. אולם אליה וקוץ בה: ככל שהאלגוריתם לזיהוי זיוף שקוף יותר, כך זה יעזור לזייפנים להתגבר על יכולת זו. וכך גם כאן, כמו בסוגים נוספים של אבטחת סייבר, השקיפות מאיצה את האיום במקביל לטכנולוגיות למיגורו. ועם זאת, כנראה שבדומה לקהילת הסייבר, שהכריעה מזמן על כך שהתרומה של השקיפות גדולה על הנזק, שכן היא מאפשרת טיובו של האלגוריתם על ידי קהילה שלמה של מפתחים באמצעות חשיפת כלי ההגנה לכולם, כך כנראה יקרה גם עם הכלים לזיהוי זיוף עמוק של תכנים.

המרכז לחקר סייבר, משפט ומדיניות באוניברסיטת חיפה רואה חשיבות רבה ביצירתה של בינה מלאכותית אחראית על מנת לקדם פעילויות חיוביות, כגון הנגשת מידע וידע באופן יעיל ושיפור החלטות בתחומים עתירי ידע (למשל ברפואה), ולמזער תופעות שליליות, כגון הטיות מפלות ופגיעה בזכויות הפרט, וקורא להמשך פיתוח וקידום מדיניות לבינה מלאכותית אחראית. בשיתוף פעולה עם מערך הסייבר הלאומי, מרכז פדרמן לחקר הסייבר באוניברסיטה העברית ושותפים נוספים, המרכז יוזם פעולות לקידום הנושא ומזמין חוקרים ובעלי עניין נוספים לשתף פעולה על מנת לתמוך במאמצים להתוויית טכנולוגיות והמלצות רגולטוריות לפיתוח אחראי של בינה מלאכותית.

 

הכותבת היא ראשת המרכז לחקר סייבר, משפט ומדיניות באוניברסיטת חיפה.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים