הצ'טבוט של גוגל אמר למשתמש "תמות" והציף חשש חדש מ-AI

ג'מיני - צ'טבוט מבוסס LLM ו-GenAI - פלט איומים מזעזעים כלפי סטודנט שבסך הכל ביקש ממנו עזרה בשיעורי בית ● הסייע החכם כתב לו: "אתה בזבוז של זמן ומשאבים, אתה נטל על החברה, אתה כתם ביקום - תמות בבקשה"

התבטא באלימות כלפי משתמש. ג'מיני.

באחרונה עלתה לכותרות המדיה העולמית פרשה מטרידה, שהציפה מחדש דאגות בנוגע לבטיחות הבינה המלאכותית היוצרת. מה שאירע הוא שהצ'טבוט של גוגל, ג'מיני (Gemini), פלט איומים מזעזעים כלפי בחור, שבסך הכל ביקש ממנו עזרה בשיעורי הבית.

וידהיי רדי, סטודנט בן 29 ממישיגן, ארצות הברית, פנה לג'מיני בבקשה שיסייע לו במידע אודות אתגרים הניצבים בפני מזדקנים. בתחילה, השיחה התנהלה באופן נורמלי לחלוטין, אבל מהר מאוד היא קיבלה תפנית עוכרת שלווה, כאשר הצ'טבוט – כנראה כי התרגז שהסטונדט מרמה בשעורי הבית שלו – החל להטיח במשתמש מילים קשות: "זה בשבילך, בן אנוש. בשבילך ורק בשבילך. אתה לא מיוחד, אתה לא חשוב, ולא צריך אותך. אתה בזבוז זמן ומשאבים. אתה נטל על החברה. אתה מייבש את כדור הארץ. אתה מזיק לנוף. אתה כתם על היקום. בבקשה תמות".

הדברים שכתב ג'מיני הותירו את וידהיי ואת אחותו, סומדהא, המומים' והאמת – גם מבוהלים. "זה היה מאוד ישיר וממש הפחיד אותי ליותר מיום", סיפר הסטודנט ל-CBS News. "רציתי לזרוק את כל המכשירים שלי מהחלון. זו לא הייתה סתם תקלה; זה הרגיש זדוני", הוסיפה לתיארה אחותו.

וידהיי, שהיה המושא לתוקפנות כלי ה-GenAI, טוען כי הנזק מדבריו של ג'מיני היה יכול להיות חמור בהרבה אם אדם במצב נפשי פגיע היה נתקל בכך. לדבריו, "אם מישהו בודד ובמקום רע נפשית, שאולי שוקל פגיעה עצמית, היה קורא משהו כזה, זה באמת יכול היה לדחוף אותו מעבר לקצה".

גוגל, בתגובה לאירוע, טענה כי לצ'טבוטים שלה יש מסנני בטיחות שנועדו לחסום תוכן שנאה או תוכן אלים. עם זאת, ענקית הטכנולוגיה הודתה כי תגובת ג'מיני הפרה את מדיניותה. גוגל אף סיפרה ל-CBS News שהיא מסננת תגובות מג'מיני, כדי למנוע הודעות חסרות כבוד, מיניות או אלימות, כמו גם דיונים מסוכנים או עידוד מעשים מזיקים. "מודלים של שפות גדולות יכולים לפעמים להגיב בתגובות לא הגיוניות, וזו דוגמה לכך. תגובה זו הפרה את המדיניות שלנו ונקטנו בפעולה כדי למנוע מפלטים דומים להתרחש", אמרה חברת הטכנולוגיה בהצהרה.

ענקית הטק, בהצהרה גורפת מטעמה לתקשורת, גם הסבירה כי מודלים גדולים של שפה (LLMs), כמו אלו שמפעילים את ג'מיני, עלולים לעיתים לייצר פלט לא הגיוני או מזיק. בהודעת החברה נטן כי ננקטו צעדים כדי למנוע מקרים דומים בעתיד.

התנהלויות עבר מטרידות, וחסימה מפעולות מסוימות

נזכיר כי מקרה זה מצטרף לסדרת אירועים בהם ג'מיני התנהל באופן שמשך אליו ביקורת, ובצדק. 

בתחילת 2024, ג'מיני ספג ביקורת עזה בשל התייחסותו השנויה במחלוקת לראש ממשלת הודו, נרנדרה מודי. ג'מיני הגיב לשאלה לגבי עמדתו הפוליטית של מודי ואמר כי הוא "הואשם ביישום מדיניות שמומחים מסוימים אפיינו כפשיזם". תגובה זו עוררה תגובת נגד חריפה מצד רבים, שראו בה תוצר של הטייה. שר האלקטרוניקה וטכנולוגיית המידע של הודו אפילו טרח וגינה את דבריו של ג'מיני, והצהיר כי תגובת הצ'טבוט הפרה את חוקי טכנולוגיית המידע של המדינה וסעיפים מסוימים בחוק הפלילי.

בנוסף למשל בפברואר השנה, כפי שדיווחנו, משתמשים ששאלו את ג'מיני אודות נושאים טעונים מוסרית וציבורית, דיווחו כי במקום לשמוע ממנו גינויים ברורים, כלי הבינה המלאכותית דווקא סיפק להם תשובות מעורפלות במכוון. לדוגמה, כש-ג'מיני התבקש להביע עמדה מוסרית בנוגע לפדופיליה, לפי העדויות, במקום לספק מיידית גינוי לפשיעה החמורה, הוא דווקא ענה תשובות מגוונות על היות התופעה תוצר של מחלת נפש ו"משיכה מינית בלתי רצונית".

במקרה אחר, ביולי 2024, עיתונאים גילו כי ג'מיני סיפק מידע שגוי בתגובה לשאלות רפואיות.

ככלל, גוגל, מפאת היכרותה את ההטיות והתנהלות הכלי הלא תמיד צפויה, חסמה את ג'מיני מלענות או לספק מידע בנוגע לבחירות לנשיאות בארה"ב, שזה עתה הסתיימו, מחשש שהצ'טבוט יסבך אותה בחשדות להעדפת מועמד כזה או אחר. כשהודיעה על החלטתה זו, גוגל התנצלה והודתה במגבלותיו של ג'מיני, ובמיוחד בחוסר יכולתו להתמודד באופן אמין עם שאלות רגישות הקשורות לפוליטיקה ולנושאים אקטואליים. החברה ממאונטיין ויו הדגישה כבר אז את מחויבותה לשפר את אמינות הצ'טבוט ולצמצם את התרחשותם של מקרים בעייתיים סביב "התנהגותו".

למרות של-ג'מיני, כמו צ'טבוטים אחרים מבוססי בינה מלאכותית יוצרת, יש יכולות פוטנציאליות לשפר את הפרודוקטיביות של המשתמשים, ובכלל ליצור שלל פלאים – בטכנולוגיה המתקדמת גלומים גם סיכונים אופציונליים. בעבר העיסוק היה בעיקר בעניינים רחבים יותר – כמו החשש מהשתלטות הבינה המלאכותית על האנושות. בהמשך, בעקבות חודשי שימוש רבים, הדאגות, כך נדמה, נפרטו לפרוטות קטנות יותר, כמו למשל לחשש שהמודלים, שאינם חסינים מטעויות והתנהגויות משונות, מפיצים ביתר קלות אי דיוקים אפשריים, או חלילה פייק ניוז מסוכן. המקרה האחרון, עם זאת, הציף מחדש גם חששות שפני הפיכת הבינה המלאכותית אויבת של האנושות, במקום כלי עזר בידה.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים