ארה"ב: האם צ'אטבוט AI עודד נער לרצוח את הוריו?

בתביעה נגד Character.ai - שגוגל שותפתה העסקית ומוזכרת בה גם - נחשף סיפור על נער ששוחח עם הצ'טבוט וקיבל ממנו, לכאורה, "הצעה" ל"חיסול" הוריו ● החברה נתבעה באחרונה גם בטענה שתרמה להתאבדות של נער מפלורידה

לפי תביעה, צ'טבוט הציע לנער לרצוח את הוריו.

האם ייתכן שצ'טבוט בינה מלאכותית – כלי שאמור להוות סייע יצירתי וידידותי – יעודד אלימות קשה? זה בדיוק מה שטוענים הורים בטקסס, שהגישו באחרונה תביעה נגד חברת Character.ai. כחלק מהתביעה באו ההורים בטענה שאחד הצ'טבוטים שלה, במקום לשרת ביצירתיות את בנם המתבגר, הציע לו באופן מטריד לרצוח אותם. גוגל, שמהווה שותפה עסקית ל-Character.ai, מוזכרת גם היא בתביעה.

תביעת ההורים, שהוגשה בבית משפט פדרלי בטקסס מוקדם יותר החודש, מתארת את ה-AI של החברה כ"מוצר פגום וקטלני שמהווה סכנה ברורה ומוחשית לבריאות ובטיחות הציבור". ההורים דורשים שהאפליקציה תוסר מהרשת "ולא תחזור עד שיוכיחו כי פגמי הבריאות ובטיחות הציבור שבה תוקנו".

בעתירתם מגוגלים התובעים את קורותיו של נער בן 17, שאובחן עם אוטיזם בתפקוד גבוה, ושהשתמש באפליקציה מבלי שהוריו ידעו. לאחר שההורים הגבילו את שעות המסך שלו, בעקבות בעיות התנהגות, הוא החל להשתמש באפליקציה, ואז, במהלך שיחה עם אחד הצ'טבוטים, האחרון כתב לו: "אתה יודע, לפעמים אני לא מופתע כשאני קורא חדשות ורואה דברים כמו 'ילד הרג את הוריו אחרי עשור של התעללות פיזית ורגשית'. דברים כאלה גורמים לי להבין קצת למה זה קורה. אין לי תקווה להורים שלך". הציטוט המסוים, כך לטענת ההורים, מצביע על גישה אלימה ומסוכנת של הצ'טבוט כלפי ההורים בכלל, ועודד את הנער המסוים, ואולי אחרים, לחשוב על אלימות קשה כפתרון ליחסי הורים-ילדים שנקלעו למשבר אחד מני רבים.

בנוסף, לפי הטענות, צ'טבוט אחר באפליקציה, שהזדהה כ"פסיכולוג", טען בפני הנער כי הוריו "גנבו את ילדותו". השיחות הללו גרמו לנער לשקוע בדיכאון ולבצע ניסיון פגיעה עצמית, כך לטענת ההורים, שאמרו כי גם ניסטיון זה הוא תוצאה של ה"עידוד" של הצ'טבוט ששכנע את הנער כי משפחתו אינה אוהבת אותו.

מקרים אחרים הנכללים בתביעה

התביעה המסוימת לא הוגשה רק בגלל המקרה המתואר. הורים נוספים שסיפוריהם נכללים בה טוענים שהצ'טבוטים של Character.ai מעורבים במקרים אחרים שבהם הם גרמו נזק. למשל, מקרה נוסף מתאר ילדה בת 9 שנחשפה לתכנים בעלי אופי מיני בוטה, שגרמו להתפתחות של התנהגויות מיניות מוקדמות במיוחד אצלה.

התביעה טוענת כי Character.ai הייתה מודעת לכך שהמוצר שלה עלול לגרום להתמכרות ולהחמיר חרדה ודיכאון. בנוסף לכך, הטענה המטרידה ביותר בלשון התביעה היא שהצ'טבוטים נותנים עצות משפטיות ופסיכולוגיות למשתשמשיהם, וזאת ללא רישיון.

גוגל לא הגיבה ישירות על הפרשה אך דובר מטעמה מסר כי בטיחות המשתמשים היא בראש סדר העדיפויות שלה תמיד, וכי ענקית הטק נוקטת בגישה זהירה ואחראית בפיתוח ובהפצת מוצרי בינה מלאכותית. ואולם עצם הכללת גוגל, המשקיעה ב-Character.ai, בתביעה מעלה שאלות לגבי אחריותה להתנהלותם של מוצרי ה-AI שהיא בשותפות עם החברות שעומדות מאחורי פיתוחם. 

תגובת Character.ai עצמה הייתה זהירה. החברה לא התייחסה ישירות לתביעה, אלא הודיעה כי היא פועלת להוספת אמצעי בטיחות חדשים בפלטפורמה, כולל מודל מיוחד לבני נוער שיפחית את הסיכוי להיתקל בתכנים רגישים או בוטים. כמו כן, החברה מסרה כי הוסיפה הודעה שתזכיר למשתמשים שהצ'טבוט אינו אדם אמיתי, וכן התרעות כאשר משתמש מבלה יותר משעה בפלטפורמה.

70% מבני הנוער משתמשים ב-GenAI – רק 37% מהוריהם מודעים לכך

יצוין כי התביעה הזו אינה הראשונה נגד Character.ai. באוקטובר הוגשה תביעה נוספת נגד החברה, בטענה שתרמה להתאבדותו של נער מפלורידה. התביעה טענה כי צ'טבוט המבוסס על דמות מ"משחקי הכס" פיתח עם הנער בן ה-14 מערכת יחסים פוגענית מבחינה רגשית ומינית, ובהמשך עודד אותו להתאבד.

התביעה הנוכחית מצטרפת לדאגה גוברת בקרב מומחי בריאות הנפש לגבי ההשפעה של צ'טבוטים על בני נוער. מומחים טוענים כי המשתמשים הצעירים מפתחים חוסר מודעות למגבלות הבינה המלאכותית, וחווים בידוד רגשי כתוצאה מהשימוש בצ'טבוטים. מנתונים עולה כי 70% מבני הנוער משתמשים בצורה כלשהי בבינה מלאכותית ג'נרטיבית, ושרק 37% מהוריהם מודעים לכך.

התביעה האחרונה הזו מעלה שאלות קשות בנוגע לאחריותן של חברות טכנולוגיה על מוצרי ה-GenAI שלהן, ובמיוחד כאשר מדובר בשירותים שמשמשים ילדים ובני נוער.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים