עובדים בענקיות AI מתריעים מפני סיכונים בתעשייה

עובדים בהווה ובעבר ב-OpenAI וב-Google DeepMind מפרסמים מכתב פתוח' שבו הם מזהירים מפני העדר פיקוח בטיחותי בתעשייה וקוראים להגנות נוספות על חושפי שחיתויות

מתריעים על הסכנות בתעשיית ה-AI.

קבוצה של עובדים בהווה ובעבר בחברות בינה מלאכותית פרסמה אתמול (ג') מכתב פתוח שמתריע מפני העדר פיקוח בטיחותי בתעשייה וקורא להגברת ההגנות על חושפי שחיתויות. 11 עובדי OpenAI בהווה ובעבר חתמו על המכתב, יחד עם שני עובדי Google DeepMind בהווה או לשעבר – אחד מהם עבד בעבר ב-Anthropic.

"לחברות בינה מלאכותית יש מידע משמעותי שאינו ציבורי על היכולות והמגבלות של המערכות שלהן, הלימה של אמצעי ההגנה שלהן ורמות הסיכון של נזקים מסוגים שונים", נכתב במכתב. "עם זאת, כרגע יש להן רק מחויבויות חלשות לחלוק חלק מהמידע הזה עם ממשלות, ושום מחויבות לשתפו עם החברה האזרחית. אנחנו לא חושבים שאפשר לסמוך על כולן שישתפו זאת מרצון".

OpenAI הגנה על שיטות העבודה שלה בהצהרה, וציינה שיש לה דרכים כגון קווי גבול לדיווח על בעיות בחברה וכי היא לא פרסמה טכנולוגיה לפני שהיו לה אמצעי הגנה מתאימים. גוגל לא הגיבה מיד לבקשת תגובה.

"אנו גאים ברקורד שלנו לספק את מערכות הבינה המלאכותית הטובות והבטוחות ביותר ומאמינים בגישה המדעית שלנו להתמודדות עם סיכונים. אנו מסכימים כי דיון קפדני הוא חיוני בהתחשב במשמעות של טכנולוגיה זו ונמשיך לתקשר עם ממשלות, חברה אזרחית וקהילות אחרות ברחבי העולם", אמר דובר OpenAI.

החשש מפני הנזקים הפוטנציאליים של בינה מלאכותית קיים כבר זמן רב, אך תנופת הבינה המלאכותית של השנים האחרונות העצימה את החששות הללו והותירה את הרגולטורים במאמץ להדביק את ההתקדמות הטכנולוגית. בעוד שחברות בינה מלאכותית הצהירו בפומבי על מחויבותן לפיתוח בטוח של הטכנולוגיה, חוקרים ועובדים הזהירו מפני חוסר פיקוח, מכיוון שכלי בינה מלאכותית מחמירים את הנזקים החברתיים הקיימים או יוצרים חדשים לגמרי.

המכתב הפתוח, שדווח עליו לראשונה בניו יורק טיימס, קורא גם להגברת ההגנות לעובדים בחברות בינה מלאכותית מתקדמות, שמחליטים להביע חששות בטיחותיים, וקורא  להתחייבות לארבעה עקרונות הנוגעים לשקיפות ואחריות, כולל הוראה שלפיה חברות לא יאלצו עובדים לחתום על הסכם האוסר עליהם להביע בפומבי נושאים הקשורים לסיכונים של AI, ומנגנון שיאפשר לעובדים לחלוק חששות עם חברי דירקטוריון באופן אנונימי.

"כל עוד אין פיקוח ממשלתי אפקטיבי על התאגידים הללו, עובדים בהווה ובעבר הם בין האנשים הבודדים שיכולים להביע עליהם ביקורת באוזני הציבור", נכתב במכתב. "עם זאת, הסכמי סודיות רחבים חוסמים אותנו מלהביע את דאגותינו, למעט החברות שאולי לא מצליחות לטפל בבעיות הללו".

חברות כמו OpenAI גם נקטו טקטיקות אגרסיביות כדי למנוע מעובדים לדבר בחופשיות על עבודתם, כאשר אתר Vox דיווח בשבוע שעבר כי OpenAI גרמה לעובדים שעוזבים את החברה לחתום על מסמכי סודיות מגבילים ביותר או לאבד את כל ההון העצמי שלהם. סם אלטמן, מנכ"ל OpenAI, התנצל בעקבות הדיווח ואמר, כי ישנה את נוהלי העזיבה.

ברקע המכתב יצוין גם כי שני עובדים בכירים ב-OpenAI, המייסד השותף איליה סוצקבר, וחוקר הבטיחות המפתח יאן לייק, התפטרו מהחברה בחודש שעבר. לאחר עזיבתו, טען לייק, כי OpenAI נטשה את תרבות הבטיחות לטובת "מוצרים מבריקים".

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים