גוגל לא אוסרת יותר להשתמש ב-AI שלה לפיתוח נשק

החברה הסירה את האיסור כדי לאפשר לפתח כלי נשק מבוססי AI "להגנה על הביטחון הלאומי" ● עובדים ומומחים חוששים ששימוש בבינה מלאכותית למטרות צבאיות יביא להרג עצום ● הסוגיה עלתה בעבר בהקשר של המלחמה בעזה

00:00
00:00
האזינו לכתבה
colbass.com כתבה זו תועבד בפעם הראשונה |
ניתן להשתמש בכלי ה-AI שלה לפיתוח כלי נשק. גוגל.

הנה דבר שכבר מרגיז עובדים בגוגל, בהם רבים שמתנגדים למלחמה בעזה: החברה הסירה באחרונה את האיסור להשתמש בבינה המלאכותית שלה לבניית כלי נשק. האיסור הזה לא קיים בכללים החדשים שהיא ניסחה בנושא.

הטענה של גוגל היא שמדינות דמוקרטיות וארגונים במדינות אלה צריכים את כלי הבינה המלאכותית שלה כדי לפתח כלי נשק "שישמרו על הביטחון הלאומי". בבלוג שפרסמה החברה נכתב שמדינות דמוקרטיות צריכות להוביל את הפיתוח באמצעות בינה מלאכותית, תוך שהן מונחות על ידי "ערכי ליבה" כגון חירות, שוויון וכיבוד זכויות אדם. ג'יימס מניקה, סגן נשיא בכיר למחקר, טכנולוגיה וחברה בגוגל, ודמיס הסאביס, מנכ"ל זרוע ה-AI שלה, דיפמיינד, כתבו כי "אנחנו מאמינים שכל החברות, הממשלות והארגונים שמאמינים בערכים אלה צריכים לעבוד ביחד כדי ליצור בינה מלאכותית שמגינה על בני אדם, מניעה צמיחה עולמית ותומכת בביטחון הלאומי".

השימוש של צה"ל ב-AI במלחמה בעזה

התפקיד שממלאת הבינה המלאכותית במלחמות עורר דאגה בקרב מומחים ועובדים בגוגל, הן במלחמת רוסיה-אוקראינה והן במלחמת ישראל-החמאס. מאז תחילת המלחמה ברצועת עזה, החברה נתונה לביקורת מצד עובדים שלה ואחרים, שלפיה היא מכרה כלי בינה מלאכותית לישראל, וזו השתמשה בהם להרג פלסטינים. העובדים אף מחו על כך, בין השאר בהפגנה שקיימו מול משרדי החברה.

תחקיר של הוושינגטון פוסט, שפורסם בחודש שעבר, אישר את החששות וקבע כי הבינה המלאכותית של גוגל שימשה את צה"ל לפגיעה במטרות בעזה. התחקיר התבסס על מסמכים, שלפיהם גוגל מכרה לישראל את שירותי ה-AI שלה, ומשרד הביטחון ביקש מגוגל לפחות פעמיים מאז תחילת המלחמה להרחיב את הגישה שלו אליהם.

תחקיר אחר של העיתון, מדצמבר האחרון, פורסם תחת הכותרת "ישראל בנתה 'מפעל AI' למלחמה ושיחררה אותו בעזה". על פי תחקיר זה, צה"ל בנה במשך שנים בנק מטרות, וכשהוא החל להידלדל, והצבא רצה לבנות בנק מטרות חדש – הוא פנה לעשות זאת באמצעות כלי בינה מלאכותית בשם "הבשורה". לפי התחקיר, כלי זה, המבוסס על למידת מכונה ומאות אלגוריתמים חיזויים, אפשר לצה"ל לנתח כמויות עצומות של נתונים, כולל תצלומי לוויין, תקשורת בין אנשים ומידע מרשתות חברתיות, ולזהות מטרות כגון מנהרות, משגרי רקטות ותשתיות חמאס.

עובדים ומומחים דואגים

עם פרסום ההנחיות החדשות, פרול קול, מפתח תוכנה בגוגל ונשיא ארגון העובדים של החברה האם שלה, אלפבית, אמר ל-Wired כי "מדאיג מאוד לראות את גוגל מסירה את המחויבות שלה לשימוש אתי בטכנולוגיית AI, מבלי לקחת בחשבון את נקודת המבט של העובדים שלה ושל הציבור הרחב, ולמרות העמדה העקבית של עובדים רבים, שלפיה החברה לא צריכה להתערב בכל מה שקשור למלחמות".

מומחים אף הביעו דאגה באשר לנזק וההרס הפוטנציאליים הרבים יותר שעלולים להיות לכלי נשק שמפותחים באמצעות בינה מלאכותית. העומדים מאחורי "שעון יום הדין", שמבקש להראות עד כמה האנושות קרובה לחורבנה, נתנו לכך ביטוי בהערכה האחרונה שלהם, שפורסמה בשבוע שעבר. הם ציינו כי היה שימוש במערכות AI שמסייעות לפיתוח כלי נשק במלחמות במזרח התיכון ובאוקראינה, "וכמה מדינות מתקדמות במאמציהן לשלב את הבינה המלאכותית בצבאות שלהן". עוד הם כתבו ש-"מאמצים כאלה מעלים שאלות עד יותר למכונות הללו לקבל החלטות צבאיות – כולל כאלה שיכולות להביא להרג בקנה מידה עצום".

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים