תחקיר: צה"ל עשה שימוש נרחב ב-AI בעזה

הוושינגטון פוסט דיווח שהצבא השתמש בכלי AI מתקדמים לזיהוי מטרות וניתוח מידע, תוך קיצור זמני פעולה ● התחקיר מעלה חששות לגבי דיוק המערכות, הגדלת נזק אזרחי וההשפעה על תהליכי קבלת ההחלטות ואיכות המודיעין

האם AI קבעה מה המטרות שהופצצו? הלחימה ברצועת עזה.

תחקיר בלעדי של הוושינגטון פוסט מאת אליזבת דווסקין, אשר פורסם אתמול (א') תחת הכותרת "ישראל בנתה 'מפעל AI' למלחמה ושיחררה אותו בעזה" חשף פרטים, חלקם מטרידים, על השימוש שעשה צה"ל בבינה מלאכותית במהלך מבצע "חרבות ברזל" ברצועה. בנוסף, התחקיר גילה כיצד הפך צה"ל את יחידת המודיעין שלו, 8200, לכאורה, לשדה ניסוי לטכנולוגיות AI מתקדמות, וזאת מספר שנים לפני פרוץ המלחמה.

לפי הדיווח, לאחר מתקפת הפתע של חמאס ב-7 באוקטובר, החל צה"ל להפציץ את עזה באופן מאסיבי, תוך שימוש במאגר מטרות שנאסף במשך שנים. אולם, כאשר מאגר המטרות החל להתדלדל, פנה הצבא לכלי בינה מלאכותית מתקדם בשם "הבשורה" (The Gospel), שפיתוחו הושלם ב-2020, וזאת על מנת ליצור במהירות מאות מטרות נוספות חדשות. הכלי, המבוסס על למידת מכונה ומאות אלגוריתמים חיזויים, אפשר לצבא הישראלי, כך נטען, לנתח כמויות עצומות של נתונים, כולל תצלומי לוויין, תקשורת בין אנשים ומידע מרשתות חברתיות, ולזהות מטרות כגון מנהרות, משגרי רקטות ותשתיות חמאס.

מה עושים "הבשורה", "לבנדר" וכלי ה-AI האחרים בשירות צה"ל?

המערכת אפשרה לצה"ל לזהות דפוסים מיקרוסקופיים בתצלומי לוויין, כמו שינויים קלים בקרקע, שעלולים להעיד על קיומה של מנהרה או הטמנתו של משגר טילים חדש. מדובר בפעולה שבעבר נדרש שבוע שלם לבצע, אך באמצעות הכלי החדש התקצרה ל-30 דקות בלבד.

בנוסף ל"הבשורה" נעשה שימוש בתוכנת AI נוספת בשם "לבנדר", אשר נועדה להעריך את הסבירות שאדם מסוים הוא פעיל חמאס, על ידי מתן ציון מספרי. הכלי התבסס על ניתוח נתוני מיקום, שיחות טלפון ופעילות ברשתות חברתיות. לפי הכתבה בפוסט, בידי צה"ל היו גם תוכנות נוספות, ששמותיהן – כמו "אלכימאי", "עומק החוכמה" "האנטר" ו"פלו" – נחשפו לראשונה בתחקיר.

המטרה המוצהרת של השימוש בכלי הבינה המלאכותית הייתה להאיץ את קצב יצירת בנק המטרות, לצמצם את מספר האבדות בקרב הכוחות הישראליים ולקצר את משך המלחמה. לפי הדיווח ב-פוסט, צה"ל אף טען כי השימוש בטכנולוגיות אלו "מיזער את הנזק הנלווה והעלה את הדיוק של התהליך שמבצע האדם".

הראש הישראלי ממציא לנו גם אותה. AI.

הראש הישראלי ממציא לנו גם אותה. AI. צילום: ShutterStock

התמונה מורכבת ומעוררת דאגות

עם זאת, התחקיר של ה-פוסט מציג תמונה מעט מורכבת יותר, משום שהוא חושף כי קיימים חילוקי דעות פנימיים בצה"ל לגבי איכות המודיעין שמפיקה הבינה המלאכותית. לפי הפוסט, היו קצינים שטענו שהמערכת אינה חפה מטעויות. כך למשל נטען כי בכירים בצה"ל אמרו שה-AI לא הבינה מילות סלנג בערבית, ולא הייתה מספיק מדויקת בקביעותיה. בנוסף, נטען כי דיווחים שהוצגו למפקדים לא ציינו האם המידע הגיע ממקור אנושי או ממערכת בינה מלאכותית, מה שפגע ביכולת להעריך את איכותו.

על פי הכתבה, השימוש האינטנסיבי בכלי הבינה המלאכותית במלחמה בעזה הוביל לעלייה משמעותית במספר התושבים שנפגעו, וזאת בטענה ש-צה"ל הרחיב משמעותית את סף הנפגעים האזרחים המקובל עליו. בעוד שב-2014 עמד היחס על אזרח אחד הרוג לכל מחבל בכיר, כך לפי הפוסט, במלחמה בעזה יחס זה הועלה ל-15 אזרחים הרוגים על כל מחבל זוטר ו"באופן אקספוננציאלי" יותר עבור מחבלים בכירים. יש הטוענים שהמעבר לשימוש נרחב בטכנולוגיות AI אפשר לצה"ל לייצר מטרות רבות במהירות גדולה ממש, ולפיכך ולפגוע גם במחבלים זוטרים.

יצוין כי צה"ל טען כי הערכות הנזק הנלווה שלו מצייתות לחוק הבינלאומי, המחייב הבחנה בין אזרחים ללוחמים ונקיטת אמצעי זהירות כדי למזער נזק לאזרחים.

שינויים ב-8200 – בגלל ה-AI

בנוסף לכך, בתחקיר נטען כי ההתמקדות בטכנולוגיה הובילה לשינוי סדרי עדיפויות בתוך יחידה 8200, וגרמה לדחיקתם הצידה של מומחי שפה ערבית וקצינים שביקרו את הטמעת הבינה המלאכותית. לפי התחקיר, עד ה-7 באוקטובר, 60% מעובדי היחידה עבדו בתפקידי הנדסה וטכנולוגיה, לעומת מחצית מכך לפני כעשור.

עוד לפי הפרסום ב-פוסט, קצינים בכירים לשעבר טענו כי ההתמקדות בטכנולוגיה החדשנית פגעה ביכולתם של אנליסטים להעביר אזהרות למפקדים בכירים, ואפשר שכך נפגעה הגנת ישראל ב-7 באוקטובר. קצין לשעבר ששוחח עם ה-פוסט בעילום שם מטעמי ביטחון לאומי, אמר: "זה היה מפעל AI, האדם הוחלף על ידי מכונה", וזאת  בעקבות השימוש הנרחב בבינה מלאכותית, במקום בשיטות מודיעין מסורתיות.

לפי הפוסט, ראש יחידה 8200 בעבר, יוסי סריאל, היה דמות מרכזית בהטמעת הבינה המלאכותית בצה"ל. הוא פיתח את החזון שלו לגבי תפקיד הבינה המלאכותית בביטחון הלאומי במהלך שנת שבתון באוניברסיטה לביטחון לאומי בוושינגטון. סריאל – שאמונתו בבינה המלאכותית תוארה כ"דתית" בכתבה – ראה בטכנולוגיה כלי שיוכל להחליף 80% מהאנליסטים המומחים בשפות זרות בתוך חמש שנים. יצוין כי סריאל התפטר מתפקידו בעקבות כישלונות המודיעין שהובילו למתקפת השבת השחורה. בספטמבר האחרון, הודיע על פרישתו מתפקידו תוך שהוא כותב לפקודיו: "ב-7 באוקטובר בשעה 06:29 לא עמדתי במשימה… פעלתי בחרדת קודש, ולמרות זאת הרע מכל קרה. אני מבקש סליחה עמוקה, ויודע שאת הנעשה אין להשיב. אני מרכין ראש".

כמו כן, בתחקיר נטען כי צה"ל השתמש בתוכנת ה-AI שלו לצורך הערכת מספר הנפגעים האזרחים הפוטנציאליים על סמך ספירת טלפונים ניידים המחוברים לאנטנות סלולריות, ללא התייחסות למצבים כמו טלפונים כבויים או ילדים ללא טלפון, מה שהוביל לניתוח מוטה ומטעה של היקף הפגיעה ברצועה ובתושביה.

הוציאו את צה"ל למלמה בעזה. אירועי הדמים של מתקפת החמאס מה-7 באוקטובר.

הוציאו את צה"ל למלמה בעזה. אירועי הדמים של מתקפת החמאס מה-7 באוקטובר.

טענות בעד: ה-AI עוזרת לישראל לנצח

הכתבה מזכירה, כמובן, את החשש העולמי הגובר מפני השימוש בבינה מלאכותית במלחמות. חוקרים טוענים כי למערכות AI יש חוסר דיוק מובנה, שהופך אותן ללא מתאימות לפעולה בהקשר של החלטות שמשפיעות על חיים ומוות.

סטיבן פלדשטיין מקרן קרנגי, שחוקר את השימוש ב-AI במלחמות, ציין כי השימוש במערכות הללו, יחד עם שאלות לגבי דיוקן, מוביל ל"יותר הרוגים ממה שדמיינו בעבר שיש במלחמה". בנוסף בעולם נשמעת גם דאגה מהאפשרות שבעתיד אנשים יתחמקו מאחריות למעשים לא מוסריים במהלך מלחמות או קרבות, ויטענו להצדקתם כי "האלגוריתם עשה זאת".

למרות הביקורת, התחקיר מציין כי ישנם תומכים בשימוש בטכנולוגיית ה-AI בידי צה"ל, הטוענים כי היא חיונית לביטחון ישראל. "עליונות טכנולוגית היא מה ששומר על ישראל בטוחה", אמר בנדון בלייז מיסטל מהמכון היהודי לביטחון לאומי של אמריקה. המסנגרים על השימוש של צה"ל ב-AI טוענים כי ככל שישראל תזהה מהר יותר את יכולות האויב ותנטרל אותן – כך המלחמה תהיה קצרה יותר ועם פחות נפגעים. בנוסף מזכירים מי שמפרגנים להטמעת היכולות החדשניות כי יש לזכור שמערכות הבינה המלאכותית של צה"ל אינן פועלות באופן אוטונומי, וכל המלצה שלהן חייבת לקבל את אישורו של קצין.

כולנו חווים את עידן ה-AI הנוכחי, ובהתאמה לרוח התקופה, את הכנסת יכולות ה-AI לצבאות בעולם והפיכתן לחלק מפעולתם. אלא שהתפתחות זו יכולה לייצר עוד ועוד תסריטים לא צפויים ואף מצבים שאיש עדיין לא יכול אפילו לדמיין או לתסרט. לפיכך ניכר כי בשלב זה כי אין ספק ששימוש שכזה ב-AI מצריך נהלים הדוקים, שליטה גבוהה של בני אנוש במערכות, ובמקביל – הרבה זהירות מובנית.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים