AI בסייבר: הטוב, הרע והמכוער
הבינה המלאכותית הכניסה ממד חדש לעולמות הסייבר ההתקפי וההגנתי – היא תועיל לשני הצדדים, אך תהיה ''לוחמת אש באש" ● תחזיות 2024 בסייבר, חלק ג'
ה-AI הביאה לעידן חדש בהגנת הסייבר. לפי מחקרים שערך המגזין המקוון CFO, 85% ממקצועני האבטחה מייחסים את העלייה במתקפות לשימוש בבינה מלאכותית יוצרת על ידי שחקני איום. כ-46% מהם מאמינים, שהשילוב של AI בפעילות העסקית יגביר את הפגיעות למתקפות סייבר. החששות לגבי AI באבטחה כוללים: פוטנציאל להפרת פרטיות (39%), התקפות דיוג בלתי ניתנות לזיהוי (37%) ועלייה כללית בנפח ובמהירות ההתקפות (33%).
"ככל שטכנולוגיית AI מתקדמת, נמשיך לראות יותר ניסיונות מונעי בינה מלאכותית לחדור ולנצל מערכות בכל המרחב הדיגיטלי. גורמי איום ינצלו ומנצלים טכנולוגיה זו לכל דבר – מיצירת קוד ופיצוח סיסמאות, עבור בניצול פגיעויות ובזיהוי תצורות שגויות, ועד להנדסה חברתית וזיופים", כך לפי חוקרי סיילספורס (SalesForce). "בצד הטוב, AI תעזור לחברות להפוך משימות מייגעות לאוטומטיות – כמו זיהוי חריגות, זיהוי ניסיונות הונאה ופישינג וחיזוי התנהגויות. זה יאפשר לצוותי אבטחה להגביר את יעילותם וגם לזהות איומים בהיקף גדול במהירות ולקצר את זמני התגובה".
לפי חוקרי סופוס, "טכנולוגיות AI יסייעו יותר ויותר לאבטחה יעילה ומשופרת. בינה מלאכותית מצטיינת בטיפול בהררי נתונים, והיא תייעל את העבודה מבחינת זמני הביצוע והדיוק. שימוש ב-AI יאפשר זיהוי ואיתור משופרים של חריגות במערכות נתונים גדולות, כי המכונה יכולה 'לראות' את כל המידע בבת אחת ויכולה לסייע בהפניית תשומת לב אנושית לדברים חריגים או שונים מהרגיל".
לדברי אונדריי קובוביץ׳, מומחה למודעות לבטיחות ב-ESET, "פושעי סייבר ינצלו AI לשפר את קמפייני התקיפה שלהם, במיוחד בתוכן המשמש חלק מההונאה או לפישינג ולהטעיית משתמשים. השנה המגמה תתפוס תאוצה, ובינה מלאכותית תהפוך לחלק מרכזי ביצירת מרכיבי ההנדסה החברתית של מתקפות אלו. כלים מבוססי בינה מלאכותית יעניקו יתרון משמעותי בהפצת מידע שגוי או כוזב וקמפיינים של deep-fake למטרות פוליטיות, אידאולוגיות ואחרות. ניתן לראות זאת בכמויות הגדולות של סרטונים מזויפים המופצים בהקשר למלחמת ישראל-חמאס".
AI – המערב הפרוע
טים ליו, ראש תחום טכנולוגיה בהילסטון נטוורקס (Hillstone Networks), אמר: "הבינה המלאכותית מוסיפה גם וקטורי איום חדשים. תחום הבינה המלאכותית, המאופיין בגישת 'המערב הפרוע' וברגולציה מתפתחת, מעלה חששות בנוגע לאבטחת הנתונים. היא תוסיף מורכבות לזירת אבטחת הסייבר ומעלה שאלות בנוגע ליכולת השימוש בה למטרות טובות וזדוניות".
לפי חוקרי צ'ק פוינט, "השנה נראה יותר שחקני איומים שיאמצו בינה מלאכותית כדי להאיץ ולהרחיב כל היבט של ערכת הכלים שלהם. בין אם זה לפיתוח מהיר וחסכוני יותר של גירסאות תוכנות זדוניות חדשות ותוכנות כופר, או שימוש בטכנולוגיות Deep Fake כדי לקחת התקפות דיוג והתחזות לשלב הבא. זו תהיה 'לוחמת אש באש': כפי שפושעי סייבר מנצלים את הפוטנציאל של AI ו-ML, כך גם מגיני סייבר יעשו. האקרים יראו במשאבי AI מבוססי ענן הזדמנות משתלמת ויקימו מתקפות סייבר מבוססות ענן. חשוב לציין: בינה מלאכותית לבדה אינה יכולה לפתור את כל אתגרי אבטחת הסייבר, וחברות חייבות לאזן בין אבטחה לנוחות".
לפי סייברארק, "למרות שארגונים מאמצים את GenAI כדי לחזק את יכולות הגנת הסייבר, 80% מהם לא יצליחו להגן על שיטות האבטחה הללו – וכך יזינו מעגל מתגבר של סיכוני סייבר. השגת יתרון על התוקפים תדרוש חשיבה מוכוונת יריב, אימון מודלים עם מדגמים התקפיים והגנתיים, אימוץ מנגנון לביצור המודל ובדיקות מאמץ קבועות".
לפי שרון וגנר, מנכ"ל סייברסיקסגיל (Cybersixgill), "השנה נראה שחקנים זדוניים משתמשים ב-AI יוצרת לאוטומציה של תקיפות סייבר רחבות היקף, לבניית קמפיינים של פישינג בדוא"ל המכפילים עצמם בקצב מהיר עוד יותר ולפיתוח תוכן זדוני המטרגט חברות, עובדים ולקוחות במגוון תעשיות". לדבריו, "תוקפים יראו ב-AI גם יעד לתקיפה, שבאמצעותו ניתן לשים יד על הרשאות משתמשים ולמכור אותן בשווקים ברשת האפלה. לצד זאת, תקיפות זדוניות דוגמת 'הרעלת נתונים' וניצול פגיעויות בתוך מודלי ה-AI יצברו תאוצה. בהרעלת נתונים מוזרק אל המערכת מידע 'מטופל', במטרה לשלוט בהתנהגות ובתוצאות שמספק אלגוריתם ה-AI או ה-ML המאומן, וכך לייצר תוצאות כוזבות. זה יגרום לארגון לספק בהיסח הדעת מידע רגיש לצדדים לא מורשים, או לאפשר לגורם זדוני להסתנן לרשת הארגונית בלי שיזוהה".
לפי ד"ר דוד אביב, CTO ברדוור (Radware), "מרוץ החימוש בסייבר והוספת בינה מלאכותית ישנו גם את ההתקפה וגם את ההגנה בתחום. תוך כשנה, כלי תקיפה מבוססי AI התקדמו במהירות ומאפשרים לשחקנים זדוניים להתאים אישית תקיפות המנצלות נקודות תורפה במדויק".
AI תפתח תיבת פנדורה של צרות
לפי חוקרי ספלאנק (Splunk), תחזיות AI הן טובות ורעות בו זמנית: "AI תיקח על עצמה משימות אבטחה שייטיבו עם אנשי האבטחה. אם נוכל להמר על משהו, זה שבינה מלאכותית לא תיעלם בקרוב. רחוק מזה. היא תמשיך לעצב את פני אבטחת הסייבר גם בשנת 2024, ובעתיד הנראה לעין". מנגד, ציינו, "בינה מלאכותית תפתח תיבת פנדורה של צרות הולכות וגדלות בתחומי הגנת פרטיות ואבטחה. אף כלי אינו מושלם. למי שיש כוח לטובה, יהיה לו גם כוח למטרות זדוניות. בעוד שהעוסקים באבטחה יקצרו את יתרונות ה-AI, כך פושעי סייבר ימצאו דרכים להפעילה כעוד נשק בארסנל שלהם".
סיכם אחד החוקרים: "חימוש כלי התקיפה בסייבר בבינה מלאכותית יזניק את התחום לשמיים".
לחלק הראשון של תחזיות הסייבר לחצו כאן.
לחלק השני של תחזיות הסייבר לחצו כאן.
תגובות
(0)