2025: ה-AI תהפוך לגביע הקדוש של ההאקרים
"הגנת סייבר מבוססת בינה מלאכותית - חובה עבור ארגונים", אומרים המומחים ● וגם: מה זה BYOAI? ומה יהיה האיום הגדול ביותר שקשור לבינה מלאכותית? ● תחזיות מה יקרה ב-2025 בסייבר - חלק ראשון
כבר לפני עשור, שני כוכבים בענף היו הראשונים לזהות את החשיבות של AI בעולם הסייבר – ההתקפי וההגנתי. היו אלה לארי אליסון, המייסד וסמנכ"ל הטכנולוגיות של אורקל, וניר צוק, המייסד וסמנכ"ל הטכנולוגיות של פאלו אלטו. שניהם דיברו על כך ב-2015, כשאיש עוד לא חשב על הנושא.
בשנה החולפת, הבינה מלאכותית החלה לחולל מהפכה בכל דבר, כולל בסייבר – לטוב ולרע. ב-2024, מתקפות הסייבר היו יעילות יותר מאי פעם, כי שחקני האיום ניצלו ומינפו את כלי הבינה המלאכותית היוצרת (ה-GenAI) לטובתם, בשלל שדות: מציאת יותר נקודות תורפה, מתקפות יעילות יותר על מגזרים קריטיים, ורף כניסה נמוך וקל לתחום. כל אלה הביאו לקיומם של עוד יותר שחקני איום ו-וקטורי תקיפה ואיום, וכן לעוזרי AI לקידוד, שסייעו בהצגת פגיעויות נוספות.
כלל חברות הגנת הסייבר מאוחדות בדעתן: "הגנת סייבר מבוססת בינה מלאכותית היא חובה עבור ארגונים, כדי שיוכלו להתמודד עם הגידול בהיקף ובקצב האיומים". ואם הארגון מתעכב ולא עושה מספיק בתחום, הנה צירוף חדש של חמש אותיות, לפי פורסטר: BYOAI, או הביאו את ה-AI שלכם מהבית (מה שמרפרר ל-BYOD – הביאו את המכשיר שלכם מהבית).
עד 2027, יותר משישית ממתקפות הסייבר יכללו GenAI
גרטנר צופה שעד 2027, יותר משישית מכלל מתקפות הסייבר, 17% מהן, יכללו בינה מלאכותית יוצרת. פורסטר מעריכה שמנהלי אבטחת המידע יתעדפו את השימוש ב-GenAI ב-10% – בשל היעדר ערך שניתן לכימות. כך, לצד הגידול בשימוש ב-AI בהגנה, מומחי אבטחה יתפכחו מההייפ ויתמודדו עם אתגרים כגון תקציבים לא מספיקים ובינה מלאכותית שלא "סיפקה את הסחורה".
אחד האנליסטים כתב ש-"ממבצעי עוקץ והונאות שהבינה המלאכותית תגדיל את סיכויי ההצלחה שלהם, מהשימוש בדיפ פייק ועד לעליית עוד איומים 'מחוזקים' ב-AI – נוף אבטחת הסייבר יישלט על ידי בינה מלאכותית, אוטומציה ומשטחי תקיפה מתרחבים. ארגונים חייבים להסתגל למצב החדש ולהשקיע בהגנות חזקות, פתרונות מאובטחים ומסגרות אבטחה מבוססות בינה מלאכותית כדי להמשיך ולשמור על חוסן הסייבר שלהם".
מה בצד של המגינים?
בצד המגן, חברות המחקר וספקיות הגנת הסייבר מעריכות שכלי ה-GenAI יסייעו לארגונים להלום יותר תקנות רגולציות וחוקים, ולממש מדיניות הגנת פרטיות ואבטחת נתונים. לפי גרטנר, תועלת נוספת מהתחום תגיע על ידי כך שבשנים הקרובות, מנהלי אבטחת המידע יקבלו יותר כוח ותפקידם יתרחב.
עוד תועלת תבוא למרכזי תפעול האבטחה ה-SoCים, שיהיו מבוססי בינה מלאכותית: החוקרים צופים כי אלה ישפרו את זיהוי האיומים, יהפכו את התגובה לאירועים לאוטומטית וישפרו את הנראות בסביבות ה-IT השונות. כך, העריכו, "ארגונים יסתמכו יותר ויותר על כלי AI כדי להתמודד עם איומים שמונעים על ידי AI, וכך ייווצר מעגל של התקפה והגנה, ששתיהן מופעלות על ידי AI".
ומה בצד של התוקפים?
בצד התוקף, צפויה עלייה בשימוש בדיפ פייק מתוחכם ובפריצות למיילים עסקיים (BEC), ואחוזי הצלחה טובים יותר בפישינג, בשל שימוש בכלי GenAI לתקיפה.
חוקרי טרנד מיקרו חוזים ש-"פושעי הסייבר ימשיכו לפתח דרכים חדשות כדי לנצל אזורים פגיעים, ויגדילו את הסיכון הארגוני ככל שמשטח התקיפה יתרחב. הבינה המלאכותית היא הגורם והמניע העיקרי לביצוע מזימות פליליות ולהגדלת ההיקף שלהן, והיא תסייע לרעים לשפר ולהאיץ את הפעולות נגד החולייה החלשה ביותר – המשתמשים".
לפי החוקרים, "הדיפ פייק צפוי להיות האיום הגדול ביותר הקשור לבינה מלאכותית, וזאת בשל הפוטנציאל העצום הגלום בו לשימוש לרעה. הפושעים עדיין לא מיצו את מלוא הפוטנציאל של התחום. אנחנו צופים יותר שימוש בדיפ פייק, ומתקפות והונאות מבוססות הנדסה חברתית עם AI, כדי שהמתקפות תיראנה 'אמינות' ומשכנעות באופן מסוכן".
"עם הבינה המלאכותית", ציינו חוקרי טרנד מיקרו, "ההתחזות תהיה קלה ואמינה יותר. אנחנו צופים גם את המשך המגמה של הונאות חצי אוטומטיות מבוססות בינה מלאכותית, לצד הונאות BEC והונאות 'עובדים מזויפים', שיהיו המדאיגות ביותר".
משטח תקיפה נוסף שאותו הם הזכירו יהיה סוכני AI שנהיים פרוסים יותר ויותר, לביצוע משימות או תפקידים ספציפיים. "הם יהפכו למטרות אטרקטיביות יותר עבור מחברי נוזקות ופושעי סייבר", כתבו.
עוד ציינו החוקרים כי "הבינה המלאכותית סוללת את הדרך להיפר-מתקפות מותאמות אישית – פישינג, מניפולציות על דעת הקהל והונאות. מתקפות סייבר מורכבות יותר, לצד ההונאות, עלולות להוביל למצבים שבהם אמצעי האבטחה המסורתיים לא יהיו מספיקים".
סוכני AI זדוניים
נקודת תורפה נוספת קיימת בסוכני AI ארגוניים. אלה עלולים להיות זדוניים בעצמם, בגלל שגיאות עצמאיות שלהם, או בשל לוגיקה מוטעית או טעויות ביצוע.
לפי חוקרי טרנד מיקרו, "הסוכנים מבוססי הבינה המלאכותית הם ההזדמנות החדשה והלוהטת לרעים… והם יהיו וקטור איומי סייבר פוטנציאלי חדש. הם ינוצלו על ידי שחקני איומים ויהיו יעד למתקפות סייבר, יאיצו את מהירות התקיפה ויגבירו את דיוקה".
"לכן", כתבו, "ההסתמכות על סוכני בינה מלאכותית מדגישה את הצורך הדחוף בחוסן ובאמצעי אבטחה להגנה מפני איומים אלה. הרעים יפתחו סוכני AI זדוניים. הם יהיו בעלי יכולת להסתגל בזמן אמת, לעקוף הגנות מסורתיות ולשפר את מורכבות ההתקפות".
"שחקנים זדוניים יפעלו במלוא המרץ למימוש הפוטנציאל של הבינה המלאכותית בהפיכת פשעי סייבר לקלים, מהירים וקטלניים יותר. אולם, ניתן לגרום לטכנולוגיה מתפתחת זו לעבוד גם לאבטחה והגנה על הארגון, על ידי רתימתה למודיעין איומים, ניהול פרופיל נכסים, חיזוי נתיבי תקיפה והדרכה לתיקון. בעוד SOCים מדביקים את הפער כדי להבטיח חידושים שעדיין מתגלים, הגנה על ארגונים מפני מצבי התקפה בדוקים נותרה חיונית. בעוד שהחדשנות יוצרת דרכים חדשות להכות, הפושעים עדיין ישתמשו במה שקל ובמה שעבד עבורם במשך שנים", ציינו.
דמוקרטיזציה של כלי פשיעת סייבר
החוקרים הוסיפו ש-"הבינה המלאכותית תביא לדמוקרטיזציה של כלי פשיעת סייבר, עם תפיסת כלי פשיעת סייבר כשירות (CaaS – Cyber crime as a Service). אלה יהיו כלי פריצה אוטומטיים, המופעלים על ידי בינה מלאכותית, שיתפשטו בדארקנט ויאפשרו לשחקנים בעלי מיומנויות נמוכות לבצע מתקפות מתקדמות".
"הבינה המלאכותית היא כמו כל בעיה במשחק החתול והעכבר (בין התוקפים למגינים – י"ה)", סיכם אחד המומחים. "הפושעים צריכים להשתמש נכון ב-AI רק פעם אחת, בעוד שהמגינים צריכים לעשות את זה נכון בכל פעם".
תגובות
(0)