מסכמים שנה בסייבר: AI – הפיל בחדר שלא ניתן להתעלם ממנו
ה-AI מייצרת שלל איומי סייבר חדשים - למשל, 10,000 גרסאות של תוכנות זדוניות, והתחמקות מזיהוי ב-88% מהמקרים - ומנגד, היא מקצרת לו"זים וחוסכת כסף ● סיכום השנה הסוערת בסייבר, חלק א'
לסייבר, על שני חלקיו – ההתקפי וההגנתי, יש מספיק איומים והגנות, והשנה נוסף לו רכיב חדש, עוצמתי ואף מפחיד – הבינה המלאכותית היוצרת (GenAI). נשאלת השאלה: למי היא תועיל יותר – לטובים או לרעים? המומחים חלוקים ואין לדעת.
במחקר חדש, שביצעו חוקרי Unit 42 של פאלו אלטו, הם מצאו שניתן להשתמש במודלי שפה גדולים (LLMs) ליצירת גרסאות חדשות של קוד ג'אווה סקריפט זדוני בהיקף נרחב, כך שיוכל להתחמק טוב יותר מזיהוי.
"על אף ש-LLMs מתקשים ליצור נוזקות מאפס, פושעים יכולים להשתמש בהם בקלות כדי לשכתב או לטשטש נוזקות קיימות – מה שמקשה על זיהוי", מסרו החוקרים. "פושעים יכולים להניע LLMs לבצע שינויים שהם הרבה יותר טבעיים למראה – מה שהופך את זיהוי הנוזקה הזו למאתגר יותר. עם מספיק שינויים לאורך זמן, גישה זו עלולה להיות בעלת יתרון לפגיעה בביצועים של מערכות המסווגות כנוזקות, ולגרום להן 'להאמין' שפיסת קוד זדונית היא בעצם תקינה".
החוקרים ציינו שגורמי איום פרסמו כלים כמו WormGPT כדרך להפוך את התהליך של יצירת הודעות פישינג במייל משכנעות יותר, וכן על מנת ליצור נוזקות חדשות. הם בחנו את פוטנציאל הביצועים של LLMs כדי לשכתב נוזקות קיימות, במטרה לעקוף זיהוי של למידת מכונה – וכך "סללנו את הדרך ליצירת 10,000 גרסאות ג'אווה סקריפט חדשות לנוזקות בלי לשנות את הפונקציונליות".
הם סיכמו כי "למידת המכונה של היריב נועדה לשנות במעט את הנוזקה בכל פעם שהיא מוזנת למערכת – אך לאחר השינוי היא מקבלת ציון זדוני נמוך בהרבה. האלגוריתם שינה את 'החלטת' מודל סיווג הנוזקות שלו עצמו מזדוני לתקין ב-88% מהזמן. הרעים זוכים לעוד יתרון, כי ערפול מבוסס LLM מציג שכתובים שנראים הרבה יותר טבעיים. ההיקף של גרסאות הנוזקה החדשות עלול לגדול בעזרת הבינה המלאכותית היוצרת".
החוקרים שמוסיפים שמן למדורה – ובהמשך מרגיעים
חוקרי סופוס הוסיפו שמן למדורה: "ארגוני פשיעת סייבר כבר השקיעו בלמידת מכונה, אוטומציה ובינה מלאכותית כדי להשיק מתקפות סייבר ממוקדות בקנה מידה גדול נגד ארגונים. היקף האיומים והפוטנציאל של כופרות ממשיך לגדול". לדבריהם, "עם עלייתם של וקטורי תקיפה מתוחכמים יותר, לפושעי סייבר קל יותר לעקוף הגנות אנטי וירוס מסורתיות, מבוססות סריקת קבצים".
אז הם ניסו להרגיע: "לכלים ולמערכות אבטחת סייבר חדשים, מבוססי AI, יש יכולת לתמוך בהגנה טובה עוד יותר מפני איומים – בשל זיהוי מהיר של דפוסי התנהגות, אוטומציה של תהליכים וזיהוי חריגות". לדבריהם, "הגנת סייבר מבוססת בינה מלאכותית יכולה לנטר, לנתח, לזהות ולהגיב לאיומי סייבר בזמן אמת. כשאלגוריתמים של AI מנתחים כמויות עצומות של נתונים כדי לזהות דפוסים שמעידים על איום סייבר, הם יכולים גם לסרוק את הרשת כולה בחיפוש אחר חולשות, במטרה למנוע מתקפות סייבר נפוצות. הבינה המלאכותית יכולה לזהות התנהגויות חריגות, להגביל גישה לא מורשית למערכות, לתעדף סיכונים, ולזהות במיידי נוזקות וחדירות לפני שהחלו לפעול. היא יכולה לשמש כמנוע לאוטומציית אבטחה, וכך להפחית את היקף טעויות האנוש".
"הבינה המלאכותית ואבטחת הסייבר מחוברות יותר מאי פעם", סיכמו בסופוס. "אנשים עם כישורים ויכולות בשניהם מבוקשים מאוד כיום. מומחה אבטחת סייבר ל-AI חייב להיות בעל ידע חזק בתחומי אבטחת רשתות, זיהוי פלילי, הצפנת מחשבים, זיהוי והגנה מפני נוזקות והגנה על נתונים".
בכמה ה-AI מצמצמת את ההפסד ממתקפות?
עוד חברה שלחוקריה יש מה לומר בנושא היא יבמ: "גם כשהקצב וההיקף של ניסיונות החדירה של הרעים גדל, ארגונים מתמודדים עם מחסור בצוותי סייבר, תקציבים מוגבלים ואילוצי זמן רבים. עם זאת, ההתקדמות בטכנולוגיות האבטחה וה-AI מחזקת את ההגנה ברחבי הארגונים".
לפי חוקרי הענק הכחול, "מחקרים מצביעים על כך שארגונים שפורסים יכולות אבטחה, בינה מלאכותית ואוטומציה ירוויחו מהשינוי בהיבטי העלויות והתפעול, ויוכלו לזהות ולהגיב לאירועי סייבר במהירות רבה יותר – וכך להפחית משמעותית את עלות התדירות וההשפעה של אירועי סייבר. ארגונים שכאלה הוציאו בממוצע שלושה מיליון דולר פחות על עלויות של אירוע סייבר. לארגונים אלה יש החזר גבוה יותר ב-40% על השקעה באבטחה. כמו כן, הבינה המלאכותית מספקת גם חיסכון משמעותי בזמן האבטחה: לארגון לוקח 230 ימים כדי לזהות, להגיב ולהתאושש מאירועי סייבר, ו-AI באבטחה יכולה לקצר את הזמן הזה בעד 99 ימים".
"זה מרוץ חימוש של בינה מלאכותית ואוטומציה בין מגיני סייבר לשחקני איומים. אנחנו (הארגונים – י"ה) צריכים פתרונות אבטחה, בינה מלאכותית ואוטומציה, שיעזרו לנו להישאר צעד אחד קדימה", סיכמו חוקרי יבמ.
ב-KPMG אומרים ש-"הבינה המלאכותית ולמידת המכונה מחוללות מהפכה בתעשיית אבטחת הסייבר. ה-AI משמשת באבטחה הגנתית, וגם התקפית. בהגנה, הבינה המלאכותית משמשת להנדסה לאחור של ניצול חולשות יום אפס, וכך מפתחים יכולים ליצור טלאים עבור פגיעויות ידועות. באופן התקפי, ה-AI יכולה לזהות ולנתח חריגות מתעבורת רשת, או דפוסי התנהגות של משתמשים בנקודות קצה, שעשויים להצביע על גישה לא מורשית למערכת", כתבו החוקרים מהחברה.
ככלל, יש הסכמה בקרב החוקרים ש-"ההתפתחות הנמשכת של ה-AI ולמידת המכונה בלא ספק תשחק תפקיד קריטי בעתיד אבטחת הסייבר".
תגובות
(0)