איך לנצל את ה-AI לטובת הגנה מפני התקפות סייבר?
יותר ויותר מנהלי IT מדווחים, כי פושעי סייבר משתמשים ב-GenAI על מנת לבצע התקפות מתוחכמות בקצב ובקנה מידה חסר תקדים ● אנשי אבטחת סייבר חייבים לעבוד קשה יותר כדי להקדים את יריביהם במשחק השחמט המסוכן הזה
ארגונים רבים כיום נמצאים במשחק שחמט מסוכן מול "שחקנים רעים" בזירת הסייבר, שעושים שימוש זדוני בכלי ה-GenAI. התקפות אלו מציבות אתגרים ייחודיים עבורם. קמפיינים של פישינג אוטומטי הופכים למתוחכמים יותר, וה-GenAI מאפשרת לפושעים לחקות את התנהגות האדם באופן מדויק יותר.
דוגמאות נוספות כוללות הנדסה חברתית משכנעת במיוחד, כמו דיפ פייק המחקים חברים, משפחה או עמיתים לעבודה. בנוסף, אנחנו רואים גם התפתחות של תוכנות זדוניות אוטונומיות שמסתגלות ומתפתחות כדי לחמוק מגילוי.
אתגרים מורכבים אלו מטרידים רבים ממנהלי ה-IT בארגונים, שכעת חושבים איך להגיב ומה ניתן לעשות.
חיזוק היגיינת האבטחה עבור אימוץ AI
תחילה צריך לציין, שאין פתרון קסם לאבטחת סייבר, אבל ארגונים חייבים להתחיל עם "היגיינת אבטחה" טובה, במיוחד כשמאמצים את הבינה המלאכותית בצורה רחבה. המפתח הוא לוודא שהסביבה מאובטחת כבר משלב הפיתוח ועד לשלב הפריסה.
דוגמה לכמה סוגי מתקפות בסביבות אלו:
תקיפות מתקדמות (Adversarial Attacks) – שינוי קטן בנתונים כדי לבלבל את המודל ולגרום לתוצאה שגויה.
זיהום נתונים (Data Poisoning) – חדרת נתונים פגומים לאימון המודל.
גניבת מודלים (Model Extraction) – העתקת האלגוריתם או התוצאות כדי להשתמש בהם ללא הרשאה.
כדי לצמצם פגיעויות, יש תחילה לבצע ניהול סיכונים של תהליכי AI בארגון שלנו, הצמדות לסטנדרטים סדורים כמו ISO/IEC 23894 – AI Risk Management Framework – תקן חדש המתמקד בניהול סיכונים במערכות AI, NIST AI Risk Management Framework (AI RMF), Adversarial ML Threat Matrix (Microsoft & MITRE): מסגרת למיפוי סיכונים הנובעים מהתקפות על מודלים של למידת מכונה (Machine Learning).
במקרה של פריצת אבטחה, תוכנית התאוששות היא קריטית כדי לשחזר את הפעילות בצורה מאובטחת ויעילה ולמנוע הפרעה משמעותית לעסק. לכן על כל ארגון לבנות את תהליכי ההמשכיות העסקית, הבנה של התהליכים העסקיים הקריטיים של הארגון, בניית תהליכי IR מותאמים למתקפות אלו וכמובן תוכנית שחזור סדורה לארגון.
בנוסף, ארגונים מאמצים יותר ויותר את ארכיטקטורת ה-Zero Trust, המבוססת כברירת מחדל על הרעיון, ששום גורם ברשת אינו אמין. כל גישה למשאבים דורשת אימות. יישום נכון של גישה זו מפחית את הסיכון להתקפות, שכן הוא מגביל את הגישה לפעילויות מאומתות בלבד.
אחד הכלים המרכזיים שמאפשרים לארגונים להבטיח יציבות גם בעת מתקפה הוא אסטרטגיית שחזור חזקה. בסביבות AI נתוני האימון והמודלים עצמם הם הבסיס לפעילות. פגיעה בהם עלולה לגרום לתוצאות שגויות ואף להשבית מערכות קריטיות. לכן, ארגונים משקיעים בגיבויים תקופתיים המאוחסנים בסביבות מבודדות, בנוסף, מתבצעות בדיקות תקופתיות לעדכניותם של קבצי הגיבוי, כדי לוודא כי הם ניתנים לשחזור במידת הצורך.
תהליך השחזור עצמו חשוב לא פחות. גם ארגון שמחזיק בגיבויים מלאים עשוי להיתקל בקשיים אם אין לו יכולת לשחזר את הנתונים במהירות או שסביבת הגיבוי שלו הוצפנה. כאן נכנסים לתמונה פתרונות כמו Cyber Recovery – מערכת המאפשרת לשמור עותקים קריטיים של נתונים בסביבה מאובטחת ומבודדת. יתרונה העיקרי הוא בשילוב בין אחסון מבודד לבדיקה שוטפת של תקינות המידע. במקרה של מתקפה, Cyber Vault מאפשר לארגון לשחזר במהירות נתונים ומודלים ללא סיכון להחזרת מידע מושחת.
כוח האבטחה המונעת בינה מלאכותית
לאחר שהונחה תשתית אבטחתית חזקה, אימוץ אותו כלי שבו משתמשים התוקפים – הבינה המלאכותית – יכול לעזור לארגונים לבנות חוסן סייבר ולהקדים את האיומים.
אבטחה המונעת AI מאפשרת לארגונים להשתמש בכלים חכמים ויכולת הגנה עצמאית כדי לזהות ולהגיב לאיומים. אימוץ כלים אלו מחזק את חוסן האבטחה בכל הארגון.
במונחים של הגנה יזומה, AI יכולה לסייע בניטור רציף של תעבורת רשת, התנהגות משתמשים ו-ולוגים של מערכות כדי לזהות אנומליות ודפוסים חשודים שעשויים להצביע על פעילות זדונית. יכולת זו של זיהוי ומניעה מוקדמת חיונית לצמצום נזקים פוטנציאליים. כאן אנו רואים צמיחה גדולה של פתרונות MDR, אשר הולכים וגדלים בשלל ארגונים.
הכלים הללו לומדים ומסתגלים לזהות אתגרים חדשים, מה שמאפשר לצוותי IT ואבטחה להקדים תוקפים שמחדשים את הטקטיקות שלהם ומנצלים חולשות חדשות. בנוסף, עסקים יכולים ליצור תגובת אבטחה מותאמת אישית, המיועדת במיוחד לאיומים הייחודיים לתעשייה שלהם.
יש לזכור, שגם אם תהיה לכם את ההגנה הטובה ביותר, תוקפים יכולים עדיין לעקוף את המערכות האלו. במקרים אלו, AI יכולה לתמוך גם בתהליכי התאוששות אוטומטיים. אוטומציה של תגובה לאירועים, הכללת איומים, שחזור נתונים וניתוח פלילי הנתמך על ידי AI יכול להפחית את ההשפעה על העסק ולהאיץ את ההתאוששות.
הגורם האנושי באבטחת AI
בנוסף לבניית תשתית אבטחה חזקה, ארגונים חייבים להכיר בכך שעובדים הם קו ההגנה הראשון שלהם. כל עובד זקוק להבנה בסיסית של איך AI הופכת את האיומים למתוחכמים יותר, איך לזהות אותם ומה לעשות כשמשהו נראה לא נכון. זה יהיה חשוב במיוחד ככל שפורצים ישתמשו בהתקפות תחבולניות מתקדמות כמו דיפ פייקים שיתווספו להנדסה החברתית הוותיקה. אנשי אבטחה ידרשו להכשרה ייעודית לתפקידם בתחום ה-AI, וכך תהיה להם היכולת להבין כיצד תוקפים עשויים לנצל את הטכנולוגיה.
נוף אבטחת הסייבר משתנה כל הזמן. ארגונים שיציבו את האבטחה המונעת AI בראש סדר העדיפויות ויטפחו תרבות של למידה מתמשכת, יהיו במצב הטוב ביותר לנווט ביו האיומים המשתנים. על ידי אימוץ גישה יזומה ומסתגלת לאבטחה, עסקים יוכלו לאמץ בביטחון את הכוח הטרנספורמטיבי של הבינה המלאכותית ולבנות עתיד בטוח ועמיד יותר.
הכותב הוא CTO בתחום של שירותי אבטחת סייבר בדל EMEA.
תגובות
(0)