גידול במתקפות על אפליקציות AI – ובהצלחות של ההאקרים

לפי פילאר הישראלית, ההאקרים תוקפים יישומי בינה מלאכותית בפחות מדקה ● 90% מהמתקפות המוצלחות על אפליקציות AI הובילו לדליפת מידע רגיש

גם ההאקרים מתלהבים מה-GenAI.

הגידול בהיקף אפליקציות הבינה המלאכותית סיפק להאקרים עוד הזדמנויות לתקוף, וכך, הרעים מצאו כר פעילות נרחב חדש, ומוצלח לשיטתם. מחקר חדש של פילאר הישראלית מעלה נתונים מטרידים בהקשר זה: 90% מהמתקפות המוצלחות על אפליקציות AI הובילו לדליפת מידע רגיש, תקיפות על יישומי AI מבוצעות בתוך פחות מדקה וככלל, יש שיעורי הצלחה גבוהים של גניבת נתונים מאפליקציות מבוססות בינה מלאכותית.

פילאר מתמחה בפתרונות אבטחה לעולם הבינה המלאכותית היוצרת (GenAI). המחקר שלה ניתח יותר מ-2,000 אפליקציות AI במדינות שונות, והתבסס על נתוני טלמטריה שנאספו מאינטראקציות של אפליקציות בינה מלאכותית בעולם האמיתי, משמע, יישומים שמופעלים על ידי מודלי שפה גדולים (LLMs), שנבדקו בשלושת החודשים האחרונים – ולא על סקרים והערכות תיאורטיות.

לפי המחקר, 20% מניסיונות התקיפה (Jailbreaks) הצליחו לעקוף את ההגנות הקיימות על יישומי הבינה המלאכותית היוצרת.

עוד עולה ממנו שהמתקפות מבוצעות במהירות: תוקפים זקוקים בממוצע ל-42 שניות בלבד ולחמש אינטראקציות לביצוע ולהשלמה של מתקפה. ניסיון התקיפה הקצר ביותר נמשך ארבע (!) שניות, בעוד שהארוך ביותר עמד על 14 דקות.

פגיעויות חדשות ונרחבות

חוקרי פילאר מצאו כי הופעת המגמה החדשה הביאה לפגיעויות חדשות ונרחבות: התוקפים ניצלו פגיעויות בכל שלב של האינטראקציה עם מערכות ה-GenAI, לרבות בשלבי הפרומפט (Inputs), ההוראות (System instructions), פלטי הכלים (Tool outputs) ופלטי המודלים (Model outputs).

עוד ציינו החוקרים כי חלה עלייה בתדירות ובמורכבות המתקפות. מבין כלל האירועים שנותחו, נצפתה עלייה ברורה בתדירות ובמורכבות של מתקפות Prompt Injection. "התוקפים משתמשים בטכניקות מתוחכמות יותר", נכתב, "ועושים ניסיונות מתמשכים לעקוף את אמצעי ההגנה הקיימים".

המניעים העיקריים של תוקפים הם גניבת נתונים רגישים, מידע עסקי קנייני ומידע אישי (PII), ועקיפת מסנני תוכן ליצירת דיסאינפורמציה, דברי שנאה, הודעות פישינג וקודים זדוניים.

שני מודלי ה-AI שהותקפו הכי הרבה פעמים הם GPT-4 של OpenAI – "ככל הנראה בשל האימוץ הנרחב שלו והיכולות המתקדמות שיש לו", ו-Llama-3 של מטא – "מודל קוד פתוח, שמושך גורמי איום שמבקשים לנצל את נגישותו", נכתב במחקר.

על פי החוקרים, "ביישומי AI לא מבוקרים טמונות השלכות הרסניות על ארגונים – מהפסדים כספיים, דרך הסתבכויות משפטיות, עבור בפגיעה במוניטין הארגון ובמותגים שלו ועד לפרצות אבטחה. אלה הן רק חלק מהתוצאות האפשריות. הכישלון ביישום אמצעי אבטחה על אפליקציות מבוססות בינה מלאכותית עלולים להוביל לשיבושים תפעוליים משמעותיים ולאתגרי אבטחה ארוכי טווח".

"ארגונים חייבים להתכונן לעלייה במתקפות הממוקדות ב-AI"

דור שריג, מייסד שותף ומנכ"ל פילאר, אמר כי "האימוץ הנרחב והמהיר של GenAI בארגונים פתח חזית חדשה באבטחת סייבר. ארגונים נדרשים לחזק את מערך ההגנה שלהם על בינה מלאכותית יוצרת. במבט קדימה, ל-2025, ההטמעה של מערכות אוטונומיות מבוססות בינה מלאכותית (Agents), שמסוגלות לבצע משימות מורכבות יותר ולקבל החלטות בצורה עצמאית – תרחיב את משטח התקיפה ותהפוך אותו למורכב יותר ויותר".

"ארגונים חייבים להתכונן לעלייה במתקפות הממוקדות ב-AI על ידי יישום מבדקי חדירות וסקרי סיכונים מותאמים. עליהם לאמץ גישה של אבטחה עוד מהשלבים הראשונים של תהליך הפיתוח של GenAI", ציין.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים