"לא להיכנס לפאניקה מיכולת מודלי השפה הגדולים בסייבר"

"בני אדם עדיין ממלאים תפקיד מפתח באבטחת סייבר כיום", אמר דסטין צ'יילדס מ-טרנד מיקרו ● "סביר שלא נראה בעתיד הקרוב בינה מלאכותית פורצת למערכות באופן אוטונומי, בלא התערבות אנושית"

דסטין צ'יילדס, ראש תחום מודעות לאיומים ביוזמת יום אפס, טרנד מיקרו.

התפתחות תחום הבינה המלאכותית היוצרת, ה-GenAI, ובתוכו מודלי השפה הגדולים (LLMs), מדאיגה את קהילת הגנת הסייבר: מערכות אלו מסוגלות לייצר טקסט וקוד דמויי פיתוח אנושי. LLMs יכולים לעבד וליצור מבני קוד מורכבים ולמנף יכולת זו כדי לזהות באופן אוטונומי חולשות במערכות תוכנה, ליצור קוד המנצל חולשות אלו, או לבצע מתקפות סייבר מתוחכמות.

אלא שדסטין צ'יילדס, ראש תחום מודעות לאיומים ביוזמת יום אפס, בחברת טרנד מיקרו (Trend Micro), אינו שותף לדאגה.

לדבריו, "היכולות הנוכחיות של ה-LLMs רחוקות מלקחת חלק פעיל במתקפת סייבר באופן אוטונומי". הוא הסביר כי "מודלים אלה הפגינו יכולות מרשימות בעיבוד שפה טבעית, NLP, וביצירת קוד, אבל היישום שלהם בפריצה אוטונומית – עדיין מוגבל ותיאורטי במידה רבה. LLMs כמו GPT-4 או Copilot של מיקרוסופט הם כלים רבי עוצמה לעיבוד שפה טבעית, אולם אינם מתוכננים מטבעם לבצע פריצה באופן אוטונומי, או לבצע התקפות מורכבות, כמו הזרקות SQL. הם יכולים ליצור קטעי קוד לניצול של חולשה, אבל חסרה להם היכולת לבצע באופן אוטונומי מתקפות סייבר מורכבות".

לדברי צ'יילדס, "LLMs אינם מסוגלים כיום למצוא, או לנצל באופן אוטונומי פגיעויות. הם יכולים לסייע באיסוף מידע על פגיעויות פוטנציאליות בסיכום של ניצול חולשות ידועות, ולתרום פירוט על האופן שבו הן מנוצלות והצעת כלים או טכניקות לבדיקות חדירה".

"הם מסתמכים על סקריפטים חיצוניים, או על מפעילים אנושיים, כדי לבצע פעולות במערכות בעולם האמיתי", הסביר צ'יילדס, "מה שמגביל את יכולתם לנצל באופן אוטונומי נקודות תורפה. LLMs משמשים ככלי עזר – והם לא ישויות אוטונומיות. הם רק יכולים לספק מידע והצעות בעלות ערך".

אינם יכולים לפעול אוטונומית בסייבר. LLMs - מודלי שפה גדולים.

אינם יכולים לפעול אוטונומית בסייבר. LLMs – מודלי שפה גדולים. צילום: Shutterstock

"הרעים עלולים להשתמש ב-LLMs – לשיפור אסטרטגיות ההתקפה"

"בהינתן זאת", ציין, "השימוש לרעה הפוטנציאלי של LLMs על ידי פושעי סייבר מהווה מקור לדאגה. הרעים עלולים למנף יכולות LLM כדי לסייע ביצירת פתח המאפשר ניצול לרעה, ולהגביר את הפעילות הזדונית שלהם. כך, בתחום הזרקות SQL, ההאקר עשוי לבקש מ-LLM ליצור מטענים שונים, כדי לבדוק שדות קלט של יישום אינטרנט עבור ההזרקה של SQL. הם יכולים גם להשתמש במטענים האלה ביישום האינטרנט של היעד ולנתח את התגובות. אם התגובה תשתנה באופן שיצביע על החדרה מוצלחת – ייתכן שיתאפשר ניצול נוסף".

"התרחיש המוצע", הסביר צ'יילדס, "ממחיש כיצד הרעים עלולים להשתמש ב-LLMs כדי לשפר את אסטרטגיות ההתקפה שלהם, גם אם המודלים עצמם אינם יכולים לבצע התקפות באופן אוטונומי".

בהתייחסו ל-LLMs למול כלי אבטחת סייבר מסורתיים, אמר צ'יילדס כי "בני אדם עדיין ממלאים תפקיד מפתח באבטחת סייבר כיום, כי סביר שלא נראה בעתיד הקרוב בינה מלאכותית פורצת למערכות באופן אוטונומי, בלא התערבות אנושית, או ידע מוקדם על נקודות התורפה. LLMs לא יכולים לייצר תוצאות דומות לצורות אוטומטיות אחרות של הנדסה לאחור ופיתוח כלים לניצול חולשה. כך, טכנולוגיית Fuzzing עדיין טובה יותר מאשר LLMs כשמדובר במציאת באגים בתוך יישום קוד סגור".

צ'יילדס סיכם באומרו כי "תרחיש סביר יותר ליישום LLM בהגנת סייבר יהיה כזה בו ניתן יהיה להכשיר LLMs כדי לבדוק בעיות בקוד לפני שהתוצר נשלח, או זיהוי נקודות תורפה לפני שניתן לנצל אותן. צורה זו של סקירת קוד תהיה נפוצה לפני שה-LLM ירכוש את היכולת למצוא באופן אוטונומי פגיעויות. עם שילוב בקרות טכניות, הנחיות אתיות וניטור רציף, ניתן לרתום את היתרונות של ה-LLMs, תוך מזעור הסיכונים הקשורים לשימוש לרעה שלהם בפריצה אוטונומית ופעילויות זדוניות אחרות".

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים