חמישה טרנדים בעולם ה-AI שארגונים יאמצו בשנה הקרובה
עליית הפלטפורמות, מודלים קטנים, קהילה ופתיחות, מודלים אמינים ומשילות AI, וסוכני ועוזרי בינה מלאכותית - כל אלה יעסיקו ארגונים ב-2024 ● כיצד הם יכולים לנצל את המגמות האלה לטובתם?
"80% מהארגונים הולכים ליישם AI השנה – כך עולה מסקר שערכנו. ואני שואל: לאיזו טכנולוגיה נוספת יש אחוזי אימוץ צפויים כאלה?", כך אמר טל שחר, המוביל העולמי של תחומי הדאטה וה-AI במעבדת המומחים של יבמ, תוך שהוא פותח את דבריו בשאלה רטורית.
שחר דיבר היום (ד') בכנס Future of AI של Lynx מבית אנשים ומחשבים, שנערך בפני אולם גדוש בבורסה בתל אביב. המנחים היו בן פלד, מנכ"ל הכנס, ואמיר קרלין.
לדברי שחר, "ההפנמה של ארגונים את עולמות ה-AI ו-GenAI ואת היתרונות שלהם היא מטורפת. השאלה היא: האם 2024 היא שנת ההתפכחות? כלומר, לא רק לפתח, לא רק ליצור את ההבטחה, אלא גם לעשות דברים אמיתיים, שעובדים? האקסיומה היא שיש ב-AI הבטחה, אבל השאלה היא: האם אפשר ליצור ממנה ערך ארגוני? התשובה לכך היא: בהחלט כן!".
דוגמה מתחום משאבי האנוש
שחר נתן, להוכחת הדברים שלו, דוגמה מתחום משאבי האנוש: "יש אין סוף מערכות לתחום הזה. במקום זאת, ה-AI יכולה לסייע למגייסים ולמנהלי משאבי האנוש ליצור משרה במערכת אחת, וזה כבר קורה אצלנו, ביבמ. למשל, משרת אנליסט – המערכת יכולה לשאול את המגייסים או מנהלי משאבי האנוש האם הכוונה היא לאנליסט פיננסי או לאנליסט שוק. בהתאם לתשובה, הבינה המלאכותית יוצרת את תיאור המשרה, עם אפשרות לאיש.אשת משאבי האנוש לתקן אותה. היא יכולה גם לפרסם את המשרה, למשל בלינקדאין. ומה אם מערכת הבינה המלאכותית לא יודעת לעשות משהו? היא יודעת ללמד את עצמה. בנוסף, ה-AI יודעת לענות על שאלות של מועמדים ומועמדות, ולקבוע ראיונות עבודה. זה יוצר חיסכון אדיר של זמן, יעילות וחוויה אחרת למגייס.ת ולמועמד.ת".
"הבינה המלאכותית לא תחליף עובדים, אבל עובדים עם כישורי AI יחליפו עובדים שלא יהיו להם את היכולות האלה. ה-AI הולכת להיכנס לכל תפקיד, מקצוע ותעשייה", קבע שחר.
עליית הפלטפורמות
שחר מנה חמישה טרנדים בעולמות ה-AI שלדבריו ישפיעו על ארגונים בשנה הקרובה. "טרנד אחד הוא עליית הפלטפורמות", אמר. "ב-2023 היו בעיקר פיילוטים וניסויים על מערכות הבינה המלאכותית, ו-2024 תהיה השנה שבה הניסויים האלה יתחילו לקבל ביטוי 'על רטוב'". הוא ציין בהקשר זה כי "יש הבדל בין שאילתה שמשתמש פרטי מציג לצ'טבוט לבין שימוש ארגוני בטכנולוגיה הזו. בארגון, זה מתחיל בשאלות כגון: איפה הדאטה נמצאת? איך מעבירים את הדאטה לתוך המודל? היכן שומרים את הנתונים? איך מעדכנים אותם? וכיצד מוודאים שהמודל עושה את מה שהמשתמש רוצה?".
ליבמ, ציין, יש פתרונות לכך, בדמות WatsonX, שם ניתן לשמור את הדאטה, ו-WatsonX of AI, שהוא הסטודיו, שבו ניתן לנסות את המודלים ולאמן אותם.
"החלק האחרון של הטרנד הזה הוא המשילות", אמר שחר. "צריך לוודא שכלי ה-AI לא יענה תשובות לא נכונות (מה שקרה הרבה עם כלי ה-GenAI בהתחלה, ועדיין קורה, אם כי פחות – י"ה). ארגון לא יכול להרשות לעצמו שיום אחד המשתמש בכלי ה-AI שלו יקבל תשובה נכונה ולמחרת לא, משום שהמודל השתנה".
"ה-AI שלנו, ביבמ, רץ על Open Shift של רד האט, שאותה רכשנו", ציין. "זה מאפשר עבודה בענן, איזה שבוחרים, או באון-פרמיס. יבמ היא החברה היחידה שמציעה פתרון כזה און-פרמיס".
"יש לנו גם מחשב על לאימון – מחשב ציבורי שנקרא Vela. הוא מציע איכות גבוהה מאוד ודיוק גבוה מאוד של אימון", הוסיף שחר.
מודלים קטנים
"הטרנד השני הוא מודלים קטנים", ציין. "יש את ה-LLM (ר"ת Large Language Model – מודל שפה גדולה), שהוא מודל אחד ששולט על הכול. אלא שמודל אחד לא ישלוט על הכול. לכן, העולם הולך למודלים קטנים, והם מאפשרים יותר פרמטרים, עד 20 מיליארד. מודלים קטנים הם הרבה יותר יעילים, מצריכים פחות כוח מחשוב והרבה יותר זולים. כמו כן, הם הרבה יותר בטוחים, כי יש בהם הרבה פחות דאטה, אפשרות לדעת מה נכנס פנימה ויכולת לשלוט טוב יותר. בסוף, ניתן ליצור מהם יותר ערך ארגוני. קל לאין שיעור לכוון מודל של שני מיליארד פרמטרים משל 175 מיליארד".
קהילה ופתיחות
"כדאי להמר על הקהילה ולהיות פתוחים לרעיונות ותובנות", הוסיף שחר. "יבמ נמצאת בשותפות עם Hugging Face, שהיא הגיטהאב של עולם המודלים. זה חשוב כי במקרה הזה, קהילה עושה את הדברים יותר טוב מהיחיד. העולם הולך לכיוון של קהילות, ולכן חברנו ל-Hugging Face".
"כדי לסבר את האוזן", אמר, "למטא יש שני מודלים, לגוגל יש חמישה ול-Hugging Face יש 450 אלף מודלים. גם אם 90% מהמודלים האלה הם 'זבל', עדיין, עשרות אלפים מהם טובים".
מודלים אמינים ומשילות AI
לדבריו, "אם המודל של הארגון לא אמין ולא בטוח, לא ירצו לעבוד אתו. יש פעילות שוקקת בעולם ה-AI סביב הנושא הזה – הוגשו בשנה האחרונה תביעות, הועלו שאלות של זכויות יוצרים ויש רגולציות רבות שכבר נחקקו, או שנמצאות בקנה. הרגולציה הכי מחמירה בנושא ה-AI היא זו האירופית, שמענישה על כל הפרה בקנס של 35 מיליון יורו או 7% מהמחזור – הגבוה מביניהם. ישראל כנראה תאמץ אותה, באדפטציה מקומית. רגולציה בולטת נוספת היא צו הבינה המלאכותית הנשיאותי של נשיא ארצות הברית, ג'ו ביידן, וגם בעוד מדינות, כמו ברזיל ובריטניה, יש אסדרה של התחום. זה אומר שהפתרונות שהארגון בונה על גבי AI צריכים להתאים לרגולציות. אנחנו מפרסמים אילו אלגוריתמים הרצנו במודל שלנו, יש בו שקיפות מלאה והתאמה לרגולציות".
סוכני AI ועוזרי AI
שחר ציין כי "כדי להשיא ערך מהמודל, לגרום לו לבצע משימה, יש צורך בסוכני ה-AI. ארגונים צריכים לשאול את עצמם האם מודל ה-AI שלהם יוצרים ערך תחרותי, האם הוא אמין ואיך הם יכולים להרחיב את הבינה המלאכותית לשימושים ארגוניים שונים".
כתבו הרבה אבל לא אמרו כלום ,תכלס במה זה מייעל לי את היצור חוץ מחצי שעה במשאבי אנוש