מחקר: עודף ביטחון הארגונים ביישום AI – גורם להם להתעלם מסיכונים

לפי HPE, ארגונים מתעלמים מתחומים חשובים, המשפיעים על יכולתם להביא ליישום מוצלח של בינה מלאכותית

כיצד מאמצים ארגונים בינה מלאכותית?

כמעט מחצית מהארגונים מאמינים כי הם ערוכים לחלוטין לממש את היתרונות של ה-AI. עם זאת, קיימים פערים קריטיים באסטרטגיות שלהם, כגון חוסר התאמה בין תהליכים ומדדים וכתוצאה מכך לפיצול בגישות יישום – שיקשו עליהם להוציא לפועל את אימוץ ה-AI; כך לפי מחקר חדש של HPE.

המחקר נערך על ידי Sapio Research בקרב יותר מ-2,400 מקבלי החלטות בתחום ה-IT ברחבי העולם, בארגונים המונים יותר מ-500 עובדים.

המחקר, "לתכנן את יתרונות ה-AI", מצא, שבעוד המחויבות ברחבי העולם ל-AI מביאה לצמיחה בהשקעות, ארגונים מתעלמים מתחומים חשובים, המשפיעים על יכולתם להביא ליישום מוצלח של בינה מלאכותית. אלה כוללים רמות נמוכות של בשלות נתונים, ליקויים אפשריים ברשתות התקשורת, הקצאת משאבי מחשוב לא נכונה, התעלמות משיקולים אתיים והתאמה לדרישות רגולציה. המחקר חשף נתק משמעותי בין האסטרטגיה – לבין הבנת התחום, שעלול להשפיע לרעה על החזר ההשקעה העתידי.

על פי המחקר, בעוד שארגונים מבינים בבירור שניתן להשיג תוצאות טובות באמצעות בינה מלאכותית בזכות נתונים איכותיים, הרי שרמות בשלות הנתונים שלהם נמוכות. רק חלק קטן (7%) מהארגונים יכולים לשלוף נתונים בזמן אמת ורק 26% מהם הקימו מודלים של ממשל נתונים ויכולים להריץ ניתוחים מתקדמים.

נתון מדאיג יותר העלה, כי פחות מ-60% מהם אמרו שהם מסוגלים לטפל בכל אחד משלבי הכנת הנתונים העיקריים לשימוש במודלים של AI – 59% אמרו שהם ערוכים לטיפול בגישה לנתונים, 57% ערוכים לאחסון הנתונים, 55% לעיבוד הנתונים ו-51% בלבד ערוכים להתאוששות מאסון.  "נתונים אלה", ציינו החוקרים, "עלולים לא רק לפגוע בתהליך יצירת מודל ה-AI, אלא גם מגדילים את ההסתברות שהמודל יספק תובנות לא מדויקות ו-ROI  שלילי".

פער דומה הופיע בתשובה לגבי דרישות המחשוב והרשת לאורך מחזור החיים של AI מקצה לקצה. על פניו, נראה שרמות האמון גבוהות בהקשר זה: 93% ממובילי ה-IT מאמינים שתשתית הרשת שלהם ערוכה לתמוך בתעבורת בינה מלאכותית ו-84% מסכימים שלמערכות שלהם יש מספיק גמישות ביכולת המחשוב כדי לתמוך בדרישות הייחודיות בשלבים שונים של מחזור החיים של הבינה המלאכותית. אך פחות ממחצית מהם הודו שיש להם הבנה מלאה של מה הדרישות של עומסי העבודה השונים של הבינה המלאכותית לתרגול, כוונון והסקת מסקנות – ולכן לא ברור באיזו מידה הם יכולים לעמוד בדרישות.

לדברי סילביה הוקס, סגנית נשיא HPE Aruba, "המחקר מציג בבירור את התוכניות ליישום בינה מלאכותית, אך גם מדגיש שיש עיוורון בנושאים מסוימים, כגון: חוסר באסטרטגיה מתאימה ומעורבות נמוכה של מחלקות הארגון, העלולים למנוע מארגונים להצליח".

עוד נמצא במחקר, כי ארגונים אינם מצליחים לחבר את כל הנקודות בין תחומי מפתח בעסק: יותר מרבע (28%) ממנהלי ה-IT תיארו את גישת ה-AI הכוללת של הארגון שלהם כ"מפוצלת". כעדות לכך, החוקרים ציינו כי יותר משליש (35%) מהארגונים בחרו ליצור אסטרטגיות בינה מלאכותית נפרדות עבור פונקציות בודדות, בעוד ש-32% יוצרים קבוצות שונות של יעדים בסך הכל.

נקודה מסוכנת יותר היא ההתעלמות המוחלטת של ארגונים מהיבטים אתיים והציות לרגולציה, למרות שגופי רגולציה בודקים יותר ויותר נושאים אלו. כך, 13% ממנהלי ה-IT אמרו שציות לרגולציה פחות קריטי להצלחת בינה מלאכותית ו-11% אמרו שאתיקה פחות קריטית להצלחת התחום. בנוסף, כמעט 1 מכל 4 ארגונים (22%) כלל לא מערבים צוותים משפטיים בשיחות האסטרטגיה אודות ה- AI בארגון שלהם.

"כאשר ארגונים רצים במהירות כדי להדביק את הבאזז סביב בינה מלאכותית", סיכמה הוקס, "ארגונים חסרי מדיניות אתית לתחום בינה מלאכותית מסתכנים בחשיפה להשפעות שליליות על המותג של החברה, אובדן מכירות, או קנסות יקרים, ומאבקים משפטיים".

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים