"הסנדק של ה-AI" עזב את גוגל והזהיר מפני התחום החדשני

מדען המחשב ד"ר ג'פרי הינטון, שעבד בגוגל עשור בחקר תחום הבינה המלאכותית, ציין כי הוא עוזב את החברה כדי שיוכל לדבר בחופשיות על סכנות ה-AI אך לא הפנה אצבע מאשימה או מודאגת במיוחד דווקא למעסיקתו לשעבר

מתריע אודות ה-AI. חוקר בינה מלאכותית בכיר בגוגל לשעבר, ד"ר ג'פרי הינטון.

ד"ר ג'פרי הינטון עזב באחרונה את משרתו בגוגל, עבורה חקר את תחום ה-AI ביחידת Google Brain משנת 2013, לצד פועלו בתחום מדעי המחשב באוניברסיטת טורונטו.

הינטון הוא מדען מחשב ופסיכולוג קוגניטיבי בריטי-קנדי בן 75, שהתפרסם בעיקר בשל עבודתו על רשתות עצביות מלאכותיות ואשר זכה לכינוי "הסנדק של הבינה המלאכותית". הכרזתו הפומבית האחרונה על עזיבתו את שורות הענקית ממאונטיין וויו הגיעה בתוך שהוא מעלה חששות לגבי הסיכונים שבעיניו מגולמים בתחום ה-AI כיום.

בהודעתו על ההתפטרות תלה הינטון את הסיבות להחלטתו בכך שברצונו "לדבר בחופשיות על הסיכונים של AI", והוסיף כי הוא מתחרט חלקית כעת על מפעל חייו, שאת רובם הקדיש לחקר תחום זה. ד"ר הינטון הצטרף לגוגל במרץ 2013, אחרי רכישת החברה שלו, DNNresearch. באותה עת תכנן לדבריו "לחלק את זמנו בין המחקר שלו באוניברסיטה לבין עבודתו בגוגל". במחקריו חיפש דרכים לשימוש ברשתות עצביות לצורך למידת מכונה, זיכרון, תפישה ועיבוד של סמלים.

ואולם נראה כי חוקר ה-AI הבכיר נמלך בו כיום, דווקא בדיוק ברגעים שבהם הבינה המלאכותית הפכה לנושא הלוהט ביותר בתחום הטכנולוגיה, ובזמנים שבהם יותר ויותר תהליכים נסמכים על יכולותיה. בנוסף, כידוע, מזה מספר חודשים שהשימוש בבינה מלאכותית יוצרת – בעיקר ב-ChatGPT מבית OpenAI – הולך ותופס תאוצה ומאיים לשבש תחומים רבים. כל אלו, במקום לעודד את החוקר המנוסה, דווקא העלו בליבו ספקות וחששות כבדים מהמחיר שהפיתוח יגבה מהעולם.

חשש מהמאבק בין מיקרוסופט לגוגל

בראיון לניו יורק טיימס שפורסם אתמול (ב') עידכן ד"ר הינטון אודות התפטרותו מגוגל, כאמור, פשוט כדי שיוכל לעסוק בסכנות ה-AI "מבלי לשקול כיצד זה משפיע על גוגל". בנוסף הוא הביע חשש ספציפי מפני המאבק בין גוגל למיקרוסופט בתחום וממרוץ ה-AI הנלהב של שתיים מבכירות ענקיות הטק הגלובליות כיום.

כידוע, מיקרוסופט, שהקדימה לזהות את הפוטנציאל הלא נתפש שיש למודל השפה התבוני של OpenAI, השכילה להשקיע במעבדת הבינה המלאכותית כסף גדול, שהסתכם כבר לכ-10 מיליארד דולר. בהתאמה, היא משלבת יותר ויותר יכולות מבוססות GPT-4 בשירותיה, כולל בענן שלה וכמובן – ביכולות החיפוש המתקדמות שהחלה מציעה למשתמשיה.

מוסיפה את GPT-4 לעוד ועוד ממוצריה. מיקרוסופט, המשקיעה הגדולה של OpenAI.

מוסיפה את GPT-4 לעוד ועוד ממוצריה. מיקרוסופט, המשקיעה הגדולה של OpenAI. צילום: ShutterStock

מאידך, גוגל ממשיכה לנסות להשיב מלחמה ולהפגין יכולות AI מתקדמות משלה, בעיקר כדי שמנוע החיפוש הדומיננטי, Google Search, לא יפסיד את הבכורה שלו ל-בינג (Bing) – כלי החיפוש המגובה ביכולות GPT-4 של המתחרה מרדמונד.

גוגל מצידה נחפזה לשחרר את בארד (Bard) – צ'אטבוט יוצר תואם ChatGPT, אבל כבר יום למחרת ההשקה התגלה ונחשף בתקשורת כי בארד "עשה בושות" ושגה במענה בהדגמה שהחברה ערכה. הפאשלה הזו עלתה לגוגל הון – כ-100 מיליארד ד' נמחקו משווי החברה.

אחר כך בישרה גוגל כי היא שוקדת ביתר שאת, ובתוך גיוס של 160 בכירים ומומחים בתחום, על פרויקט ששמו 'מאגי' (Project Magi), ואלו עובדים מסביב לשעון על מנוע חיפוש חדש שהחברה מפתחת, שצפוי להציע למשתמשים חוויה חכמה ומותאמת אישית בהרבה ממה שמוצע להם כרגע ב-Google Search.

ד"ר הינטון: "גוגל פעלה באחריות רבה"

עבודתו החלוצית של הינטון על רשתות עצביות עיצבה מערכות AI המניעות רבים מהמוצרים של ימינו. כחלק מעבודתו במשרה חלקית בגוגל במשך עשור עסק ד"ר הינטון כמובן במאמצי פיתוח ה-AI של ענקית הטכנולוגיה עצמה. אלא שכעת הוא טוען באוזניי הטיימס: "אני מנחם את עצמי בתירוץ הרגיל: אם לא הייתי עושה את זה, מישהו אחר היה עושה זאת".

בציוץ שפרסם אתמול, ציין ד"ר הינטון שבכוונתו לדבר בחופשיות מעכשיו על הסיכונים של ה-AI, אך שלא עזב את החברה ספציפית בשל רצון למתוח ביקורת על גוגל. הוא אף הוסיף וקבע בציוץ: "גוגל פעלה באחריות רבה."

עד לשנה שעברה, אמר ד"ר הינטון לטיימס, גוגל פעלה כ"מנהלת ראויה" של הטכנולוגיה, ונזהרה לא לשחרר משהו שעלול לגרום נזק. אבל עכשיו, כשמיקרוסופט הגדילה את מנוע החיפוש שלה בינג עם צ'טבוט – המאתגר את הליבה של גוגל – גוגל דוהרת לפרוס את אותו סוג של טכנולוגיה. ענקיות הטכנולוגיה ננעלות בתחרות שאולי בלתי אפשרי לעצור אותה, כך לפי התרעותיו של החוקר הבכיר.

ג'ף דין, מדען ראשי בגוגל, אמר בתגובה על סיום פועלו של המדען בחברה כי המדען "עשה פריצות דרך בסיסיות בתחום הבינה המלאכותית" והביע הערכה ל"עשור התרומות של הינטון בגוגל".

מתריע אף הוא מהתחום, אך מפתח אותו. אילון מאסק, מנכ"ל SpaceX, טוויטר וטסלה.

מתריע אף הוא מהתחום, אך מפתח אותו. אילון מאסק, מנכ"ל SpaceX, טוויטר וטסלה. צילום: מתוך ויקיפדיה

סכנות ה-AI – נושא חם לא פחות מהצלחות התחום

הבינה המלאכותית הפכה לנושא המעורר גם עניין והתלהבות אך גם דאגה עצומה בשנים האחרונות, וביתר שאת מאז פרוץ הכלי ChatGPT לחיינו. בעוד שהיתרונות הפוטנציאליים של AI הם רבים, כמה מומחים השמיעו התרעות לגבי הסכנות והסיכונים שהטכנולוגיה עלולה להביא איתה.

בין הדאגות מונים המתריעים את הפוטנציאל של הטכנולוגיה להטיה ואפליה; להקטנה משמעותית במשרות שמיועדות לבני המין האנושי שיוחלפו ברובוטים, מצב שעלול להוביל לאבטלה המונית ולבעיות כלכליות; להפרעה משמעותית בתחומי הפרטיות והמעקב; ובעיקר מפני מצב שה-AI תתחיל לקבל החלטות הרות גורל, תשולב במלחמות ובצבאות (עניין שכמובן כבר קורה כיום), וכן שהטכנולוגיה אפילו תילחם בעצמה בבני האנוש ותשמיד אותם, כך בתסריטי אימה שונים שהושמעו כבר על ידי כמה וכמה מומחים. 

לאחרונה התבטאו מספר דמויות בולטות בנושא הסכנות הפוטנציאליות של ה-AI. יזם הטק אילון מאסק, מנכ"ל טסלה, טוויטר ו-SpaceX בין השאר, היה "קולני" במיוחד בדאגותיו לגבי הטכנולוגיה ואף נכלל בין יוזמי מכתב פתוח שקרא לעצירת הפיתוחים בתחום ולקידום רגולציה ופיקוח רב יותר עליו בגין סכנותיו. יצוין עם זאת שמאסק בעצמו פתח מעבדת בינה מלאכותית ובה הוא ינסה להגיע לפיתוח של כפיל ChatGPT יותר אחראי ומוצלח – בעצמו.

אפשר ש-הינטון יצטרף כעת אל הפיזיקאי והקוסמולוג הנודע, סטיבן הוקינג, שאמר כבר ב-2014, בראיון ל-BBC, כי "פיתוח של AI מלאה יכול לאיית את סופו של המין האנושי", ושקרא להגביר מחקר על הסיכונים והסכנות הפוטנציאליים של ה-AI.

תגובות

(1)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

  1. יסמין נגבי

    הכתבה משעממת ולא ראויה. כי מוסבר לי שאחד ממפתחי ואנשי הבינה המלאכותית, החליט לצאת ולדבר על מה שהוא עשה ושנים, וחלף הזמן מותק. אתה היית בחוד החנית ואתה לא יכול לבקר את המערכת הזאת כאחרון המהנדסים של גוגל. תבקר את עצמך ואת מפעל חייך, אם יורשה לי לקצר את המריחה של תואריו וחשיבותו. ובנאדם כזה לא נולד להנהיג, כי הוא היה צריך לשבת במשרד ולדאוג שהבעיות שלפתע מטרידות אותו (איפה הוא היה שנים? כמה האספרגר קשה?) ושהן תוצר של עבודתו, בין היתר, יפתרו או יהיה ענה להשלכות עתידיות. והכי גרוע, הוא לא גורם לי לפקפק בעצמי או בקהל המשתמשים. מיד החשד הוא מה החברה שהוא היה חלק ממנה, תעשה. אתה לא יכול להוציא את עצמך מתמונה שאתה אחד מצייריה ולבקר אותה כאילו אין לך חלק משמעותי ביצירתה. מוסר, מה שאין לו והוא דואג שמא לי וא לגוגל תהיה בעיה עם זה. מביש.

אירועים קרובים