רגולציה על ה-AI: במקום לדבר – להתחיל לעשות
אישור חוק הבינה המלאכותית באיחוד האירופי הוא אחד הצעדים החשובים ביותר בתחום הבינה המלאכותית, שיאלץ את החברות לעשות ולא רק לפרסם "קולות קוראים" וניירות עמדה, שקוראים לקחת אחריות, אבל נשארים על הנייר
האישור של האיחוד האירופי בהקשר לערכת כלים להתמודדות עם הסכנות והבעיות האתיות שנמצאות בבסיס השימוש בבינה המלאכותית, ערכת תקנות וחוקים שכבר זכתה לכינוי EU AI, הוא אחד הצעדים החשובים ביותר בתחום הבינה המלאכותית, שהפכה לכה פופולרית בשנתיים האחרונות פחות או יותר.
החשיבות של חוק הבינה המלאכותית הזה הוא, שהוא שם במרכז הבמה הרגולטורית את העובדה, שהבינה המלאכותית מסוכנת בהיבטים רבים שלה בדיוק כמו שהיא יכולה להיטיב. הוא חשוב מכיוון שהממשל האירופי בעצם יכריח את החברות העוסקות בתחום להתחיל לקחת אחריות, וכמו שגופים רבים בשוק הטכנולוגי יודעים, הקנסות מגיעים מהר מאוד כשבאיחוד פותחים בחקירה לגבי נושא טכנולוגי כזה או אחר – גוגל, מיקרוסופט, אפל ואחרות ראו איך פעם אחר פעם הן נאלצות לשנות את ההתנהלות שלהן ביבשת האירופית לעומת מקומות אחרים בעולם כשהאיחוד מתעקש על כך.
האיחוד הפך לסוג של אור לגוים, במיוחד כשבצפון אמריקה הממשל האמריקני בעיקר, אבל גם הקנדי, מפחדים ללכת עד הסוף ולהטיל אחריות.
האם זה יגרום לשינוי מהותי במה שקורה בשוק? לא בטוח, כי גם באיחוד לא רוצים למשוך את השטיח מתחת לפעילות הבינה המלאכותית העצומה שמתרחשת בכל מקום ברחבי היבשת, וגם בעולם – המטרה היא סוף סוף להתחיל לפקח עליה.
זה בוודאי טוב הרבה יותר מכל מיני מכתבים ו"קולות קוראים", מסמכים וניירות עמדה וכדומה, שחתומים עליהם דמויות מובילות במשק, אנשי מדע וכדומה שקראו לקחת אחריות.
זוכרים את מסמך המדענים מלפני שבוע לערך, זה שעליו חתמו מאות מדענים מעשרות אוניברסיטאות ברחבי העולם, שקוראים לשימוש אחראי וזהיר בבינה מלאכותית בעת שימוש לצורך פיתוח ביולוגי של מולקולות, ובמיוחד של חלבונים? כן, זה בדיוק כזה.
האם יש מישהו שבאמת יכול לעצור אדם או גוף שרוצים לגרום נזק? זה מה שלימדו אותנו החיים עד היום, בטח בגרסתם המודרנית? רק בסרטים יש מדענים מטורפים או אנשים עם יותר מדי כסף, וגם בלי, שפשוט רוצים להרע לעולם? הרי די במדען אחד על כל 1,000, על כל 10,000 או 100,000, שיחליט שהוא משתמש בבינה מלאכותית כדי ליצור נשק ביולוגי מבוסס חלבונים מהונדסים, אם מתייחסים לדוגמה שלעיל. החסרנו קונספירציות? החסרנו גופים ממשלתיים שמחליטים בכל זאת לעשות את זה, או שלא, תלוי באיזה צד של המפה נמצאים באותו רגע? הרי זה קרה עוד לפני שהייתה כאן בינה מלאכותית שרק תזרז עניינים. האם חסר איזה גוף פשע, אחד מ-10, אחד מ-100 או אחד מ-1,000 שכיום מנסה לגרום לחברות לשלם הרבה כסף עם השתלת כופרה בשרתים שלהן, שיחליט שאולי זה יצליח יותר עם חלבון שהוא יכול להנדס אפילו לבד, אם לא לקנות?
הבינה המלאכותית התפרצה לחיים שלנו בלי מספיק מנגנוני הגנה, וכאמור, כמובן גם אי אפשר להתעלם מהדברים הטובים שהיא יכולה לתרום לחיים בכלל, ובטח למדע – או כפי שמציינים המדענים עצמם, לזרז את הייצור של תרופות בעת שיש צורך בתגובה מהירה למגפה כדוגמת הקורונה, שכמובן עוד עמוק בקרבנו.
אבל אפשר להפסיק לדבר על זה, ואני לא רוצה לכתוב מילים חריפות יותר – המכתב הזה, כמו נאומים של עוד רבים אחרים במשק, כולל הטכנולוגי, הוא לא יותר ממס שפתיים. אומרים משהו שחייבים לומר, כנראה. אל תעשו שימוש לרעה. נקודה. תפסיקו לספר שלא תעשו את זה.
התקווה שלי, שההחלטה הזאת של האיחוד תשנה את הכיוון – במקום לדבר, להתחיל לעשות. אני מקווה שזה כמו בנושא של הגנת הפרטיות הדיגיטלית, כמו בנושאים אחרים שבהם התערבו הגופים של האיחוד האירופי, גם EU AI יוביל לחקיקה של חוקים ברורים ומוגדרים, שיאפשרו לפעול באמת מול מי שינסה להשתמש בבינה מלאכותית לרעה – ויותר חשוב, שיתקדמו הלאה ויבנו גוף אכיפה אירופי משולב, שיידע להתמודד עם הבעיות שאם עוד לא צצו, בהחלט יגיעו. שלא יהיה ספק.
תגובות
(0)