הקושי לאזן בין הרצון לקדמה ובין הצורך בפרטיות
בעולם טכנולוגי שמתקדם בקצב מסחרר, יש לנו קושי אמיתי לאזן בין הרצון לקדמה טכנולוגית לבין הרצון להשאיר לנו פיסת מידע פרטית ● הרגולציה, כהרגלה, מתעכבת - ואנו נותרים חשופים ונתונים לחסדי אחרים
לשימוש בטכנולוגיה יש יתרונות רבים. היא מאפשרת ללמוד על קום המדינה מפיו של דמותו של בן גוריון במוזיאון במקום ממדריך שנולד שנים רבות אחרי קום המדינה, או להתרגש לשמוע על השואה מדמות וירטואלית של ניצול שואה במקום לקרוא על כך בספר עב כרס. ואולם החשש שלצערי מתממש כבר בימים אלה הוא לקיחת הטכנולוגיה המופלאה הזאת לשימוש פסול, להתחזות וגניבת זהות או להשפלה ברבים של אנשים תמימים.
גניבת זהות היא עניין רציני. כבר שמענו על מקרים שבהם פושעים הצליחו לבצע הונאות כספיות בהיקפים משמעותיים, ויש גם שמועות בקשר להטיית בחירות בהקשרים של DeepFake, כי עם התקדמות הטכנולוגיה, גם פשעי הסייבר משתכללים.
בעולם טכנולוגי שמתקדם בקצב מסחרר, יש לנו קושי אמיתי לאזן בין הרצון לקדמה טכנולוגית לבין הרצון להשאיר לנו פיסת מידע פרטית. הרגולציה, כהרגלה, מתעכבת – ואנו נותרים חשופים ונתונים לחסדי אחרים.
טכנולוגיית ה-DeepFake נעשית באמצעים טכנולוגים המבוססים על למידה עמוקה (Deep Learning), השייכים לתחום הבינה המלאכותית. טכנולוגיה זו מאפשרת לייצר תוכן דיגיטלי מזויף שעבר מניפולציה, ובין היתר להשתיל פנים של אדם על גוף שאינו שלו, או שינוי של תנועות השפתיים.
קיימים בשוק כלים שונים, המאפשרים יצירת תוכן שכזה ברמות אותנטיות שונות. עם הזמן, המכונות האלה יוזנו בתמונות וסרטונים רבים ואמיתיים, והן ייהפכו לחכמות יותר, והתוכן ייראה אמיתי יותר – עד שיהיה ממש מאתגר להבדיל בין מקור לזיוף.
"מדינות ברחבי העולם כבר מתחילות לחשוב כיצד ואיך לאמץ מסגרות משפטיות רלוונטיות, שמצד אחד יעודדו חדשנות ומחקר, ומצד שני ידאגו לאזן את הטכנולוגיה אל מול זכויות אדם. בינתיים, ועד שהתחום יוסדר, אנחנו צריכים להתרגל לבצע חשיבה ביקורתית ולא להאמין לכל מה שאנחנו רואים ושומעים"
לא רחוק היום שבו סרטונים ותמונות יזויפו בצורה כה איכותית, עד שלא נדע להבדיל בין זיוף למקור – וכל מסר יהיה בגדר חשוד. דמיינו כמה קשה יהיה לחיות בעולם ללא אמון. רק שהפעם לא מדובר על בגדים או על סלוגן שחוק, כמו "Same same but different", אלא מדובר בתוכן שאנשים צורכים, שעלול להשפיע על חייהם בצורה ישירה, לרבות על צרכנים, ילדים ומקבלי החלטות – וזה כבר מסוכן מאוד.
DeepFake כגורם סיכון חדש
נושא ההונאות העסיק מאז ומעולם את המגזר העסקי, אבל באמצעות התקדמות הטכנולוגיה, הוא הופך מאתגר ומשוכלל הרבה יותר, וקיימת חוסר ודאות גדולה בקשר לשימושים בה. שימוש לרעה ב-DeepFake יכול להוביל להתקפות של הנדסה חברתית. בעזרת קמפיין מצד האקרים ניתן להתחזות ללקוחות ולהערים על נציגי החברות השונות לגניבת כספים או קבלה של מידע רגיש ופרטי. המשמעות של מתקפות כאלה היא שהן עלולות להביא לתוצאות קשות, ובהן הפסדים כספיים, פגיעה במוניטין והפרה של רגולציה.
נושא הבינה המלאכותית צריך להיות על סדר היום של שולחן ההנהלה בכל חברה. מקבלי ההחלטות צריכים להכיר את הסיכון המשתכלל ככל שעובר הזמן, ולפתח תשתיות שבעזרתן יוכלו להילחם בתופעה ולצמצם את הסיכון. חברות וארגונים יהיו חייבים לקחת אחריות, לנהל את הסיכון בצורה אפקטיבית ולפתח מתודולוגיות בנושא – ואם לא ישכילו לעשות זאת, הם יישארו הרחק מאחור.
איך להילחם ב-DeepFake?
הרכבת כבר יצאה מהתחנה, והשימוש בטכנולוגיה נרחב וזמין לקהל הרחב. מדינות ברחבי העולם כבר מתחילות לחשוב כיצד ואיך לאמץ מסגרות משפטיות רלוונטיות, שמצד אחד יעודדו חדשנות ומחקר, ומצד שני ידאגו לאזן את הטכנולוגיה אל מול זכויות אדם. בינתיים, ועד שהתחום יוסדר, אנחנו צריכים להתרגל לבצע חשיבה ביקורתית ולא להאמין לכל מה שאנחנו רואים ושומעים.
כדי להתמודד עם הטכנולוגיה, ארגונים צריכים לנקוט כמה צעדים. בין היתר, עליהם להנחיל תרבות ארגונית שכוללת הדרכות בתחום ה-DeepFake והעלאת המודעות של העובדים והמנהלים בתחום. יש להדגיש את הסיכון המתפתח והדרכים להתמודד עימו. בנוסף, נדרש לפתח תשתיות בדמות של מדיניות ונהלים, שיהוו מפת דרכים לארגון ויסייעו לו להתמודד ולהכיל את התופעה. מומלץ להכשיר את הפונקציות השונות בארגון – יח"צ, ממונה על הגנת הפרטיות, יועץ משפטי, טכנולוגיות, אבטחת מידע – לתרחישים שבהם הארגון יתמודד עם מתקפת DeepFake, וחשוב מאוד לקיים תרגולים בנושא.
כמובן, שכל ישר, מודעות ושינוי דפוסי חשיבה הם רלוונטיים מאי פעם בנושא הזה. החל בחינוך של ילדינו ועד למודעות הולכת וגוברת של כלל הציבור. עד שהנושא יוסדר בחקיקה, זכרו את Same same – but different – ואל תאמינו לכל מה שאתם שומעים או רואים.
הכותבת היא ראש תחום הגנת הפרטיות ב-BDO.
תגובות
(0)