בריטניה: אפל מואשמת בהתעלמות מתוכן המנצל ילדים מינית

ההאגודה הלאומית של בריטניה למניעת ניצול ילדים, ה-NSPCC, פרסמה דו"ח ובו טענות וממצאים עוכרי שלווה שענקית הטק האמריקנית לא הקפידה על ניקיון תכני ניצול מיני של ילדים (CSAM) משירותיה, ה-iCloud וה-iMessage

חושפת תכנים אסורים דרך שירותיה? אפל.

האגודה הלאומית של בריטניה למניעת ניצול ילדים, ה-NSPCC (ר"ת The National Society for the Prevention of Cruelty to Children) האשימה השבוע את ענקית הטכנולוגיה האמריקנית אפל ב"דיווח חסר ברור" אודות חומרי ניצול מיני של ילדים (CSAM – ר"ת Child Sexual Abuse Materials), ובכישלון ביעילותה לנטר את הפלטפורמות שלה או אפילו לסרוק ולאתר בהן חומרים אסורים שכאלו.

הארגון טוען שהשירותים iCloud ו-iMessage של אפל שימשו "טורפי" ילדים – משמע מי שניסה לנצל מינית קטינים – כדי לאחסן ולהחליף CSAM בתדירות גבוהה יותר ממה שדיווחה החברה.

החשיפה המדאיגה מגיעה לאחר שה-NSPCC אספה נתונים משטרתיים באמצעות בקשות במסגרת חופש מידע, והראתה הוכחות לכך שאפל הייתה מעורבת ב-337 עבירות מתועדות של תמונות אביוז של ילדים באנגליה ובוויילס בלבד, בין אפריל 2022 למרץ 2023. הממצא המסוים מנוגד לחלוטין ל-267 המקרים בלבד בכל רחבי העולם(!), עליהם דיווחה אפל למרכז הלאומי לילדים נעדרים ומנוצלים, ה-NCMEC (ר"ת National Center for Missing & Exploited Children) אשתקד.

לשם השוואה, גוגל דיווחה על יותר מ-1.47 מיליון מקרים שכאלו, ואילו מטא דיווחה על יותר מ-30.6 מיליון מקרי תוכן ובו ניצול מיני של ילדים, מה שהדגיש את ספירת החסר המשמעותית של אפל.

הצפנה ופרטיות המשתמשים על חשבון ביטחון הילדים?

שירות המסרים המיידים של החברה, ה-iMessage, המוצפן מקצה לקצה, ספג ביקורת קשה, משום שבשל אופיו השירות מונע מ-אפל לצפות בנתונים שנשלחו באמצעותו, מה שמעלה חששות לגבי יכולתה של החברה לזהות ולמנוע את התפשטות ה-CSAM. בנוסף, הגנת הנתונים המתקדמת של אפל בשירותה ה-iCloud מאפשרת, כך נטען, למשתמשים להגן על הנתונים שלהם, מה שמגביל עוד יותר את היכולת של אפל לנטר תוכן שעלול להזיק לקטינים וחסרי ישע.

ריצ'רד קולארד, ראש מדיניות בטיחות ילדים מקוונת ב-NSPCC, הדגיש את חששות הארגון ערב הממצאים, והצהיר: "יש סתירה מדאיגה בין מספר עבירות התמונות של התעללות בילדים בבריטניה, המתרחשות בשירותי אפל, לבין המספר הכמעט זניח של דיווחים גלובליים על תוכן ניצול שהם (אפל – ג"פ) מגישים לרשויות".

אפל, הידועה בעמדתה המחמירה בנוגע לפרטיות המשתמשים ולהצפנה, ספגה ביקורת בעבר על גישתה לאיתור CSAM. לפני כשנתיים החברה נטשה את תוכניותיה להחיל כלי לסריקת תמונות ב-iCloud, על רקע תגובה של תומכי פרטיות שחששו שהכלי עלול לסכן את אבטחת המידע של המשתמשים. המבקרים טענו אז גם כי כלים שכאלה עלולים להיות מנוצלים למטרות מעקב רחבות יותר, ולערער את המחויבות של אפל לפרטיות משתמשיה.

האם הבינה המלאכותית שתיכנס למוצרי אפל תחמיר את הבעיה?

שרה גרדנר, מנכ"לית יוזמת Heat, עמותה מלוס אנג'לס המתמקדת בהגנה על ילדים, הביעה אכזבה מהתנהלות אפל, לכאורה, שהמעיטה בדיווח ובאיתר תוכן המנצל מינית ילדים, ומאי הנכונות שלה להפעיל טכנולוגיות AI מתקדמות לטובת המאמץ החשוב, אך בתוך שילובן עם אמצעי בטיחות מספקים. גרדנר אמרה ל-גרדיאן הבריטי כי שהיא רואה בפלטפורמות של אפל "חור שחור" המסתיר CSAM, והוסיפה שהיא צופה כי תוכניות החברה להכניס בינה מלאכותית לפלטפורמות שלה יעצימו את הבעיה, ואולי אף יקלו על הפצת CSAM שנוצר על ידי AI.

על אף חומרתם, אפל טרם הגיבה לממצאי הדו"ח של ה-NSPCC – המדגישים חששות רחבים יותר לגבי תפקידה של תעשיית הטכנולוגיה במאבק ב-CSAM. ענקית ה-iPhone הדגישה בעבר, כאמור, דווקא את מחויבותה לפרטיות ואבטחת משתמשים, וטענה ששיטות ההצפנה שלה מונעות ממנה לגשת לתכניהם ב-iMessage ולנתוני iCloud מסוימים. גישתה זו הציבה את אפל, לכאורה, בעמדה נגד מאמצי חקיקה שעלולים לאלץ חברות טכנולוגיה ליישם מנגנוני גישה לדלת אחורית, למטרות אכיפת חוק, גם כשמדובר על הגנה על ילדים.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים