CSAM
בריטניה: אפל מואשמת בהתעלמות מתוכן המנצל ילדים מינית
ההאגודה הלאומית של בריטניה למניעת ניצול ילדים, ה-NSPCC, פרסמה דו"ח ובו טענות וממצאים עוכרי שלווה שענקית הטק האמריקנית לא הקפידה על ניקיון תכני ניצול מיני של ילדים (CSAM) משירותיה, ה-iCloud וה-iMessage
אפל מודיעה על דחייה בהפעלת המערכת לזיהוי תכנים פדופיליים
בעקבות הסערה והביקורות שעוררה תוכניתה של אפל להפעיל תכונות לאבטחה של ילדים הודיעה החברה על דחייה בהשקתן לצורך עריכה של התאמות נוספות לפני ההשקה
המערכת החדשה של אפל לזיהוי תכנים פדופיליים מעוררת סערה
אפל הכריזה על מערכת חדשה, שתופעל מאוחר יותר השנה, המזהה תכנים הקשורים להתעללות מינית בילדים בחשבונות של משתמשים, שעוררה מיד תגובות מצד ארגוני פרטיות ומומחי אבטחה ● בעקבות הסערה שחוללה, הודיעה אפל על שינויים בתוכנית
תביעה ייצוגית נגד רדיט: לא הסירה פורנוגפיה פדופילית מהשירות
נער תיעד את חברתו בת ה-16 - בלי ידיעתה או הסכמתה - בתמונות וסרטוני פורנו, שמעצם גילה הצעיר אז נכללים בקטגוריה 'תכנים פדופיליים' ● כשבגרו החל להפיץ אותם בבדיט, שלא נלחמה לכאורה מספיק בתופעה ● כעת החברה עלולה לשלם על כך - וביוקר