CSAM

חושפת תכנים אסורים דרך שירותיה? אפל.

בריטניה: אפל מואשמת בהתעלמות מתוכן המנצל ילדים מינית

ההאגודה הלאומית של בריטניה למניעת ניצול ילדים, ה-NSPCC, פרסמה דו"ח ובו טענות וממצאים עוכרי שלווה שענקית הטק האמריקנית לא הקפידה על ניקיון תכני ניצול מיני של ילדים (CSAM) משירותיה, ה-iCloud וה-iMessage

דורש מהעובדים לחזור לעבודה במשרד שלושה ימים בשבוע. מנכ"ל אפל, טים קוק.

אפל מודיעה על דחייה בהפעלת המערכת לזיהוי תכנים פדופיליים

בעקבות הסערה והביקורות שעוררה תוכניתה של אפל להפעיל תכונות לאבטחה של ילדים הודיעה החברה על דחייה בהשקתן לצורך עריכה של התאמות נוספות לפני ההשקה

מהפיכה: אפליקציות צד שלישי במכשירי אפל.

המערכת החדשה של אפל לזיהוי תכנים פדופיליים מעוררת סערה

אפל הכריזה על מערכת חדשה, שתופעל מאוחר יותר השנה, המזהה תכנים הקשורים להתעללות מינית בילדים בחשבונות של משתמשים, שעוררה מיד תגובות מצד ארגוני פרטיות ומומחי אבטחה ● בעקבות הסערה שחוללה, הודיעה אפל על שינויים בתוכנית

תובענה ייצוגית על אי הסרת תכני ניצול מיני של ילדים. רדיט. צילום: BigStock

תביעה ייצוגית נגד רדיט: לא הסירה פורנוגפיה פדופילית מהשירות

נער תיעד את חברתו בת ה-16 - בלי ידיעתה או הסכמתה - בתמונות וסרטוני פורנו, שמעצם גילה הצעיר אז נכללים בקטגוריה 'תכנים פדופיליים' ● כשבגרו החל להפיץ אותם בבדיט, שלא נלחמה לכאורה מספיק בתופעה ● כעת החברה עלולה לשלם על כך - וביוקר

אירועים קרובים