אחרי הרבה דחיפות מצד מבקרים ומשתמשים כאחד, אפל דוחה את הצעדים שלה נגד התעללות בילדים.
באוגוסט, ענקית הטכנולוגיה הכריזה תחילה על מדיניות חדשה המשתמשת בטכנולוגיה כדי לזהות תמונות פוטנציאליות של התעללות בילדים ב-iCloud וב-Messages, אך חששות בעקבותיה. מומחים הזהירו שלמרות שאפל הבטיחה פרטיות למשתמשים, הטכנולוגיה תעמיד בסופו של דבר את כל משתמשי אפל בסיכון.
ביום שישי, אפל אמרה שהיא תדחה את השקת הטכנולוגיה לחלוטין כדי לבצע שיפורים ולהבטיח באופן מלא את פרטיות המשתמש.
"בהתבסס על משוב מלקוחות, קבוצות הסברה, חוקרים ואחרים, החלטנו להקדיש זמן נוסף במהלך החודשים הקרובים כדי לאסוף מידע ולבצע שיפורים לפני שחרור תכונות בטיחות ילדים חשובות מאוד", אמרה אפל ב- הצהרה מעודכנת באתר האינטרנט שלה.
טכנולוגיית זיהוי החומרים של התעללות מינית בילדים הייתה אמורה להיות זמינה בהמשך השנה בהשקת iOS 15, אך כעת לא ברור מתי, או אם, התכונה תופיע לראשונה.
הטכנולוגיה החדשה תעבוד בשתי דרכים: ראשית, על ידי סריקת תמונה לפני גיבוי ל-iCloud. אם התמונה הזו תואמת את הקריטריונים של CSAM, אפל תקבל את הנתונים האלה. החלק השני של הטכנולוגיה משתמש בלמידה חישובית כדי לזהות ולטשטש תמונות מיניות בוטה שילדים מקבלים באמצעות הודעות.
עם זאת, לאחר ההכרזה על המדיניות החדשה, תומכי פרטיות וקבוצות אמרו שאפל בעצם פותחת דלת אחורית ששחקנים רעים עלולים להשתמש בה לרעה.
כדי להתמודד עם החששות הללו, אפל פרסמה דף שאלות נפוצות זמן קצר לאחר הכריזה על טכנולוגיית CSAM. אפל הסבירה שהטכנאי לא יסרוק את כל התמונות המאוחסנות במכשיר, ישבור הצפנה מקצה לקצה בהודעות, ולא יסמן אנשים חפים מפשע לרשויות החוק.