IOS 15.2 זיהוי עירום יהיה במכשיר ותקבל הסכמה

IOS 15.2 זיהוי עירום יהיה במכשיר ותקבל הסכמה
IOS 15.2 זיהוי עירום יהיה במכשיר ותקבל הסכמה
Anonim

Apple תתקדם עם תכונת זיהוי העירום שלה, הגנה על ילדים באפליקציית Messages עבור iOS 15.2, אבל ההורים יצטרכו להפעיל אותה.

כאשר אפל חשפה לראשונה את תכונות ההגנה על ילדים שלה, הם נתקלו בתגובה קריטית למדי, מה שהביא לעיכוב של ההשקה המתוכננת. דאגת הפרטיות הגדולה ביותר - אפל סורקת תמונות iCloud לאיתור חומרי התעללות מינית בילדים (CSAM) - עדיין בהמתנה, אך לפי בלומברג, עדכון ההודעות מיועד לצאת עם iOS 15.2. עם זאת, אפל אומרת שהיא לא תהיה מופעלת כברירת מחדל, ושניתוח תמונות יתרחש במכשיר, כך שלא תהיה לה גישה לחומרים שעלולים להיות רגישים.

Image
Image

לפי אפל, לאחר הפעלת התכונה, התכונה תשתמש בלמידה מכונה במכשיר כדי לזהות אם תמונות שנשלחו או התקבלו בהודעות מכילות חומר מפורש. זה יטשטש תמונות נכנסות שעלולות להיות מפורשות ותזהיר את הילד או יתן לו אזהרה אם הוא שולח משהו שעשוי להיות מפורש.

בשני המקרים, לילד תהיה גם אפשרות ליצור קשר עם הורה ולספר לו מה קורה. ברשימה של שאלות נפוצות, אפל מציינת כי עבור חשבונות ילדים מגיל 12 ומטה, הילד יקבל אזהרה שייצור קשר עם הורה אם יראה/ישלח חומר מפורש. עבור חשבונות ילדים בין הגילאים 13-17, הילד מוזהר מפני הסיכון האפשרי, אך לא ייצרו קשר עם ההורים.

Image
Image

באותן שאלות נפוצות, אפל מתעקשת שאף מידע מהמידע לא ישותף עם גורמים חיצוניים, כולל אפל, רשויות אכיפת החוק או ה-NCMEC (המרכז הלאומי לילדים נעדרים ומנוצלים).

אפשרויות בטיחות ילדים חדשות אלה עבור Messages אמורות להיות זמינות בעדכון הקרוב ל-iOS 15.2, שצפוי לצאת מתישהו החודש, לפי Macworld.

מוּמלָץ: