אפל מתייחסת לחששות בנוגע לאמצעים חדשים נגד התעללות בילדים

אפל מתייחסת לחששות בנוגע לאמצעים חדשים נגד התעללות בילדים
אפל מתייחסת לחששות בנוגע לאמצעים חדשים נגד התעללות בילדים
Anonim

Apple מסבירה יותר את התהליך הכרוך באמצעים החדשים שלה נגד התעללות בילדים.

ענקית הטכנולוגיה הכריזה על מדיניות חדשה בשבוע שעבר המשתמשת בטכנולוגיה כדי לזהות תמונות פוטנציאליות של התעללות בילדים ב-iCloud ובהודעות. The Verge מדווח כי אפל פרסמה בימים האחרונים עמוד שאלות נפוצות המסביר כיצד נעשה שימוש בטכנולוגיה וכיצד נראים היבטי הפרטיות לאחר שאנשים הביעו דאגה לגבי הצעדים החדשים.

Image
Image

Apple אמרה שהטכנולוגיה שלה מוגבלת במיוחד לאיתור חומרי התעללות מינית בילדים (CSAM) ולא ניתן להפוך אותה לכלי מעקב.

"אחד האתגרים המשמעותיים במרחב הזה הוא הגנה על ילדים תוך שמירה על פרטיות המשתמשים", כתבה אפל בדף השאלות הנפוצות החדש.

"עם הטכנולוגיה החדשה הזו, אפל תלמד על תמונות CSAM ידועות המאוחסנות בתמונות iCloud שבה החשבון מאחסן אוסף של CSAM ידוע. אפל לא תלמד שום דבר על נתונים אחרים המאוחסנים במכשיר בלבד."

הטכנולוגיה פועלת על ידי סריקת תמונה לפני שהיא מגובה ל-iCloud. לאחר מכן, אם תמונה תואמת את הקריטריונים של CSAM, אפל מקבלת את הנתונים של השובר ההצפנה.

קבוצות כמו Electronic Frontier Foundation הביעו את דאגותיהן לגבי הטכנולוגיה בשבוע שעבר, ואמרו כי ניתן "לשמש מחדש את הטכנולוגיה ליצירת מסד נתונים של תוכן 'טרוריסטי' שחברות יכולות לתרום אליו ולגשת אליו במטרה לאסור תוכן כזה."

אחד האתגרים המשמעותיים במרחב הזה הוא הגנה על ילדים תוך שמירה על פרטיות המשתמשים.

עם זאת, עמוד השאלות הנפוצות המפורטות של אפל מתייחס לכמה מהחששות הללו בכך שהוא מפרט שהטכנאי לא יסרוק את כל התמונות המאוחסנות במכשיר, לא ישבור הצפנה מקצה לקצה בהודעות, ושהוא לא יסרוק את כל התמונות המאוחסנות במכשיר. מסמן כוזב אנשים חפים מפשע בפני רשויות החוק.

The Verge מציין שהשאלות הנפוצות של אפל לא מתייחסות לחששות שהועלו לגבי הטכנולוגיה המשמשת לסריקת הודעות וכיצד החברה מבטיחה שהסריקה מתמקדת רק ב-CSAM.

מוּמלָץ: