מזונות חשובים
- לפי הדיווחים Zoom אמר שהוא ישתמש בבינה מלאכותית כדי להעריך את הסנטימנט או את רמת המעורבות של המשתמש.
- קבוצות לזכויות אדם מבקשות מ-Zoom לחשוב מחדש על התוכנית שלה בשל חששות פרטיות ואבטחת מידע.
- חברות מסוימות משתמשות גם בתוכנה לזיהוי רגשות במהלך ראיונות כדי להעריך אם המשתמש שם לב.
השימוש ההולך וגובר בבינה מלאכותית (AI) לניטור רגשות אנושיים מעורר חששות בפרטיות.
ארגוני זכויות אדם מבקשים מ-Zoom להאט את התוכנית שלה להכניס AI לניתוח רגשות לתוכנת ועידת הווידאו שלה. לפי הדיווחים, החברה אמרה שהיא תשתמש בבינה מלאכותית כדי להעריך את הסנטימנט או את רמת המעורבות של המשתמש.
"מומחים מודים שניתוח רגשות לא עובד", כתב הקונסורציום של ארגוני זכויות אדם, כולל ACLU, במכתב לזום. "הבעות פנים מנותקות לעתים קרובות מהרגשות שמתחת, ומחקר מצא שאפילו בני אדם לא יכולים לקרוא במדויק או למדוד את רגשותיהם של אחרים חלק מהזמן. פיתוח הכלי הזה מוסיף אמון לפסאודו-מדע ומעמיד את המוניטין שלך על כף המאזניים."
Zoom לא הגיב מיד לבקשה של Lifewire להגיב.
לשמור על הרגשות שלך
לפי מאמר הפרוטוקול, מערכת ניטור זום בשם Q for Sales תבדוק את יחס זמן הדיבור של המשתמשים, השהיית זמן התגובה ושינויים תכופים של הדובר כדי לעקוב אחר מידת המעורבות של האדם.זום ישתמש בנתונים האלה כדי להקצות ציונים בין אפס ל-100, כאשר ציונים גבוהים יותר מצביעים על מעורבות או סנטימנט גבוהים יותר.
קבוצות זכויות האדם טוענות שהתוכנה עלולה להפלות אנשים עם מוגבלויות או מוצא אתני מסוימות בהנחה שכולם משתמשים באותן הבעות פנים, דפוסי קול ושפת גוף כדי לתקשר. הקבוצות גם טוענות שהתוכנה עלולה להוות סיכון אבטחת נתונים.
"קצירת נתונים אישית עמוקה עלולה להפוך כל ישות שתפרוס את הטכנולוגיה הזו למטרה לחטטנות ברשויות ממשלתיות והאקרים זדוניים", לפי המכתב.
ג'וליה סטויאנוביץ', פרופסור למדעי המחשב והנדסה באוניברסיטת ניו יורק, אמרה ל-Lifewire בראיון באימייל שהיא סקפטית לגבי הטענות מאחורי זיהוי רגשות.
"אני לא רואה איך טכנולוגיה כזו יכולה לעשות - הביטוי הרגשי של אנשים הוא מאוד אינדיבידואלי, מאוד תלוי תרבותית ומאוד ספציפי להקשר", אמר סטויאנוביץ'."אבל, אולי אפילו יותר חשוב, אני לא מבין למה אנחנו רוצים שהכלים האלה יעבדו. במילים אחרות, היינו בצרות עוד יותר אם הם יעבדו טוב. אבל אולי אפילו לפני שנחשוב על הסיכונים, אנחנו צריכים שאל-מה היתרונות הפוטנציאליים של טכנולוגיה כזו?"
Zoom היא לא החברה היחידה שמשתמשת בתוכנה לזיהוי רגשות. תיאו וילס, המנהל הבכיר לפרטיות ב-Kuma LLC, חברת ייעוץ לפרטיות ואבטחה, אמר ל-Lifewire בדוא ל כי נעשה שימוש בתוכנה לזיהוי רגשות במהלך ראיונות כדי להעריך אם המשתמש שם לב. זה גם נבדק בתעשיית התחבורה כדי לפקח אם נהגים נראים מנומנמים, בפלטפורמות וידאו כדי לאמוד עניין ולהתאים המלצות, ובהדרכות חינוכיות כדי לקבוע אם שיטת הוראה מסוימת מושכת.
Wills טען שהמחלוקת סביב תוכנה לניטור רגשות היא יותר שאלה של אתיקה של נתונים מאשר פרטיות. היא אמרה שזה קשור למערכת שמקבלת החלטות בעולם האמיתי על סמך השערות.
"עם הטכנולוגיה הזו, אתה מניח עכשיו את הסיבה שיש לי הבעה מסוימת על הפנים שלי, אבל הדחף מאחורי הבעה משתנה מאוד בגלל דברים כמו חינוך חברתי או תרבותי, התנהגויות משפחתיות, חוויות עבר או עצבנות ברגע זה", הוסיף ווילס. "התבססות של האלגוריתם על הנחה היא פגומה מטבעה ועלולה להפלות. אוכלוסיות רבות אינן מיוצגות באוכלוסיה שעליה מבוססים האלגוריתמים, ויש לתעדף ייצוג מתאים לפני שיש להשתמש בזה."
שיקולים מעשיים
הבעיות שמעוררות תוכנת מעקב אחר רגשות עשויות להיות מעשיות וגם תיאורטיות. מאט הייזי, המייסד השותף של Ferret.ai, אפליקציה מונעת בינה מלאכותית המספקת אינטליגנציה ביחסים, אמר ל-Lifewire באימייל שמשתמשים צריכים לשאול היכן מתבצע ניתוח הפנים ואילו נתונים מאוחסנים. האם המחקר נעשה על הקלטות שיחות, מעובד בענן או במכשיר המקומי?
כמו כן, שאלה הייזי, כפי שהאלגוריתם לומד, אילו נתונים הוא אוסף על פניו או תנועותיו של אדם שעלולות להתנתק מהאלגוריתם ולהשתמש בהם כדי ליצור מחדש את הביומטריה של מישהו? האם החברה מאחסנת צילומי מצב כדי לאמת או לאמת את הלמידה של האלגוריתם, והאם המשתמש מקבל הודעה על נתוני נגזר חדש זה או תמונות מאוחסנות שאולי נאספים מהשיחות שלו?
"כל אלה בעיות שחברות רבות פתרו, אבל יש גם חברות שזדעזעו משערורייה כשמתברר שהן לא עשו זאת כהלכה", אמרה הייזי. "פייסבוק היא המקרה המשמעותי ביותר של חברה שהחזירה לאחור את פלטפורמת זיהוי הפנים שלה בגלל דאגות לגבי פרטיות המשתמש. חברת האם Meta מושכת כעת תכונות AR מאינסטגרם בכמה תחומי שיפוט כמו אילינוי וטקסס בגלל חוקי פרטיות סביב נתונים ביומטריים."