למה תוכנת פרופילים חדשה מעוררת חששות בפרטיות

תוכן עניינים:

למה תוכנת פרופילים חדשה מעוררת חששות בפרטיות
למה תוכנת פרופילים חדשה מעוררת חששות בפרטיות
Anonim

מזונות חשובים

  • תוכנה המשתמשת בבינה מלאכותית כדי ליצור פרופיל אנשים מעלה חששות בפרטיות.
  • Cryfe משלב טכניקות ניתוח התנהגותי עם בינה מלאכותית.
  • החברה הסינית עליבאבא התמודדה לאחרונה עם ביקורת לאחר שלפי הדיווחים אמרה שהתוכנה שלה יכולה לזהות אויגורים ומיעוטים אתניים אחרים.
Image
Image

תוכנה חדשה המופעלת על ידי בינה מלאכותית שנועדה למעסיקים ליצור פרופיל של העובדים שלהם מעוררת חששות בפרטיות.

פלטפורמת תוכנה חדשה אחת, בשם Cryfe, משלבת טכניקות של ניתוח התנהגות עם בינה מלאכותית. המפתח טוען כי על ידי ניתוח רמזים זעירים, התוכנה יכולה לחשוף את כוונותיהם של אנשים במהלך ראיונות. אבל כמה משקיפים אומרים ש-Cryfe וסוגים אחרים של תוכנות שמנתחות התנהגות עלולות לפלוש לפרטיות.

"חברות מסתמכות יותר ויותר על בינה מלאכותית ליצירת פרופיל", אמר מומחה הבינה המלאכותית ואצלב וינקל בראיון באימייל. "אבל אפילו בני האדם שמקודדים את האלגוריתמים האלה, הרבה פחות איש תמיכת לקוחות שאליו אתה מגיע בטלפון, לא יכלו להגיד לך למה הם ממליצים כלשהם."

יותר ממילים

Cryfe פותחה על ידי חברה שוויצרית שעובדיה הוכשרו על ידי ה-FBI בטכניקות יצירת פרופילים. "קרייף, בכל תקשורת בינאישית, לא רק מקשיב למילים, אלא מזהה אותות אחרים הנפלטים על ידי האדם כמו רגשות, מיקרו-ביטויים וכל המחוות", אמרה קרוליין מטוצ'י, המייסדת של קרייפ, בראיון באימייל.

"במהלך הגיוס, למשל, זה מאפשר לנו ללכת ולחפש את האישיות האמיתית של בן השיח שלנו."

Matteucci אמר שהפרטיות של המשתמשים מוגנת מכיוון שהחברה שקופה לגבי אופן פעולת התוכנה שלה. "המשתמש, לפני שהוא יוכל להשתמש בפלטפורמה, חייב לקבל את התנאים הכלליים", אמרה.

"שם מצוין כי המשתמש אינו רשאי בשום מקרה להגיש ראיון לניתוח מבלי שקיבל את הסכמתו בכתב של בן השיח."

Cryfe היא לא התוכנה היחידה המופעלת בבינה מלאכותית שמתיימרת לנתח התנהגות אנושית. יש גם Humantic, שמתיימר לנתח התנהגות צרכנים. "הטכנולוגיה פורצת הדרך של הומנטיק חוזה את ההתנהגות של כולם מבלי שהם יצטרכו לעבור מבחן אישיות", לפי אתר האינטרנט של החברה.

Image
Image

החברה טוענת שהיא משתמשת בבינה מלאכותית כדי ליצור פרופילים פסיכולוגיים של מועמדים על סמך המילים שהם משתמשים בקורות החיים, מכתבי כיסוי, פרופילי LinkedIn וכל פיסת טקסט אחרת שהם שולחים.

תוכנת התנהגות נקלעה לאתגרים משפטיים בעבר. בשנת 2019, חוק בלומברג דיווח כי ועדת שוויון הזדמנויות בעבודה (EEOC) בחנה מקרים של אפליה בלתי חוקית לכאורה עקב החלטות הקשורות לאלגוריתם הקשורות ל-HR.

"כל זה צריך להיפתר כי עתיד הגיוס הוא AI", אמר עורך הדין ברדפורד ניומן לבלומברג.

יש משקיפים שמתלבטים עם חברות המשתמשות בתוכנת מעקב התנהגותית כי היא לא מספיק מדויקת. בראיון אמר נייג'ל דאפי, מוביל בינה מלאכותית עולמית בחברת השירותים המקצועיים EY, ל-InformationWeek שהוא מוטרד מתוכנה שמשתמשת בחידוני מדיה חברתית וזיהוי משפיעים.

"אני חושב שיש ספרות ממש משכנעת על הפוטנציאל לזיהוי השפעות, אבל ההבנה שלי היא שהדרך המיושמת לעתים קרובות היא די נאיבית", הוא אמר.

"אנשים מסיקים מסקנות שהמדע לא באמת תומך [כגון] החלטה שמישהו הוא עובד פוטנציאלי טוב כי הוא מחייך הרבה או מחליט שמישהו אוהב את המוצרים שלך כי הוא מחייך הרבה."

חברות סיניות לפי הדיווחים מיעוטים בפרופיל

למעקב התנהגותי יכולות להיות גם מטרות מרושעות יותר, אומרים כמה ארגוני זכויות אדם. בסין, ענקית השוק המקוון עליבאבא עוררה לאחרונה סערה לאחר שלפי הדיווחים טענה שהתוכנה שלה יכולה לזהות אויגורים ומיעוטים אתניים אחרים.

הניו יורק טיימס דיווח כי לעסקי מחשוב הענן של החברה יש תוכנה שתסרוק תמונות וסרטונים.

אבל אפילו בני האדם שמקודדים את האלגוריתמים האלה…לא יכלו להגיד לך למה הם ממליצים כלשהם.

הוושינגטון פוסט גם דיווח לאחרונה ש-Huawei, חברת טכנולוגיה סינית נוספת, בדקה תוכנה שיכולה להתריע בפני רשויות אכיפת החוק כאשר מצלמות המעקב שלה זיהו פנים אויגוריות.

בקשת פטנט משנת 2018 של Huawei טענה כי "זיהוי תכונות הולכי רגל חשוב מאוד" בטכנולוגיית זיהוי פנים."התכונות של אובייקט היעד יכולות להיות מגדר (זכר, נקבה), גיל (כגון בני נוער, בגיל העמידה, זקן) [או] גזע (האן, אויגורי)," נכתב באפליקציה.

דובר Huawei אמר ל-CNN Business כי תכונת הזיהוי האתנית הייתה "מעולם לא הייתה הופכת לחלק מהאפליקציה."

השימוש ההולך ומתרחב בבינה מלאכותית כדי למיין כמויות עצומות של נתונים חייב להעלות חששות בפרטיות. ייתכן שלעולם לא תדע מי או מה מנתח אותך בפעם הבאה שאתה הולך לראיון עבודה.

מוּמלָץ: