מזונות חשובים
- ככל שזיופים עמוקים הופכים לקלים יותר להכנה, דרכים חדשות ומשופרות לאיתור אותם הפכו בראש סדר העדיפויות.
- טכנולוגיית הזיהוי העמוק של פייסבוק משתמשת בלמידה חישובית הפוכה כדי לגלות אם סרטון הוא זיוף עמוק או לא.
- מומחים אומרים ששימוש בטכנולוגיית בלוקצ'יין תהיה הדרך הטובה ביותר לראות אם סרטון וידאו אמיתי או לא, מכיוון שהשיטה מסתמכת על נתונים הקשריים.
Facebook בטוחה במודל למידת המכונה שלה כדי להילחם בזיופים עמוקים, אבל מומחים טוענים שלמידת מכונה בפני עצמה לא תציל אותנו מהולכת שולל על ידי זיופים עמוקים.
חברות כמו פייסבוק, מיקרוסופט וגוגל פועלות כולן כדי להילחם בזיופים עמוקים מהתפשטות ברחבי האינטרנט והרשתות החברתיות. אמנם השיטות שונות, אבל יש שיטה אחת פוטנציאלית פוטנציאלית לזהות את הסרטונים השקריים האלה: blockchains.
"[Blockchains] פשוט נותנים לך המון פוטנציאל לאמת את הזיוף העמוק בצורה שהיא צורת האימות הטובה ביותר שאני יכול לראות", סטיבן וולפרם, מייסד ומנכ"ל Wolfram Research ומחבר הספר A New Kind of Science, אמר ל-Lifewire בטלפון.
טכנולוגיית Deepfake-Spotting של פייסבוק
טכנולוגיית Deepfake גדלה במהירות במהלך השנים האחרונות. הסרטונים המטעים משתמשים בשיטות למידת מכונה כדי לעשות דברים כמו הנחת פנים של מישהו על גופו של אדם אחר, לשנות תנאי רקע, סינכרון שפתיים מזויף ועוד. הם נעים בין פרודיות לא מזיקות ועד לגרום לסלבריטאים או אישי ציבור לומר או לעשות משהו שהם לא עשו.
מומחים אומרים שהטכנולוגיה מתקדמת במהירות, ושזיופים עמוקים רק יהיו משכנעים יותר (וקלים יותר ליצירה) ככל שהטכנולוגיה תהיה זמינה יותר וחדשנית יותר.
פייסבוק נתנה לאחרונה תובנות נוספות לגבי טכנולוגיית זיהוי הזיופים העמוקים שלה בשיתוף עם אוניברסיטת מישיגן סטייט. הרשת החברתית אומרת שהיא מסתמכת על הנדסה לאחור מתמונה אחת שנוצרת בבינה מלאכותית ועד למודל היצרני המשמש לייצור אותה.
מדעני מחקר שעבדו עם פייסבוק אמרו שהשיטה מסתמכת על חשיפת הדפוסים הייחודיים מאחורי מודל הבינה המלאכותית המשמש ליצירת זיוף עמוק.
"על ידי הכללת ייחוס תמונה לזיהוי בסט פתוח, אנו יכולים להסיק מידע נוסף על המודל הגנרטיבי המשמש ליצירת זיוף עמוק שמעבר להכרה שהוא לא נראה בעבר. ועל ידי מעקב אחר קווי דמיון בין דפוסים של אוסף של זיופים עמוקים, נוכל גם לדעת אם סדרת תמונות מקורה במקור אחד", כתבו מדעני המחקר Xi Yin ו-Tan Hassner בפוסט בבלוג של פייסבוק על שיטת הזיהוי העמוקים שלה.
וולפרם אומר שזה הגיוני שתשתמש בלמידת מכונה כדי לזהות מודל AI מתקדם (זיוף עמוק). עם זאת, תמיד יש מקום לשטות בטכנולוגיה.
"אני בכלל לא מופתע שיש דרך ראויה ללימוד מכונה [זיהוי זיופים עמוקים]," אמר וולפרם. "השאלה היחידה היא אם אתה מתאמץ מספיק, האם אתה יכול לשטות בזה? אני בטוח שאתה יכול."
מאבק בזיופים עמוקים בדרך אחרת
במקום זאת, וולפרם אמר שהוא מאמין ששימוש בבלוקצ'יין יהיה האפשרות הטובה ביותר לאתר במדויק סוגים מסוימים של זיופים עמוקים. דעתו על שימוש בבלוקצ'יין על פני למידת מכונה חוזרת ל-2019, והוא אמר שבסופו של דבר, גישת הבלוקצ'יין יכולה לספק פתרון מדויק יותר לבעיית הזיוף העמוק שלנו.
"הייתי מצפה שצופי תמונות וסרטונים יוכלו לבדוק באופן שגרתי מול בלוקצ'יין (ו'חישובי משולש נתונים') קצת כמו האופן שבו דפדפני אינטרנט בודקים כעת אישורי אבטחה", כתב וולפרם במאמר שפורסם ב-Scientific American.
מאחר ש- blockchains מאחסנים נתונים בבלוקים שמשורשרים זה לזה בסדר כרונולוגי, ומכיוון ש- blockchains מבוזר הם בלתי ניתנים לשינוי, הנתונים שהוזנו הם בלתי הפיכים.
השאלה היחידה היא אם אתה מתאמץ מספיק, האם אתה יכול לשטות בזה? אני בטוח שאתה יכול.
וולפראם הסביר שעל ידי הכנסת סרטון לבלוקצ'יין, תוכל לראות את השעה שבה הוא צולם, את המיקום ומידע הקשרי אחר שיאפשר לך לדעת אם הוא השתנה בדרך כלשהי.
"באופן כללי, ככל שיש יותר מטא נתונים שמקשרים את התמונה או הסרטון, כך גדל הסיכוי שתוכל לדעת", אמר. "אי אפשר לזייף זמן בבלוקצ'יין."
עם זאת, וולפרם אמר שהשיטה שבה משתמשים - בין אם זה למידת מכונה או שימוש בבלוקצ'יין - תלויה בסוג הזיוף העמוק שאתה מנסה להתגונן מפניו (כלומר, סרטון של קים קרדשיאן אומרת משהו טיפשי או סרטון של פוליטיקאי משמיע הצהרה או הצעה).
"גישת הבלוקצ'יין מגינה מפני סוגים מסוימים של זיופים עמוקים, בדיוק כפי שעיבוד תמונה למידת מכונה מגן מפני סוגים מסוימים של זיופים עמוקים", אמר.
השורה התחתונה, כך נראה, היא ערנות לכולנו בכל הנוגע למאבק במבול הזיוף העמוק הקרוב.