מזונות חשובים
- חוקרים פיתחו מערכת בינה מלאכותית שנועדה לזהות ולסמן חדשות מזויפות.
- המודל סורקת מערך נתונים ציבורי של חדשות מזויפות, מתריע בפני משתמשים ומפנה אותם למקורות מידע מאומתים.
-
ישנן מספר הולך וגדל של שיטות בינה מלאכותית למניעת חדשות כוזבות מקוונות.
בינה מלאכותית (AI) עוזרת לבלום את ההתפשטות המהירה של דיסאינפורמציה באינטרנט, אומרים מומחים.
חוקרים פיתחו מערכת בינה מלאכותית שנועדה לזהות ולסמן חדשות מזויפות. המודל סורק מערך נתונים ציבורי של חדשות מזויפות, מתריע בפני משתמשים ומפנה אותם למקורות מידע מאומתים. זה חלק ממספר הולך וגדל של שיטות בינה מלאכותית למניעת חדשות כוזבות.
"כמות המידע שזורם זורקת לאינטרנט, במיוחד רשתות חברתיות, היא עצומה ולא ניתן לטפל בה באופן ידני, במיוחד עם דיוק גבוה", וואל עבד אלמגיד, פרופסור להנדסת מחשבים באוניברסיטת דרום קליפורניה, שפיתח אלגוריתמי בינה מלאכותית לזיהוי מידע מוטעה ויזואלי, אמרו ל-Lifewire בראיון באימייל.
"חשוב לנטר ולסמן מידע שגוי בזמן אמת שכן ברגע שמידע שגוי מתחיל להתפשט, קשה לשכנע אנשים שהמידע שקרי, במיוחד כאשר מידע שגוי מאשר את ההטיות שלנו", הוסיף.
Keeping It Real
טכניקת הבינה המלאכותית שפותחה על ידי צוות מאוניברסיטת מקווארי באוסטרליה יכולה לעזור להפחית את התפשטות החדשות המזויפות. ניתן לשלב את המודל באפליקציה או בתוכנת אינטרנט ומציע קישורים למידע "אמיתי" רלוונטי המתאים לאינטרסים של כל משתמש.
"כשאתה קורא או צופה בחדשות באינטרנט, לעתים קרובות מוצעות לך כתבות חדשותיות על אירועים או נושאים דומים באמצעות מודל המלצה", אמר שוג'ין וואנג, מדען נתונים מאוניברסיטת מקווארי שעבד על המחקר, ב- מהדורת חדשות.
Wang אומר שחדשות מדויקות וחדשות מזויפות לאותו אירוע משתמשים לעתים קרובות בסגנונות תוכן שונים, מה שמבלבל מודלים ממוחשבים כדי להתייחס אליהם כאל חדשות עבור אירועים שונים.
המודל של אוניברסיטת מקווארי 'מפרק' את המידע של כל ידיעה לשני חלקים: השלטים המראים אם הידיעה מזויפת והמידע הספציפי לאירוע המציג את הנושא או האירוע שעליו עוסק הידיעה. לאחר מכן, המודל מחפש דפוסים כיצד משתמשים עוברים בין ידיעות חדשות כדי לחזות איזה אירוע חדשותי המשתמש עשוי להיות מעוניין לקרוא הבא.
צוות המחקר אימן את המודל על מערך נתונים ציבורי של חדשות מזויפות שפורסמו ב-GitHub, הנקרא FakeNewsNet, המאחסן חדשות מזויפות מ-PolitiFact ו-GossipCop יחד עם נתונים כמו תוכן חדשותי, הקשר חברתי והיסטוריית קריאת משתמשים.
הצמיחה של חדשות מזויפות
חדשות מזויפות הן בעיה הולכת וגוברת, כך עולה ממחקרים. NewsGuard מצא שחלק ניכר מהצמיחה במדיה החברתית הגיע מאתרים לא אמינים.בשנת 2020, 17 אחוזים מהמעורבות בין 100 מקורות החדשות המובילים הגיעו מאתרים עם דירוג אדום (בדרך כלל לא אמינים), בהשוואה לכ-8 אחוזים בשנת 2019.
סוברמניאם וינסנט, מנהל העיתונות ואתיקה של מדיה במרכז מרקקולה לאתיקה יישומית באוניברסיטת סנטה קלרה, אמר ל-Lifewire בראיון באימייל שבינה מלאכותית יכולה לסייע במניעת דיסאינפורמציה.
ניתן להשתמש בטכנולוגיה ל"פיקוח על התנהגות חשבון לשיתוף מתוזמר בקורלציה עם דברי שטנה או טענות שכבר הופרכו או להדחה על ידי בודקי עובדות או ישויות מדינה ידועות תעמולה או קבוצות מתחילות עם עלייה מהירה בחברות", הסביר וינסנט. "ניתן להשתמש ב-AI יחד עם עיצוב כדי לסמן תוכן מסוגים מסוימים כדי להוסיף חיכוך לפני שהם משותפים."
AbdAlmageed אמר שרשתות חברתיות צריכות לשלב אלגוריתמים לזיהוי חדשות מזויפות כחלק מאלגוריתמי ההמלצות שלהן. המטרה, לדבריו, היא "לסמן חדשות מזויפות כמזויפות או לא מדויקות אם הם לא רוצים למנוע לחלוטין שיתוף חדשות מזויפות."
עם זאת, בעוד שבינה מלאכותית עשויה להיות שימושית למלחמה בחדשות מזויפות, לגישה יש את החסרונות שלה, אמר וינסנט. הבעיה היא שמערכות בינה מלאכותית אינן יכולות להבין את המשמעות של דיבור וכתיבה אנושיים, ולכן הן תמיד יהיו מאחורי העקומה.
"ככל שבינה מלאכותית עשויה להיות מדויקת יותר עם צורות מסוימות של דברי שטנה גלויים ודיסאינפורמציה, כך התרבות האנושית תעבור לקוד חדש יותר והעברת משמעות תת-קרקעית לארגון", אמר וינסנט.
ואסים חאלד, מנכ ל חברת ניטור הדיסאינפורמציה Blackbird. AI, אמר באימייל ל-Lifewire שדיסאינפורמציה מקוונת היא איום מתפתח. מערכות בינה מלאכותיות חדשות צריכות להיות מסוגלות לחזות היכן חדשות מזויפות יופיעו הבא.
"ברוב המקרים, אתה לא יכול לבנות מוצר בינה מלאכותית ולקרוא לזה "בוצע", אמר חאלד. "דפוסי התנהגות משתנים עם הזמן, וחשוב שדגמי הבינה המלאכותית שלך ישמרו על השינויים האלה."