פייסבוק אמרה שהיא בוחנת טכנולוגיה לניהול בינה מלאכותית בקבוצות כדי לבלום קונפליקט בפוסטים ובתגובות.
הכלי החדש המופעל בבינה מלאכותית נקרא Conflict Alerts ונועד לעזור למנהלי קבוצות לקבל יותר שליטה על הקהילות שלהם. טכנאי הבינה המלאכותית יודיע למנהל אם הוא מזהה "שיחות מעוררות מחלוקת או לא בריאות", כך שמנהל יכול לנקוט בפעולות הנדרשות מהר יותר.
עבור משתמש פייסבוק ממוצע, הכלי החדש הזה אומר שסביר להניח שתראה פחות מריבות וויכוחים בפוסטים של קבוצות שאתה עוקב אחריהם, כך שהדברים יהיו פחות שליליים, בסך הכל.
מנהלי מערכת יכולים להשתמש בכלי התראות התנגשויות כדי ליצור התראות כאשר משתמשים מגיבים במילים או ביטויים ספציפיים, ולמידת מכונה יכולה לזהות מקרים אלה כדי להתריע בפני מנהל כאשר הם מתרחשים. הכלי גם מאפשר למנהלי מערכת להגביל פעילות עבור אנשים ופוסטים ספציפיים.
Facebook אמרה ל-The Verge שלמידת המכונה תשתמש ב"אותות מרובים כגון זמן תשובה ונפח תגובות כדי לקבוע אם מעורבות בין משתמשים גורמת או עשויה להוביל לאינטראקציות שליליות."
פייסבוק כבר משתמשת בכלי בינה מלאכותית כדי לסמן סוגים אחרים של תוכן בפלטפורמה שלה, כולל דברי שטנה. על פי דוח אכיפת תקנים קהילתיים באוגוסט 2020, כלי הבינה המלאכותית של פייסבוק לדיבור שטנה היה מדויק ב-95%, בהשוואה ל-89% מהרבעון הראשון של 2020. פייסבוק אמרה שהיא הגבירה את פעולותיה נגד תוכן דברי שטנה מ-9.6 מיליון מקרים ברבעון הראשון 2020 ל-22.5 מיליון ברבעון השני.
עבור משתמש פייסבוק ממוצע, הכלי החדש הזה אומר שסביר להניח שתראה פחות מריבות וויכוחים בפוסטים של קבוצות שאתה עוקב אחריהם
הרשת החברתית גם עובדת על טכניקת בינה מלאכותית שיכולה "לראות" תמונות על ידי שימוש בנתונים גולמיים כדי לאפשר לדגם להתאמן באופן עצמאי וללא שימוש באלגוריתם - ככל שהוא צופה בעוד תמונות. פרויקט הבינה המלאכותית, המכונה SEER, יכול לסלול את הדרך למודלים מגוונים יותר, מדויקים וניתנים להתאמה, תוך הבאת כלי חיפוש ונגישות טובים יותר למשתמשי מדיה חברתית.