AI עשוי להדביק את ההיגיון האנושי

תוכן עניינים:

AI עשוי להדביק את ההיגיון האנושי
AI עשוי להדביק את ההיגיון האנושי
Anonim

מזונות חשובים

  • חוקרים יצרו טכניקות המאפשרות למשתמשים לדרג את התוצאות של התנהגות של מודל למידת מכונה.
  • מומחים אומרים שהשיטה מראה שמכונות מדביקות את יכולות החשיבה של בני האדם.
  • ההתקדמות בבינה מלאכותית עשויה להאיץ את התפתחות היכולת של מחשבים להבין שפה ולחולל מהפכה באופן האינטראקציה בין הבינה המלאכותית לבני אדם.
Image
Image

טכניקה חדשה המודדת את כוח החשיבה של בינה מלאכותית (AI) מראה שמכונות מדביקות את בני האדם ביכולות החשיבה שלהן, אומרים מומחים.

חוקרים ב-MIT ו-IBM Research יצרו שיטה המאפשרת למשתמש לדרג את התוצאות של התנהגות של מודל למידת מכונה. הטכניקה שלהם, שנקראת Shared Interest, משלבת מדדים המשווים עד כמה החשיבה של מודל תואמת את זו של אנשים.

"כיום, בינה מלאכותית מסוגלת להגיע (ובמקרים מסוימים, לעלות על) ביצועים אנושיים במשימות ספציפיות, כולל זיהוי תמונות והבנת שפה", פיטר Buteneers, מנהל הנדסה בלמידת מכונה ובינה מלאכותית בתקשורת חברת Sinch, אמרה ל-Lifewire בראיון באימייל. "עם עיבוד שפה טבעית (NLP), מערכות בינה מלאכותית יכולות לפרש, לכתוב ולדבר שפות כמו גם בני אדם, וה-AI יכול אפילו להתאים את הדיאלקט והטון שלו כדי להתיישר עם עמיתיו האנושיים."

Artificial Smarts

AI מניב לעתים קרובות תוצאות מבלי להסביר מדוע ההחלטות הללו נכונות. וכלים שעוזרים למומחים להבין את ההיגיון של המודל מספקים לעתים קרובות רק תובנות, רק דוגמה אחת בכל פעם.בינה מלאכותית מאומנת בדרך כלל תוך שימוש במיליוני קלט נתונים, מה שמקשה על אדם להעריך מספיק החלטות כדי לזהות דפוסים.

במאמר האחרון, החוקרים אמרו שעניין משותף יכול לעזור למשתמש לחשוף מגמות בקבלת החלטות של מודל. ותובנות אלו יכולות לאפשר למשתמש להחליט אם מודל מוכן לפריסה.

"בפיתוח עניין משותף, המטרה שלנו היא להיות מסוגלים להגדיל את תהליך הניתוח הזה כך שתוכל להבין ברמה גלובלית יותר מהי התנהגות המודל שלך", אנג'י בוגוסט, מחברת שותפה של המאמר, נאמר במהדורת החדשות.

Shared Interest משתמש בטכניקה שמראה כיצד מודל למידת מכונה קיבל החלטה מסוימת, המכונה שיטות בולטות. אם המודל מסווג תמונות, שיטות בולטות מדגישות אזורים בתמונה שחשובים למודל כאשר הוא מקבל את החלטתו. עניין משותף פועל על ידי השוואת שיטות בולטות להערות שנוצרו על ידי אדם.

החוקרים השתמשו ב-Shared Interest כדי לעזור לרופא עור לקבוע אם עליו לסמוך על מודל למידת מכונה שנועד לסייע באבחון סרטן מתמונות של נגעים בעור. עניין משותף אפשר לרופא העור לראות במהירות דוגמאות לתחזיות הנכונות והשגויות של המודל. רופא העור החליט שהוא לא יכול לסמוך על המודל כי הוא עשה יותר מדי תחזיות על סמך חפצי תמונה ולא על נגעים ממשיים.

"הערך כאן הוא ששימוש ב-Shared Interest, אנחנו יכולים לראות את הדפוסים האלה מופיעים בהתנהגות המודל שלנו. תוך כחצי שעה, רופא העור הצליח להחליט אם לסמוך או לא לסמוך על הדגם ואם לפרוס אותו או לא", אמר בוגוסט.

הנימוק מאחורי ההחלטה של מודל חשוב גם לחוקר למידת מכונה וגם למקבל ההחלטות.

מדידת התקדמות

העבודה של חוקרי MIT עשויה להוות צעד משמעותי קדימה להתקדמות בינה מלאכותית לעבר מודיעין ברמת האדם, אמר בן חגג, ראש מחקר ב-Darrow, חברה המשתמשת באלגוריתמים של למידת מכונה, כך ל-Lifewire בראיון באימייל..

"ההיגיון מאחורי ההחלטה של מודל חשוב גם לחוקר למידת מכונה וגם למקבל ההחלטות", אמר חגג. "הראשונים רוצים להבין עד כמה המודל טוב וכיצד ניתן לשפר אותו, בעוד שהאחרון רוצה לפתח תחושת אמון במודל, אז הם צריכים להבין מדוע התפוקה הזו נחזה."

אבל חגג הזהיר שהמחקר של MIT מבוסס על ההנחה שאנחנו מבינים או יכולים להעיר הבנה אנושית או חשיבה אנושית.

"עם זאת, ישנה אפשרות שזה לא יהיה מדויק, ולכן יש צורך בעבודה נוספת על הבנת קבלת ההחלטות האנושיות", הוסיף חגג.

Image
Image

ההתקדמות בבינה מלאכותית עשויה להאיץ את התפתחות היכולת של מחשבים להבין שפה ולחולל מהפכה באופן שבו בינה מלאכותית ובין בני אדם מתקשרים, אמר Buteneers. צ'אטבוטים יכולים להבין מאות שפות בו-זמנית, ועוזרי בינה מלאכותית יכולים לסרוק גופי טקסט לתשובות לשאלות או אי-סדרים.

"אלגוריתמים מסוימים יכולים אפילו לזהות מתי הודעות הן הונאה, מה שיכול לעזור לעסקים ולצרכנים כאחד לנכות הודעות ספאם", הוסיפה Buteneers.

אבל, אמר Buteneers, AI עדיין עושה כמה טעויות שבני אדם לעולם לא היו עושים. "למרות שחלקם דואגים שבינה מלאכותית תחליף משרות אנושיות, המציאות היא שתמיד נזדקק לאנשים שיעבדו לצד בוטים של בינה מלאכותית כדי לעזור להם לשמור עליהם ולשמור על הטעויות הללו תוך שמירה על מגע אנושי בעסק", הוסיף.

מוּמלָץ: