מזונות חשובים
- מאמר חדש טוען שבינה מלאכותית יכולה לקבוע אילו פרויקטי מחקר עשויים להזדקק ליותר רגולציה מאחרים.
- זה חלק ממאמץ הולך וגובר לגלות איזה סוג של AI יכול להיות מסוכן.
-
מומחה אחד אומר שהסכנה האמיתית של בינה מלאכותית היא שהוא עלול להפוך בני אדם לטיפשים.
בינה מלאכותית (AI) מציעה יתרונות רבים, אבל גם כמה סכנות אפשריות. ועכשיו, חוקרים הציעו שיטה לפקוח עין על היצירות הממוחשבות שלהם.
צוות בינלאומי אומר במאמר חדש שבינה מלאכותית יכולה לקבוע אילו סוגים של פרויקטי מחקר עשויים להזדקק ליותר רגולציה מאחרים. המדענים השתמשו במודל המשלב מושגים מביולוגיה ומתמטיקה והוא חלק ממאמץ הולך וגובר לגלות איזה סוג של AI יכול להיות מסוכן.
"כמובן, בעוד ששימוש 'מדע בדיוני' המסוכן ב-AI עשוי להתעורר אם נחליט כך […], מה שהופך את AI למסוכן הוא לא AI עצמו, אלא [איך אנחנו משתמשים בו], " Thierry Rayna, יו"ר טכנולוגיה לשינוי, באקול פוליטכניק בצרפת, אמר ל-Lifewire בראיון באימייל. "הטמעת בינה מלאכותית יכולה להיות שיפור יכולות (לדוגמה, היא מחזקת את הרלוונטיות של הכישורים והידע של האדם/עובד) או הרס מיומנויות, כלומר, בינה מלאכותית הופכת מיומנויות וידע קיימים לפחות שימושיים או מיושנים."
Keeping Tabs
כותבי המאמר האחרון כתבו בפוסט שהם בנו מודל לדמות תחרויות AI היפותטיות. הם הריצו את הסימולציה מאות פעמים כדי לנסות לחזות איך מירוצי AI בעולם האמיתי עשויים להסתדר.
"המשתנה שמצאנו כחשוב במיוחד היה "אורך" המירוץ - הזמן שלקח לגזעים המדומים שלנו להגיע ליעד שלהם (מוצר AI פונקציונלי), " כתבו המדענים. "כשמירוצי בינה מלאכותית הגיעו ליעדם במהירות, גילינו שמתחרים שקודדנו כך שתמיד יתעלמו מאמצעי הזהירות הבטיחותיים תמיד זכו."
לעומת זאת, החוקרים גילו שפרויקטים ארוכי טווח של בינה מלאכותית לא היו מסוכנים כל כך מכיוון שהזוכים לא תמיד היו אלה שהתעלמו מהבטיחות. "בהתחשב בממצאים אלה, יהיה חשוב לרגולטורים לקבוע כמה זמן צפויים להימשך מרוצי AI שונים, תוך יישום תקנות שונות על סמך לוחות הזמנים הצפויים שלהם", כתבו. "הממצאים שלנו מצביעים על כך שכלל אחד עבור כל מירוצי הבינה המלאכותית - מרצים ועד מרתונים - יוביל לתוצאות מסוימות שרחוקות מלהיות אידיאליות."
David Zhao, המנהל המנהל של Coda Strategy, חברה שמתייעצת בנושא בינה מלאכותית, אמר בראיון בדוא ל ל-Lifewire שזיהוי בינה מלאכותית מסוכנת יכול להיות קשה. האתגרים טמונים בעובדה שגישות מודרניות ל-AI נוקטות בגישת למידה עמוקה.
"אנחנו יודעים שלמידה עמוקה מייצרת תוצאות טובות יותר במספר מקרי שימוש, כמו זיהוי תמונה או זיהוי דיבור", אמר ג'או. "עם זאת, בלתי אפשרי לבני אדם להבין איך עובד אלגוריתם למידה עמוקה וכיצד הוא מייצר את התפוקה שלו. לכן, קשה לדעת אם בינה מלאכותית שמפיקה תוצאות טובות היא מסוכנת כי זה בלתי אפשרי לבני אדם להבין מה קורה."
תוכנה יכולה להיות "מסוכנת" כאשר משתמשים במערכות קריטיות, שיש להן נקודות תורפה שעלולות להיות מנוצלות על ידי שחקנים גרועים או לייצר תוצאות שגויות, אמר מאט שיי, מנהל אסטרטגיה בחברת AI MixMode, בדוא"ל. הוא הוסיף שבינה מלאכותית לא בטוחה עלולה לגרום גם לסיווג שגוי של תוצאות, אובדן נתונים, השפעה כלכלית או נזק פיזי.
"עם תוכנה מסורתית, מפתחים מקודדים אלגוריתמים שאותם אדם יכול לבחון כדי להבין כיצד לחבר פגיעות או לתקן באג על ידי הסתכלות בקוד המקור", אמר שיי."עם AI, עם זאת, חלק עיקרי מההיגיון נוצר מהנתונים עצמם, מקודדים למבני נתונים כמו רשתות עצביות וכדומה. זה מביא למערכות שהן "קופסאות שחורות" שלא ניתן לבחון כדי למצוא ולתקן נקודות תורפה כמו תוכנה רגילה."
סכנות קדימה?
בעוד ש-AI הוצג בסרטים כמו The Terminator ככוח מרושע שמתכוון להשמיד את האנושות, הסכנות האמיתיות עשויות להיות פרוזאיות יותר, אומרים מומחים. ריינה, למשל, מציעה שבינה מלאכותית יכולה להפוך אותנו למטומטמים יותר.
"זה יכול למנוע מבני אדם לאמן את המוח שלהם ולפתח מומחיות", אמר. "איך אתה יכול להפוך למומחה בהון סיכון אם אתה לא מבלה את רוב זמנך בקריאת יישומי סטארט-אפ? גרוע מכך, בינה מלאכותית ידועה לשמצה "קופסה שחורה" וקצת ניתנת להסבר. חוסר הידיעה מדוע התקבלה החלטה מסוימת בינה מלאכותית פירושה שיהיה מעט מאוד מה ללמוד ממנה, בדיוק כמו שאתה לא יכול להפוך לרץ מומחה על ידי נסיעה מסביב לאצטדיון על סגווי."
קשה לדעת אם בינה מלאכותית שמפיקה תוצאות טובות היא מסוכנת, מכיוון שבני אדם לא יכולים להבין מה קורה.
אולי האיום המיידי ביותר מ-AI הוא האפשרות שהוא יכול לספק תוצאות מוטות, אמר לייל סולומון, עורך דין שכותב על ההשלכות המשפטיות של AI, בראיון באימייל.
"AI עשוי לסייע בהעמקת השסעים החברתיים. בינה מלאכותית בנויה בעיקרה מנתונים שנאספו מבני אדם", הוסיף סולומון. "[אבל] למרות הנתונים העצומים, הוא מכיל תת-קבוצות מינימליות ולא יכלול את מה שכולם חושבים. לפיכך, נתונים שנאספו מהערות, הודעות פומביות, ביקורות וכו', עם הטיות מובנות יגרמו לבינה מלאכותית להגביר את האפליה והשנאה."