מה שבינה מלאכותית יכולה לעשות היום
מה שבינה מלאכותית יכולה לעשות היום
Anonim

התראת ספוילר: עוד הרבה זמן עד להתקוממות המכונות.

מה שבינה מלאכותית יכולה לעשות היום
מה שבינה מלאכותית יכולה לעשות היום

כאשר אילון מאסק מציג את הרובוט דמוי האדם טסלה בוט, נראה שמהפכה מדעית חדשה נמצאת ממש מעבר לפינה. עוד קצת - והבינה המלאכותית (AI) תתעלה על האדם, ומכונות יחליפו אותנו בעבודה. עם זאת, הפרופסורים גארי מרקוס וארנסט דייויס, שניהם מומחי AI ידועים, מתבקשים לא למהר להגיע למסקנות כאלה.

ב-Artificial Intelligence Reboot, החוקרים מסבירים מדוע הטכנולוגיה המודרנית רחוקה מלהיות אידיאלית. באישור הוצאת הספרים "Alpina PRO" מפרסמת Lifehacker קטע מהפרק הראשון.

בשלב זה קיים פער עצום - תהום אמיתית - בין השאיפה שלנו למציאות של בינה מלאכותית. התהום הזו נוצרה עקב אי-פתורן של שלוש בעיות ספציפיות, שיש לטפל בכל אחת מהן בכנות.

הראשון שבהם הוא מה שאנו מכנים פתיחות, שמבוססת על העובדה שאנו בני האדם לא באמת למדנו להבחין בין בני אדם למכונות, וזה מקל על הטעייה. אנו מייחסים אינטליגנציה למחשבים מכיוון שאנו בעצמנו התפתחנו וחיינו בקרב אנשים המבססים במידה רבה את פעולותיהם על הפשטות כגון רעיונות, אמונות ורצונות. ההתנהגות של מכונות לרוב דומה באופן שטחי להתנהגות של בני אדם, ולכן אנו מייעדים במהירות למכונות את אותו סוג של מנגנונים בסיסיים, גם אם אין למכונות כאלה.

אנחנו לא יכולים שלא לחשוב על מכונות במונחים קוגניטיביים ("המחשב שלי חושב שמחקתי את הקובץ שלי"), לא משנה כמה פשוטים החוקים שהמכונות עוקבות אחריהם בפועל. אבל המסקנות שמצדיקות את עצמן כשהן מיושמות על בני אדם עשויות להיות שגויות לחלוטין כשהן מיושמות על תוכניות בינה מלאכותית. מתוך הערכה לעיקרון הבסיסי של הפסיכולוגיה החברתית, אנו קוראים לזה שגיאת התוקף הבסיסית.

אחד המקרים המוקדמים ביותר של שגיאה זו התרחש באמצע שנות ה-60, כאשר צ'אטבוט בשם אליזה שכנע כמה אנשים שהוא באמת מבין את הדברים שהם אומרים לו. למעשה, אלייזה פשוט קלטה מילות מפתח, חזרה על הדבר האחרון שהאדם אמר לה, ובמצב ללא מוצא היא נקטה בתחבולות שיחה סטנדרטיות כמו "ספר לי על הילדות שלך". אם הזכרת את אמך, היא הייתה שואלת אותך על המשפחה שלך, למרות שלא היה לה מושג מהי באמת משפחה או למה היא חשובה לאנשים. זה היה רק סט של טריקים, לא הפגנה של אינטליגנציה אמיתית.

למרות העובדה שאלייזה לא הבינה אנשים בכלל, משתמשים רבים התבדו מהדיאלוגים איתה. חלקם בילו שעות בהקלדת ביטויים על המקלדת, דיברו בצורה כזו עם אלייזה, אך פירשו לא נכון את הטריקים של הצ'טבוט, בטעות בדיבורו של התוכי כעצה מועילה, כנה או אהדה.

יוסף וייסנבאום בורא אליזה.

אנשים שידעו היטב שהם מדברים עם מכונה שכחו עד מהרה את העובדה הזו, בדיוק כמו שאוהבי תיאטרון משליכים את חוסר האמונה שלהם לזמן מה ושוכחים שלפעולה שהם עדים לה אין זכות להיקרא אמיתי.

בני שיחו של אלייזה דרשו לא פעם אישור לשיחה פרטית עם המערכת ולאחר השיחה התעקשו, למרות כל ההסברים שלי, שהמכונה באמת מבינה אותם.

במקרים אחרים, הטעות בהערכת האותנטיות עלולה להיות קטלנית במובן המילולי של המילה. בשנת 2016, אחד הבעלים של מכונית טסלה אוטומטית הסתמך כל כך על הבטיחות לכאורה של מצב טייס אוטומטי, עד כי (לפי סיפורים) הוא שקע לחלוטין בצפייה בסרטי הארי פוטר, והשאיר את המכונית לעשות הכל לבד.

הכל הלך כשורה - עד שבשלב מסוים התקלקל. לאחר שנסעה מאות או אפילו אלפי קילומטרים ללא תאונה, המכונית התנגשה (בכל מובן המילה) במכשול בלתי צפוי: משאית לבנה חצתה את הכביש המהיר, וטסלה מיהרה ממש מתחת לקרוואן, והרגה את בעל המכונית במקום.. (נראה היה שהמכונית הזהירה את הנהג מספר פעמים להשתלט על השליטה, אבל הנהג נראה רגוע מכדי להגיב במהירות.)

מוסר ההשכל של הסיפור הזה ברור: העובדה שמכשיר עשוי להיראות "חכם" לרגע או חודשיים (ואפילו חצי שנה) לא אומר בכלל שהוא באמת כך או שהוא יכול להתמודד עם כל הנסיבות בהן אדם יגיב כראוי.

לבעיה השנייה אנו קוראים אשליה של התקדמות מהירה: טעות בהתקדמות בבינה מלאכותית, הקשורה בפתרון בעיות קלות, להתקדמות, הקשורה בפתרון בעיות קשות באמת. זה, למשל, קרה עם מערכת IBM Watson: ההתקדמות שלה במשחק Jeopardy! נראה מאוד מבטיח, אבל למעשה התברר שהמערכת רחוקה בהרבה מהבנת השפה האנושית ממה שצפו המפתחים.

ייתכן שתוכנית AlphaGo של DeepMind תלך באותו המסלול. משחק הגו, כמו שחמט, הוא משחק מידע אידיאלי שבו שני השחקנים יכולים לראות את כל הלוח בכל עת ולחשב את ההשלכות של מהלכים בכוח גס.

ברוב המקרים, בחיים האמיתיים, איש אינו יודע דבר בוודאות מוחלטת; הנתונים שלנו לרוב לא שלמים או מעוותים.

גם במקרים הפשוטים ביותר, יש הרבה אי ודאות. כשאנחנו מחליטים אם ללכת ברגל לרופא או לנסוע ברכבת התחתית (מכיוון שהיום מעונן), אנחנו לא יודעים בדיוק כמה זמן ייקח לחכות לרכבת התחתית, האם הרכבת נתקעת בכביש, האם נידחס לכרכרה כמו הרינג בחבית או שנירטב בגשם בחוץ, לא נעז לנסוע ברכבת התחתית, ואיך הרופא יגיב לאיחור שלנו.

אנחנו תמיד עובדים עם המידע שיש לנו. משחק Go עם עצמה מיליוני פעמים, מערכת DeepMind AlphaGo מעולם לא התמודדה עם אי ודאות, היא פשוט לא יודעת איזה חוסר מידע או חוסר השלמות וחוסר העקביות שלו, שלא לדבר על המורכבות של האינטראקציה האנושית.

יש פרמטר נוסף שגורם למשחקי חשיבה כמו להשתנות מאוד מהעולם האמיתי, וזה שוב קשור לנתונים. אפילו משחקים מורכבים (אם החוקים מספיק מחמירים) ניתן לעצב בצורה כמעט מושלמת, כך שמערכות הבינה המלאכותית שמשחקות בהם יכולות לאסוף בקלות את כמויות הנתונים העצומות שהן צריכות לאימון. לפיכך, במקרה של Go, מכונה יכולה לדמות משחק עם אנשים פשוט על ידי משחק נגד עצמה; גם אם המערכת צריכה טרה-בייט של נתונים, היא תיצור אותם בעצמה.

מתכנתים יכולים להשיג נתוני סימולציה נקיים לחלוטין עם עלות קטנה או ללא עלות. להיפך, בעולם האמיתי לא קיימים נתונים נקיים לחלוטין, אי אפשר לדמות אותם (שכן כללי המשחק משתנים כל הזמן), ועל אחת כמה וכמה קשה לאסוף הרבה גיגהבייט של נתונים רלוונטיים בניסוי ושגיאה.

במציאות, יש לנו רק כמה ניסיונות לבדוק אסטרטגיות שונות.

איננו מסוגלים, למשל, לחזור על ביקור אצל הרופא 10 מיליון פעמים, תוך התאמה הדרגתית של פרמטרי ההחלטות לפני כל ביקור, על מנת לשפר באופן דרמטי את התנהגותנו מבחינת בחירת התחבורה.

אם מתכנתים רוצים להכשיר רובוט שיעזור לקשישים (נגיד, לעזור להשכיב אנשים חולים), כל פיסת נתונים תהיה שווה כסף אמיתי וזמן אנושי אמיתי; אין דרך לאסוף את כל הנתונים הנדרשים באמצעות משחקי סימולציה. אפילו בובות מבחני ריסוק לא יכולות להחליף אנשים אמיתיים.

יש צורך לאסוף נתונים על קשישים אמיתיים עם מאפיינים שונים של תנועות סניליות, על סוגים שונים של מיטות, סוגים שונים של פיג'מות, סוגים שונים של בתים, וכאן אי אפשר לעשות טעויות, כי הפלת אדם אפילו במרחק של כמה סנטימטרים מהמיטה יהיה אסון. במקרה זה, על כף המאזניים הושגה התקדמות מסוימת (עד כה הבסיסית ביותר) בתחום זה באמצעות שיטות של בינה מלאכותית צרה. פותחו מערכות מחשב שמשחקות כמעט ברמה של השחקנים האנושיים הטובים ביותר במשחקי הווידאו Dota 2 ו- Starcraft 2, כאשר בכל זמן נתון רק חלק מעולם המשחק מוצג למשתתפים, וכך, כל שחקן מתמודד עם בעיה של חוסר מידע - שבידו הקלה של קלאוזביץ נקרא "ערפל הלא נודע". עם זאת, המערכות שפותחו עדיין נשארות ממוקדות מאוד ולא יציבות בפעולה. לדוגמה, תוכנית AlphaStar שמשחקת ב-Starcraft 2 למדה רק גזע ספציפי אחד ממגוון רחב של דמויות, וכמעט אף אחד מהפיתוחים הללו לא ניתן לשחק כמו כל גזע אחר. וכמובן, אין סיבה להאמין שהשיטות בהן נעשה שימוש בתוכניות אלו מתאימות לביצוע הכללות מוצלחות במצבים מורכבים הרבה יותר בחיים האמיתיים. חיים אמיתיים. כפי ש-IBM גילתה לא פעם, אלא כבר פעמיים (תחילה בשחמט, ואחר כך בסכנה!), הצלחה בבעיות מעולם סגור כלל לא מבטיחה הצלחה בעולם פתוח.

המעגל השלישי של התהום המתוארת הוא הערכת יתר של מהימנות. שוב ושוב, אנו רואים שברגע שאנשים בעזרת בינה מלאכותית מוצאים פתרון לבעיה כלשהי שיכולה לתפקד ללא תקלות למשך זמן מה, הם מניחים אוטומטית שעם רוויזיה (ועם כמות נתונים קצת יותר גדולה) הכל יעבוד בצורה מהימנה. זמן. אבל זה לא בהכרח כך.

אנחנו לוקחים שוב מכוניות ללא נהגים. קל יחסית ליצור הדגמה של רכב אוטונומי שייסע בצורה נכונה לאורך נתיב מסומן בבירור בכביש רגוע; עם זאת, אנשים היו מסוגלים לעשות זאת במשך יותר ממאה שנה. עם זאת, הרבה יותר קשה לגרום למערכות אלו לעבוד בנסיבות קשות או בלתי צפויות.

כפי שאמרה לנו מיסי קאמינגס, מנהלת המעבדה לבני אדם ואוטונומיה באוניברסיטת דיוק (וטייסת קרב לשעבר בצי האמריקני), במייל, השאלה היא לא כמה מיילים מכונית ללא נהג יכולה לנסוע ללא תאונה. אלא באיזו מידה. שאליה מסוגלות המכוניות הללו להסתגל למצבים משתנים. לפי מיסי קאמינגס שלה, אימייל למחברים ב-22 בספטמבר 2018., כלי רכב חצי אוטונומיים מודרניים "בדרך כלל פועלים רק בטווח צר מאוד של תנאים, שאינם אומרים דבר על איך הם יכולים לפעול בתנאים פחות אידיאליים".

להיראות אמין לחלוטין במיליוני מיילים של מבחן בפיניקס לא אומר ביצועים טובים במהלך המונסון בבומביי.

ההבדל המהותי הזה בין האופן שבו כלי רכב אוטונומיים מתנהגים בתנאים אידיאלים (כגון ימי שמש בכבישים רב-נתיביים בפרברים) לבין מה שהם עשויים לעשות בתנאים קיצוניים יכול בקלות להפוך לעניין של הצלחה וכישלון עבור תעשייה שלמה.

עם כל כך מעט דגש על נהיגה אוטונומית בתנאים קיצוניים ושהמתודולוגיה הנוכחית לא התפתחה בכיוון להבטיח שהטייס האוטומטי יעבוד כהלכה בתנאים שרק מתחילים להיחשב לאמיתיים, ייתכן שבקרוב יתברר כי מיליארדי דולרים הושקעו בשיטות לבניית מכוניות בנהיגה עצמית שפשוט לא מצליחות לספק אמינות נהיגה כמו אנושית.יתכן שכדי להגיע לרמת הביטחון הטכני שאנו צריכים, נדרשות גישות שונות מהותית מהנוכחיות.

ומכוניות הן רק דוגמה אחת מני רבות דומות. במחקר מודרני על בינה מלאכותית, האמינות שלה זכתה להערכה עולמית. הסיבה לכך היא שרוב ההתפתחויות הנוכחיות בתחום זה כרוכות בבעיות שסובלנות מאוד לטעויות, כמו המלצה על פרסום או קידום מוצרים חדשים.

ואכן, אם נמליץ לכם על חמישה סוגי מוצרים, ואתם אוהבים רק שלושה מהם, לא יקרה שום נזק. אבל במספר יישומי בינה מלאכותית קריטית לעתיד, כולל מכוניות ללא נהג, טיפול בקשישים ותכנון שירותי בריאות, אמינות כמו אנושית תהיה קריטית.

אף אחד לא יקנה רובוט ביתי שיכול לשאת בבטחה את סבא הקשיש שלך למיטה רק ארבע פעמים מתוך חמש.

אפילו במשימות שבהן בינה מלאכותית מודרנית צריכה להופיע באופן תיאורטי באור הטוב ביותר האפשרי, כשלים רציניים מתרחשים באופן קבוע, לפעמים נראים מצחיקים מאוד. דוגמה טיפוסית: מחשבים, באופן עקרוני, כבר למדו היטב כיצד לזהות מה יש (או קורה) בתמונה זו או אחרת.

לפעמים האלגוריתמים האלה עובדים מצוין, אבל לעתים קרובות הם מייצרים שגיאות מדהימות לחלוטין. אם אתה מציג תמונה למערכת אוטומטית שמייצרת כיתובים לצילומים של סצנות יומיומיות, אתה מקבל לעתים קרובות תשובה שדומה להפליא למה שאדם היה כותב; לדוגמה, עבור הסצנה למטה, שבה קבוצת אנשים משחקת פריזבי, מערכת הפקת הכתוביות המפורסמת של גוגל נותנת לה בדיוק את השם הנכון.

איור 1.1. קבוצת צעירים משחקים פריזבי (כיתוב תמונה סביר, שנוצר אוטומטית על ידי AI)
איור 1.1. קבוצת צעירים משחקים פריזבי (כיתוב תמונה סביר, שנוצר אוטומטית על ידי AI)

אבל חמש דקות מאוחר יותר, אתה יכול בקלות לקבל תשובה אבסורדית לחלוטין מאותה מערכת, כפי שקרה למשל עם התמרור הזה, עליו הדביק מישהו מדבקות: המחשב שנקרא "יוצרי המערכת" לא הסביר מדוע התרחשה השגיאה הזו., אבל מקרים כאלה אינם נדירים. אפשר להניח שהמערכת במקרה הספציפי הזה סיווגה (אולי מבחינת צבע ומרקם) את התצלום כדומה לתמונות האחרות (מהן למדה) שסומנו כ"מקרר מלא בהרבה אוכל ושתייה". מטבע הדברים, המחשב לא הבין (מה שאדם יכול היה להבין בקלות) שכתובת כזו תתאים רק במקרה של קופסת מתכת מלבנית גדולה שבתוכה חפצים שונים (וגם אז לא כולם). הסצנה הזו היא "מקרר עם הרבה אוכל ושתייה".

אורז. 1.2. מקרר מלא בהמון אוכל ומשקאות (כותרת בלתי סבירה לחלוטין, נוצרה על ידי אותה מערכת כמו לעיל)
אורז. 1.2. מקרר מלא בהמון אוכל ומשקאות (כותרת בלתי סבירה לחלוטין, נוצרה על ידי אותה מערכת כמו לעיל)

כמו כן, מכוניות ללא נהג לעתים קרובות מזהות בצורה נכונה את מה שהן "רואות", אבל לפעמים נראה שהן מתעלמות מהמובן מאליו, כמו במקרה של טסלה, שהתנגשה בקביעות לתוך משאיות כיבוי או אמבולנסים חונים בטייס אוטומטי. נקודות עיוורות כמו אלה עלולות להיות אפילו יותר מסוכנות אם הן ממוקמות במערכות השולטות ברשתות חשמל או אחראיות לפיקוח על בריאות הציבור.

כדי לגשר על הפער בין שאפתנות למציאות של בינה מלאכותית, אנו זקוקים לשלושה דברים: מודעות ברורה לערכים המוטלים על כף המאזניים במשחק הזה, הבנה ברורה מדוע מערכות בינה מלאכותית מודרניות אינן מבצעות את תפקידיהן בצורה מהימנה מספיק, וכן, לבסוף, חשיבה חדשה של אסטרטגיית פיתוח.

מכיוון שההימור על בינה מלאכותית הוא ממש גבוה מבחינת מקומות עבודה, בטיחות ומרקם החברה, יש צורך דחוף לכולנו - אנשי מקצוע בינה מלאכותית, מקצועות קשורים, אזרחים רגילים ופוליטיקאים - להבין את מצב העניינים האמיתי. בתחום זה על מנת ללמוד להעריך באופן ביקורתי את רמת ואופי ההתפתחות של הבינה המלאכותית של ימינו.

כמו שחשוב לאזרחים המתעניינים בחדשות וסטטיסטיקות להבין כמה קל להטעות אנשים במילים ומספרים, כך יש כאן היבט יותר ויותר משמעותי של הבנה כדי שנוכל להבין היכן נמצאת בינה מלאכותית. רק פרסום, אבל איפה זה אמיתי; מה הוא מסוגל לעשות עכשיו, ומה הוא לא יודע איך ואולי לא ילמד.

הדבר החשוב ביותר הוא להבין שבינה מלאכותית היא לא קסם, אלא רק אוסף של טכניקות ואלגוריתמים, שלכל אחד מהם חוזקות וחולשות משלו, מתאים למשימות מסוימות ולא מתאים לאחרות. אחת הסיבות העיקריות שיצאנו לכתוב את הספר הזה היא שהרבה ממה שאנחנו קוראים על בינה מלאכותית נראה לנו כפנטזיה מוחלטת, שצומחת מתוך אמון מופרך בכוח הכמעט קסום של בינה מלאכותית.

בינתיים, לסיפורת הזו אין שום קשר ליכולות טכנולוגיות מודרניות. למרבה הצער, הדיון ב-AI בקרב הציבור הרחב הושפע ומושפע מאוד מספקולציות והגזמות: לרוב האנשים אין מושג כמה קשה ליצור בינה מלאכותית אוניברסלית.

בואו נבהיר דיון נוסף. למרות שהבהרת המציאות הקשורה לבינה מלאכותית תדרוש מאיתנו ביקורת רצינית, אנחנו עצמנו בשום פנים ואופן לא מתנגדים לבינה מלאכותית, אנחנו מאוד אוהבים את הצד הזה של הקידמה הטכנולוגית. חיינו חלק נכבד מחיינו כאנשי מקצוע בתחום זה ואנו רוצים שהוא יתפתח כמה שיותר מהר.

הפילוסוף האמריקאי הוברט דרייפוס כתב פעם ספר על אילו גבהים, לדעתו, אינטליגנציה מלאכותית לעולם לא יכולה להגיע. לא על זה עוסק הספר הזה. הוא מתמקד בחלקו במה שבינה מלאכותית לא יכולה לעשות כרגע ומדוע חשוב להבין את זה, אבל חלק נכבד ממנו מדבר על מה אפשר לעשות כדי לשפר את החשיבה הממוחשבת ולהרחיב אותה לאזורים שבהם עכשיו הוא מתקשה לעשות קודם כל שלבים.

אנחנו לא רוצים שהבינה המלאכותית תיעלם; אנחנו רוצים שהוא ישתפר, יתר על כן, באופן קיצוני, כדי שנוכל באמת לסמוך עליו ולפתור בעזרתו את הבעיות הרבות של האנושות. יש לנו הרבה ביקורות על המצב הנוכחי של בינה מלאכותית, אבל הביקורת שלנו היא ביטוי של אהבה למדע שאנחנו עושים, לא קריאה לוותר ולוותר על הכל.

בקיצור, אנו מאמינים שבינה מלאכותית אכן יכולה לשנות ברצינות את עולמנו; אבל אנחנו גם מאמינים שרבות מההנחות הבסיסיות לגבי AI חייבות להשתנות לפני שנוכל לדבר על התקדמות אמיתית. ה"איפוס" המוצע שלנו של בינה מלאכותית הוא בכלל לא סיבה לשים קץ למחקר (אם כי יש מי שיבינו את ספרנו בדיוק ברוח זו), אלא אבחנה: איפה אנחנו תקועים עכשיו ואיך יוצאים ממנו. המצב של היום.

אנו מאמינים שהדרך הטובה ביותר להתקדם עשויה להיות להתבונן פנימה, מול מבנה המוח שלנו.

מכונות אינטליגנטיות באמת אינן חייבות להיות העתקים מדויקים של בני אדם, אבל כל מי שמתבונן בבינה מלאכותית בכנות יראה שיש עוד הרבה מה ללמוד מבני אדם, במיוחד מילדים צעירים, שבמובנים רבים עדיפים בהרבה על מכונות ב היכולת שלהם לקלוט ולהבין מושגים חדשים.

מדענים רפואיים מאפיינים לעתים קרובות מחשבים כמערכות "על אנושיות" (בצורה כזו או אחרת), אך המוח האנושי עדיין עדיף בהרבה על עמיתיו הסיליקון לפחות בחמישה היבטים: אנו יכולים להבין שפה, אנו יכולים להבין את העולם, אנו יכולים בגמישות להסתגל לנסיבות חדשות, אנו יכולים ללמוד במהירות דברים חדשים (אפילו ללא כמויות גדולות של נתונים) ויכולים לנמק מול מידע חלקי ואפילו סותר. בכל החזיתות הללו, מערכות בינה מלאכותית מודרניות נמצאות מאחורי בני אדם ללא תקנה.

אתחול של בינה מלאכותית
אתחול של בינה מלאכותית

בינה מלאכותית: אתחול מחדש יעניין אנשים שרוצים להבין טכנולוגיות מודרניות ולהבין כיצד ומתי דור חדש של AI יכול לשפר את חיינו.

מוּמלָץ: