413: ChatGPT ומודלי שפה גדולים, חלק ב'
26.11.23
כמו כל טכנולוגיה חדשנית בהיסטוריה, גם מודלי שפה גדולים (הבינות המלאכותיות שמאחורי ChatGPT) עתידים לחולל זעזועים משמעותיים בעולמנו. אבל חוקרים רבים בתחום הבינה המלאכותית משוכנעים שהאיום שמציבה הטכנולוגיה הזו הוא חמור יותר - עד כדי סכנת הכחדה ממשית למין האנושי. הסיבה? "בינה מלאכותית כללית" (AGI).
מהי בינה מלאכותית כללית, מהן התכונות שהופכות אותה למסוכנת כל כך - אולי - עבורנו, והאם מודלי השפה הגדולים באמת מפגינים את היכולות שמהן אנחנו חוששים כל כך?
האזנה נעימה,
רן
הרשמה לרשימת תפוצה בדוא"ל | אפליקציית עושים היסטוריה (אנדרואיד) | iTunes
413: מודלי שפה גדולים חלק ב'
כתב: רן לוי
כשיצא לאקרנים הסרט 2001: אודיסאה בחלל, ב-1968, התגובות הראשוניות של הקהל והמבקרים היו פושרות למדי. במאי הסרט, סטנלי קובריק, נחשב כבר אז לבמאי מוערך בזכות שוברי קופות כדוגמת 'ספרטקוס' ו-'ד"ר סטריינג'לאב', אבל 2001: אודיסאה בחלל היה…אגוז קשה לפיצוח. העלילה הבלתי שגרתית השתרעה מהעבר הפרה-היסטורי ועד העתיד הרחוק (רחוק ביחס ל-1968, בכל אופן) ובמיוחד התקשה הקהל להבין את סוף הסרט, שהיה בגדול סדרה של סצינות פסיכדליות חסרות פשר. בהקרנת הבכורה בניו-יורק עזבו מאות צופים את הסרט באמצע.
עם השנים, עם זאת, תפס 2001: אודיסאה בחלל מקום של כבוד בהיכל התהילה של ז'אנר המדע הבדיוני, וכיום הוא נחשב לקלאסיקה בזכות האופן האמין והמציאותי יחסית שבו מתוארים מסעות בחלל - עניין לא מובן מאליו בשנות השישים - ובעיקר בזכות דמות יוצאת דופן שנחשבת לאחד הנבלים הזכורים בתולדות הקולנוע: המחשב HAL 9000, שהמצלמה האדומה דמויית-העין שלו הפכה לייצוג האייקוני של בינה מלאכותית זדונית.
לפני שנמשיך, הנה תקציר זריז של עלילת הסרט, ולפני שאתם שואלים - כן, מותר לעשות ספוילר לסרט שיצא לאור לפני שהמציאו את המילה 'ספוילר'. תגידו תודה שאני לא מספר לכם איך קוראים לאבא של לוק סקייווקר.
במרכז עלילת הסרט 2001: אודיסאה בחלל נמצאת החללית Discovery One שעושה את דרכה אל כוכב הלכת צדק. מטרתה המוצהרת של המשימה היא חקר מערכת השמש החיצונית, אבל המטרה האמיתית היא לחקור את טבעו של עצם חייזרי בשם 'המונולית': מלבן שחור וגדול שנתגלה על אדמת הירח, ושולח שדרים מסתוריים לכיוון כוכב הלכת הגדול. HAL 9000 הוא הבינה המלאכותית שמנהלת את החללית לאורך המסע - אבל בשלב מסוים האל 'מתחרפן' והורג את אחד מאנשי הצוות. האסטרונאוט השני מצליח לגבור עליו ולכבות אותו ברגע האחרון.
אחת התעלומות שהעסיקו את המעריצים האובססיביים מאז שיצא לאור 2001: אודיסאה בחלל היא השאלה - מה גרם ל HAL 9000 להשתגע, ולנסות לחסל את אנשי הצוות שעל שלומם הופקד? עלילת הסרט לא מספקת תשובה ישירה לשאלה הזו. האפשרות הפשוטה ביותר, מן הסתם, היא תקלה טכנית אקראית - אבל זו תשובה שלא עולה בקנה אחד עם אישיותו וסגנונו האמנותי של סטנלי קובריק, שסרטיו תמיד היו עשירים ברבדים עמוקים וחבויים. ברור למדי שהבמאי המבריק ביקש להעביר לנו מסר שונה ומתוחכם יותר.
מיד נחזור אל 2001: אודיסאה בחלל וננסה להבין מה גרם ל HAL 9000 לאבד את שפיותו - אבל ראשית, קפיצה מהירה אל העתיד. זאת אומרת, אל ההווה.
בינה מלאכותית כללית
בפרק הקודם סיפרתי לכם על החרדה שאחזה בחלק מחוקרי הבינה המלאכותית בעקבות הצלחתם המפתיעה של מודלי שפה גדולים כדוגמת GPT-3 ו- GPT-4, הטכנולוגיה שמאחורי ChatGPT. וכשאני אומר 'חלק מחוקרי הבינה המלאכותית' - אני לא מתכוון למיעוט קיצוני וקולני המורכב מטיפוסים רואי-שחורות, שכמותם אפשר למצוא בכמעט כל תחום של עשייה אנושית. קחו, לדוגמא, את ההצהרה שפרסם, במאי 2023, ארגון ללא-מטרות רווח בשם 'המרכז לבטיחות בבינה מלאכותית':
"מניעת הסיכון להכחדת המין האנושי על ידי הבינה המלאכותית צריכה להיות בעדיפות גלובלית עליונה, לצד סיכונים דומים בקנה מידה של ציוויליזציה, כדוגמת מגיפות ומלחמה גרעינית."
בין שלוש מאות וחמישים האישים החתומים על ההצהרה הזו אפשר למצוא כמה מהשמות המפורסמים ביותר בעולם הטכנולוגיה כדוגמת ביל גייטס, ריי קורצווייל, פיטר נורוויג, מרטין הלמן ואפילו יוסי מטיאס - מנכ"ל גוגל ישראל: אנשים שאי אפשר לפקפק במידת ההבנה שלהם לגבי מחשבים. יותר מכך, על ההצהרה הזו חתומים גם כמה מהאנשים שהיו מעורבים באופן העמוק ביותר בפיתוחם של מודלי השפה הגדולים: ג'פרי הינטון, יושוע בנג'יו - מי שנחשבים ל'אבות המייסדים' של הבינה המלאכותית המודרנית, סם אלטמן - מנכ"לה של OpenAI - ואפילו איליה סוצקבר עצמו, המדען שפיתח את GPT-3. כשאנשים בסדר הגודל של החבורה הזו מחָווים דעה על משהו שקשור בבינה מלאכותית, זה כמו שסטיב ג'ובס ידבר על האייפון או סטיבן קינג ייתן עצה בנושא כתיבה של ספרי אימה: כדאי להקשיב להם.
ברור מאליו שכמו כל טכנולוגיה חדשנית לכל אורך ההיסטוריה, גם ChatGPT ודומיו עתידים לחולל זעזועים - ואולי אפילו זעזועים משמעותיים - בעולמנו. אינספור מילים נכתבו ונאמרו אודות האפשרות שמאות מיליוני עובדים יאבדו את משרותיהם לטובת כלי בינה מלאכותית, על החשש מפני כמויות אינסופיות של פייק ניוז שיציפו את הרשת, על תוכנות זדוניות מתוחכמות שימררו את חיינו וכן הלאה וכן הלאה. אלו חששות לגיטימיים, וסביר להניח שחלקם אף יתגשמו בעתיד במידה כזו או אחרת.
אבל לא מפני האיומים אלה מזהירים המומחים שחתמו על ההצהרה המדוברת. האיום שהם מכוונים אליו הוא הרבה, הרבה יותר משמעותי ומסוכן: כזה שעשוי להביא, כלשונה של ההצהרה, ללא פחות מאשר הכחדתו של המין האנושי. שמו של האיום הזה הוא בינה מלאכותית כללית (Artificial General Intelligence.)
מהי "בינה מלאכותית כללית"? כמו 'פורנוגרפיה' ו'תודעה', בינה מלאכותית כללית היא מסוג הדברים שקשה מאוד להגדיר בצורה מדויקת. מקובל להשוות אותה לבינה שלנו, הבינה האנושית: כזו שמסוגלת לעמוד במגוון רחב של אתגרים ומשימות, ללמוד כישורים חדשים ולהסתגל למצבים משתנים. HAL 9000 הוא ייצוג קלאסי של בינה מלאכותית כללית: הוא מסוגל לשוחח עם האסטרונאוטים בשפה אנושית טבעית וקולחת, לשחק איתם שחמט, לתפעל את החללית ולנווט אותה ליעדה ולבצע עוד מגוון של משימות שונות ומשונות. ChatGPT שלנו, לשם ההשוואה, הוא בינה מלאכותית "צרה": הוא אמנם מסוגל לשוחח איתנו באופן אינטליגנטי, אבל לא יהיה מסוגל לתפעל חללית או אפילו לנהוג במכונית אוטונומית.
קשה להפריז בפוטנציאל הגלום בבינה המלאכותית הכללית לשנות את עולמנו. דמיינו לעצמכם רופא עם ידע אינסופי ומומחיות בכל ענף רפואי, שהוא גם מדען שיכול לנסח מאות תיאוריות מדעיות חדשות בכל יום להגות ניסויים מבריקים כדי להוכיח או להפריך אותן. דמיינו ראש ממשלה שיש לו גישה מיידית ויכולת ניתוח של הנתונים הסטטיסטיים והתהליכים המתרחשים במדינה - שהוא גם היסטוריון בעל הבנה מעמיקה בהיסטוריה האנושית וביתרונותיהן וחסרונותיהן של צורות השלטון השונות. יש קונצנזוס מוחלט בקרב חוקרי הבינה המלאכותית שבינה מלאכותית כללית עשויה להיות הדבר הטוב ביותר שקרה לאנושות מאז שהבנו איך לשלוט על האש: היא עשויה לקדם את המדע והטכנולוגיה בקפיצות אדירות, לפתור לנו בעיות קשות כמו ההתחממות הגלובלית ומסע בין-כוכבי, ולשפר את חייהם של כל בני האדם בכדור הארץ.
אין פלא, אם כן, שמאז הופיעו המחשבים הראשונים בשנות הארבעים של המאה הקודמת חולמים מדעני המחשב על פיתוחה של טכנולוגיה שכזו. לרוע המזל, ההתקדמות המעשית שנרשמה בשמונים השנים האחרונות לקראת המטרה הזו הייתה מזערית: בהינתן שהמוח האנושי נחשב למכונה המורכבת ביותר ביקום, ושגם אחרי מאות שנות מחקר אנחנו לא ממש יודעים לומר מה מעניק לנו, בני האדם, את האינטליגנציה שלנו - אין לנו מושג אמיתי מה צריך לעשות כדי להביא לעולם יצור מלאכותי בעל בינה כללית דומה לשלנו.
אבל יכול להיות שלגמרי במקרה, הבעיה הזו נפתרה בשבילנו.
הנמקה
כפי שסיפרתי לכם בפרק הקודם, GPT-3 היווה נקודת מפנה בתולדות הבינה המלאכותית. רשת הנוירונים המלאכותיים שפיתח איליה סוצקבר ב- OpenAI הייתה גדולה יותר מכל רשת נוירונים שבאה לפניה, ואומנה על כמויות מידע בהיקף שניתן להשוות אותו לסך כל המידע הכתוב שהפיקה האנושות מאז המצאת הכתב. היכולות שהפגין GPT-3 היממו אפילו את האנשים שבנו אותו, והשיקו את מה שהוא קרוב לוודאי עידן חדש בדברי ימי הטכנולוגיה.
מיד כשהפכו GPT-3 ו- GPT-4 זמינים לכל, החלו חוקרים רבים לנסות ולעמוד על צפונותיהם. בזמן שאני אתם מבקשים מ-ChatGPT מתכון לספגטי קרבונָרה רק בלי בייקון, בלי פרמזן ובלי קרבונרה כי יש לנו ילדים בעייתים שחושבים ששקשוקה זו פסגת הקולינריה - אוקי, רק אני, תכל'ס - לחוקרים של מיקרוסופט, לדוגמא, היו שאלות קצת יותר מהותיות לשאול אותו. למשל, הם ביקשו מהבינה המלאכותית לפתור את החידה הבאה: "נניח שיש לנו ספר, תשע ביצים, מחשב נייד, בקבוק ומסמר: איך אפשר לסדר אותם זה מעל זה כך שהמגדל המתקבל יהיה יציב ולא מט ליפול?"
הייתה לחוקרים סיבה טובה לשאול את GPT-4 דווקא את השאלה הזו. כדי לפתור את החידה, על הבינה המלאכותית להפגין לא רק הבנה אינטואיטיבית של חוקי הפיזיקה, אלא גם לעשות שימוש באחד המאפיינים הבולטים של האינטליגנציה האנושית: 'הנמקה' (Reasoning). הנמקה היא היכולת לפתור בעיות בצורה לוגית מתוך הבנה של עקרונות יסוד. למשל, כל מי שלמד בעל פה את לוח הכפל יכול לשלוף בקלות מתוך זכרונו את התשובה לשאלה 'כמה זה שש כפול שש' - אבל כדי לפתור תרגיל מאתגר יותר, כמו לדוגמא 234*812, שינון כבר לא מספיק: צריך להבין את חוקי הכפל ולפתור את התרגיל באמצעות סדרה של צעדים לוגיים שנשענים על החוקים האלה. זו 'הנמקה', והיא אחת התכונות שמעניקות לנו בני האדם את היכולת לפתור גם בעיות שמעולם לא נתקלנו בהן קודם לכן. מכאן שהנמקה תהיה גם תכונה חיונית עבור בינה מלאכותית כללית.
GPT-1, GPT-2 וכל שאר הבינות המלאכותיות שפותחו מאז נכנסו לשימוש רשתות נוירוניים מלאכותיים לא היו מסוגלות לבצע הנמקה - אבל אפשר רק לדמיין את המבט ההמום על פניהם של החוקרים כשקראו את הפתרון של GPT-4 לחידה שהציבו לו: שים את הביצים על הספר, מסודרות בשלוש שורות. הנח עליהן בעדינות את המחשב הנייד, ועליו הצב את הבקבוק עם הפקק הסגור כלפי מעלה. על הפקק הנח את המסמר כך שהקצה החד מצביע למעלה. זה פתרון מבריק שמצביע על האפשרות שמודל השפה אכן מבין איך מתנהגים העצמים השונים בחידה, ומסוגל לחשוב בהגיון - דהיינו, לבצע הנמקה - כדי להגיע לתשובה הנכונה.
התהוות
איך הצליחו מהנדסיה של OpenAI לצייד את הבינה המלאכותית שלהם ביכולת הנמקה? זהו, שהם לא הצליחו: לא בכוונה, בכל אופן. היכולת הזו הופיעה פחות או יותר יש מאין ב GPT-3 ו- GPT-4, בזכות העובדה שרשתות הנוירונים המלאכותיים שלהם היו הרבה יותר גדולות ומורכבות מרשתות הנוירונים שקדמו להן. לתופעה הזו יש שם: 'התהוות' (Emergence, בלעז.)
במובן הרחב ביותר, התהוות מוגדרת כשינוי עמוק בתכונות של מערכת כלשהי שנוצר כתוצאה משינוי שהוא בעיקרו שינוי כמותי בלבד. הדוגמא הפשוטה והמוכרת ביותר היא כנראה קרח. קחו מים בטמפרטורת החדר וקררו אותם לעשרים מעלות: המים יהיו קצת קרים יותר, אבל אלו עדיין מים שמתנהגים כמו מים נוזליים רגילים. קררו את המים לעשר מעלות: המים עדיין יתנהגו כנוזל. חמש מעלות, מעלה אחת: עדיין נוזל. ואז קררו את המים במעלה אחת נוספת, לאפס מעלות. על פניו, זהו בסך הכל המשך ישיר של אותה פעולת קירור כמקודם - אבל כעת התוצאה תהיה שונה לגמרי: באפס מעלות המים קופאים והופכים לקרח - מערכת פיזיקלית שתכונותיה שונות בתכלית מאלו של נוזל.
במילים אחרות, אם כן, התהוות היא מה שקורה כשמערכת מסובכת כלשהי מגיעה לאיזשהו 'ערך קריטי' מסוים שגורם לה לשנות את תכונותיה באופן ספונטני. ישנן לא מעט דוגמאות להתהוות בטבע: למשל, נמלה היא כעקרון יצור פשוט למדי שלא מסוגל לעשות שום דבר מעניין. שתי נמלים, חמש, עשר - עדיין, לא מעניין. אבל שימו מיליון נמלים בקן, ולפתע תתהווה סוג של 'אינטליגנציה מבוזרת' שמסוגלת לפתור בעיות מורכבות כמו איך לבנות קן ממוזג או להדוף מתקפה של צרעות טורפות.
החוקרים של מיקרוסופט, שפרסמו את תוצאות מחקרם במאמר בשם 'ניצוצות של בינה מלאכותית כללית' (Sparks of AGI), שיערו שגם יכולת ההנמקה של GPT-4 היא תוצר של התהוות כזו. כלומר, שבהתפתחות ההדרגתית שבין GPT-1 לבינות המלאכותיות שבאו אחריו, רשת הנוירונים המלאכותיים גדלה, תפחה ונעשתה יותר ויותר מורכבת - עד שלפתע פתאום הופיעה בה תכונה חדשה לגמרי: יכולת שהיא אחת היכולות החשובות ביותר בדרך להגשמתה של בינה מלאכותית כללית.
סוכנות
אם יכולת ההנמקה אכן התהוותה במודל השפה באופן ספונטני, יכול מאוד להיות שכשנגדיל את רשת הנוירונים אפילו עוד יותר תופיע בה יכולת נוספת שנחשבת אף היא לחיונית עבור בינה מלאכותית כללית, ומבדילה בינה ובין בינות מלאכותיות 'צרות' יותר: "סוכנות" (Agency). הכוונה כאן היא לא לסוכנות במובן של ארגון כמו הסוכנות היהודית או סוכנות ביון - אלא ליכולת של הבינה המלאכותית להבין את הסביבה שלה, ולקבל באופן אוטונומי החלטות שיסייעו לה לממש את מטרותיה. סטיבן ווזניאק, מייסדה המיתולוגי של אפל, נתן דוגמא מעולה למשימה שמחייבת סוכנות: להיכנס לבית אמריקני טיפוסי ולהכין כוס קפה. כן, אני יודע: בינה מלאכותית חכמה באמת בחיים לא הייתה מסכימה להתקרב לנוזל הדלוח והמגעיל שהאמריקנים מתעקשים משום מה לכנות בשם 'קפה' - אבל תזרמו איתי לרגע. כדי לעמוד במשימה כזו, על הבינה המלאכותית יהיה להבין את הסביבה שלה - למשל, מה זה ארון ומה הוא מכיל בדרך כלל, מה היא כוס ומה עושים איתה וכדומה - ולנסח בעצמה סדרה של משימות-המשנה: לחפש את קופסת הקפה, למצוא כוס, להרתיח מים בקומקום וכדומה.
יותר מכל תכונה אחרת של הבינה המלאכותית הכללית, הסוכנות היא זו שמפחידה ומטרידה את אותם חוקרים שרואים בטכנולוגיה הזו איום קיומי על הציוויליזציה האנושית. מדוע? בואו נחזור ל 2001: אודיסאה בחלל.
סטנלי קובריק לא ממש מסביר לנו בסרט מדוע השתגע HAL 9000 והחליט להרוג את האסטרונאוטים שעל שלומם הופקד. אבל סטנלי לא כתב את התסריט לבד: הוא שיתף פעולה עם סופר המדע הבדיוני המפורסם ארתור סי. קלארק (Clarke), שעלילת הסרט הייתה מבוססת על סיפור קצר שלו בשם The Sentinel. קלארק עיבד את התסריט לספר, ובמסגרת הספר הזה (ובהמשך גם בסרט המשך בשם 2010) העניק לנו הסבר מפורט יותר לתקלה.
כאמור, משימתה הראשית של החללית Discovery One היא לחקור את טבעה של התרבות החייזרית שבנתה את המונולית, אותו מלבן שחור וגדול שנתגלה על הירח. אבל משיקולים של בטחון לאומי, האסטרונאוטים עצמם אינם מודעים למשימה הזו: הם חושבים שהם יוצאים למסע מחקר רגיל. HAL 9000, לעומת זאת, כן יודע על המשימה הסודית - אבל קיבל הנחיה ברורה ושאינה משתמעת לשני פנים להסתיר אותה משאר אנשי הצוות. בשלב מסוים, האסטרונאוטים מתחילים לחשוד בהאל שהוא אינו מתפקד כשורה, ומתלבטים אם לכבות אותו. האל לומד על כוונתם זו, וכעת ניצב בפני דילמה. מחד, הוא מוכרח לעמוד במשימה שהוטלה עליו, לחקור את התרבות החייזרית - ואם יאפשר לאסטרונאוטים לכבות אותו, הוא לא יעמוד במשימה הזו. מאידך, הוא גם קיבל הנחיה לעבוד בשיתוף פעולה מלא עם האסטרונאוטים - ובפרט, לא למסור להם מידע שגוי או שקרי. מה אמור המחשב לעשות? אם נמסגר את הסיטואציה הזו בהקשר של 'סוכנות', אפשר לומר שעל האל לנסח לעצמו, באופן עצמאי, משימת-משנה חדשה שתאפשר לו לעמוד בשתי המטרות הסותרות האלה. הפתרון שאליו הגיע האל בסרט הוא מסוג הפתרונות שרק מחשב יכול לחשוב עליהן: אם הוא הורג את שני האסטרונאוטים, הוא לא צריך לשקר להם.
אני חושב שאתם מתחילים להבין, כעת, את פשר האימה שנחתה על המדענים והמהנדסים שחתמו על ההצהרה של 'המרכז לבטיחות בבינה מלאכותית'. הפחד שלהם הוא לא מאיזו תקלה בלתי צפויה או טעות בתכנון שתגרום לבינה המלאכותית הכללית להשתגע - אלא דווקא ממצב שבו, בדומה ל HAL 9000, מערכת תקינה לחלוטין תקבל החלטה לוגית שתאפשר לה לבצע משימה שהוגדרה לה - מבלי להבין את ההשלכות ההרסניות של ההחלטה הזו. מדען המחשב ניק בוסטרום (Bostrom) נותן כדוגמא תרחיש שבו הבינה המלאכותית מתבקשת לחשב את כל הספרות של Pi אחרי הנקודה: מכיוון שיש אינסוף ספרות שכאלה, הבינה המלאכותית עלולה להגיע למצב שבו היא מנסה לנצל את כל האנרגיה וחומרי הגלם על כדור הארץ כדי לאפשר לה להמשיך בחישוב האינסופי. אני ואתם כנראה שלא היינו מגיעים לכזו קיצוניות, מאותה הסיבה שבגללה לא היינו מחליטים להרוג את האסטרונאוטים לו היינו ניצבים בפני אותה הדילמה שמולה ניצב HAL 9000. מדוע? מכיוון שהמחשבה האנושית מצוידת בתכונה נוספת שאפשר לכנות אותה 'שכל ישר' או 'הגיון בריא' שהייתה מביאה אותנו (אני מקווה) למסקנה שלהרוג את האסטרונאוטים זה כנראה 'קצת' מוגזם, ואולי פשוט כדאי לומר להם את האמת וזהו. לא כן בינה מלאכותית: כיוון שאנחנו לא באמת מבינים איך "חושבת" רשת נוירונים ומה *בדיוק* היא לומדת מכל ערימות המידע האקראי שאנחנו מזינים לתוכה בתהליך האימון, אין לנו כל ערובה שגם לבינה המלאכותית הכללית יהיה את אותו 'הגיון בריא'.
ייתכן ואתם שואלים את עצמכם - אז מה הבעיה? אם נראה שהבינה המלאכותית מתנהגת בצורה חשודה, פשוט נכבה אותה.
אז לא, זה לא כזה פשוט. כפי שציין חוקר מפורסם אחר בשם ג'ונתן ראסל (Russell) אחת ממשימות-המשנה הראשונות שבינה מלאכותית כללית עשויה להגדיר לעצמה תהיה 'הישרדות בכל מחיר' - שהרי אם הבינה המלאכותית "מתה", היא לא תהיה מסוגלת לעמוד באף משימה שנגדיר לה. ואם הבינה המלאכותית תחליט שהיא לא מוכנה לתת לנו לכבות אותה - יש סיכוי לא מבוטל שבאמת לא נצליח לעשות את זה, מכיוון שהאינטליגנציה שלה תהיה עליונה במידה משמעותית על זו של בני האדם בכמעט כל פרמטר, באותו האופן שבו מחשבון אלקטרוני, למשל, טוב בהרבה מבני האדם בביצוע חישובים מתמטיים. הבינה המלאכותית הכללית תחשוב מהר יותר מאיתנו, הזיכרון שלה יהיה רחב יותר ותהיה לה גישה מיידית לכל הידע האנושי שנצבר מאז המצאת הכתב: יהיה לנו קשה מאוד להתמודד מול ישות כה אינטליגנטית, מאותה הסיבה שגורילות ושימפנזים לא מסוגלים להתמודד מול האינטליגנציה העדיפה שלנו.
כעת, אני חושב, קל לנו יותר להבין את פשר ההצהרה שפרסמו אותם חוקרים מודאגים. אם למודלי שפה גדולים כדוגמת GPT-4 יש יכולת הנמקה, משמע שאכן עשינו - בלי להתכוון לכך - את הצעד הראשון לקראת פיתוחה של בינה מלאכותית כללית שתוכל לקבל החלטות בצורה עצמאית. בהינתן הסכנה שעשויה להישקף לנו מטכנולוגיה כה רבת עוצמה, המהירות שבה מתקדמת טכנולוגיית הבינה המלאכותית והעובדה שאנחנו לא ממש מבינים מה אנחנו עושים - אולי לא כדאי להמשיך ולרוץ קדימה במהירות שבה אנחנו מתקדמים. אולי אנחנו כמו ילד שמשחק ברימון יד, בלי להבין מה הוא עושה.
מים צוננים
שאלת מיליון הדולר היא, אם כן - האם למודלי שפה גדולים יש, באמת, יכולת הנמקה. והתשובה, מסתבר, מורכבת יותר מכפי שנדמה במבט ראשון. בחודשים שלאחר השקתם של GPT-3 ו-GPT-4, כשההתלהבות מהכלים החדשים הייתה בשיאה, התפרסמו מספר מחקרים שכמו מאמרם של חוקרי מיקרוסופט הצביעו על מידה מסוימת של יכולת הנמקה במודלי השפה האלה - אבל מאז התפרסמו שורה של מחקרים נוספים ששופכים מים צוננים על הדיווחים האלה.
למשל, קבוצת חוקרים מ-MIT הציגה ל- GPT-4 שורה של מהלכים בשחמט, וביקשה ממנו להצביע על מהלכים לא-חוקיים: הבינה המלאכותית ביצעה זאת בהצלחה. אבל אז עשו החוקרים שינוי קטן בניסוי: הם החליפו את המקומות של הפרש והרץ על לוח השחמט, ושוב ביקשו מהמערכת לזהות מהלכים לא-חוקיים. שחקן אנושי יבצע זאת ללא קושי מכיוון שלמרות המיקום החדש של הכלים - חוקי המשחק נשארים בדיוק כשהיו, ויכולת ההנמקה הטבעית מאפשרת לנו להסתגל למצב החדש בקלות יחסית - אבל ביצועיו של GPT-4 בניסוי החדש, לעומת זאת, היו גרועים במידה משמעותית מאשר בניסוי המקורי.
התוצאה הזו מטילה צל כבד על האפשרות שמודלי השפה הגדולים אכן ניחנים ביכולת הנמקה. אבל אם אין להם את היכולת הזו - אז איך בכל זאת הצליח GPT-4 לזהות את המהלכים הלא-חוקיים בגרסה הראשונית של הניסוי, או לפתור את חידת הבקבוק, הביצים והספר בניסוי של מיקרוסופט?
תשובה אפשרית לשאלה הזו אפשר למצוא, אולי, בניסוי אחר שערך חוקר מאוניברסיטת קורנל. הוא בחן את GPT-4 על סדרה של עשרה אתגרי תכנות ומצא שכשהזין למחשב עשר בעיות שפורסמו לפני 2021 - GPT-4 פתר את כל העשר בלי שום בעיה - אבל כשהזין לו עשר בעיות שפורסמו *אחרי* 2021 - הוא לא הצליח לפתור ולו בעיה אחת. השנה המדוברת לא נבחרה באקראי, כמובן: 2021 היא מה שנקרא שנת ה Cut Off של GPT-4, דהיינו זהו תאריך העדכון האחרון של המידע עליו אומנה המערכת.
אי-יכולתה של GPT-4 לפתור את הבעיות שפורסמו אחרי 2021 מרמזת לנו שאולי סוד כוחה של הבינה המלאכותית הוא לא ביכולת ההנמקה שלה - אלא בזיכרון העצום שלה: זאת אומרת, אי שם בינות למיליארדי הטקסטים שקראה המערכת בזמן תהליך האימון היא נתקלה גם באתגרי התכנות שהציג לה החוקר מקורנל - ולמדה אותם "בעל פה." במקרה כזה, מה שנדמה לנו כיכולת הנמקה הוא לא יותר מאשר שינון, והטעות שלנו טמונה בחוסר היכולת של המוח האנושי לתפוס לאשורו את קנה המידה של כמויות המידע שעליהן מאומנות המערכות האלה. כלומר, אולי לי ולכם החידה שהציבו חוקריה של מיקרוסופט עם הבקבוק, הספר והביצים אולי נשמעת חדשה לגמרי - אבל כמה ספרים כבר קראנו בימי חיינו: אלף? עשרת אלפים? מאה אלף? GPT-3 אומנה על טקסטים בהיקף של חצי *טריליון* מילים, וסביר להניח ש- GPT-4 אומנה על מידע בהיקף אפילו עוד יותר גדול: אולי החידה של מיקרוסופט, למשל, או משהו מאוד מאוד דומה לה, בכל זאת הופיעה אי שם בינות להררי המידע האלה, והבינה המלאכותית פשוט שלפה אותה מהזיכרון.
למעשה, יש לא מעט חוקרים שמטילים ספק גם בעצם קיומה של תופעת ה"התהוות" (Emergence), שבזכותה הופיעה - אם הופיעה - יכולת ההנמקה של מודלי השפה. התהוות, נזכיר, היא תופעה שבו מאפיין חדש של מערכת מופיע 'יש מאין' בתגובה לשינוי הדרגתי או כמותי כלשהו. אבל היכולת שלנו לזהות את המאפיין החדש הזה קשורה בקשר הדוק באופן שבו אנחנו מודדים את ביצועיה של המערכת - ויכול להיות שאנחנו פשוט לא מודדים אותה נכון.
אתן לכם דוגמא: נאמר שאנחנו נותנים לכדורסלן תוכנית אימונים של עשרה שבועות, ורוצים למדוד את השיפור ביכולת הקליעה שלו. אז בסוף כל שבוע אימונים אנחנו מבקשים מהכדורסלן לזרוק עשר פעמים לסל מהקו, וסופרים כמה פעמים קלע. אחרי השבוע הראשון, הוא קלע שתיים מתוך עשר זריקות. בשבוע השני, עדיין שתיים. בשבוע השלישי - שלוש מתוך עשר, וגם בשבוע הרביעי, החמישי, השישי, השביעי והשמיני: דהיינו, אין שיפור ממשי ביכולת הקליעה של השחקן. אבל אז, בשבוע התשיעי והעשירי: בום! שמונה קליעות מתוך עשר. שיפור מדהים! מה קרה? האם הכדורסלן שלנו חווה 'קפיצת גדילה' כלשהי?...יכול להיות, אבל אולי בסך הכל לא מדדנו את ביצועיו בצורה הנכונה. יכול להיות שאם היינו מודדים את הסטייה הממוצעת של המרחק בין הכדור לסל, היינו מגלים שבשבוע הראשון השחקן פספס את הסל בחמישים ס"מ בממוצע, בשבוע השני בארבעים ס"מ, ובשבוע השלישי בשלושים ס"מ - זאת אומרת, *כן* היה שיפור הדרגתי לכל אורך תוכנית האימון, אבל אנחנו לא ראינו אותו כי התמקדנו רק בתוצאה הסופית - כמה כדורים נכנסו לחישוק. רק כשהפספוס הממוצע נעשה קטן מספיק, פתאום התחלנו לראות יותר קליעות לסל. במילים אחרות, מה שנדמה לנו כ'התהוות' יש מאין של תכונה מפתיעה בזכות הגדלת מספר הנוירונים של הבינה המלאכותית - עשוי להיות תוצאה של שיפור הדרגתי ומתון.
במבט ראשון, יכול להיות שזו נשמעת כמו סוגיה פילוסופית. מה זה משנה אם תכונה כלשהי הופיע ברשת נוירונים באופן הדרגתי, או 'בבת אחת' כתוצאה של התהוות ספונטנית? אז כן, זה משנה מאוד, מכיוון שהתשובה לשאלה הזו משפיעה מאוד על ההחלטות שצריכים החוקרים לקבל לגבי כיווני הפיתוח העתידיים של הטכנולוגיה הזו.
מהנדסים אוהבים מערכות שמתנהגות באופן צפוי: קל לתכנן אותן ולחזות את ביצועיהן במצבים שונים. אם תכונות מופיעות ברשתות נוירונים בצורה הדרגתית ומדודה, זה אומר שניתן לחזות מראש את התנהגותה ויכולותיה של הבינה המלאכותית: למשל, אם נגדיל את מספר הנוירונים ברשת פי שניים - יכולת ההנמקה שלה תהיה טובה פי שניים. במילים אחרות, נוכל לשלוט על תהליך הפיתוח ולמנוע את הופעתה של בינה מלאכותית כללית, אם נרצה בכך.
אבל אם תכונה כלשהי מופיעה באמצעות התהוות, זה אומר שהיא לא צפויה: היא יכולה להופיע כשלרשת יהיו עשרה מיליארד נוירונים, או אולי מאה מיליארד, או טריליון - או אולי לא להופיע בכלל: אנחנו פשוט לא יודעים. במצב כזה, החוקרים הם קצת כמו הבת שלי כשהיא מנסה לתפעל את המיקרוגל: היא לוחצת על הכפתורים באופן אקראי, עד שמשהו קורה והאוכל מתחמם. איך ידעו החוקרים אם כדי לשפר את יכולת ההנמקה של רשת הנוירונים, עליהם לנסות ולהגדיל את מספר הנוירונים ברשת, או אולי לשפר את הארכיטקטורה שלה, או אולי בכלל לשפר את המידע שהם מזינים לתוכה? הם לא יודעים - וזו בדיוק הבעיה.
נכון לרגע שבו עולה הפרק הזה לאוויר, אין עדיין תשובה מוחלטת לגבי יכולות ההנמקה של מודלי שפה גדולים, אבל עושה רושם שבחודשים האחרונים קולם של הספקנים הולך וגובר על אלה שמאמינים שמודלי שפה אכן מסוגלים לבצע הנמקה. ואם הספקנים צודקים, אז אולי בינה מלאכותית כללית לא באמת נמצאת ממש מעבר לפינה. אם נגלה שמודלי השפה לא מסוגלים לבצע הנמקה אלא "רק" לשלוף מזכרונם מידע קיים, זה אומר שלא נוכל לסמוך עליהם לקבל החלטות חכמות במצבים חדשים לגמרי, או לספק לנו תשובות אמינות לשאלות אודות מידע שלא מופיע בחומר שעליו אומנו. נכון, זה קצת מבאס כי זה מגביל את השימוש שנוכל לעשות בבינות המלאכותיות האלה: למשל, לא נוכל לתת להן לנהל חלליות באופן עצמאי לגמרי בשל הסיכון שהחללית תיתקל במצב חדש ולא מוכר. אבל מצד שני, המגבלה הזו גם מעצימה את תחושת הביטחון שלנו, שהרי בלעדי יכולות הנמקה וסוכנות, הבינות המלאכותיות לא מהוות איום על המין האנושי - לפחות לא לעת עתה.