Chat GPT והעבודה השחורה של הלמידה היוצרת


 התגובות בשדה החינוך לפריצת chat gpt ושאר כלי הבינה המלאכותית היוצרת (Generative AI) לחיינו הן בסופו של דבר די צפויות: יש את התגובות הנלהבות, אלה שמדגישות את ההזדמנויות הנהדרות, יש את אלה שמבחינתן זה רק הוכחה לסוג השינויים הפדגוגיים והמערכתיים שהם כבר דוחפים אליו, שהנה הוכח סופית שאפשר וצריך לקפוץ היישר לתהליכי חשיבה מתקדמים, לאינטגרציה, סינתיזה וחקר. בין השאר כבר יצאו לא מעט רשימות עם הדרכות מדויקות, הצעות לעדכון סילבוסים וכללי אצבע לאיך לעבוד עם הכלים האלו. סוג תגובות שני הוא תגובות החרדה ואפילו השיתוק מפני השתלטות האוטומציה והרובוטיקה והחשש מפני התרוקנות הערך של הלמידה הבית ספרית, הצד השני של התגובה הזו היא דווקא תגובה המחבקת את האפשרות הזו - סוף סוף דרך השיבושיות הזו נוכל להביא למהפכה בחינוך – הכל עומד להשתנות. אבל יש גם כאלה שמתתבוננים מהצד ושואלים מה המהומה, זו לא הטכנולוגיה הראשונה שמאיימת לשבש ובפועל מעט מאד משתנה. ולבסוף יש את התגובות המורכבות, אלה שמדגישים את החששות לצד היתרונות. פה אני מבקש להתמודד עם היבטים מסויימים של chatGPT  ובעיקר עם שאלות של ידע ולמידה. חשוב לומר, שבסופו של דבר מה שהכלים החדשים עושים והמשמעויות שלהם לא צריך להתפס כאיזה נקודת מפנה מפתיע אלא עוד צעד בתהליך ארוך של הפיכת הלמידה והשגת הידע שלנו למתווכים דיגיטליים ומונעים על ידי טכנולוגיות רשתיות ואלגוריתמיות כאלה ואחרות. בסופו של דבר, אנחנו כבר עמוק בתוך השינוי, chatGPT ושאר כלי הבינה המלאכותית היוצרת הם רק עוד שלב בכיוון מסויים.

 

מה חשוב לדעת כדי להבין?

בשנה הראשונה שלי בתואר הראשון לקחתי קורס מבוא על ימי הביניים עם מרצה מהגווארדיה הותיקה של החוג להיסטוריה באוניברסיטה העברית. במבחן הסיום הופיעה שאלה על השינוי בערך הכלכלי של חיטה בתקופה מסויימת. אני התעצבנתי על כך מאד: הייתי מוכן למבחן ושחיתי בחומר, אמנם לא זכרתי את המספר המדוייק, אבל זכרתי היטב את הקשר שבין עליית ערך החיטה ובין תהליכים פוליטים וחברתיים. בסיום המבחן ניגשתי למרצה ואמרתי לו בחוצפתי הרבה שזו היתה שאלה שלא צריכה להשאל, הרי אין סיכוי שמישהו מ300 הסטודנטים בכיתה יזכור את המספרים המדוייקים האלה יום אחרי המבחן. מה שחשוב, הסברתי לו, זה להבין את התהליכים והקשרים ביניהם. המרצה, קצת המום מהחוצפה שלי, השיב לי שאני מדבר שטויות, שחשוב לדעת את הפרטים ושאולי כדאי שאלמד קצת צניעות. מעבר לשאלה של מבחן ולימוד למבחן, הרי שעצם הויכוח בינינו נוגע לשאלה מהותית: כדי להבין תהליכים כמה מידע צריכים לספוג וללמוד. האם אפשר להבין לעומק את התהליכים ההיסטוריים בימי הביניים, מבלי להכנס לפרטים הקטנים של מחיר החיטה? האם אפשר לדעת דברים באופן כללי? השאלה הזו נוגעת לשאלת הקוריקולום (וההערכה של הקוריקולום הנלמד) הבית ספרי והאוניברסיטאי, היא קיבלה משנה תוקף בעידן האינטרנט ועם הדומיננטיות של ויקיפדיה ועם היכולת לשאול את גוגל שאלות, אבל אני חושב שהchat GPT  הופך אותה להרבה יותר עמוקה ומשמעותית.

המגיבים החוגגים את הכלי המרשים הזה מסבירים לנו שבאופן פשוט מאד מה שמורים ומרצים צריכים לעשות זה לעבור משאלות על ידע לשאלות של הבנה. את הידע עצמו ייתן לנו בשפה אנושית ובאופן מהיר ונוח הכלי הטכנולוגי. אין טעם לחפש פריטי מידע עם אפשר פשוט לבקש מהרובוט החביב שיתן לנו פריסה של כל פריטי המידע שעל בסיסם נוכל לדון בכיתה על המשמעויות השונות שלהם. הסוגיה שמטרידה אותי עם ההבטחה הזו, מעבר לשאלת האמינות והאמת, נוגעת לערך של הדיון והישגי ההבנה כאשר פריטי המידע ניתנים ככה. במילים אחרות, חלק מהיכולת להשיג את ההבנה זה לעסוק באופן פעיל קוגניטבי, להיות מעורב בהשגת פריטי המידע. ההבנה היא לא איזה זבנג וגמרנו אלא  תהליך, עבודה, מאבק אפילו, רצוא ושוב בין הרעיונות, התיאוריות והתובנות ובין הפרטים השונים, וחלק מהעבודה הזו זה ירידה לפרטים, זה מעורבות במאמץ בהשגתם. מה קורה להבנה, לחשיבה על..., כאשר מוציאים את עבודת הפרטים מהתמונה, שמקבלים אותם מהמוכן? איזה סוג של הבנה אנחנו מקבלים?

 

האם האמת בכלל חשובה?

ארוינד נאריאנאן (Narayanan), פרופ' למדעי המחשב מפרינסטון, קורא לchat GPT מייצר הבולשיט - the bullshit generator. זה לא שהכלי משקר או מייצר תמיד מידע לא אמין, מסביר נאריאנאן, וזה גם לא עניין של עוד דיוק ועבודה אלגוריתמית, אלא עניין עקרוני. מה שהchatGPT  מאומן לעשות זה לייצר טקסט המתקבל על הדעת של בני האדם אבל הוא לא מאומן לייצר טענות אמיתיות בהכרח, זאת לא המטרה שלו. למעשה, מסביר נאריאנאן, הטענות האמיתיות בטקסטים שמייצר chatGPT הן בעצם תופעת לוואי של המטרה המרכזית שאליה הוא אומן ותוכנת - להיות מתקבל על הדעת ומשכנע. ומשכנע הוא בהחלט. אני חושב שרוב ההתלהבות שיש לנו כמשתמשים מchatGPT היא מהתחושה שלא משנה איזה שאלות או משימות נזרוק עליו הרי ברוב המקרים הוא יצליח תוך פחות מחמש שניות לייצר טקסט סביר, מתקבל על הדעת, כזה שבני אדם היו כותבים. זהו סוד הקסם: היכולת לחקות את האנושי, לייצר את התחושה שאתה מדבר עם מישהו, שהמישהו הזה מבין מה אתה רוצה ומגיב לכך במהירות. ושהמישהו הזה הוא גם מחשב, זה אומר שלכאורה המידע שהוא מפיק הוא גם אובייקטיבי, מבוסס על חישוב, נטול פניות. אם תרצו הבעיה פה היא כפולה: ברמה אחת  הרובוט לא תוכנת לייצר אמת בהכרח, אבל הוא טוב בלראות כמו בן אנוש, כלומר כח השכנוע והאמינות שלו נובעים מהדמיון לאנושי. אבל ברמה השניה, הרי באותה עת הוא גם מחשב שעושה פעולות אוטומטיות מבוססות חישוב ונתוני עתק, כלומר הוא גם אמין  דווקא מכיוון שהוא לא אנושי. כך בעצם "נהנה" הchatGPT  מכל העולמות.

גארי מרכוס, עוד מדען, שמביא כמו נאריאנאן, קול מפוכח ואפילו קצת ביקורתי על האופטימיות לגבי בינה מלאכותית, מתייחס לבעיה הזו באחד הפוסטים האחרונים שלו. הוא מדבר על הנטייה האנושית לסמוך על פעולות רובוטיות אוטומטיות, גם כאשר הטכנולוגיה לא בשלה או כאשר הם מודעים לסכנות האפשריות. הדוגמא הקלאסית היא כאשר גוגל ניסו לראשונה רכיבים של רכב אוטונומי בשנת 2014. לנהגים, עובדי גוגל, הוסבר שהטכנולוגיה עדיין חלקית ולא שלמה, ושהם צריכים להיות עירניים עם עיניים על הכביש על מנת שיוכלו לקחת את ההגה לידיים כאשר הטכנולוגיה כושלת או עושה טעות. על אף האזהרות התיעוד של הנהגים הללו גילה שהם סמכו יותר מדי על הטכנולוגיה, שהם הורידו את העיניים לזמן ארוך מהכביש, שהם נטו להתעסק בדברים אחרים, וכל זה בנסיעת מבחן. מה שאפשר ללמוד מכך וממקרים נוספים, הוא על המהירות שבה אנחנו בני אדם, משתמשים אנושיים, מתרגלים וסומכים על הפעולה האוטומטית של הטכנולוגיה. האמון הזה משמעותו שפחות נסתכל בעיניים ביקורתיות, שפחות נבדוק את התוצאות וההמלצות של הטכנולוגיה. אחת הסיבות לכך היא  בדיוק הקלות, הזרימה, חוסר המאמץ, הזריזות של הטכנולוגיה הדיגיטלית. ככה היא מעוצבת והעיצוב הזה בדיוק נועד לכך שניתן בה אמון.

עכשיו בואו נחזור לchatgpt, לאמת ולחינוך. השילוב שבין החיקוי האנושי, האמון באוקייטיביזציה החישובית, והנטייה להסתמך על טכנולוגיות לצד היותו של הכלי כמייצר בולשיט מסמנת אתגר משמעותי. כלומר לכאורה הפתרון הוא פשוט: פשוט לא להאמין לנתונים, לבדוק אותם, אבל המציאות היא שבדיוק כמו אותם הנהגים בניסוי של גוגל רובנו אם לא כולנו נוריד את הידיים מההגה והעיניים מהכביש מהר מאד. שאלת הידע והאמינות של הידע בעידן הדיגיטלי היא אתגר משמעותי בעידן הדיגיטלי. בעיית הפייק ניוז ומידע כוזב, היא בעיה שחורגת הרבה מעבר לשאלה של למידה וחינוך אבל שמקבלת מעט מדי התייחסות בשדה החינוכי. בסופו של דבר לא צריך לחכות לchatGPT כדי לסמן את בעיית ההפצה של מידע שגוי וכוזב, אבל בגלל כל הסיבות שפירטנו פה הבעיה הזו מחמירה עם הכלי הטכנולוגי החדש.

לאור כל זה, השאלה היא האם השימוש החינוכי, והלא-חינוכי, בchat GPT  ובבינה מלאכותית יוצרת לא מסמן למעשה את הויתור לשאיפה לאמת? האם העובדה שהכלי הטכנולוגי הזה בעצם לא מיועד לספק תשובות אמיתיות בהכרח אבל כן מיועד לשכנע לא אומר שכל שימוש שלו בעצם מעדיף את היעילות האוטומטית על פני החתירה לאמת? והאם הנטייה האנושית לסמוך ולזרום עם הכלים האוטומטיים-רובוטים האלה ועל הבינה המלאכותית לא אומרת שבפועל האמת נדחקת לתחתית סדר העדיפויות?

הנקודה היא שבניגוד למה שאנחנו חושבים אמת היא לא איזה נתון מנצנץ מוכן לקריאה שרק צריך לקטוף אותו. אמת היא עבודה, היא דורשת קריאה של מקורות רבים, היא דורשת מאמץ והעמקה, היא דורשת ללמוד שיטות של קריאת נתונים וגרפים וטבלאות, היא דורשת סוגים שונים של מומחיות, היא דורשת ירידה לפרטים, היא דורשת יכולת להתמודד עם טיעונים שונים, עם מידע סותר, עם זיהוי של מידע רלוונטי ומידע לא רלוונטי. אמת תלויה בשיטות ובמתודולוגיות, היא כרוכה בפרשנות אנושית, במיסגור, בתיאוריות, בשיבוץ המידע בתוך הקשרים רחבים וצרים, מקומיים וגלובליים. מידע כוזב - כדוגמת מכחישי אקלים - הוא לא איזה שקר אחד ארוך, אלא משחק עם האמת, הוא מציג תמונה חלקית, הוא לוקח עובדות נכונות ולא נכונות ומשבץ אותם ביחד, הוא מיצר פרשנות מוטה, הוא משבץ נתונים בתוך הקשר מטעה. על מנת לזהות מידע כוזב, על מנת להתמודד איתו, על מנת להשיג מידע אמין ומתוקף, לא רק צריך לדעת פרטים ונתונים, אלא צריך לדעת וללמוד את כל הדבר הזה שמסביב, את השיטות שאיתם משיגים את המידע ואיתם מציגים אותם, את ההקשרים, את הפרשנויות ועוד ועוד.

לכל זה בינה מלאכותית יוצרת אדישה, היא מתעדפת חיקוי אנושי על פני נתונים מבוססים, היא מתעדפת דפוסי הבנה, פרשנות וחשיבה אנושית על פני אשכרה הבנה, פרשנות חשיבה אנושית, אין בתוכה היררכיה של ידע (לדוגמא ידע מדעי מתוקף לא מקבל העדפה במערכת על פני ידעים אחרים - כל הטקסטים מקבלים טיפול דומה) והיא מתעדפת חזות של ידע משכנע על פני ידע אמיתי. בקיצור היא מערערת את הבסיס למבנה הידע ההומניסטי-מדעי שעומד בבסיס ההסדרים החברתיים שלנו ושעליו בנויה מערכת החינוך הבית ספרית המודרנית.

 

עבודה שחורה

במאמר בslate  טוענים גיליארד ורוראבו את הטיעון הבא: "הקביעה כי לבינה מלאכותית יש את הפוטנציאל 'לשחרר עובדים אנושיים ולאפשר להם להתמקד יותר בעבודת חשיבה' היא מוטעית מיסודה. כשמדובר בכתיבה (וכל מה שאפשר לעשות עם הכתיבה) זה הכל עבודה שחורה. לבוא עם רעיון, לחבר אותו לשפה, לבדוק שהשפה תואמת לרעיון, כל זה הוא תהליך מטא-קוגניטיבי שמשנה אותנו. תהליך ששם אותנו בדיאלוג עם עצמנו ועם אחרים. לעשות מיקור חוץ ליצירת רעיונות למכונת בינה מלאכותית זה להפסיד את הלמידה המחדשת והמתמדת שהרפלקציה עושה לחשיבה שלנו".

הציטוט הזה, הולך הרבה מעבר לטיעון שביקשתי לפתח פה - הוא עוסק בשאלות של חשיבה אנושית, של סובייקטיביות, של אוטונומיה ויצירה - אבל הסיבה שהבאתי אותו הוא בעקבות הדרך שבה הם מתארים את עבודת הכתיבה והחשיבה כ"עבודה שחורה" - grunt work. לעבודה זו יש ערך שהולך הרבה מעבר לשאלת התוצאה. העבודה הזו נמצאת בבסיס של פיתוח רעיונות, של תיקוף שלהם, של הבנת הקשרים ותהליכים, של חשיבה על תיאוריה, של למידה באופן העמוק שלה.

עכשיו, מצד שני, על מנת לתרגם את הפיסקה הזו השתמשתי במתרגם האוטומטי של גוגל (שמבוסס על טכנולוגיה דומה לchat GPT). התוצאה הראשונית שקיבלתי היתה בלתי קריאה, והעבודה "השחורה" שלי התחילה. כולנו כבר משתמשים בכלים הללו, אי אפשר להמנע מזה. אפילו אני אקדמאי עם דוקטורט מתחיל הרבה פעמים את החיפוש שלי על מושג חדש או נושא שאני לא מכיר באמצעות חיפוש בגוגל וקריאה של המקור הראשון, בדרך כלל ויקיפדיה. השאלה היא מה אני עושה אחר כך, איך אני מעריך את מקורות המידע השונים, איך אני קורא עוד, איך אני מאמת פרטים ומידע, מה אני בוחר לקרוא לעומק בטקסט המקורי, ואיך כל החשיבה שלי והכתיבה שלי מתייחסת ונמצאת בדיאלוג עם כל מה שאני קורא (ושומע וצופה).

ופה מתחיל האתגר הגדול. איך בתוך השדה החינוכי הנוכחי אנחנו יכולים לשלב את האוטומציה של הבינה המלאכותית היוצרת אבל מבלי לוותר על העבודה השחורה של הידע - העבודה השחורה של גילוי אמת, של הדיוק באמת, של החיבור להקשרים השונים, של המחשבה על התיאוריה והמשמעות, של החזרה לפרטים, של היצירה של משהו חדש מכל התהליך הזה. וזהו אתגר גדול בדיוק בגלל הנטייה שלנו לוותר על העבודה השחורה, בדיוק בגלל שקל לנו ללכת בעיניים עצומות אחרי החדשנות הטכנולוגית המפעימה כמו עכברים אחרי חלילן גנרי, בדיוק בגלל שפיצ'רים שמוצעים למשתמשים יכולים להיות כלי משחק מדהימים אבל גם לרפות את ידינו, בגלל שהמדיום מעצב אותנו, בגלל שאם יש דרך קלה ונוחה סיכוי טוב שרובינו נבחר בה, בגלל שברגע שתהיה את האשליה שאפשר מיד נוריד את העיניים מהכביש ואת הידיים מההגה. 

אם נחזור לChat GPT וכלים אחרים, הבעיה איתם היא העצלות המחשבתית האנושית שעלולה ללוות את השימוש בהם, הויתור על אמת כערך, הקלות שבה בני אדם יתנו בהם אמון (והתלהבות), והאופן שבו זה יעצב אותנו בתור אנשים חושבים ויוצרים. לא מספיק בעיניי להציע הצעות (טובות יותר או פחות, יישומיות יותר או פחות) של כל מיני תרגילים של מה לעשות עם תלמידים וסטודנטיות עם chat GPT ודומיו. גם לא מספיק לדבר על סכנות וחששות. מה שצריך זה לייצר שיח הרבה יותר מיודע ופתוח והרבה פחות נלהב על הטכנולוגיות עצמן - מהי בעצם הטכנולוגיה עצמה (לא, זה לא קסם), מה הן מבטיחות לנו, מה הן מביאות לנו, אבל גם מה המגבלות שלהן, מה הן עלולות לעשות לנו, מה ההשפעות והמחירים שלהן. במובן הזה, השיח על הממשק האנושי-טכנולוגי, על המדיות שמציפות ומאסדרות מחדש את חיינו, חסר לגמרי מהשדה החינוכי. אנחנו נמצאים בממשק יומיומי עם הטכנולוגיות הללו, אנחנו גם לפעמים משתמשים בהם בדרכים מתוחכמות יותר או פחות בכיתות או בתהליכי למידה, אבל אנחנו נמנעות לחשוב ולדבר על המדיות עצמן ועל החיים בתוך ועם המדיות הללו. במובן הזה, התגובה החינוכית הנכונה כל טכנולוגיה חדשה היא לא רק להשאר באיך אלא לדבר על מה. היא לא רק לשאול מה נעשה איתם בבית ספר, אלא ללמוד אותם בבית ספר - ללמוד את הטכנולוגיה, את המערכים שמלווים אותה, את המשמעויות שיש לה עלינו כבני אדם.

 

צעד ראשון, אולי, לפתוח דיון שכזה יתקיים בכנס טכנולוגיות חינוכיות בראי בין תחומי שיתקיים ב28.2.2023  באוניברסיטת בן גוריון בנגב. זהו כנס ראשון מסוגו בישראל שיעסוק בהתבוננות על טכנולוגיות חינוכיות לא רק מהפן של השימושים בהם בבתי ספר או באוניברסיטאות אלא בהיבטים רחבים וביקורתיים  של ייצור והפקה של טכנולוגיות חינוכיות ושל משמעויות תרבותיות, פוליטיות וחברתיות שיש לטכנולוגיות אלו על השדה החינוכי.

 

Comments

Popular posts from this blog

ארבע עצות למערכת החינוך בנוגע לבינה מלאכותית יוצרת

מבוכת מכונת הידיעה הבית ספרית - קטע מיומן שדה