Forbes Israel Logo

מי לומד ממי: כיצד הבינה המלאכותית משנה אותנו?

בעודי מכין הרצאה לתערוכת Webit 2018 בסופיה, בולגריה, התחלתי לתדהמתי לדבר עם סופי הרובוטית, ההמצאה של Hanson Robotics שמסתובבת בכנסים טכנולוגיים ברחבי העולם. עם זאת, לרוע מזלי, היא לא שיתפה פעולה במהלך ראיון שהתקיים מול 5,000 איש (אולי היה לה פחד במה?). אני מרגיש כאילו אני "מכיר" את סופי ומצפה בקוצר רוח לשיחה הבאה בינינו. 

קיים חשש שיום אחד, כשהאבק ישקע, יהיה זה אך טבעי לדבר עם העמיתים הטכנולוגיים שלנו. ככל שהמכונות החושבות מתקדמות, הן משנות אותנו: את הקשב שלנו, ההתנהגויות שלנו, ההחלטות, האמונות – לטוב ולרע.

הרובוטים מחקים את בני האדם | צילום: Shutterstock

אהוב את הטכנולוגיה שלך כמוך

הראינו שאנחנו בהחלט מסוגלים להכפיף את החיים שלנו לתביעות של הטכנולוגיות החדשות. כשם שהמכוניות והכבישים שינו את מבנה הערים, הסמארטפונים שינו את הרגלי הקניה והשינה שלנו, ואפילו את ההעדפות שלנו בקשרים.

לבני האנוש יכולת ברורה לייחס תכונות אנושיות לחפצים. ב-1944 החוקרים פריץ היידר ומריאן סימל הציגו לנחקרים סרטוני הנפשה קצרים של צורות בשחור-לבן. כשנתבקשו "לכתוב מה בדיוק קרה", 32 מתוך 34 הנחקרים ראו את הצורות בתור בני אדם ותיארו את הסצנות בתור אינטראקציות אנושיות.

כעבור 20 שנה, מדען המחשב מ-MIT, ג'וזף וייזנבאום והפסיכיאטר קנת' קולבי, פיתחו את ELIZA כדי לחקות סוג של טיפול פסיכיאטרי. באמצעות תשובות מקודדות ומבוססות כללים, ELIZA קיימה אינטראקציה עם בני אדם. למרות שמערכת הכללים לפיהם ELIZA התנהגה הייתה ידועה למשתתפים, הם אמרו ש"הוקסמו" ממנה. או. ב. הרדיסון אומר שלמרות שהמומחים "היו מודעים לכך ש-ELIZA היא תוכנית מחשב, הם רצו באופן לא מודע שהיא תהיה בן אדם".

ELIZA הופעלה באמצעות ממשק בסיסי מבוסס-מלל. ממשקי בינה מלאכותית מתקדמים הופכים ליותר ויותר טבעיים. בסופו של דבר הם ייעלמו. ממשקים בלתי נראים, אליהם שואפים חוקרי אקדמיה (כגון שותפי למאמר זה, פרופ' מורן סרף) או קבוצות מסחריות כגון Neuralink, נועדו להציע קישור ישיר בין מערכות חישוב לבין המוח שלנו. כיצד ממשקים אלה עשויים לשנות את האפשרי ולאתגר את האופן בו אנו מבינים את עצמנו?

למהנדס גרמני שאיבד את ידו השמאלית בתאונה יש פרוטזה המסוגלת לשחזר את התפקודים של היד שאיבד על ידי פיענוח ישיר של הכוונות העצביות שלו. נוסף על התפקודים הטיפוסיים כגון אחיזה והצבעה, היד החדשה שלו מסוגלת לבצע מטלות שידיים ביולוגיות אינן מסוגלות לעשות, כגון התקנה של נורה תוך סיבוב פרק היד סביב צירו. כתוצאה מכך, המוח שלו מסוגל לחשוב מחשבות שאינן כלולות ברפרטואר המחשבות שלנו כגון: "האם כיביתי את היד שלי או שהיא עדיין מסתובבת?" – מחשבות חדשות, אפשרויות חדשות.

הזזת גבולות, אחריות וחרדות

ארגונים המיישמים בינה מלאכותית מסתכנים בחריגה מגבולות מטושטשים שעלולים לזוז לכל שארית חיינו. מה צרכנים, בוחרים ומערכות אכיפה יגדירו כדבר מותר ומקובל, ומה יוגדר כפולשני או נצלני? לפני כעשור שנים, אם אדם זר היה קופץ לתוך הרכב שלך היית קורא לזה "חטיפת רכב". היום קוראים לזה Uber.

מהן החובות שיוטלו על חברות כתוצאה מהתנהגויות משתמשים בתגובה לבינה מלאכותית? כבר היום מערכות ניווט משפיעות במישרין על ההתנהגות ולא תמיד באופן חיובי. שומרים בשמורת הפארק הלאומי של עמק המוות (Death Valley) בארה"ב מדברים על גרימת מוות בגלל GPS כדי לתאר את הציות העיוור של נהגים זומבים למערכות הניווט שלהם, גם אם נתוני הנוף סותרים את המלצות המערכת. לא לחינם קוראים למקום "עמק המוות".

כל עוד מכונות פועלות ברמה מסוימת של אקראיות, בני אדם נוטים לייחס להתנהגותן כוונות וכושר חישה. חקר הרובוטיקה הראה שבני אדם רואים רובוטים כאנושיים יותר כשהם מסייעים לבני אדם במילוי מטלותיהם – ובעיקר כשהם עושים טעויות. כאשר עוזר רובוטי נתן למנתח את הכלי הלא נכון במהלך ניתוח מדומה, אנשי הרפואה נטו לייחס לרובוט אנושיות רבה יותר. הטעות היא אנושית, וכשהמכונה טועה, אנו מאנישים אותה.

המין האנושי ישתנה? | צילום: Shutterstock

מעברים כאלה עשויים לגרום חוסר נוחות, פחד ואפילו בחילה. הדמיית הצ'אטבוט של גוגל להזמנת מקומות במסעדה, בה הלקוחות לא היו מודעים לכך שהם מתקשרים עם מערכת בינה מלאכותית, המחישה שאפקטיביות (efficiency) אינה זהה ליעילות (effectiveness). רבים מאלה שצפו בהדמיה דיווחו על חוסר נוחות – ואף זעזוע – מכך שמערכת בינה מלאכותית מסתירה בצורה כה יעילה את אי-אנושיותה.

התנגדות היא חסר תועלת – היו מוכנים להיטמע במערכת

הזמנת מקום במסעדה פשוטה הרבה יותר מהשמעת בדיחה נבובה. במקרה של הדמיית הבוט של גוגל, מפתיע עד כמה בני אדם יכולים להיות לא אנושיים כשהם מקיימים אינטראקציה. הבקשות והתשובות הפכו להיות קצרות ופשוטות. כאילו ששנים של אינטראקציה עם מערכות מחשב הרגילו אותנו לכך.

ככל שהתקשורת שלנו מובנית ותמציתית יותר, כך סביר יותר שמערכות בינה מלאכותית ישתלבו בהצלחה. בעוד מנוע החיפוש של גוגל משתפר בצורה ניכרת, אנחנו שיפרנו את היכולת שלנו לבנות שאילתות המניבות תוצאות רלוונטיות. כשאנחנו מדברים עם מנועי חיפוש, צירוף המלים "תמונה ביל קלינטון" מחליף שאילתה מלאה יותר כגון "מצא נא תמונות של הנשיא ביל קלינטון".

נראה שהתחביר של התקשורת המקוונת משפיע (אולי מזהם?) על התקשורת הבין-אנושית. ניקח למשל את התקשורת באמצעות טקסטים ומסרים מידיים המצטמצמת לכדי קיצורים ואימוג'ים. השפה הקצרה, התמציתית והמינימלית היא השפה של ימינו. אמ;לק (ארוך מדי; לא קראתי) הופך יותר ויותר לשיטת פעולה של רוב התקשורת.

מערכות בינה מלאכותית שמות מילים בפיות המטאפוריים שלנו. רבים מן הצ'אטים מנסים להשלים באופן אוטומטי את המשפטים שלנו אחרי כמה מלים. אם נקליד "Haven't seen y" המערכת תשלים ל-"you in a while". גם אם חשבתם על מילה אחרת, אתם עשויים לאשר את המלצת המערכת כדי לחסוך במאמצים. השימוש שלנו בשפה מתכווץ. ייתכן שבצד השני מערכת דומה "מכווצת" את הדובר או אף עונה לאימייל שלכם.

אינטראקציות "משותפות" מסוג זה עוזרות לבינה המלאכותית ללמוד בכך שהיא עוקבת אחרי מה שאתם מקבלים או דוחים. לבינה המלאכותית קל יותר לנתח ולנהל את התקשורת הנובעת מכך. סטנדרטיזציה גדולה יותר של הקלט והפלט מגבירה את האפקטיביות האלגוריתמית. בינתיים, אנחנו נמנעים מביטויים רוויים בניואנסים. האינטראקציה דומה פחות ופחות לשייקספיר ויותר לטיורינג. האפקטיביות עולה על חשבון המובחנות.

לאחרונה, גאי הופמן, פרופסור לרובוטיקה מקורנל, התלונן על כך ש"אנחנו נשמעים יותר ויותר דומים, וזה טוב – אם אתה אלגוריתם ללמידת מכונה. ככל שאנחנו צפויים יותר, הבינה המלאכותית טובה יותר".

כשכולם דומים, לבינה המלאכותית קל יותר | צילום: shutterstock

הבינה המלאכותית משגשגת בסביבה קונפורמית, בעוד שחלק מן היופי (והתסכול) של בני האדם הוא מגוון נקודות המבט והיותנו בלתי צפויים בעליל (למרות שהמחקר מראה שאנחנו יותר צפויים ממה שנדמה לנו). האם אין סכנה שנהיה מוסללים, קונפורמיים ואולי אפילו שטוחים? מה אנחנו מפסידים כשאנחנו מתכוננים לאינטראקציה הבאה שלנו עם המכונה?

לחשוב כמו מכונה, להרגיש כמו בן-אנוש

בשיחה על החזון שלו לגבי מכונות, דני היליס, אחד מאבות הבינה המלאכותית, אמר שהיה רוצה שקוד המחשב שלו יהיה גאה בו. בשאיפה הזו שלו, היליס מתקדם אל מעבר להאנשה לרצון שאפתני יותר ליצור גרסה של יכולת חישה מעין-אנושית. אם נלך בנתיב הזה – ולא סביר שנוכל להתנגד לכך – כיצד נתפתח?

במשחקי מציאות מדומה, ניסויי הדמיה של המוח מצביעים על כך שעידוד שחקנים לקפוץ מרכס וירטואלי לא רק מטפח את אומץ לבם של השחקנים (להתנהגות שלוקחת סיכונים). היא גם משנה את המוח שלהם. הם עשויים ללמוד שלא לפחד מגבהים למרות שהפחד הזה הוא תוצאה של אלפי שנות אבולוציה שגרמה לנו שלא לקפוץ מצוקים. למשחק באבולוציה יש השלכות.

הבינה המלאכותית היא ניסוי שנערך במין האנושי. כפי שאמר דיוויד קרקאור, גנטיקאי אבולוציוני ממכון סנטה פה בראיון שערכתי עמו: "עם המצאת האריתמטיקה, הפכנו לזן אחר". קרקאור דיבר אמנם באופן מטאפורי אך הוא לא הגזים. ככל שניצוק את הטכנולוגיה בדמותנו, למה נהפוך בעתיד?

פרופ' רוברט ס. וולקוט הוא מרצה לחדשנות ויזמות בביה"ס למנהל עסקים Kellogg באוניברסיטת נורת'ווסטרן בארה"ב, אחד מבתי הספר המובילים בעולם למנהל עסקים. לקלוג שיתוף פעולה בתכנית קלוג-רקנאטי, תכנית ה-MBA הבינלאומית למנהלים, עם הפקולטה לניהול ע"ש קולר באוניברסיטת תל אביב, כבר למעלה מ-20 שנה.

פרופ' מורן סרף מבית הספר למנהל עסקים Kellogg באוניברסיטת נורת'ווסטרן תרם תובנות למאמר זה.

הרשמה לניוזלטר

באותו נושא

הרשמה לניוזלטר

מעוניינים להישאר מעודכנים? הרשמו לרשימת הדיוור שלנו.