חיפוש
סגור את תיבת החיפוש
Forbes Israel Logo

מלחמות העתיד: הפנטגון משקיע בטכנולוגיה המזהה את רגשות האויב

מיליון דולר יושקעו בפיתוח כלי בינה מלאכותית שיסייע למפקדים בקבלת החלטות על סמך ניתוח רגשות האויב. למרות ההצלחה המסחרית שלה, יש המסתייגים משימוש צבאי

זרוע המחקר של הפנטגון (DARPA) הקציבה מיליון דולר במסגרת הסכם לבניית כלי בינה מלאכותית שנועד לפענח ולחזות את רגשותיהם של בעלי ברית ואויבים. בפנטגון אפילו רוצים שאפליקציית בינה מלאכותית תייעץ לגנרלים לגבי החלטות צבאיות גדולות המבוססות על רגשות. הגיבוי שנותנת DARPA לטכנולוגיה מהסוג הזה, הוא בעצם יריית הפתיחה למירוץ של הממשלה האמריקנית והסטארט-אפים להשתמש בבינה מלאכותית לחיזוי רגשות, אם כי היכולות המדעיות לעשות זאת עדיין שנויות במחלוקת. יש הטוענים שזה לגמרי לא מוכח, מה שהופך פיתוח יישומים צבאיים שכאלה למסוכנים.

העבודות מבוצעות במסגרת פרויקט המכונה PRIDE, ראשי תיבות לחיזוי והכרה של כוונה, החלטה ורגש. המטרה היא ליצור מנגנון בינה מלאכותית שיכול להבין ולחזות תגובות של קבוצה, ולא של אינדיבידואל, ואז להציע הנחיות לפעולה. ניתן לחשוב על מנהיג צבאי שרוצה לדעת כיצד תגיב סיעה פוליטית או מדינה שלמה אם הוא יבצע פעולה אגרסיבית נגד מנהיגם. "המוצר אינו מגלה רגשות של אדם יחיד. זה יותר מיועד לקבוצה קולקטיבית ואפילו ברמה הלאומית", אומר ד"ר קאליאן גופטה, נשיא ומייסד מכון המחקר קנקסוס. "אם חושבים על זה, יהיה ניתן לדעת אם לאום מסוים במדינה מסוימת כועס או נסער".

הטכנולוגיה כבר עובדת

לשם כך, מנגנון הבינה המלאכותית יעבור על מערכי נתונים מבוססי טקסט – בין אם מדובר באתרי מדיה חברתית כמו פייסבוק וטוויטר, אתרי חדשות או ניתוחים אקדמיים – כל דבר שמסתכם ב"תצפיות על מה שהתרחש בפועל במדינות שונות במערכים גיאו-פוליטיים מסוימים". אומר גופטה. לאחר מכן המנגנון יבדוק אם קבוצת היעד סובלת ולא מגיבה, או להיפך, "נוטה בקלות לפעולה אגרסיבית", הוא מוסיף. PRIDE תציע הצעות לפעולה, ותנסה לחזות מה יקרה בכל תרחיש.

הטכנולוגיה כבר עובדת, מוסיף גופטה. "הדגמנו כמה פעמים שהטכנולוגיה הזו מסוגלת לפעול והצגנו כמה אבי-טיפוס", אומר גופטה לפורבס ומוסיף כי מנהיגים צבאיים יוכלו להשתמש בכלי הבינה המלאכותית הזה ממחשב נייד או טלפון חכם.

DARPA לא התייחסה למספר בקשות התגובה בנוגע לפרויקט PRIDE.

מרדית' וויטקר: "לא ראיתי שום אינדיקציה לכך שהכלים הללו מתוחכמים מספיק בכדי לספק עצות מהסוג הזה וההקשבה לעצתם עלולה להיות פשוט אסון"

למרות שגופטה אופטימי לגבי הטכנולוגיה, כאשר מחשבים מנסים להבין את הרגש האנושי משפה כתובה בלבד, הם יכולים לפעמים לטעות בצורה דרסטית, אומרת מרדית' וויטקר, המייסדת של מכון המחקר AI Now. וויטקר, גם ייסדה קבוצת מחקר פתוחה של גוגל, ומסתפקת אם פרויקט DARPA יועיל במידה רבה אם ייושם בתרחישים בעולם האמיתי. "יהיה מועיל הרבה יותר לפרוץ את הדוא"ל של הצד העומד מולך מאשר להשתמש בניתוח רגשות כדי לראות אם הם עשויים להיות מונעים על ידי טיעון כזה או אחר", היא מוסיפה. "לא ראיתי שום אינדיקציה לכך שהכלים הללו מתוחכמים מספיק בכדי לספק עצות מהסוג הזה וההקשבה לעצתם… עלולה להיות פשוט אסון".

ניתוח הבעות פנים

בעוד שהפרויקט של DARPA מסתמך ברובו על רגש שמקורו בטקסט ומידע המתפרסמים ברשת, קומץ סטארט-אפים, מבריטניה ועד עמק הסיליקון, טוענים שהם יכולים להבין את מה אנשים מרגישים ואיך הם ירגישו בעתיד על ידי התבוננות בפנים שלהם.

בפרינגטון, לונדון, יושב במשרדיה של Element Human המייסד בן ה-36, מט סלוסזק. הוא טוען כי מנגנון שכזה לגילוי רגשות עלול לגרום ל"שינוי קיצוני באופן בו אנשים חיים את חייהם ובאופן שהאנושות מתפתחת". החברה שלו עובדת עם לקוחות כדי לשפר את מודעות הווידיאו שלהם על ידי הצגתם בפני קהל קטן, וכך האלגוריתם מחפש סימנים לרגש שהם מביעים. עד עכשיו הוא פעל לרוב בסתר, אך כעת הוא בוחן את הטכנולוגיה שלו עם מו"לים שונים, החל מ-CNN, Time Inc ועד ל-BBC.

יריית הפתיחה למירוץ הממשלה האמריקנית לשימוש בבינה מלאכותית לחיזוי רגשות. צילום: shutterstock
יריית הפתיחה למירוץ האמריקאיים אחר שימוש בבינה מלאכותית לצורך חיזוי רגשות. צילום: shutterstock

המנגנון של סלוסזק הושק רשמית בספטמבר האחרון, אך שחקנים מבוססים יותר כבר רשמו השקעות של מאות מיליוני דולרים במימוני הון סיכון. הסטארט-אפ שנוצר במעבדת המדיה של MIT, Affectiva, גייס עד כה 80 מיליון דולר על מנגנון המנתח הבעות פנים וקול. קוגיטו גייסה כמעט 90 מיליון דולר לצורך מנגנון הבינה המלאכותית שלה שמסוגל לנתח שיחות בכדי לייצר פידבקים לנציגי שירות לקוחות. זה מבלי להזכיר את מיקרוסופט ויבמ, שגם הן טובלות את בהונותיהן במים העכורים של זיהוי רגשות. המיקוד של כל אותן חברות היה בעיקר בייצור כלים מסחריים שיעזרו למשווקים להכיר טוב יותר את הקהל שלהם.

"טענות ללא תוקף"

וויטקר מצביעה על ראיות שטכנולוגיה כזו עלולה להזיק באופן פעיל, אפילו גזעני. במחקר אחד באוניברסיטת מרילנד, במסגרתו נבדקו כלים של מיקרוסופט והחברה הסינית ++Face על שחקני NBA, התוכנה גילתה בהתמדה שחקנים שחורים שפחות שמחים מאשר לבנים. הבינה המלאכותית של החברה פירשה באופן קבוע שכדורסלנים שחורים היו כעוסים יותר מאשר שחקנים לבנים בגלל שהאלגוריתם הבין שהאחרונים מחייכים יותר, ואילו הבינה המלאכותית של מיקרוסופט טענה ששחקנים שחורים היו "מבוזרים" יותר בגלל הבעות הפנים שהיו מעורפלות, על פי המחקר.

"אין הסכמה מדעית כוללת כי היכולת להפוך אוטומטית את חיזוי הרגשות על סמך התכונות הגופניות, הגינונים, הקול או כל דבר אחר, היא אפשרית", היא אומרת לפורבס . "הרעיון שהמאפיינים והרגשות הפנימיים של מישהו ממופים בצורה פיזית או התנהגותית לא הוכח, בלשון המעטה, והטענות שהועלו על ידי מערכות אלה לא קיבלו תוקף". קבוצת AI Now שלה קראה להשהיית הפעלת טכנולוגיה כזו עד שנושאים כאלה ייפתרו, אם בכלל.

לסלוסזק תוכנית גדולה יותר. הוא מעוניין לבצע שימוש בטכנולוגיה השנויה במחלוקת לצורך בקרת קהל, למשל. לדעתו, המנגנון יהיה מועיל בחיפוש דפוסי תסיסה בקבוצת מפגינים כדי לחזות אם עומדת להתפרץ התפרעות.

זה רק ייעוץ

כדי להתמודד עם כל חשש מפני שימוש לא נכון בטכנולוגיה, היא צריכה לשמש כסוג של יועץ ולא לקבוע נחרצות, הוא מדגיש. "זה שם כדי ליידע את המשתמש". באשר לפגיעה אפשרית בפרטיות, סלוסזק אומר שכל עוד לקוחותיו מחפשים רק דפוסי התנהגות ולא מקשרים אותם לזהות אמיתית, לא צריכה להיות בעיה.

מט סלוסזק: "אנו עשויים לראות אנשים עם סייען בינה מלאכותית אישי משלהם שיספר להם כיצד אחרים בסביבתם מגיבים. תארו לעצמכם שאתם יושבים בבר עם מכשיר בינה מלאכותית שיגיד לכם אם יש סיכוי למהלך רומנטי עם אדם אחר"

הוא כבר מונה כמה לקוחות שעלולים להיות בעיתיים בשל חששות אתיים: חברות הימורים שרוצות לדעת כיצד לשחק בצורה הטובה ביותר על רגשותיהם של מהמרים, ופוליטיקאים שרוצים לעשות את אותו הדבר עם המצביעים.

נהפוך לאנושיים יותר?

"אם ניקח את הטכנולוגיה לקצה גבול היכולת", אומר סלוסזק, "אנו עשויים לראות אנשים עם סייען בינה מלאכותית אישי משלהם שיספר להם כיצד אחרים בסביבתם מגיבים. תארו לעצמכם שאתם יושבים בבר עם מכשיר בינה מלאכותית שיגיד לכם אם יש סיכוי למהלך רומנטי עם אדם אחר". סלוסזק חושב שמכיוון שבני אדם מושפעים מהטיות מהמטען האישי שלהם, בינה מלאכותית יכולה לקבל החלטה יותר אובייקטיבית לגבי רגשותיו של מישהו. וכך, הוא טוען, זה יעזור לאנשים לקבל החלטות טובות יותר כיצד לתקשר זה עם זה. "בינה מלאכותית אכן תהפוך אותנו לאנושיים יותר", הוא טוען, אך לא לפני שהבהיר כי התוכנה חייבת להיות מוכחת ושימושית על ידי כל מי שנמצא במערכת האקולוגית.

וויטקר, מוטרדת מסיכוי כזה: "סלוסזק מתאר עתיד די מפחיד בו אנו מאפשרים לטכנולוגיה עסקית בקנה מידה גדול להיכנס בינינו לבין מערכות היחסים שלנו עם בני אדם… במקום זה, אני חושבת, אנחנו צריכים לבלות יותר זמן זה עם זה וכך ללמוד אחד על השני".

צילום התמונה הראשית: shutterstock

הרשמה לניוזלטר

באותו נושא

הרשמה לניוזלטר

מעוניינים להישאר מעודכנים? הרשמו לרשימת הדיוור שלנו.

דילוג לתוכן