Forbes Israel Logo
קבוצות רבות שאינן מדינות כבר עושות שימוש נרחב ברחפנים חמושים | צילום: shutterstock

אסטה לה ויסטה, בייבי: כלי הנשק העתידני יחליטו את מי להרוג על דעת עצמם

רחפנים מבוססי בינה מלאכותית יבצעו חיסולים מהאוויר ומכונות ירייה יפתחו באש בלי הוראה אנושית – אלו רק כמה דוגמאות מתונות לפיתוחים טכנולוגים מסוכנים שיפעלו באופן אוטונומי. כדי להימנע מתרחישי האימה שבדרך, מדענים דורשים להחיל רגולציה על התחום - ומהר
שיתוף ב email
שיתוף ב whatsapp
שיתוף ב linkedin
שיתוף ב twitter
שיתוף ב facebook

סרטון חדש שפורסם על ידי עמותת (The Future of Life Institute) FLI מדגיש את הסיכונים הנשקפים מנשק אוטונומי או מ"רובוטים רוצחים" – ואת הצעדים שאנו יכולים לנקוט כדי למנוע שימוש בהם. אפילו אילון מאסק מפחד.

הסרטון המקורי, שפורסם ב-2017 תחת הכותרת Slaughterbots, הציג נרטיב קצר בסגנון "מראה שחורה" לפיו רחפנים קטנים, המצוידים בבינה מלאכותית וראשי נפץ, יכולים להפוך לנשק להשמדה המונית. הם פותחו בתחילה עבור כוחות הביטחון, אך בסופו של דבר משמשים טרוריסטים ופושעים. כפי שפרופסור סטיוארט ראסל מציין בסוף הסרטון, כל הטכנולוגיות המתוארות כבר היו קיימות, אך לא חוברו יחדיו.

כעת ייתכן שכבר בלוב נעשה שימוש ברחפנים אוטונומיים קטלניים המסוגלים לאתר ולתקוף מטרות ללא פיקוח אנושי.

מתווים מדיניות

סרטון חדש הנקרא () Slaughterbots – if human: kill, מביא שלל כותרות המדווחות על תקריות בדיוניות שיכולות להיות מבוססות על הטכנולוגיה החדשה. בסרטון מדווח על נשק אוטונומי שחבוי במכונית חונה ויורה בבוחרים בקלפי, בדומה לנשק ששימש לפי הדיווחים להתנקשות במדען הגרעין האיראני בשנה שעברה; כלי טיס שנמצא על הקרקע ונפגע ממזל"ט בדומה לאירועים אמיתיים בסעודיה; ומועדון לילה שהותקף על ידי מכונות עמוסות בחומרי נפץ כמו הגרסאות שפותחו באיחוד האמירויות והוצגו לאחרונה ביריד נשק.

בסרטון טוענים מפתחים ומנהיגים צבאיים כי מדובר בטכנולוגיה צבאית גרידא שמציעה אפשרות לשינוי משטר ללא סיכון לוחמים, ואין סכנה שהיא תיפול לידיים הלא נכונות. מיותר לציין כי לשאלה באילו מדינות ניתן לסמוך על נשק אוטונומי וכיצד ניתן למנוע ממנו להגיע לקבוצות מיליטנטיות – אין תשובה – מה שיכול להוביל למעשי הטבח שתוארו לעיל.

ב-FLI טוענים כי הצעד המכריע במניעת סוג זה של סיוט הוא מסמך מדיניות שהונח על ידי הוועד הבינלאומי של הצלב האדום (ICRC). המסמך מייעץ לאכוף איסור בינלאומי, והוא מחייב משפטית, על מנת לאסור שימוש בכלי נשק אוטונומיים המשתמשים בבינה מלאכותית כדי לזהות, לבחור ולהרוג אנשים ללא התערבות אנושית.

מקרה המבחן – נשק ביולוגי

פרופסור מקס טגמרק, מייסד שותף של FLI וחוקר בינה מלאכותית ב-MIT אומר: "כלי נשק ביולוגיים הם גם ממש קלים להכנה, אבל שילוב עוצמתי של רגולציה ובקרה מנע בהצלחה שימוש נרחב בהם. זה לא האינטרס הביטחוני הלאומי של ארה"ב, בריטניה או סין שהנשק להשמדה המונית יהיה כל כך זול".

קבוצות רבות שאינן מדינות כבר עושות שימוש נרחב ברחפנים חמושים, כולל קרטלי סמים מקסיקניים, דאעש והמורדים החות'ים בתימן. פרופ' טגמרק מאמין שחוקים בינלאומיים יכולים גם למנוע משחקנים כאלה להשיג את הטכנולוגיה המתקדמת יותר לייצור מכונות הרג אוטונומיות. "איסור שכזה יתמרץ יצרני רחפנים לגיטימיים לבדוק את הלקוחות הגדולים שלהם, בדיוק כפי שחברות רבות עושות היום עם טכנולוגיה מבוקרת ייצוא", אומר טגמרק.

יש עוד מה לשפר

ארתור הולנד מישל, חוקר שותף במכון האומות המאוחדות לחקר פירוק נשק, אמר שהוא מברך על כל מה שמביא את תשומת הלב המרכזית לנושאים סביב נשק אוטונומי. עם זאת, מישל מודאג מכך שגם הסרטון הזה וגם ה-Slaughterbots המקורי הציגו כלי נשק אוטונומיים כמדויקים, כשבמציאות הם עדיין מאוד גסים ולא אמינים. לטענתו, רובוטים אף פעם לא יהיו טובים כמו המכונות הבדיוניות וזה עדיין נתון לוויכוח. הוא טוען שנשק אוטונומי עשוי להיות בלתי אמין מכדי להיות זמין אי פעם אפילו תחת חוקי המלחמה הקיימים.

בקרות משפטיות על רובוטים רוצחים יכולות רק לעזור, למרות שחלק ניכר מהטכנולוגיה כבר נמצא ברשות הציבור או בידי ענקיות הטכנולוגיה.

ואולי אפשר לסכם את זה כמו אילון מאסק, שצייץ בתגובה לסרטון החדש: "איכס".

שיתוף ב email
שיתוף ב whatsapp
שיתוף ב linkedin
שיתוף ב twitter
שיתוף ב facebook

הרשמה לניוזלטר

באותו נושא