Forbes Israel Logo

סטיבן הוקינג, אילון מאסק ואלפי חוקרים ביוזמה חדשה: "חייבים למנוע פיתוח כלי נשק אוטונומיים"

האם בעתיד כלי הנשק יוכלו לזהות בעצמם מבוקשים, יעדי חיסול או פושעים מסוכנים? ויותר חשוב – האם כלי הנשק יוכלו לקבל החלטה, בכוחות עצמם, לפתוח באש במקרים אלו? לפחות ככל שהדבר תלוי בכמה מהמדענים, היזמים הטכנולוגיים והעתידנים המובילים בעולם – התשובה לשאלות אלו חייבת להיות שלילית.

במכתב פתוח אשר פרסמו לאחרונה למעלה מ-1,000 מהחוקרים והיזמים המובילים בתחום האינטליגנציה המלאכותית ברחבי העולם טענו החוקרים כי כלי נשק אוטונומיים הם "רעיון רע מאוד" אשר יזלוג במהרה לשוק השחור, ויהווה סכנה אדירה לכל אחד ואחד מאיתנו. בין החותמים על המכתב נמנים גם הפיזיקאי הבריטי הנודע סטיבן הוקינג והיזם הדרום אפריקאי אילון מאסק (מייסד חברות פייפאל, טסלה, SpaceX ועוד רבות אחרות).

העתיד קרוב יותר משחשבנו

את המכתב והעצומה שלחו המדענים והחוקרים ל"מכון לעתיד האנושות" (FLI) בארה"ב, אשר מרכז עבודות מחקר ופיתוחים שונים של ממשלות וגופים רשמיים ברחבי העולם. על פי הגדרת המכון, "נשק אוטונומי" הוא כזה אשר מקבל החלטה "על דעת עצמו" באשר לפתיחה באש – ללא כל מעורבות יד אדם.

כיום עושים צבאות העולם שימוש נרחב בכלי נשק מתקדמים אשר מבצעים את פעולת הירי בכוחות עצמם – אך רק לאחר קבלת הוראה מאדם המפעיל אותם. כך, למשל, פועלים כלי הטייס הבלתי מאוישים המופעלים על ידי טייס הנמצא כל העת על הקרקע, כשגם טילי שיוט מתקדמים נשלטים כיום על ידי מפעילים מרחוק. בצה"ל, לדוגמא, עושים גם שימוש נרחב במערכת "רואה-יורה" אשר מאפשרת פתיחה באש באמצעות מקלע אל עבר מטרה, ומופעלת מרחוק על ידי תצפיתניות ייעודיות.

על פי הערכת החוקרים, פיתוח כלי נשק אוטונומיים יתאפשר כבר בשני הקרובות – מוקדם הרבה יותר מההערכות הקודמות. להערכתם, פיתוח טכנולוגיות זיהוי וקבלת החלטות של מערכות אינטליגנציה מלאכותית יאפשרו לכלי הנשק, אם רק נרשה זאת, להחליט בעצמם מתי ועל מי לירות. אז, הם טוענים, תגיע "המהפכה השלישית" בתחום הקרב והמלחמות (השתיים הראשונות היו המצאת הנשק החם ופיתוח הנשק הגרעיני).

"סכנה אדירה לאנושות" | צילום: thinkstockphotos

"רק שאלה של זמן עד שיגיעו לידיהם של טרוריסטים"

מצב כזה בו כלי הנשק יקבלו החלטות פתיחה באש בכוחות עצמם, מזהירים החוקרים, עשוי להיות הרה אסון עבור האנושות כולה. "אם כוח צבאי כלשהו יפעל בכדי לפתח יכולות שכאלו, יחל מרוץ חימוש כלל עולמי אל עבר השגת יכולות דומות, והתוצאה הסופית ברורה: הנשקים האוטונומיים יהפכו לקלצ'ניקובים של המחר", כתבו. לראייתם הדבר מסוכן אפילו יותר מפיתוח הנשק הגרעיני, שכן אחזקתו והפעלתו של נשק גרעיני דורשת ידע מקצועי רחב ועלויות אדירות. בניגוד לאלו, אחזקתו של נשק אוטונומי לא צפויה להיות מורכבת או יקרה כלל – והחוקרים חוששים כי כלי הנשק "יזלגו" במהרה אל עבר גורמים שונים ומסוכנים במיוחד.

"זו רק שאלה של זמן עד אותם נשקים יגיעו לידיהם של טרוריסטים, דיקטטורים או גורמים עם שאיפות לבצע טיהור אתני בחלקים שונים של העולם", המשיכו. "נשקים אוטונומיים יהיו אידיאליים עבור כל אלו, עבור ביצוע התנקשויות, ערעור יציבות במדינות שונות או פגיעה בבני אדם על פי מאפיינים אתניים. לכן, אנחנו מאמינים שפיתוח נשק שכזה לא יהיה מועיל לאנושות כלל".

אמנם למכון לעתיד האנושות אין סמכות של ממש לאכוף איסור שכזה, אך מחברי המכתב והחותמים עליו מקווים כי האזהרה החמורה שהשמיעו תשכנע את מנהיגי העולם שאכן פיתוח נשקים אוטונומיים עשוי להביא בעתיד לפגיעה קשה באנושות כולה. במקום זאת, הם מקווים, יתמקדו החוקרים ברחבי העולם בפיתוח מכשירים אוטונומיים אחרים, דוגמת הרכב האוטונומי המדובר כל כך. אם נוכל להוסיף גם אנחנו בקשה, רובוט אוטונומי שינקה לבדו את המטבח והשירותים נשמע כמו פיתוח מועיל – ולא מזיק כלל לאנושות.

הרשמה לניוזלטר

באותו נושא

הרשמה לניוזלטר

מעוניינים להישאר מעודכנים? הרשמו לרשימת הדיוור שלנו.