ימים ספורים לאחר פרוץ המלחמה בישראל, סרטון אמיתי של כתבת CNN, קלריסה וורד, נשכבת לצד הכביש כדי למצוא מחסה מפני רקטות סמוך לרצועת עזה הפך לוויראלי כשנוסף לו אודיו מזויף המערער על הדיווח שלה.
בעוד שהעיתונאית זכתה לשבחים רבים על כך שדיווחה באומץ מהקו הקדמי, סרטון פיקטיבי טען שהיא מזייפת את הסכנה מול המצלמות.
וורד, יחד עם כמה מחברי הצוות שלה, לבושים אפודים חסיני כדורים, נשכבו בתעלה לצד הכביש שניות לאחר ששמעו רקטות מעל הראש. גבר בצוות הצילום שלה ציין כי הרקטות נעצרות על ידי 'כיפת ברזל' של ישראל.
בפנייה למגישת החדשות שלה, וורד אומרת: 'סלח לי על העמדה הלא אלגנטית אבל זה עתה היה לנו מטח עצום של רקטות ששוגר לכאן לא רחוק מאיתנו, אז נאלצנו לתפוס מחסה כאן בצדי הדרך'.
הדיווח של וורד "זכה" לפרודיה על ידי The Quartering, שממתג את עצמו כ"ארגון חדשות ותוכן", אך הודה שהוא השתמש באודיו מזויף על פני הצילומים המקוריים של וורד.
לסרטון המזויף, שצפו בו יותר מחמישה מיליון פעמים ב-X (לשעבר טוויטר), נוסף אודיו שנועד להישמע כמו מפיק של CNN אומר: 'כן, אנחנו יכולים לראות שהאזור נטוש לגמרי אבל אני רוצה שתוריד אותם מהכביש. תגרום להם לשכב בתעלה ליד הכביש, בסדר?' הקול מוסיף, כשאחד מחברי הצוות של וורד נראה בשיחת טלפון.
בציוץ המשך, חשבון החדשות המזויפות הודה ש"כן, כמובן שהדיבוב לא אמיתי", אבל התעקש ש"המשחק המזויף של וורד הוא אמיתי".
למרות שהאודיו עבר מניפולציות ברורות, כשהאתר סנופס (אתר המנסה לאמת או לפסול שמועות) היה הראשון להפריך אותן, הסרטון הופץ בהרחבה כאשר צופים רבים האמינו שהוא לגיטימי.
"האודיו בסרטון שפורסם ושותף ב-X מפוברק, לא מדויק ומעוות באופן לא אחראי את מציאות שסוקרה בשידור חי ב-CNN, שבו אנשים צריכים לצפות במלואו בעצמם בפלטפורמה מהימנה", אמר דובר CNN ל-ניו יורק פוסט.
עידן חדש לזיופים עמוקים
״אנו מראיינים כעת את הניצול היחיד מהירי האחרון בבית הספר, הטיקטוקר קרישנה סהיי", נראית מגישת החדשות של CBS, אן-מארי גרין, אומרת בראש קטע החדשות. "זה בטח היה טראומטי לחלוטין", אומר מראיין בסרטון אחר לסהיי. "מה עבר לכם בראש?" סהיי משתהה, לפני שהוא מגיב: "כדורים, דה!"
סהיי, כוכב טיקטוק ו-יוטיוב, הוא אחד מקבוצה הולכת וגדלה של משתמשי מדיה חברתית שמשתמשים בבינה מלאכותית ותוכנות אחרות כדי לייצר קטעי חדשות ״אמיתיים״ בהנחיית מגישים מובילים מכלי חדשות מרכזיים – החל מנורה או'דונל מ-CBS Evening News ועד עיתונאים מ-CNN, ה-BBC ועוד.
הודות לטכנולוגיה, המראיינים נראים ונשמעים כמו עצמם, ובזכות האלגוריתמים החזקים של הפלטפורמות, סיפורים סנסציוניים וכותרות שקריות הנושאות את שמם ודמותם של כלי חדשות אמיתיים – הופכים לוויראליים במסווה של חדשות אמינות ואמיתיות.
מוקדם יותר החודש, הופץ ברשת קליפ שנוצר על ידי בינה מלאכותית, בו נראית גייל קינג מ-CBS This Morning, מקדמת מוצר שמעולם לא השתמשה בו או אפילו שמעה עליו. ותשדירי החדשות לכאורה של סהיי – שעזרו לו לצבור קהל של מיליונים – כללו יותר מתריסר אושיות ממגוון רשתות טלוויזיה שמספקות פרשנות בעייתית ונראות מראיינות את היוטיובר בזמן שהוא לועג לירי בבתי ספר, פיגועי הטרור ב-11 בספטמבר, קורבנות אונס ועוד.
במקרים רבים, הקטעים המזויפים שמציגים שדרנים אמיתיים מקבלים יותר צפיות מאשר קטעים לגיטימיים שמפורסמים בחשבונות המדיה החברתית המאומתים של אתרי החדשות. אחד הזיופים העמוקים האחרונים של סהיי, בו נראית מרגרט ברנן, מנחת Face The Nation, למשל, זכה ליותר מ-300 אלף לייקים בטיקטוק, בעוד שהסרטון הפופולרי ביותר שפורסם באותו יום בחשבון הטיקטוק הרשמי של התוכנית קיבל 7,000 לייקים בלבד. נכון לעכשיו, סהיי חסום בטיקטוק, ולא הגיב למספר בקשות תגובה ולרשימה מפורטת של שאלות. למרות שחשבון הטיקטוק שלו כעת לא פעיל, אפשר למצוא את הסרטונים המזוייפים של סהיי בפלטפורמה בקלות, לאחר שהועלו מחדש על ידי משתמשים פעילים.
לרוב פלטפורמות המדיה החברתיות הגדולות יש מדיניות נגד זיופים עמוקים. דוברת טיקטוק, אריאן סליירס, אמרה: "טיקטוק דורשת מהיוצרים לסמן תוכן מציאותי שנוצר על ידי בינה מלאכותית", בין אם באמצעות מדבקה או בכיתוב, וכי הפלפורמה "ממשיכה להסיר תוכן שעלול להטעות או להתחזות לאנשים בצורה מזיקה". (רוב הסרטונים של סהיי לא כללו כיתוב או סימון).
דוברת CBS News, אפריל אנדרוז, אמרה כי "CBS לוקחת ברצינות רבה את זכויות הקניין הרוחני שלה". דובר ה-BBC רובין מילר אמר כי "בכל פעם שאנו מודעים לסרטון בזיוף עמוק, עורכי הדין שלנו נוקטים פעולה" וכי "בעולם של יותר ויותר דיסאינפורמציה, אנו קוראים לכולם לבדוק קישורים וכתובות URL כדי לוודא שהם מקבלים חדשות ממקור מהימן״.
זיופים עמוקים ו"זיופים זולים" בתקציב נמוך אינם חדשים – והחודש לבדו, הופיעו בהם כמעט כולם – החל מטום הנקס (שכפיל מזויף שלו קידם תוכנית לרפואת שיניים) ועד ליוצר MrBeast (שנראה מחלק אייפון 15). "סרטונים של מגישי חדשות הם כלי משכנע להעברת דיסאינפורמציה", אמור האני פאריד, פרופסור בבית הספר למידע של ברקלי שהעיד בפני הקונגרס על זיופים עמוקים. "במקרים רבים, המגישים מוכרים לצופים, וגם אם לא – פורמט החדשות הכללי מוכר ולכן אמין יותר".
"התוצאות, למרות שעדיין אינן מושלמות, טובות מאוד, במיוחד כשצופים במכשיר נייד, וכשהמשתמשים גוללים במהירות ברחבי הפלטפורמות החברתיות", הוסיף פאריד, שמחקרו התמקד בתפיסה אנושית ובניתוח תמונה.
כעת, כמעט כל אחד יכול להשתמש בתוכנת בינה מלאכותית קלה וזמינה כדי ליצור סרטונים או אודיו של אישי ציבור (או אנשים ממוצעים) שעושים ואומרים דברים שהם מעולם לא עשו. התופעה מגבירה את החשש שבינה מלאכותית תהפוך את הבחירות האמריקניות המתקרבות לשנת 2024 למערב פרוע וכאוטי – דאגה שרק התעצמה בעקבות העלייה בזיופים עמוקים המשמשים כדיווחי חדשות אמיתיים.