במהלך ההיסטוריה, היכולת להפיץ שקרים נעשתה משוכללת יותר וההונאה הגיעה לרמת זיוף גבוהה יותר- מיצירת סוסים טרויאנים, דרך הדפסת עיתונים ועד להעלאת פוסטים וציוצים מפרופילים פיקטיביים. אולם, נדמה שהמהפכה הטכנולוגית של השנים האחרונות עומדת להצעיד את תעשיית הפייק ניוז באופן חסר תקדים, כך שחדשות מזויפות יהיו ויראליות יותר, ייתפסו כאמינות יותר ויצליחו הרבה הרבה יותר להרגיז או להדאיג אותנו.

מדוע זה קורה?

בשתי מילים: בינה מלאכותית.

בינה מלאכותית, בכללותה, מייצגת טכנולוגיה שמסוגלת "לחשוב" כמו בני אדם ולקבל החלטות על סמך דפוסי התנהגות ומידע שמושתלים בה. היטיב לתאר זאת מדען  האמריקאי מרווין מינסקי, שטען שהמטרה של בינה מלאכותית היא "לגרום למכונה להתנהג בדרך שהייתה נחשבת לאינטליגנטית לו אדם התנהג כך". את הטכנולוגיה הזו ניתן ליישם בדרכים רבות, שיקלו על בני אדם וישפרו את איכות חייהם: בתחום התחבורה, לדוגמה, ניתן להשתמש בה למשימות של בקרת תנועה ובתחום הצבאי, משתמשים בה על מנת לפענח כמויות עצומות של מידע מודיעיני ביעילות גבוהה.

לצד השימושים הללו, בשנים האחרונות מתפתחת ההבנה, שניתן להשתמש בטכנולוגיה הזו גם לצרכים זדוניים, שאחד מהם הוא היכולת לבצע מניפולציות יעילות יותר על דעת הקהל באמצעות תכנים בעלי רמת זיוף גבוהה יותר. לחדשות מזויפות שנוצרות בשיטה הזו קוראים "Deep fake" (שילוב של המילים "deep learning"- טכניקה אחת של פיתוח למידה מלאכותית ו-"fake"- מזויף). Deep fake נוצר באמצעות שימוש בתמונות ובתכני וידאו קיימים, שעוברים עריכה של בינה מלאכותית, כך שכאילו יתארו אירוע אמיתי. ההבדל בין תכני Deep fake לתכנים מזויפים אחרים שנוצרים בחסות הטכנולוגיה (למשל, שימוש בפוטושופ או שימוש בבוטים), הוא שההונאה שעומדת בבסיס ה-deep fake מושתתת על היכולת לחקות ברמה גבוהה מאוד התנהגויות אנושיות, שספציפיות לבני אדם מסוימים- טון דיבור, תנועות פנים, תנועות שפתיים ועוד. מאחר ומדובר בסממני התנהגות מאוד ייחודיים ומאוד קטנים, היכולת של אזרח מהשורה להבדיל בין חדשות אמיתיות ל-deep fake היא מוגבלת מאוד.

השימוש בטכנולוגיה הזו נעשה בדרך כלל כדי להפיק סרטונים בעלי רמת זיוף גבוהה מאוד, כפי שמוכיח הסרטון הזה, שנוצר במהלך מערכת הבחירות בשנת 2019 בבריטניה.

כפי שהסרטון הזה מראה, אפשר להשתמש ב-deep fake כדי להראות כיצד מועמד מסוים אמר דברים מסוימים, שלמעשה הוא מעולם לא אמר אותם. קל לחשוב כיצד ניתן להשתמש בטכנולוגיה הזו במערכת בחירות, בה ניתן לפגוע במועמד מסוים על ידי ייחוס אמירות גזעניות, הומופוביות או סקסיטיות שלא נאמרו מעולם. 

במישור הבינלאומי, המשמעות של הטכנולוגיה הזו היא, שגורמים זדוניים עלולים לשכלל את השיטות שלהם להתערב במערכות בחירות במדינות זרות, כך שהם יוכלו לעשות זאת באופן סמוי יותר אך גם אפקטיבי הרבה יותר. בחלק מהמקרים, לא מדובר בפיתוח יכולות חדשות יש מאין, אלא שכלול של יכולות קיימות- כבר היום, למשל, גורמים זדוניים יוכלו לנצל את אפשרות התגובה ברגשות של פייסבוק, על מנת להפיץ תכנים שישפיעו בצורה חזקה יותר על פלחי אוכלוסייה מובחנים. היכולות המתקדמות בתחום הבינה המלאכותית יוכלו לנתח את המידע על הגולשים ברשת ולספק המלצות לאותם גורמים לאילו גולשים כדאי לפנות, כדי להשיג אפקט רגשי חזק במיוחד. 

בד בבד, היכולת לחולל נזקים ב-deep fake לא מוגבלת רק לתחום הפוליטי: בסתיו 2017, התפרסמו ברשת סרטוני פורנו מזויפים, בהם הופיעה השחקנית הבריטית דייזי רידלי. בסרטון נוסף, שפורסם במועד אחר, נראית גל גדות מקיימת יחסי מין עם אחיה החורג. גם כאן, פוטנציאל הנזק הוא ברור לכל.

היכולת של deep fake להונות בני אדם לא מתבססת רק על טכנולוגיה מתקדמת, אלא גם על מאפיין אנושי בסיסי וקדום: אנחנו מגדירים מהי אמת על סמך דברים שאנחנו יכולים לראות. כך, דבר מסוים עלול להיראות בעינינו כאמת רק מפני שצולם בוידאו או בתמונת סטילס. בטווח הרחוק, שימוש תכוף ב-deep fake עלול להוביל לתוצאה ההפוכה- הם יאבדו אמון גם בתוצרי וידאו אמיתיים לחלוטין והאמון באמצעי התקשורת המשודרים, שגם כך איננו נמצא ברמה גבוהה, עלול לרדת עוד יותר. 

בד בבד, אפשר להשתמש בבינה מלאכותית כדי להפיק חדשות מזויפות בפורמט אחר- המילה הכתובה. קבוצת המחקר OpenAI, שמקום מושבה בסן פרנסיסקו, השתמשה בבינה מלאכותית על מנת ליצור טקסט חדשותי שנראה במבט ראשון אמין, אך למעשה הוא מייצג מידע שקרי. האלגוריתם (מנגנון הניתן למחשב לבצע פעולה ספציפית) שיצר את הטקסט, התבסס על שני משפטים שנכתבו על ידי אדם. גם כאן, כמו במקרה של הסרטונים, חדשות מזויפות מבוססות בינה מלאכותית יוכלו להציג רמת איום גבוהה יותר, מאחר והן יכולות, תיאורטית, לחקות את ההתבטאות האנושית ברמת תחכום גבוהה יותר- למשל, באמצעות שימוש בביטויים מסוימים, המזוהים עם אוכלוסייה מסוימת או בסלנג.

אז כיצד ניתן להתמודד עם deep fake? 

כעקרון, ניתן לזהות שלוש דרכים למתן מענה כלשהו נגד האיום המתוחכם.

הדרך הראשונה היא שימוש בטכנולוגיה- כמו שאפשר להשתמש בבינה מלאכותית כדי ליצור deep fake, כך אפשר להשתמש בה גם כדי לעקוב אחר deep fake ברשת. יצירת deep fake מתבססת על מאגר של קטעי וידאו שהוכן למטרה הזו ובתוך קטע deep fake, יכולות בינה מלאכותית מסוגלות לאתר סימנים זעירים לכך שמדובר בקטע מלאכותי- סימנים שלא נגלים לעין אנושית. דוגמה לכך היא, שטכניקת deep learning זיהתה סימני עריכה בצילומים של פנים אנושיות שעברו מניפולציה. מספר החוקרים העוסקים במעקב אחר deep fake גדל הודות לפרוייקט media forensic של דארפ"א, שתומכת בפיתוח טכנולוגיות שמזהות אותנטיות של תמונות וקטעי וידאו.

למרות ההתקדמות הטכנולוגית בנושא, הטכנולוגיות למעקב אחר deep fake לא חפות מחסרונות. כתוצאה מכך, גם טכנולוגיות המעקב המתקדמות ביותר עדיין יפגרו אחר היכולות המתקדמות ביותר ליצירת deep fake. בנוסף, המהירות שבה ניתן לשתף תכנים באינטרנט מעלה את החשש, שתכנים מסוג deep fake יתפשטו ברשת לפני שיכולות הזיהוי ימצאו אותו. סוגייה נוספת היא סוגיית אמון הציבור- הגולשים עלולים להאמין יותר ל-deep fake מאשר לאזהרה שמוצמדת לקטע כזה, שמדובר בקטע מזוייף. שאלה נוספת היא, במידה וכלים שונים של מעקב יגיעו למסקנות סותרות בנוגע לאותנטיות של קטע deep fake: אלגורתים אחד יקבע שמדובר בקטע אמין ואלגוריתם אחר יקבע שלא- לאיזה מהם צריך להאמין?

בסרטון- עבודה על טכנולוגיות בינה מלאכותית לזיהוי סרטוני deep fake

סוג הפתרונות השני המוצע הוא שימוש בכלים משפטיים. הכלים המשפטיים הרלוונטיים למלחמה ב-deep fake יכולים להיות מגוונים, למשל כאלו הלקוחים מתחום זכויות היוצרים. כמו בסוגיות משפטיות רבות, כשבתי משפט יתמודדו עם הפצת deep fake, הם יצטרכו להתמודד עם טיעונים משפטיים סותרים ולהכריע בניהם. אפשר, למשל, להגן על השימוש ב-deep fake בשם חופש הביטוי. למרות אי הוודאות המשפטית סביב הנושא, ברור שכבר היום ישנם אמצעים חוקיים, שנפגעי deep fake יכולים לנקוט בהם ועוד מוקדם לקבוע האם האמצעים הללו יעילים או לא.

הלחץ הציבורי "לעשות משהו" נגד התופעה הנתפסת כמאיימת, מוביל את המחוקקים להכין הצעות חוק חדשות נגד התופעה. הנסיון לחוקק חקיקה שהינה ספציפית ל-deep fake עלול להיתקל במכשולים משפטיים, למשל- הצעות חוק כאלו עלולות לסתור את התיקון הראשון לחוקה, שמגן גם על חופש הביטוי.

הדרך השלישית להתמודדות היא העלאת המודעות הציבורית לתופעת ה-deep fake. זהו כלי נוסף וחשוב, לאור העובדה שהכלים הטכנולוגיים והמשפטיים לא יכולים להעלים את כל השימושים ב-deep fake. העלאת המודעות פירושה, שהציבור לא ימהר להאמין לקטעי וידאו שמציגים התבטאויות או התנהגויות פרובוקטיביות. כאשר מתפרסם וידאו כזה, אפשר להשיג עדויות בנודע לאמינות שלו בתוך שעות או ימים. הידע הזה לא יעצור את התפשטות ה-deep fake, אבל יכול לפגוע בהשפעה שלו.

בחזית הזו, לאזרחים הפשוטים אין כרגע כמעט כלים לזהות סרטונים שנוצרו על ידי בינה מלאכותית. ניתן לקוות, שככל שיתפתחו המודעות והמחקר בתחום הזה, כך הפתרונות לבעיה לא יישארו במגדל השן, אלא יחלחלו לציבור הרחב ובכך יעניקו דרך נוספת לשמור על מרחב ציבורי נקי מחדשות מוטות וכוזבות.