אתמול, משרד החוץ ביצע צעד יוצא דופן מבחינה טכנולוגית והסברתית כאחד- לראשונה, הוא השתמש בבינה מלאכותית על מנת להפיק שמונה סרטונים, בהם נראה ראש חטיבת הדיגיטל של המשרד, דוד סרנגה, מברך את אזרחיהן של מדינות שונות בשמונה שפות שונות, בהן טורקית, פורטוגזית ופרסית. הסרטונים הופקו בשיתוף הסטארט-אפ הישראלי D-ID, שפיתח טכנלוגיה המאפשרת לשנות את השפה המדוברת בסרטונים ולהתאים אליה את תנועות השפתיים של הדובר.
יש לציין, אומנם, שהסרטונים אינם באיכות מושלמת, כי השפתיים זזות באופן שנראה מלאכותי. יחד עם זאת, הם הוכחה נוספת למגמה שתופסת תאוצה בשנים האחרונות בעולם: אפשר להשתמש בקטעי מדיה מבוססי בינה מלאכותית, באיכות יחסית גבוהה, על מנת להשיג מגוון מטרות. זה יכול להיות, למשל, למטרת בידור או גיוס תרומות, אבל אפשר גם לקדם מטרות שליליות ופוגעניות.
הזירה הבינלאומית- הפוליטית והצבאית- לא חפה כמובן מההשלכות של השימוש בבינה מלאכותית, להשפעה על דעת הקהל לצרכים פוליטיין או על מהלכים צבאיים בזירת הקרב. בשנים האחרונות התפרסמו מחקרים שונים בעולם, שחוקרים את משמעויות השימושים הללו ולכולם ישנה מסקנה משותפת- מדינות, אזרחים ורשתות חברתיות אינן ערוכות להתמודד עם ההשלכות החמורות, שרק מקצתן מתוארות בהמשך הפוסט.
מתוך כלל המחקרים, אציג כאן שניים, שלצד האיומים האפשריים, מספקים גם דרכי פעולה שונות, המצריכות את מעורבותם של המגזר הממשלתי, הפרטי והשלישי- הלאומיים והבינלאומיים כאחד.
מהם האיומים הפוטנציאליים?
במישור הצבאי, מכון המחקר האמריקאי Brookings פרסם החודש מחקר מעניין, שבודק כיצד גורמים לא סימפטיים עלולים לנצל קטעי deepafke לטובתם במהלך מלחמות וכיצד ניתן להתמודד עם הסכנות.
על פי המחקר, אותם גורמים עלולים לנצל לרעה קטעי מדיה מבוססי בינה מלאכותית במגוון דרכים:
- ניתן, למשל, ליצור סרטונים מזוייפים, בהם נראה מנהיג המדינה היריבה קורא לאזרחיו להיכנע במלחמה. כאן, לא מדובר בתיאוריה: בחודש מרץ האחרון, מספר שבועות לאחר תחילת המלחמה באוקראינה, הופץ במדינה סרטון וידאו מזויף שבו נראה נשיא אוקראינה, ולדימיר זלנסקי, קורא כביכול לאזרחיו להניח את נשקם ולהיכנע לרוסיה.
- באותו האופן, ניתן גם להפיק ולהפיץ סרטונים מזוייפים שנועדו ליצור לגיטימציה למהלכים צבאיים ממשמשים ובאים. ניתן, למשל, להפיק סרטונים מזוייפים המראים, כביכול, מהומות במדינת היעד, שעלולות לשמש עילה להצדקת המהלך המלחמתי בו נקטה המדינה היוזמת.
- קטעים אלו עלולים גם לעודד מחלוקות בתוך הגופים הלוחמים, למשל על ידי הפקת סרטון מזויף, שבו נראה מפקד בכיר מתבטא באופן גזעני נגד חיילים ממוצא מסויים.
מחקר אחר, שפרסם מכון המחקר CSET (האמריקאי גם הוא), שהתפרסם בדצמבר 2021 מציג לעומק כיצד ניתן לנצל בינה מאכותית על מנת להשיק קמפיינים מתקדמים יותר של דיסאינפורמציה:
- ניתן, למשל, להשתמש ב-Sentiment analysis (שהוא שימוש בעיבוד שפה טבעית- NLP- כדי לזהות, לחלץ ולחקור מצבים רגשיים ומידע סובייקטיבי באופן שיטתי) על מנת לזהות את מידת הקיטוב בתגובות של משתמשים בקהילה פוליטית מסויימת. כבר היום, ישנם אלגוריתמים שיודעים לעשות זאת ברמת דיוק של 94%-96% ושימוש בהם עלול לאפשר לגורמים זדוניים להעמיק את רמות הקיטוב הפוליטי (אתם מתארים לעצמכם, למשל, כיצד גורמים בעלי כוונות זדוניות משתמשים בהן על מנת ללבות את השיח סביב הרפורמה המשפטית של יריב לוין?)
- באותו אופן, ניתן להשתמש בבינה מלאכותית גם על מנת לשפר את פילוח קהלי היעד אותם מגדירים יוזמי מבצעי ההשפעה. הדיוק הזה מעלה את אפקטיביות מבצעי ההשפעה בשני מובנים: קודם כל, הם מאפשרים להגיע לקהל היעד שיושפע ביותר מהמסרים אותם מבצע ההשפעה מקדם (למשל, בעלי דעות פוליטיות קיצוניות שייטו יותר לקבל מידע כוזב על יריבים פוליטיים כאמת). בנוסף, ככל שקמפיין השפעה יהיה מצומצם יותר בהיקפו, כך יפחת הסיכוי שיתגלה על ידי הרשתות החברתיות ויוסר על ידן.
מה ניתן לעשות?
שני המחקרים מציגים פתרונות מגוונים, אותם מדינות, גופי אקדמיה והמגזר הפרטי יכולים ליישם, על מנת להיערך טוב יותר להתפתחויות נוספות בבינה מלאכותית ובשימוש בהם לרעה.
ברמה הטכנית, יש לציין שכיום ישנה היכולת הטכנית לייצר ולאמן אלגוריתמיים ייעודיים, שיוכלו לזהות טקסטים, תמונות וסרטונים מזוייפים מסוג deepfake. עם זאת, לטענת מחברי המחקר ממכון Brookings, השימוש בהם אינו מומלץ לאורך זמן, משום שלטווח הארוך, ההתקדמות בפיתוחם של האלגוריתמים "הרעים", שמשמשים ליצירת deepfake, תשיג את פיתוח האלגוריתמים ה"טובים" ותהפוך את השימוש בהם ללא יעיל במצבי חירום. במקום זאת, יש להשקיע את המאמצים במנגנונים המסוגלים לוודא את מקורם של סרטונים ותמונות המתפרסמים ברשתות.
פתרון טכני נוסף, שעשוי להאט את התפתחותם של מבצעי השפעה מבוססי בינה מלאכותית, הוא פיתוח אמצעים שיגבילו את גישתם של גורמים עוינים מידע אישי השייך למשתמשים ברשתות החברתיות. הגבלת המידע היא חשובה, לאור העובדה שגורמים אלו משתמשים בו על מנת לבנות את הקמפיינים שלהם ולאמן את מערכות למידת המכונה שברשותם. בהתאם לכך, על מחוקקים להחליט איזה מידע יכול להימכר על ידי סוחרי מידע, בייחוד שירותים שאוגרים מידע אישי ממקורות פומביים ומוכרים אותו לגורמים שונים, מבלי לבדוק את טיבם. בנוסף, יש לכונן כללים אחידים ברחבי הרשתות החברתיות לשיתוף מידע ובחינת יישומים המבוצעים ע"י צדדים שלישיים.
ברמת המדיניות, אחד הפתרונות עליהם ממליצים מחברי המחקר מ-CSET הוא הגברת אמצעי המעקב של ארה"ב אחר נסיונות של יריביה לשפר את האמצעים העומדים לרשותם בייצור ובהפצת מבצעי השפעה. באופן מובן, הממשל יצטרך לשתף מידע בנושא עם בעלות ברית ושותפים פוטנציאליים, אך מחברי המחקר ממליצים לה לשקול להרחיב את שיתופו של מידע מודיעיני עם מדינות שאינן מוגדרות כבעלות ברית. כמו כן, גם נציגויות של ארה"ב בחו"ל יזדקקו לאמצעים ולהכשרה על מנת לזהות טכניקות השפעה בקמפיינים המתבצעים במקומיות שונים בעולם, שעלולים לפגוע באינטרסים של ארה"ב באותם אזורים.
מסקנות המחקרים הללו (ורבים נוספים) רלוונטיות לכל מדינה, אך לישראל במיוחד, בשל הלוחמה הצבאית והמדינית בהן היא מצויה באופן מתמיד. בהתאם לכך ובהתחשב בהתפתחויות הטכנולוגיות בבינה מלאכותית, המוצגות ללא הרף, על ישראל להקדים וללמוד את האיום באופן מקיף בהקדם.