השבוע, חשף השב"כ פרופיל איראני מזוייף בפייסבוק, ששימש גורמים עוינים על מנת לנסות לגייס אזרחים ישראליים למשימות שונות. הפרופיל הציג דמות תמימה של אישה יהודייה בשם שרה פופי (Sara Puppi), שכביכול מתגוררת בטורונטו אך בעלת קשרים עסקיים בישראל. אותה שרה פנתה לאזרחים ישראליים שונים- בייחוד אנשי שב"כ- ושידלה אותם לפגוע ביעדים שונים, תמורת תשלום. כדאי לציין, שבין היעדים בהם ביקשה שרה לפגוע היו גם דיפלומטים ממדינות ערב, ככל הנראה כאלו המגיעים מערב הסעודית או ממדינות המפרץ (כתבת הטלויויזיה על החשיפה נמצאת כאן למטה).

החשיפה הזו מזכירה מקרה דומה, שפורסם בינואר השנה, לפיו השב"כ סיכל רשת ריגול איראנית שכללה פרופיל פיקטיבי שהתחזה ליהודי מאיראן. שני האירועים מעלים את השאלה, מה עשויה להיות ההשפעה האמיתית של פעולה מהסוג הזה? האם ישנה סיבה לדאגה, או שמא אפשר לפטור זאת כמקרה סוריאליסטי ותו לא?

התשובה, כמו בהרבה מקרים בחיים, היא מעט יותר מורכבת והיא מבוססת, בעיקרה, על שני אלמנטים: הפיתוחים הטכנולוגיים בעולמות הבינה המלאכותית והרשתות החברתיות, הזמינים לכל אדם, מחד וההיסטוריה של לוחמת המידע האיראנית נגד ישראל מהשנים האחרונות, מאידך.

נתחיל מההיבט החיובי: בשורה התחתונה, הסיכוי שהפעלת פרופיל כזה תגרום לביצוע פעולות ריגול הוא אפסי: על מנת שאדם רנדומלי יהיה מוכן לבצע משימות שונות (ומשונות) מהסוג הזה, נדרשים הרבה מאוד מרכיבים, שקשה מאוד לקיים אותם דרך פרופילים של אנשים זרים בפייסבוק (למשל, נכונות של הפעיל להסתכן למען המפעיל).

יחד עם זאת, פעילות מהסוג הזה- בייחוד שככל שהיא נהפכת לנפוצה ומשוכללת יותר- עלולה לאפשר לאיראן להעמיק את פגיעתה בישראל בדרך שהיא עושה כבר מזה מספר שנים.

בשנים האחרונות (לפחות משנת 2019, ככל הידוע לי), איראן מבצעת מבצעי השפעה המכוונים נגד אזרחי ישראל ברשתות החברתיות השונות: החל מבחירות 2019 סבב א', שם ניסתה איראן לקדם סיפורים שנויים במחלוקת על מנת ללבות סכסוכים בחברה הישראלית, דרך החדירה לקבוצות וואטסאפ וטלגרם של פעיל מחאת הדגלים השחורים ועד ליצירת מצג שווא של דה-מורליזציה בציבור הישראלי במהלך מבצע שומר החומות.

לצורך העניין, מבצע השפעה מוגדר כמהלך פעולות שצד אחד מיישם על מנת להשפיע על תפיסותיו, החלטותיו ופעולותיו של קהל יעד מוגדר, על ידי שינוי המידע אותו הוא מקבל. בהשלכה על הפעילות האיראנית בשנים האחרונות, סוכנים איראניים השתמשו בפרופילים פיקטביים ובמידע מסית או פרובוקטיבי (אמיתי או כוזב), על מנת להשפיע על מחשבותיהם, רגשותיהם ופעולותיהם של אזרחים ישראליים, המתבטאים בעיקר במרחב שמחוץ לרשתות החברתיות (למשל, ליבוי מחאת הדגלים השחורים עלול להעמיק את הקרע בין מצביעי ימין ושמאל, בשנים שבהן ישראל ממילא תקועה בפולנטר פוליטי).

הפצת פייק ניוז בפייסבוק אמנם קלה יותר מגיוס אזרח זר לביצוע פעולות חבלה, אך ביצוע מוצלח שלה איננו דבר קל או קצר, לכשעצמו, אלא מצריך מענה מבוסס על שורה של שאלות חשובות, בהן: מיהו קהל היעד שלי? מה מלהיב, מכעיס או מרגש אותו? היכן אני יכול למצוא אותו? באיזו שפה אני צריך לתקשר איתו? מענה על השאלות הללו (שרק מקצתן הוצג כאן) מצריך איסוף מידע מתמשך (שיכול להימשך לעיתים חודשים).

על בסיס המידע הזה, צריכים מבצעי הקמפיין לבנות פרופילים פיקטיביים ברמת זיוף גבוהה, המשקפים את התובנות שנאספו: שיהיו בעלי מאפיינים דמוגרפיים דומים לאלו של קהל היעד, שיבטאו את הנרטיבים והנושאים המעסיקים את קהל היעד, בשפה המזוהה איתו ושיידעו לבטא גם את המצוקות, התסכולים והשאיפות הכמוסים שלו. ככל שהפרופיל יהיה בנוי בצורה טובה יותר ויידע לבטא את המסרים הרלוונטיים בצורה מדוייקת יותר, גדל הסיכוי שהגולש יבצע פעולה כלשהי לטובת הפרופיל (למשל, שיתוף תוכן).

כאן, נכנסים לתמונה הפרופילים הפיקטיביים שצוינו קודם לכן: ככל שהאיראנים מתנסים יותר בבניית פרופילים מהסוג הזה, לא משנה לאיזו מטרה, כך הם צוברים יותר נסיון בבניית פרופילים מוצלחים יותר ואת הלקחים מכך יוכלו ליישם בבניית פרופילים פיקטיביים חדשים, שיפיצו פייק ניוז נגד אזרחי ישראל בעוד חצי שנה או שנה.

מה שעלול להפוך את המשימה האיראנית הזו (ובעצם, את המשימה של כל אדם או גורם המעוניין להשתמש ברשתות החברתיות ככלי נשק) לקלה יותר ויעילה הרבה יותר הוא השימוש בבינה מלאכותית. זאת, בכמה דרכים:

  • ניתן להשתמש בבינה מלאכותית על מנת לייצר תמונות פרופיל מזוייפות באיכות גבוהה, שעלולות להיתפס כאמינות בדיוק כמו אלו המייצגות אנשים בשר ודם (מחקר שפורסם לאחרונה, שבחן מתן אמון בתמונות פנים מלאכותיות ואנושיות, העלה כי שלוש התמונות שזכו לרמות האמון הגבוהות ביותר בקרב משתתפי המחקר היו תמונות סינתטיות);
  • ניתן להשתמש בבינה מלאכותית על מנת לבצע פילוח מדוייק של קהל היעד הרלוונטי. ככל שמבצעי הקמפיינים יפנו לקהל יעד רלוונטי יותר, הם יקבלו מהם יותר פעילות (כמו שיתוף תכנים) וככל שקהל היעד אליו יפנו יהיה קטן יותר, כך יקטן הסיכוי לגלות אותו ע"י הרשתות החברתיות;
  • ניתן להשתמש בבינה מלאכותית על מנת לבצע ניתוח תוכן רגשי לטקסטים כתובים, כלומר- ניתן לראות אילו רגשות עולים מטקסטים מסויימים ולהדהד אותם במבצע השפעה (למשל- אם ניתוח טקסט מסוים יראה כי בקרב תומכי הימין בישראל ישנה תחושה של כעס כלפי ראש הממשלה בנט, גורמים שיהיו מעוניינים ללבות את המחלוקת הפוליטית יעשו זאת באמצעות פרסום טקסטים נוספים, שיעוררו גם כן כעס ויעצימו אותו).

ואלו הן רק חלק מהאפשרויות הרבות שמציעה הבינה מלאכותית, שברבות השנים הופכת ליותר ויותר נגישה ומתקדמת בו זמנית.

אומנם, הפרופילים שנחשפו השבוע ובינואר כבר לא יהיו אחראיים לפעולות ריגול מהוללות, שיזכו לסרטים בסגנון ג'יימס בונד. אולם, ליבוי מחלוקות, יצירת זעזועים חברתיים ורצון לפגוע בדמוקרטיה הישראלית הם סכנות מספיק חשובות, על מנת לפתח דרכי מענה הולמות נגד פרופילים פיקטיביים מכל מקור שהוא. כאן, נדרש שילוב זרועות של כלל הגורמים המעוניינים לטפל בתופעה, על מנת להעניק טיפול רב שכבתי: טכנולוגי (פיתוח אמצעים טכנולוגיים מתקדמים לאיתור והשבתת פרופילים מזוייפים); מודיעיני-מחקרי (ניטור מתמשך של האיום ולמידת מאפייניו המשתנים) וחינוכי (פיתוח וחיזוק אוריינות דיגיטלית בקרב הציבור).