בחודש שעבר, פרסם איגוד האינטרנט הישראלי מחקר חדש, המספק תמונת מצב מקיפה של הדיסאינפורמציה שהופצה בישראל ומחוצה לה במהלך 12 ימי המלחמה עם איראן, בחודש יוני האחרון. הנתונים המשמעותיים ביותר בדו"ח נוגעים להפצת תכנים כוזבים מבוססי בינה מלאכותית (תכנים מסוג דיפ פייק): מתוך 534 תכנים כוזבים שארגוני בדיקת עובדות מרחבי העולם זיהו והפריכו בימי המלחמה, 105 מתוכם היו תכני דיפ פייק. במילים פשוטות, אחד מכל חמישה שקרים היה מבוסס בינה מלאכותית. יתרה מזאת, 90 אחוזים מתכני הדיפ פייק הכילו נרטיבים ששירתו את איראן, כגון תמונות שתיעדו כביכול פגיעות ברבי קומות בישראל.

בשורה התחתונה, כמעט 18 אחוזים מכלל הדיסאינפורמציה שהופצה והופרכה במלחמה הם למעשה תכני דיפ פייק תוצרת איראן.

הנתון הזה הוא חשוב במיוחד משתי סיבות. ראשית, זהו נתון תקדימי ברמה העולמית, הממחיש עד כמה הבינה המלאכותית הופכת במהירות לחלק אינטגרלי מהמלחמות במאה ה-21: במהלך השנה השלישית של מלחמת רוסיה-אוקראינה, שנמשכה בין פברואר 2024 לפברואר 2025, תכני דיפ פייק היוו רק 13 אחוזים מכלל הנרטיבים השקריים שזוהו עם רוסיה והופרכו בשנה הזו (16 מתוך 119).

הסיבה השנייה- והמדאיגה אף יותר- היא שהנתון הזה מצביע על הסכנה שאיראן, או גורמים עוינים אחרים, יציפו את הרשתות החברתיות בגל עצום ועכור של תכני דיפ פייק פרובוקטיביים במערכת הבחירות הקרובה, במטרה להטות את תוצאותיהן ולהעמיק את הקיטוב הפוליטי בישראל. בשנות הפלונטר הפוליטיוביתר שאת בימי המלחמה– תועדו נסיונות רבים של גורמים אלו להתערב בשיח הפוליטי הישראלי- לרבות על ידי שימוש בבינה מלאכותית. כעת, כשהטכנולוגיה הזו הופכת להיות נגישה יותר, אותם גורמים עלולים להרחיב עוד יותר את השימוש בה על מנת לחולל נזקים חמורים לחברה ולדמוקרטיה בישראל- דווקא באחת התקופות המטלטלות ביותר מאז קום המדינה.

התרחבות השימוש בבינה מלאכותית בקרב הציבור הרחב- בעיקר מאז הופעת ה-ChatGPT ודומיו- הובילה חוקרים רבים בעולם לחקור, האם תכני דיפ פייק הם מטעים או מסוכנים יותר בהשוואה ל"סתם" פייק ניוז. נכון לעכשיו, אין תמימות דעים בקרב החוקרים סביב השאלה הזו. בעוד שחוקרים מסוימים מצאו שבינה מלאכותית עלולה לסייע לבני אדם בעיצוב מסרים תעמולתיים אפקטיביים יותר, אחרים דווקא גילו כי תכני דיפ פייק פוליטיים לא משכנעים יותר מתוכן כוזב שאיננו דיפ פייק.  למרות המחלוקת הזו, ישנן שלוש סיבות טובות להאמין כי שימוש בבינה מלאכותית לצרכי השפעה מצד גורמים זרים עלולה לחולל נזק משמעותי במערכת הבחירות הקרובה.

הבינה המלאכותית מרחיבה את היקף הפייק ניוז

ראשית, הבינה המלאכותית עלולה להרחיב דרמטית את היקף המידע הכוזב שיופץ במערכת הבחירות: בעוד שבעבר, הפקת תוכן כוזב ברמה גבוהה הצריכה משאבים טכנולוגיים ופיננסיים רבים, כעת גם קבוצות קטנות, בעלות כוח אדם מצומצם ויכולות טכנולוגיות מוגבלות, לייצר תכנים מטעים ברמת זיוף גבוהה. על פי ההערכות, השימוש בבינה מלאכותית עשוי להוזיל את העלויות של ייצור תוכן כוזב עבור גורמים בעלי משאבים ומיומנויות רבים, כמו ממשלות, בשיעור של עד 70% אחוז- כשהחיסכון עבור גורמים קטנים עשוי להיות גדול אף יותר. ההוזלה נובעת, למשל, מצמצום שעות העבודה של עובדים אנושיים- שלא נדרשים לנסח את המסרים מאפס, אלא מסתפקים רק בבקרה סופית של התוכן שייצרו מודלי בינה מלאכותית.

הניסיון מימי המלחמה מראה כי לא רק ממשלות איראן ורוסיה היו מעורבות בפעולות השפעה נגד הציבור הישראלי ברשתות החברתיות, אלא גם רשת פעילים אזרחית מהעולם המוסלמי בראשות מפיק סרטים מצרי. עם התפשטות השימוש בבינה מלאכותית, לא יהיה זה מופרך לראות קבוצות אזרחים קטנות אף יותר מוציאות לפעול מבצעי השפעה מתוחכמים נגד הציבור הישראלי בזמן הבחירות.

דיפ פייק וערעור אמון הציבור בממשלה

שנית, למרות המחלוקת המחקרית, נמצא שתוכן מסוים עלול לחולל השפעה ממשית על השיח הפוליטי הציבורי- והוא רלוונטי במיוחד למציאות הישראלית שלאחר השביעי באוקטובר. מחקר שפורסם בשנת 2024 מוכיח, שכאשר אזרחים בארה"ב נחשפו לסרטוני דיפ פייק שהציגו כשל תשתיתי של קריסת גשר, הדבר ערער את אמונם בממשל שלהם. אם סרטונים שהציגו קריסת גשר הצליחו לעשות זאת, הרי שמחדלים הקשורים לחיי אדם עלולים לחולל שבר עמוק ביותר בין האזרחים לממשלה. סדר היום הפוליטי של הבחירות לכנסת ה-26 צפוי להתמקד בכשלים שאיפשרו את פרוץ המלחמה ולכלול ביקורת עזה בנוגע לניהולה. השיח הזה- הטעון גם כך- צפוי להיות נפיץ עוד יותר על רקע המחלוקת סביב המשך כהונת נתניהו כראש ממשלה, המתחוללת זמן רב לפני פרוץ המלחמה.

בשנות המשבר הפוליטי, ניסתה איראן להתערב בשיח הפוליטי בישראל בשיטות שונות, למשל על ידי העצמת השיח המתאר את ממשלת בנט כממשלה שנבחרה במרמה. על רקע העימות הציבורי סביב מלחמת חרבות ברזל והנגישות הגוברת לבינה מלאכותית, המוטיבציה של איראן ושל גורמים זרים נוספים להעמיק את הניכור בין אזרחי המדינה לממסד השלטוני- והסיכוי שיצליחו בכך- עלולים להיות גבוהים יותר מאי פעם.

רווח השקרן והסכנה לדמוקרטיה

לבסוף, בינה מלאכותית עלולה לפגוע באמון הציבור לא רק בממשלה, אלא גם בעצם השיטה הדמוקרטית. בשנים האחרונות, סבור רוב הציבור בישראל כי אין ביכולתו לזהות תכנים כוזבים. האפקט הזה קיים גם ביחס לחשיפה לתכני דיפ פייק, כשאזרחים בבריטניה ובארה"ב הודו כי הזיהוי של תכני דיפ פייק הוא משימה מאתגרת עבורם. חוסר הביטחון הזה עלול לחזק תופעה הנקראת "רווח השקרן"- תופעה במסגרתה פוליטיקאים עלולים לפגוע באמינותו של תוכן מהימן המציג אותם באור שלילי על ידי תיאורו כ"פייק ניוז". לאורך זמן, התופעה עלולה ליצור חוסר וודאות מתמשך אצל הציבור בנוגע לשאלה מהי בעצם האמת. חוסר הביטחון בזיהוי תכני דיפ פייק והתרחבות השימוש בבינה מלאכותית עלולים לגרום לציבור אף להטיל ספק במהימנותו של מידע אמיתי, כפי שכבר קרה ביחס לתיעוד מטבח השבעה באוקטובר. בהקשר הישראלי, כשהמחלוקת הציבורית מאז השביעי באוקטובר עמוקה ממילא, הסכנה כפולה: רווח השקרן לא רק מערער את יכולת הציבור להבחין באמת, אלא גם עלול להחריף את השסע הפוליטי ואף לפגוע באמון הציבור במוסכמות דמוקרטיות בסיסיות, כגון קבלת תוצאות הבחירות.

נדרשת פעולה מהירה נגד דיפ פייק

העובדה שפיזור הכנסת יכול להתרחש בכל עת והסכנות המשמעותיות הטמונות בדיפ פייק מצריכות פעולה מיידית כבר כעת. בשנת 2024 כשני מיליארד איש השתתפו במערכות בחירות שהתקיימו ב-50 מדינות בעולם, כשבחלקן גם הופצו קטעי דיפ פייק פוליטיים. ישראל צריכה לנצל את הניסיון העולמי ולגבש תוכנית פעולה המותאמת למציאות המקומית. העקרון המנחה צריך להיות, שתגובה מהירה ומתואמת היא הדרך לצמצם את מימדי התופעה ונזקיה.

ראשית, וועדת הבחירות המרכזית יכולה לשתף פעולה עם חברות טכנולוגיה בפיתוח אמצעים לזיהוי מהיר של קטעי דיפ פייק. לקראת הבחירות שנערכו בדרום קוריאה בשנת 2024, פיתחה חברת בינה מלאכותית מקומית, בשיתוף סוכנות המשטרה הלאומית, כלי לזיהוי קטעי דיפ פייק בתוך עשר דקות, שיועד למאבק בהונאות הקשורות לבחירות.

לצד הזיהוי המהיר, נדרשת גם תוכנית פעולה, שתנוסח ותתורגל מראש ושתאפשר הפרכה מהירה בזמן אמת. בין השאר, התוכנית צריכה לגבש מראש רשת של עיתונאים, גורמי ממשל מקומי ואף משפיעני רשת, שישתפו פעולה בהפרכת המידע הכוזב בפרק זמן של 30 דקות לכל היותר.

לבסוף, חשוב להכשיר את הציבור מבעוד מועד לזהות מניפולציות דיגיטליות. כאשר אנשים מבינים כיצד בינה מלאכותית יכולה לשמש ליצירת תמונות דיפ פייק, הדבר מפחית את האמון הניתן בהן. סינגפור כבר יישמה את הגישה הזו, כשהמליצה לאזרחיה לזהות תכני דיפ פייק על סמך גישת ה-3A: הערכת מקור המסר ומטרתו (Assess); מציאת רמזים ויזואליים שיכולים להעיד על מניפולציה מבוססת בינה מלאכותית (Analyse) ואימות אותנטיות התוכן באמצעות כלים טכנולוגיים זמינים (Authenticate).