אופיר בראל https://ofir-barel.co.il מה האמת מאחורי הפייק ניוז Tue, 21 Oct 2025 10:10:19 +0000 he-IL hourly 1 https://wordpress.org/?v=6.9 https://ofir-barel.co.il/wp-content/uploads/2020/01/FavIconOfirBarel.pngאופיר בראלhttps://ofir-barel.co.il 32 32 הבינה המלאכותית מאיימת על הדמוקרטיה הישראלית יותר מתמידhttps://ofir-barel.co.il/2025/10/21/%d7%94%d7%91%d7%99%d7%a0%d7%94-%d7%94%d7%9e%d7%9c%d7%90%d7%9b%d7%95%d7%aa%d7%99%d7%aa-%d7%9e%d7%90%d7%99%d7%99%d7%9e%d7%aa-%d7%a2%d7%9c-%d7%94%d7%93%d7%9e%d7%95%d7%a7%d7%a8%d7%98%d7%99%d7%94-%d7%94/ Tue, 21 Oct 2025 10:10:17 +0000 https://ofir-barel.co.il/?p=20881 בחודש שעבר, פרסם איגוד האינטרנט הישראלי מחקר חדש, המספק תמונת מצב מקיפה של הדיסאינפורמציה שהופצה בישראל ומחוצה לה במהלך 12 ימי המלחמה עם איראן, בחודש יוני האחרון. הנתונים המשמעותיים ביותר בדו"ח נוגעים להפצת תכנים כוזבים מבוססי בינה מלאכותית (תכנים מסוג דיפ פייק): מתוך 534 תכנים כוזבים שארגוני בדיקת עובדות מרחבי העולם זיהו והפריכו בימי המלחמה, 105 מתוכם היו תכני דיפ פייק. במילים פשוטות, אחד מכל חמישה שקרים היה מבוסס בינה מלאכותית. יתרה מזאת, 90 אחוזים מתכני הדיפ פייק הכילו נרטיבים ששירתו את איראן, כגון תמונות שתיעדו כביכול פגיעות ברבי קומות בישראל.

בשורה התחתונה, כמעט 18 אחוזים מכלל הדיסאינפורמציה שהופצה והופרכה במלחמה הם למעשה תכני דיפ פייק תוצרת איראן.

הנתון הזה הוא חשוב במיוחד משתי סיבות. ראשית, זהו נתון תקדימי ברמה העולמית, הממחיש עד כמה הבינה המלאכותית הופכת במהירות לחלק אינטגרלי מהמלחמות במאה ה-21: במהלך השנה השלישית של מלחמת רוסיה-אוקראינה, שנמשכה בין פברואר 2024 לפברואר 2025, תכני דיפ פייק היוו רק 13 אחוזים מכלל הנרטיבים השקריים שזוהו עם רוסיה והופרכו בשנה הזו (16 מתוך 119).

הסיבה השנייה- והמדאיגה אף יותר- היא שהנתון הזה מצביע על הסכנה שאיראן, או גורמים עוינים אחרים, יציפו את הרשתות החברתיות בגל עצום ועכור של תכני דיפ פייק פרובוקטיביים במערכת הבחירות הקרובה, במטרה להטות את תוצאותיהן ולהעמיק את הקיטוב הפוליטי בישראל. בשנות הפלונטר הפוליטיוביתר שאת בימי המלחמה– תועדו נסיונות רבים של גורמים אלו להתערב בשיח הפוליטי הישראלי- לרבות על ידי שימוש בבינה מלאכותית. כעת, כשהטכנולוגיה הזו הופכת להיות נגישה יותר, אותם גורמים עלולים להרחיב עוד יותר את השימוש בה על מנת לחולל נזקים חמורים לחברה ולדמוקרטיה בישראל- דווקא באחת התקופות המטלטלות ביותר מאז קום המדינה.

התרחבות השימוש בבינה מלאכותית בקרב הציבור הרחב- בעיקר מאז הופעת ה-ChatGPT ודומיו- הובילה חוקרים רבים בעולם לחקור, האם תכני דיפ פייק הם מטעים או מסוכנים יותר בהשוואה ל"סתם" פייק ניוז. נכון לעכשיו, אין תמימות דעים בקרב החוקרים סביב השאלה הזו. בעוד שחוקרים מסוימים מצאו שבינה מלאכותית עלולה לסייע לבני אדם בעיצוב מסרים תעמולתיים אפקטיביים יותר, אחרים דווקא גילו כי תכני דיפ פייק פוליטיים לא משכנעים יותר מתוכן כוזב שאיננו דיפ פייק.  למרות המחלוקת הזו, ישנן שלוש סיבות טובות להאמין כי שימוש בבינה מלאכותית לצרכי השפעה מצד גורמים זרים עלולה לחולל נזק משמעותי במערכת הבחירות הקרובה.

הבינה המלאכותית מרחיבה את היקף הפייק ניוז

ראשית, הבינה המלאכותית עלולה להרחיב דרמטית את היקף המידע הכוזב שיופץ במערכת הבחירות: בעוד שבעבר, הפקת תוכן כוזב ברמה גבוהה הצריכה משאבים טכנולוגיים ופיננסיים רבים, כעת גם קבוצות קטנות, בעלות כוח אדם מצומצם ויכולות טכנולוגיות מוגבלות, לייצר תכנים מטעים ברמת זיוף גבוהה. על פי ההערכות, השימוש בבינה מלאכותית עשוי להוזיל את העלויות של ייצור תוכן כוזב עבור גורמים בעלי משאבים ומיומנויות רבים, כמו ממשלות, בשיעור של עד 70% אחוז- כשהחיסכון עבור גורמים קטנים עשוי להיות גדול אף יותר. ההוזלה נובעת, למשל, מצמצום שעות העבודה של עובדים אנושיים- שלא נדרשים לנסח את המסרים מאפס, אלא מסתפקים רק בבקרה סופית של התוכן שייצרו מודלי בינה מלאכותית.

הניסיון מימי המלחמה מראה כי לא רק ממשלות איראן ורוסיה היו מעורבות בפעולות השפעה נגד הציבור הישראלי ברשתות החברתיות, אלא גם רשת פעילים אזרחית מהעולם המוסלמי בראשות מפיק סרטים מצרי. עם התפשטות השימוש בבינה מלאכותית, לא יהיה זה מופרך לראות קבוצות אזרחים קטנות אף יותר מוציאות לפעול מבצעי השפעה מתוחכמים נגד הציבור הישראלי בזמן הבחירות.

דיפ פייק וערעור אמון הציבור בממשלה

שנית, למרות המחלוקת המחקרית, נמצא שתוכן מסוים עלול לחולל השפעה ממשית על השיח הפוליטי הציבורי- והוא רלוונטי במיוחד למציאות הישראלית שלאחר השביעי באוקטובר. מחקר שפורסם בשנת 2024 מוכיח, שכאשר אזרחים בארה"ב נחשפו לסרטוני דיפ פייק שהציגו כשל תשתיתי של קריסת גשר, הדבר ערער את אמונם בממשל שלהם. אם סרטונים שהציגו קריסת גשר הצליחו לעשות זאת, הרי שמחדלים הקשורים לחיי אדם עלולים לחולל שבר עמוק ביותר בין האזרחים לממשלה. סדר היום הפוליטי של הבחירות לכנסת ה-26 צפוי להתמקד בכשלים שאיפשרו את פרוץ המלחמה ולכלול ביקורת עזה בנוגע לניהולה. השיח הזה- הטעון גם כך- צפוי להיות נפיץ עוד יותר על רקע המחלוקת סביב המשך כהונת נתניהו כראש ממשלה, המתחוללת זמן רב לפני פרוץ המלחמה.

בשנות המשבר הפוליטי, ניסתה איראן להתערב בשיח הפוליטי בישראל בשיטות שונות, למשל על ידי העצמת השיח המתאר את ממשלת בנט כממשלה שנבחרה במרמה. על רקע העימות הציבורי סביב מלחמת חרבות ברזל והנגישות הגוברת לבינה מלאכותית, המוטיבציה של איראן ושל גורמים זרים נוספים להעמיק את הניכור בין אזרחי המדינה לממסד השלטוני- והסיכוי שיצליחו בכך- עלולים להיות גבוהים יותר מאי פעם.

רווח השקרן והסכנה לדמוקרטיה

לבסוף, בינה מלאכותית עלולה לפגוע באמון הציבור לא רק בממשלה, אלא גם בעצם השיטה הדמוקרטית. בשנים האחרונות, סבור רוב הציבור בישראל כי אין ביכולתו לזהות תכנים כוזבים. האפקט הזה קיים גם ביחס לחשיפה לתכני דיפ פייק, כשאזרחים בבריטניה ובארה"ב הודו כי הזיהוי של תכני דיפ פייק הוא משימה מאתגרת עבורם. חוסר הביטחון הזה עלול לחזק תופעה הנקראת "רווח השקרן"- תופעה במסגרתה פוליטיקאים עלולים לפגוע באמינותו של תוכן מהימן המציג אותם באור שלילי על ידי תיאורו כ"פייק ניוז". לאורך זמן, התופעה עלולה ליצור חוסר וודאות מתמשך אצל הציבור בנוגע לשאלה מהי בעצם האמת. חוסר הביטחון בזיהוי תכני דיפ פייק והתרחבות השימוש בבינה מלאכותית עלולים לגרום לציבור אף להטיל ספק במהימנותו של מידע אמיתי, כפי שכבר קרה ביחס לתיעוד מטבח השבעה באוקטובר. בהקשר הישראלי, כשהמחלוקת הציבורית מאז השביעי באוקטובר עמוקה ממילא, הסכנה כפולה: רווח השקרן לא רק מערער את יכולת הציבור להבחין באמת, אלא גם עלול להחריף את השסע הפוליטי ואף לפגוע באמון הציבור במוסכמות דמוקרטיות בסיסיות, כגון קבלת תוצאות הבחירות.

נדרשת פעולה מהירה נגד דיפ פייק

העובדה שפיזור הכנסת יכול להתרחש בכל עת והסכנות המשמעותיות הטמונות בדיפ פייק מצריכות פעולה מיידית כבר כעת. בשנת 2024 כשני מיליארד איש השתתפו במערכות בחירות שהתקיימו ב-50 מדינות בעולם, כשבחלקן גם הופצו קטעי דיפ פייק פוליטיים. ישראל צריכה לנצל את הניסיון העולמי ולגבש תוכנית פעולה המותאמת למציאות המקומית. העקרון המנחה צריך להיות, שתגובה מהירה ומתואמת היא הדרך לצמצם את מימדי התופעה ונזקיה.

ראשית, וועדת הבחירות המרכזית יכולה לשתף פעולה עם חברות טכנולוגיה בפיתוח אמצעים לזיהוי מהיר של קטעי דיפ פייק. לקראת הבחירות שנערכו בדרום קוריאה בשנת 2024, פיתחה חברת בינה מלאכותית מקומית, בשיתוף סוכנות המשטרה הלאומית, כלי לזיהוי קטעי דיפ פייק בתוך עשר דקות, שיועד למאבק בהונאות הקשורות לבחירות.

לצד הזיהוי המהיר, נדרשת גם תוכנית פעולה, שתנוסח ותתורגל מראש ושתאפשר הפרכה מהירה בזמן אמת. בין השאר, התוכנית צריכה לגבש מראש רשת של עיתונאים, גורמי ממשל מקומי ואף משפיעני רשת, שישתפו פעולה בהפרכת המידע הכוזב בפרק זמן של 30 דקות לכל היותר.

לבסוף, חשוב להכשיר את הציבור מבעוד מועד לזהות מניפולציות דיגיטליות. כאשר אנשים מבינים כיצד בינה מלאכותית יכולה לשמש ליצירת תמונות דיפ פייק, הדבר מפחית את האמון הניתן בהן. סינגפור כבר יישמה את הגישה הזו, כשהמליצה לאזרחיה לזהות תכני דיפ פייק על סמך גישת ה-3A: הערכת מקור המסר ומטרתו (Assess); מציאת רמזים ויזואליים שיכולים להעיד על מניפולציה מבוססת בינה מלאכותית (Analyse) ואימות אותנטיות התוכן באמצעות כלים טכנולוגיים זמינים (Authenticate).

]]>
כיצד השתנתה לוחמת המידע האיראנית במהלך חרבות ברזל?https://ofir-barel.co.il/2025/06/22/%d7%9b%d7%99%d7%a6%d7%93-%d7%94%d7%a9%d7%aa%d7%a0%d7%aa%d7%94-%d7%9c%d7%95%d7%97%d7%9e%d7%aa-%d7%94%d7%9e%d7%99%d7%93%d7%a2-%d7%94%d7%90%d7%99%d7%a8%d7%90%d7%a0%d7%99%d7%aa-%d7%91%d7%9e%d7%94%d7%9c/ Sun, 22 Jun 2025 16:54:16 +0000 https://ofir-barel.co.il/?p=17951 פתיחת מבצע "עם כלביא" לפני מעט יותר משבוע סימלה מעבר לשלב חדש וחסר תקדים בעימות בין ישראל לאיראן בפרט ובמלחמת חרבות ברזל בפרט, הכולל הפצצות נרחבות של מטרות צבאיות וגרעיניות מצד ישראל ושיגורי טילים נרחבים אל האוכלוסייה ומתקנים אסטרטגיים בישראל מצד איראן.

אולם, כפי שאנחנו יודעים, המלחמות של היום אינן מתנהלות ומוכרעות רק בשדה הצבאי, מאחר וגם להיבט התודעתי ישנה חשיבות גדולה. בהתאם, מבצעי השפעה ופעולות לוחמה פסיכולוגיות משתנות בהתאם להתפתחויות הצבאיות, משקפות אותן ואף מסייעות להשגת מטרותיהן.

לפני יומיים, בעיצומו של המבצע, פרסם מכון המחקר ה-FDD האמריקאי (Foundation for Defense of Democracies) ממצאים אודות מבצע השפעה שהוציאה איראן לפועל נגד אזרחי ישראל. יש לציין, כי זוהי לא הפעם הראשונה שאיראן מבצעת פעולות כאלו- כולל במהלך מלחמת חרבות ברזל- מתוך ניסיון לערער את החברה הישראלית, להעמיק בתוכה את הפילוגים החברתיים והפוליטיים ולחזק תחושות של חוסר אונים, כעס ופחד.

בהתאם, יצאתי לבדוק באילו היבטים לוחמת המידע האיראנית שגילה ה-FDD זהה למה שכבר ידוע שהיא מעוללת לציבור הישראלי מאז ה-7 באוקטובר. לשם כך, התבססתי על מאמר מצוין שפרסמו ניצן יסעור ודני סיטרינוביץ' באוגוסט 2024, באמצעות המכון למחקרי ביטחון לאומי (INSS), המתמקד בפעילות התודעה האיראנית בקרב הציבור הישראלי בזמן המלחמה.

בין אוקטובר 2023 ליוני 2025

ראשית, רקע קצר:

המאמר של יסעור וסיטרינוביץ' מתאר פעילות משולבת של מספר קבוצות- חלקן כאלו שהוקמו עוד לפני המלחמה וחלקן כאלו שהוקמו אחרי ה-7 באוקטובר- מתוך כוונה להביא להחלשת החברה הישראלית באמצעות הפצת מסרים מסיתים ומפלגים. בתור דוגמה ניתן למנות את קבוצת "דמעות מלחמה", במסגרתה פעלה רשת להפצת תכנים מעוררי צער ודמורליזציה סביב נושא החטופים, תוך שימוש בתמונות מעוצבות ובמסרים רגשיים.

מנגד, ה-FDD מציג מבצע השפעה אחד שהתארגן (במועד בלתי ידוע) סביב ערוץ טלגרם בשם CAR ONLINE, המונה למעלה מ-400,000 עוקבים ופעיל חשבונות נוספים בטלגרם וגם ב-X. הערוץ, בין היתר, מדריך את העוקבים כיצד לפתוח ברשתות החברתיות חשבונות המתחזים לאזרחים ישראליים וכיצד להפיץ דרכם מסרים יעילים נגד הציבור הישראלי.

במבט מעמיק יותר אודות שני סוגי הפעילות, ניתן למצוא נקודות דמיון מהותיות, אך גם הבדלים משמעותיים בנוגע להיקף הפעילות, מורכבותה, עומק ההשפעה ומידת המעורבות הפיזית במרחב הישראלי.

ראשית, בשני המקרים ניכר השימוש בכלים מבוססי בינה מלאכותית. ה-FDD ציין כי החשבונות שפעלו בהנחיית ערוץ הטלגרם עשו שימוש ב-ChatGPT כדי לתרגם מסרים לפרופילים פיקטיביים ברשת X. גם במאמר הישראלי מופיע שימוש דומה, אך שם הא הוקדש בעיקר לעיצוב כרזות פרובוקטיביות והפצת סרטוני דיפ-פייק. סרטון אחד כזה, למשל, הציג חמישה רבנים בכירים, המאשימים, כביכול, את נתניהו בפרוץ מלחמת חרבות ברזל.

שנית, הן המקור הישראלי והן המקור האמריקאי מצביעים על כך שהשחקנים האיראניים מפעילים חשבונות מזויפים המתחזים לאזרחים ישראלים. בשני המקרים, השימוש בחשבונות אלו מקל על הפצת המסרים הכוזבים, שכן ההיצמדות לדמויות ישראליות עלולה לחזק את הרושם כי מדובר במסרים לגיטימיים, המגיעים מצד אזרחים בשר ודם.

נקודת דמיון נוספת היא תוכן המסרים המופצים על ידי החשבונות – אלו מסרים שנועדו להחליש את רוח הלחימה ולזרוע יאוש. ה-FDD מציין, לדוגמה, כי מדובר במסרים כגון: "ילדיי פשוט מפחדים" ו"אני עייף". במקרה הישראלי, ניתן לציין את הרשת "חסרות אונים", שהתמקד בהפצת מסרים המדגישים את קשיהן, כביכול, של נשים ישראליות, לרבות חיילות וחטופות.

מאפיין מרכזי המופיע בשני המקורות הוא התארגנות סביב "מותג" פיקטיבי מרכזי. ב-FDD מדובר במותג CAR ONLINE, המנהל ערוצים מתואמים בטלגרם וברשת X ומפעיל תשתית פרסום ופעולה אחידה. במקביל, גם המאמר הישראלי מצביע על עקרון דומה: כאן, הדבר ניכר לא רק בפעילות מתואמת, אלא גם בנראות אחידה, הכוללת שימוש בלוגואים וביצירת קו עיצובי ברור, המעיד על קיומה של רשת ענפה. במרחב בו לנראות יש משמעות רבה, ההקפדה על כך עשויה להעניק לרשת תדמית מקצועית ורמת אמינות גבוהה, המגדילה את הסיכוי של הציבור הישראלי להאמין למסרי הרשת.

לצד נקודות הדמיון הללו, קיימים גם הבדלים מובהקים בין הפעילות שהתגלתה לפני יומיים לבין זו שתועדה בשלבים מוקדמים יותר במלחמה.

ראשית, ההבדל המהותי ביותר בעיניי הוא, בעוד שה-FDD מתאר מבצע שמתבצע כולו בזירה הדיגיטלית (בעיקר X וטלגרם), יסעור סיטרינוביץ' מציגים מבצע השפעה שלא נשאר רק בגבולות הרשתות החברתיות, אלא גם גולשת למרחב הפיזי. הדוגמה הבולטת ביותר לכך היא שליחת זר הניחומים למשפחתה של החטופה לירי אלבג באפריל 2024, עם המסר: "יהיה זכרה ברוך…. כולנו יודעים שהמדינה היא החשובה ביותר". באותה תקופה, שטרם היה ברור מצבה (היא שוחררה לבסוף מהשבי בינואר 2025), מסר מהסוג הזה שיחק ברגשות המשפחה באופן הציני ביותר ונועד לעורר את תחושות הדאגה ואי הוודאות. פעולה נוספת שבוצעה במרחב הפיזי היא גיוס אזרחים ישראליים לתליית שלטים בעלי אופי פוליטי נגד ממשלת ישראל.

הבדל חשוב נוסף בין שני המבצעים הוא המיקוד בקהלים: בעוד שהמבצע המתואר ב-FDD פנה לכלל הישראלים ואין עדות לכך שמסרים שונים כוונו לקבוצות שונות באוכלוסייה הישראלית, המאמר הישראלי מדגיש כי במהלך המלחמה פעלו מספר קבוצות, הפונות לקבוצות שונות עם מסרים שונים: קבוצת "אגרוף" הימנית קיצונית מחד, שניסתה לקדם מתיחות בין יהודים לערבים וקבוצת BringHomeNow, שהתמקדה בקידום מסרים ופעולות ביחס להשבת החטופים (והיא גם זו ששלחה את הזר למשפחת אלבג).

הבדל נוסף נוגע למגוון הפלטפורמות בהן נעשה שימוש. בעוד שבפרסום של ה-FDD מצוין כי נעשה שימוש ב-X, טלגרם ואינסטגרם, הרי שמבצעי ההשפעה שפעלו בישראל לפני כן תועדו גם בפייסבוק, בטיקטוק, בוואטסאפ וביוטיוב ואף כללה שימוש בכלים פתוחים דוגמת Google Forms, לשם איסוף פרטיהם של אזרחים ישראלים המעוניינים לפעול למען הרשתות (בתום לב ומבלי לדעת מי באמת עומד מאחוריהן).

מה ניתן ללמוד?

על פניו, נראה כי הפעילות החדשה שתיעד ה-FDD נראית פחות מאיימת, שכן היא מצומצמת בהיקפה ועושה שימוש בפחות רשתות חברתיות, בהשוואה למה שנקלט עד כה בישראל. יחד עם זאת, במבצעי השפעה, הקוטן הוא לעיתים יתרון: הרבה יותר קל לרשתות החברתיות לאתר ולהשבית פעילות ענפה, הכוללת שימוש בנכסים דיגיטליים רבים ושמשאירה עדויות רבות, בהשוואה לפעילות מצומצמת ומפולחת יותר, שסיכוייה להיתפס נמוכים יותר ולהשפיע על חלקים מהציבור הישראלי גדול יותר.

בנוסף, יש לציין גם את השימוש בבינה מלאכותית: לעניות דעתי, השימוש ב-ChatGPT לניסוח מסרים- דבר שכבר קיים במבצעי השפעה אחרים בעולם- הוא יעיל יותר מהשימוש בטכנולוגיה המתקדמת לשם יצירת חומרים חזותיים. זאת, משום ששימוש בבינה מלאכותית לניסוח מסרים טומן בחובו את האפשרות לעשות שימוש באפשרויות ניתוח הרגשות (Sentiment Analysis) וניתוח העמדות (Stance ditection): מדובר בפונקציות מתקדמות, המאפשרות לחשוף את רגשותיו ועמדותיו העמוקים והבסיסיים ביותר של אדם מסוים על סמך הטקסט, גם אם לא ביטא אותם בפועל. ככל שהפחדים העמוקים ביותר חשופים יותר לעיני הגורם המשפיע, כך גדל בפניו מנעד המניפולציות הרגשיות שהוא עלול להפעיל על קהל היעד שלו.

יותר מהכל, הדבר מבטא בעיניי את הצורך של קהילת המומחים הישראלית, העוסקת בניטור, ניתוח בתגובה למבצעי השפעה, לקיים תשתית שתאפשר למידה רוחבית ומתמשכת, על סמך איסוף רציף של מידע חדש ממקורו מגוונים, על מנת ללמוד את מאפייניה המשתנים במהירות של לוחמת המידע המתרחשת במימד הוירטואלי. דוגמה לטובה לכך ניתן למצוא בארה"ב, שם הושקה בשנת 2020 יוזמת ה-Election Integrity Partnership. היוזמה הושקה במהלך הבחירות לנשיאות שהתקיימו במדינה באותה השנה והיא כללה חוקרים, נציגי ממשל, ארגוני חברה אזרחית ורשתות חברתיות, שהתאגדו לפעולה משותפת על מנת לתת מענה לניסיונות להשפיע על טוהר הבחירות בדרכים שונות, למשל הפצת מידע כוזב לשם דיכוי שיעור ההצבעה בקהילות מסוימות.

מן הראוי שגם בישראל, העומדת בפני איום מוחשי ולא מבוטל במרחב המידע בזמן מלחמה, תקום קואליציה כזו, מה שעשוי לחזק את חוסן העורף בתקופה המאתגרת בה אנו נמצאים.

]]>
האם בדיקת עובדות אכן עובדת?https://ofir-barel.co.il/2025/01/15/%d7%94%d7%90%d7%9d-%d7%91%d7%93%d7%99%d7%a7%d7%aa-%d7%a2%d7%95%d7%91%d7%93%d7%95%d7%aa-%d7%90%d7%9b%d7%9f-%d7%a2%d7%95%d7%91%d7%93%d7%aa/ Wed, 15 Jan 2025 16:15:41 +0000 https://ofir-barel.co.il/?p=13485 לפני מספר ימים, הודיע מנכ"ל ומייסד חברת Meta, מארק צוקרברג, על מהלך דרמטי: ביטול עבודתם של בודקי עובדות והחלפתם ב"הערות קהילה"- פונקציה הקיימת מזה זמן ברשת X ומאפשרת לגולשים להוסיף הקשר לפרסומים מסוימים, שנחוצים על מנת להבין אותם באופן נכון יותר.

המהלך גרר ביקורות רבות מצד מומחי דיסאינפורמציה, עיתונאים ופעילי חברה אזרחית נוספים. לטענתם, המהלך עלול להוביל להפצה מוגברת של פייק ניוז ברשתות Meta- המלאות בפייק ניוז גם כך- משום שבודקי העובדות הינם מומחים, שיודעים כיצד לבדוק את מהימנותם סיפורים שונים ולהוסיף להם הקשר עובדתי, הנחוץ להבנה נכונה שלהם. זאת, לעומת הערות קהילה, המתבססות על גולשים שעלולים להוסיף הערות עם מידע מטעה מתוך אינטרסים לא כשרים או סתם מתוך אי ידיעה.

כאשר עוסקים בבדיקת עובדות, ישנו משקל חשוב גם לשאלת האפקטיביות: האם בדיקת עובדות אכן מסייעת בצמצום תופעת הפייק ניוז? השאלה הזו זכתה להתייחסות מחקרית נרחבת הרבה לפני ההחלטה של צוקרברג ומאוסף המחקרים הקיים עד כה, עולה תמונה מורכבת: בדיקת עובדות אכן יכולה לתרום למאבק בהפצת פייק ניוז, אך תרומתה בנושא קצרת מועד ועשויה להיות רלוונטית רק לחלק קטן מהגולשים באינטרנט. אף על פי כן, אין הדבר מבטל את חשיבותה.

המניע שעומד מאחורי שימוש בבדיקת עובדות הוא הרצון לעצב את השיח המתפתח ברשתות החברתיות כך, שיתבסס על עובדות ואמת, במקום על תפיסות מוטעות. אם מעוניינים לבחון את השפעתן של בדיקת עובדות, יש לחלק אותה לשני חלקים: החלק קצר הטווח, הנוגע להבנת מהן העובדות הנכונות בנושא שלגביו התבצעה בדיקת העובדות והחלק ארוך הטווח, העוסק בשינוי תפיסתי כלפי הנושא המדובר. במצב כזה, ייתכן שינוי עמדה כלפי הנושא שלגביו התבצעה בדיקת העובדות (אם אני יודע שתפיסה מסוימת שאימצתי ביחס לסוגיה מסוימת היא שגויה, אוכל לשנות את עמדתי בנושא, כך שתתבסס על אמת). המחקרים הקיימים מראים שבעוד שבדיקת עובדות יכולה לתרום לתיקון עובדתי קצר טווח אצל גולשים, היא לא מצליחה לתרגם את התיקון הזה לשינוי בעמדה סביב הנושא המדובר.

בשנת 2021, בשיא מגיפת הקורונה, פרסמו MIT ואוניברסיטת הרווארד מחקר, שמצא שכאשר גולשים נחשפים לכותרות חדשותיות שונות ולאחר מכן הם מקבלים דירוג האם הן נכונות או שגויות, הדבר מסייע להם לזכור לאורך זמן את היותן נכונות או לא. למעשה, בדיקת עובדות אף עשויה לסייע לצמצם את הנכונות של בני אדם לשתף ברשת תכנים שסווגו ככוזבים. באופן דומה, בדיקת עובדות שהתקיימה במהלך הבחירות לנשיאות צרפת משנת 2017 הצליחה לשפר אצל הבוחרים את איכות המידע העובדתי הקיים אצלם בנוגע לסוגיות שונות שעלו בהן. עם זאת- וזה הקאץ'- בדיקת העובדות לא שינתה את עמדתם של הבוחרים כלפי הפוליטיקאים שהצהירו הצהרות לא נכונות. כלומר, יכול להיות מצב שבו בוחרים יודעים בצורה ברורה יותר שפוליטיקאי מסוים משקר להם, אך הדבר לא ישנה את כוונתם להצביע לו.

מחקר נוסף, שפרסם מכון ברוקינגס (Brookings) מוכיח שבני אדם נחלקים לארבעה סוגים, בהתאם ליחסם לעובדות: המיודעים (Informed): אלו הבטוחים כי שהם מכירים עובדה מסוימת והיא נכונה; הלא-מיודעים (Uninformed): אנשים שיודעים שאין להם את הידע הנחוץ לקבוע אם עובדה מסוימת נכונה או לא; המוטעים (Misinformed): אנשים שחושבים שעובדה מסוימת היא נכונה אך היא לא; המעורפלים (Ambiguously informed): אנשים שמודים שהם רק מנחשים את דבר מה נכון או לא. במחקר נמצא, שדווקא הקבוצה השלישית הכי פחות משנה את עמדתה לאחר בדיקת עובדות והיא המשיכה לדבוק בתפיסות המבוססות על שגיאות.

באופן דומה, נתן וולטר (Nathan Walter), מרצה בכיר במחלקה ללימודי תקשורת באוניברסיטת נורת'ווסטרן בשיקגו, ביצע בעבר מחקר אודות השפעת אי הוודאות סביב מידע מסוים על צריכת מידע שעבר בדיקת עובדות. לטענתו, המחקר התבצע מתוך הנחה כי שאי וודאות עשויה לגרום לבני אדם לפנות יותר לבודקי עובדות. אולם, וולטר מצא כי אנשים פונים לבדיקת עובדות רק כאשר זו מחזקת את עמדותיהם- ולא על מנת לדעת האם עמדה מסוימת מבוססת על עובדות או לא.

בעיה נוספת שקשורה לבדיקת עובדות היא החשיפה המצומצמת שלה לגולשים. אף על פי שאנשים רבים עשויים להפיק תועלת מבדיקת עובדות, רק אנשים מעטים טורחים למצוא מידע שעבר בדיקת עובדות. הניסיון העולמי מלמד, שאלו שעושים זאת הם אנשים שנוהגים לעקוב אחר נושאים פוליטיים באופן שוטף ומעוניינים להישאר מעודכנים בהם באופן שוטף. כתוצאה מכך, הנוכחות המקוונת של מידע שעבר בדיקת עובדות היא מצומצמת מאוד ונמצאת בטווח שבין 0.1%-0.3% מכלל הפרסומים בנושאים פוליטיים בתקופת בחירות.

החסרונות הרבים שתוארו במחקרים האלו (ועוד אלו שנמצאו במחקרים שלא הוצגו כאן) מעלים, לכאורה, את השאלה, האם יש באמת צורך בבודקי עובדות. אולי צוקרברג קיבל את ההחלטה הנכונה?

לעניות דעתי, ישנו צורך אמיתי בבדיקת עובדות מקצועית, שתסייע לתת הקשר נכון לשיח המתנהל ברשתות, משתי סיבות.

הסיבה הראשונה היא, שבודקי עובדות פשוט יודעים לדרג טוב יותר את רמת אמיתותן של ידיעות שונות: בתחילת 2024, פרסמו אוניברסיטת ניו יורק (NYU) ואוניברסיטת מרכז פלורידה (UCF) מחקר משותף, שבחן את יכולתם של בני אדם לבצע בדיקת עובדות באופן עצמאי. במחקר נמצא, כי לגולשים באינטרנט יש סיכוי מוגבר של 19% בסבירות לדרג טענות שגויות כנכונות- מה שעלול לחזק את האמונה שלנו בכותרות שקריות כנכונות. הדבר הזה נובע, למשל, מנטייה גוברת להשתמש במילות מפתח שמזוהות עם מקורות מידע מאיכות נמוכה (למשל "שקרונה") והחיפוש שלהן מוביל למציאת עוד מקורות מאיכות נמוכה. בודקי עובדות יודעים כיצד להימנע מביטויים קונספירטיביים כאלו ואחרים ובכך מסוגלים לבסס את אמיתותה של הצהרה מסוימת על סמך מקורות איכותיים. בנוסף, שיטת הפעולה של בודקי עובדות מבוססת על "קריאה לרוחב", שמאפשרת לבדוק את מהימנות המקור ממנו מגיעה הטענה הנבדקת ובכך להשיג אינדיקציה נוספת למהימנות הטענה.

הסיבה השנייה היא, שהמסגרת במסגרתה נעשית בדיקת העובדות יכולה לאפשר עבודה איכותית, שלא מסוגלת להתקיים במצבים אחרים. בשנת 2021, פרסמו חוקרי MIT מחקר עם ממצא מפתיע למדי: בני אדם מהשורה מסוגלים לדרג את נכונותן של הצהרות שונות באותה רמת דיוק כמו בודקי עובדות מקצועיים. עם זאת, היכולת הזו לא הושגה באופן אינדיבידואלי, אלא התרחשה כאשר היא התבצעה בקבוצות שהכילו בין 10 ל-15 בני אדם, עם ייצוג שווה למחנות הפוליטיים השונים (בארה"ב- רפובליקנים ודמוקרטיים). מדוע המחקר הזה דווקא מחזק את נחיצות בודקי העובדות? האדם הפשוט, הרי, לא קורא חדשות פוליטיות בקבוצות- הוא קורא אותן לבד, עם ההטיות הפוליטיות המוכרות שלו. אין סיטואציה כלשהי בחיי היום-יום, שמעודדת אנשים לקרוא ולדרג חדשות פוליטיות בקבוצות מאוזנות (אדרבא- בני אדם דווקא יעדיפו לעסוק בנושאים פוליטיים עם אנשים המחזיקים בתפיסות הדומות להם ובכך ינציחו את ההטיות הפוליטיות שלהם). המסגרת היחידה שמאפשרת בקרה איכותית ואובייקטיבית כזו היא מסגרת של בדיקת עובדות מקצועית, שמורכבת באופן יזום על ידי גופים אובייקטיביים העוסקים במלאכה הזו.

לסיכומו של דבר- בדיקת עובדות, אומנם, היא לא מושלמת ויש בה מגרעות משמעותיות שפוגעות בתפקיד לו היא מיועדת. תחת זאת, יש לזכור, שכמו בכל צעד הקשור למאבק בפייק ניוז- חינוך, חקיקה, פתרונות טכנולוגיים- הכוח של בדיקת עובדות הוא לא בזה שהיא עומדת בפני עצמה, אלא בכך שהיא חלק ממארג רחב יותר של פתרונות, בו כל אחד פונה לקהלים שונים ובעל יתרונות מובחנים מסוגים שונים. בדיקת עובדות, כשהיא מתבצעת על ידי האנשים המוכשרים לכך, מסוגלת לספק הקשר עובדתי אובייקטיבי, הנחוץ לדיונים פוליטיים המתקיימים בכל מדינה דמוקרטית.

]]>
שלושה מחקרים על כעס ופייק ניוזhttps://ofir-barel.co.il/2024/12/24/%d7%a9%d7%9c%d7%95%d7%a9%d7%94-%d7%9e%d7%97%d7%a7%d7%a8%d7%99%d7%9d-%d7%a2%d7%9c-%d7%9b%d7%a2%d7%a1-%d7%95%d7%a4%d7%99%d7%99%d7%a7-%d7%a0%d7%99%d7%95%d7%96/ Tue, 24 Dec 2024 17:43:24 +0000 https://ofir-barel.co.il/?p=12817 אף אחד מאיתנו לא אוהב ליפול בפח- ובכל זאת, פעם אחרי עם אנחנו מגלים שידיעות מסוימות שקראנו או ששמענו, שהאמנו להן ואפילו שיתפנו אותן, התבררו כשקריות. פייק ניוז.

איך זה קורה? כיצד פייק ניוז מצליח לתעתע בנו ככה?

זו שאלה שחוקרים רבים ברחבי העולם מנסים לענות עליה בשנים האחרונות. אחד הממצאים המרכזיים שחוזר שוב ושוב מהמחקרים השונים הוא, שהרגשות שמעוררות בנו החדשות שאנחנו קוראים, ישפיעו מאוד על ההחלטה שלנו לשתף את המידע הלאה או לא.

באופן ספציפי יותר, הכעס נמצא על ידי חוקרים רבים כאחד הרגשות המשמעותיים ביותר, שיגרמו לנו להאמין לפייק ניוז ולשתף אותו הלאה.

כיצד זה קורה? שלושת המחקרים המוצגים בפוסט הזה מספקים הצצה מרתקת למנגנון המניע את הפייק ניוז ועל הדרך- חושף גם הצצה לנפש האדם.

1#: כיצד הכעס משפיע על הפצת פייק ניוז ברשתות?

המחקר הראשון בוחן את התפקיד שממלאת תגובת הכעס בהפצת פייק ניוז ברשתות החברתיות. המחקר, שהתבסס על נתונים שנאספו מ-Weibo ו-X, מצא כי פייק ניוז נוטה לעורר יותר כעס ופחות רגשות חיוביים בהשוואה לחדשות אמינות. חדשות שמעוררות כעס מופצות במהירות רבה יותר, לעיתים אף לפני שהקוראים מעריכים את אמינות המידע. רגשות כמו כעס מגבירים מעורבות ומשמשים מנגנון שמניע משתמשים לשתף תוכן, במיוחד בנושאים פוליטיים או חברתיים רגישים.

החוקרים ניתחו למעלה מ-22,000 חדשות שקריות ו-10,000 חדשות אמיתיות, תוך שימוש בכלים כמו לקסיקון רגשי שמסווג רגשות לטקסטים, ושאלונים בהם השתתפו מעל 1,400 אנשים. הממצאים הראו שחדשות מזויפות זוכות לתגובות רגשיות חזקות יותר כמו כעס ודחייה, ואלה מגבירות את נכונות המשתמשים לשתף אותן, במיוחד אם התוכן נתפס כבעל משמעות מוסרית או קבוצתית. אחת הדוגמאות שניתנו היא נטייתם של משתמשים לשתף תוכן כוזב מתוך תחושת חרדה או רצון לנהל דימוי עצמי מול הקהילה.

המחקר מצביע על כך שכעס הוא לא רק תוצאה של תוכן, אלא גם מנגנון שמשפיע על תפוצת המידע, לעיתים אף יותר מתוכן חיובי. החוקרים הציעו מספר דרכים להתמודד עם התופעה, כולל תיוג של תוכן המעורר כעס כדי לעודד קריאה ביקורתית ולעכב שיתוף מהיר. מסקנות המחקר מדגישות את הקשר בין רגש לבין התנהגות משתמשים ברשתות החברתיות, ומציעות כי תכנון קמפיינים חברתיים או הטמעת טכנולוגיות לזיהוי רגשות עשויים להוות חלק מהפתרון לבלימת הפצת פייק ניוז.

2#: התפקיד המוסרי של הפצת פייק ניוז

המחקר השני- שפורסם רק לפני חודש– חוקר את הקשר בין מידע שגוי ורגשות זעם מוסריים, ובודק כיצד תחושות אלה תורמות להפצה רחבה של מידע לא אמין ברשתות חברתיות כמו פייסבוק ו-X. זעם מוסרי מתבטא בתחושות כמו כעס וגועל, שמתעוררות בתגובה לעבירות מוסריות. החוקרים בנו את השערתם על כך שזעם הוא רגש שמגביר מעורבות ברשתות חברתיות ושהוא עשוי להקל על הפצת מידע שגוי, גם אם אינו מדויק, מתוך רצון לסמן נאמנות לקבוצות פוליטיות או לקדם מסרים מוסריים.

המחקר כלל שמונה מחקרים תצפיתיים ושני ניסויים התנהגותיים. במחקרים התצפיתיים נבדקו מעל למיליון קישורים בפייסבוק ועשרות אלפי ציוצים ב-X. הקישורים סווגו כמקור למידע כוזב או מהימן ובמהלך המחקר נמדדו תגובות המשתמשים, כגון רגש הכעס, שהובע בתגובות ונתוני שיתוף. הניסויים כללו מעל ל-1,400 משתתפים, אשר נחשפו לכותרות חדשות אמתיות ושקריות, חלקן מעוררות זעם וחלקן ניטרליות יותר, ונבדקה נכונותם לשתף או להעריך את אמינות המידע.

ממצאי המחקר מראים כי מקורות מידע שגוי מעוררים יותר תגובות זעם בהשוואה למקורות מידע מהימנים. המידע השגוי זכה לשיעור גבוה יותר של תגובות רגשיות כמו כעס ולשיתופים נרחבים, גם כאשר המשתמשים לא קראו את התוכן לפני שיתופו. כמו כן, נמצא כי זעם מוסרי מקדם שיתוף של מידע שגוי באותה מידה כמו של מידע מהימן ולעיתים אף יותר, במיוחד כאשר המידע מדגיש סוגיות מוסריות או קבוצתיות.

החוקרים מצאו שזעם מוסרי מגביר מניעים שאינם תלויים בנכונות המידע, כמו רצון לסמן נאמנות לקבוצה או לקדם עמדות מוסריות. מניעים אלה הופכים את ההתמודדות עם הפצת מידע שגוי למורכבת יותר, משום שהמשתמשים עשויים לשתף מידע מתוך כוונה להביע עמדה מוסרית, ולאו דווקא כדי לקדם מידע מדויק. לדוגמה, משתמשים עשויים לשתף תוכן שקרי מתוך מחשבה שהוא "מזעזע אם נכון", ובכך לשמר את אמינותם בעיני קהילתם.

מתוך כך, הממצאים מצביעים על כך שדרכי פעולה מסורתיות, כמו בדיקת עובדות או עידוד קריאה ביקורתית, אינן מספיקות כדי למנוע את הפצת המידע השגוי. החוקרים ממליצים להתמקד במניעים שאינם קשורים לדיוק, כמו יצירת קמפיינים שמדגישים את ההשלכות החברתיות של הפצת מידע שגוי, או פיתוח כלים שמכוונים להפחתת התמריצים החברתיים לשיתוף תוכן מעורר זעם.

3#: כתיבה, השלכה ושחרור: השיטה הפשוטה לניטרול כעס

המחקר השלישי, שפורסם באפריל השנה, מלמד כי פעולה פיזית יכולה להיות אמצעי משמעותי בהפחתות רמת הכעס שלנו. באופן ספציפי יותר, החוקרים ביקשו לבדוק האם פעולה פיזית של השלכת דף נייר שעליו נכתבו מחשבות הקשורות לאירוע מעורר כעס יכולה לסייע בשחרור הכעס ובניטרול ההשפעה השלילית שלו על המצב הנפשי של האדם. הרקע למחקר נשען על תיאוריות פסיכולוגיות המתמקדות בתהליכי ויסות רגשי, ומשווה בין התמודדות פנימית לבין פעולות סמליות המאפשרות שחרור רגשות שליליים.

במחקר השתתפו עשרות נבדקים שהתבקשו להיזכר באירוע שבו חוו כעס או תסכול רב. הנבדקים חולקו באופן אקראי לשתי קבוצות עיקריות: קבוצת השלכה, שבה המשתתפים כתבו את מחשבותיהם על הדף ולאחר מכן השליכו אותו לפח אשפה, וקבוצת שימור, שבה המשתתפים כתבו את מחשבותיהם אך נשארו עם הדף ולא השליכו אותו. החוקרים ביצעו מדידות של רמות הכעס והתחושות הנלוות הן בתחילת הניסוי והן לאחר השלמת המשימות, באמצעות שאלונים מובנים ובדיקות כמותיות של תגובות רגשיות.

החוקרים מצאו כי רמות הכעס של המשתתפים בקבוצת השלכת הדף פחתו בצורה משמעותית, וחזרו לרמות בסיסיות שקדמו לניסוי. לעומת זאת, אצל המשתתפים בקבוצת השימור, רמות הכעס נותרו גבוהות, ולעיתים אף התגברו כתוצאה מהתמקדות נוספת באירוע שהכעיס אותם. הממצאים הראו כי פעולה פיזית של השלכה סימבולית, אף אם היא פשוטה ביותר, יכולה להוביל לשחרור רגשי ולוויסות יעיל של תחושות שליליות.

החוקרים מסיקים שפעולות פיזיות המשקפות תהליכים מנטליים, כמו השלכת מחשבות שליליות, עשויות להיות כלי אפקטיבי להפחתת רגשות שליליים. המנגנון שעומד מאחורי האפקט אינו לגמרי ברור, אך ההשערה היא כי הקשר בין המוח לפעולה הפיזית יוצר תחושת השלמה וסיום של התהליך הרגשי. החוקרים מציינים כי הגישה דומה לפרקטיקות מסורתיות כמו "האקידשיסארה" ביפן, שבה אנשים משמידים סמלים של מחשבות שליליות, אך הם מדגישים כי מחקרם מספק גיבוי מדעי לגישה זו.

איך זה בעצם קשור לפייק ניוז?

כאשר אנחנו נחשפים לידיעה שלילית שמכעיסה אותנו, אנחנו עשויים לחוש דחף טבעי ובלתי מוסבר לשתף את הפרסום הלאה, כאמצעי לפריקת הכעס שלנו. הבעיה היא, כמובן, שאנחנו לא ממהרים לתת את הדעת לשאלה, האם מה שנכתב בידיעה אכן אמיתי.

אוקי, ומה עושים עם זה?

מכיוון שאנחנו יצורים אנושיים שחווים רגשות, קשה לעשות שליטה מלאה על הרגשות שלנו ולהימנע משיתוף פייק ניוז על רקע רגשי. עם זאת, המודעות לבעיה מהווה צעד ראשון לפתרון כל בעיה וטריק פשוט עשוי לעזור לנו לשתף פחות מידע שקרי בגלל מניעים רגשיים.

מה שעשוי לנו לעזור להתמודד עם הבעיה הוא אימוץ שיטה שנקראת SIFT. השיטה פותחה על ידי מייק קולפילד (Mike Caulfield), מומחה לאוריינות דיגיטלית באוניברסיטת וושינגטון ושמה מורכב למעשה מראשי תיבות של ארבעה צעדים, שיעזרו לנו להבחין טוב יותר בין אמת לשקר.

הצעד הראשון הוא לעצור (Stop): כאשר אנחנו מתחילים לקרוא תוכן שמרגיז אותנו, מבהיל אותנו או "הופך לנו את הבטן" בכל אופן אחר, מומלץ לעצור- לא להמשיך לקרוא, בטח שלא להגיב ולשתף. העצירה תזכיר לנו שרגש הוא מרכיב יסודי בהפצת פייק ניוז והיא תאפשר לנו להוריד את רמות הרגשות השליליים. כך, נוכל ליישם את שאר חלקי השיטה (שכתובים בפוסט הזה) ובכך להעריך את המידע שלפנינו בצורה טובה יותר.

]]>
שנה ל"חרבות ברזל": היבט התודעהhttps://ofir-barel.co.il/2024/10/10/%d7%a9%d7%a0%d7%94-%d7%9c%d7%97%d7%a8%d7%91%d7%95%d7%aa-%d7%91%d7%a8%d7%96%d7%9c-%d7%94%d7%99%d7%91%d7%98-%d7%94%d7%aa%d7%95%d7%93%d7%a2%d7%94/ Thu, 10 Oct 2024 14:49:12 +0000 https://ofir-barel.co.il/?p=10994 לפני מספר ימים ציינו שנה למלחמת חרבות ברזל ושוחחנו עליה מהיבטים שונים, למשל המחיר הנפשי של ניצולים ממעשי טבח והמשמעויות אסטרטגיות של המלחמה. עם זאת, ישנו היבט חשוב שלא נדון באותם אירועים – היבט התודעה. בשנה האחרונה, לצד המתקפות הפיזיות שספגה מדינת ישראל, היא גם חוותה מתקפות פסיכולוגיות באמצעות השפעה עוינת ודיסאינפורמציה. מתקפות אלו נועדו לערער את חוסנם הנפשי של האזרחים ולהשפיע עליהם באופן פסיכולוגי, בדיוק כפי שהפיגועים נועדו לפגוע בהם פיזית.

למרות שנסיונות ההשפעה הגיעו ממקורות שונים ופורסמו בדרכים מגוונות, מטרתם המשותפת הייתה אחת: לפגוע בכושר העמידה של מדינת ישראל ואזרחיה במהלך המלחמה. ניסיונות אלו נועדו לסייע לחמאס ולתומכיו להשיג ניצחון דרך ערעור החוסן הנפשי של הציבור הישראלי. מאמר זה מסכם שלושה ניסיונות מרכזיים של הפצת מידע כוזב ממקורות זרים ברשתות החברתיות בישראל, במטרה להשפיע על דעת הקהל ולהגביר את הלחץ על הציבור והמדינה בזמן המלחמה.

רוסיה

קמפיין הדופלגנגר הוא מבצע השפעה רחב היקף, נועד להפיץ דיסאינפורמציה באמצעות אתרים מזויפים המתחזים לאתרי חדשות לגיטימיים וחשבונות פיקטיביים ברשתות חברתיות. הקמפיין פועל מאז תחילת המלחמה של רוסיה נגד אוקראינה בפברואר 2022, ומתמקד ביצירת מחלוקות פנימיות במדינות המערב והחלשת התמיכה הבינלאומית באוקראינה. המטרות המרכזיות הן לערער את האמון בממשלות המערב, להציג את הסיוע לאוקראינה כגורם לנזקים כלכליים וחברתיים, ולהגביר את המתיחות הפוליטית בתוך מדינות אלו.

בישראל, בזמן מלחמת חרבות ברזל, הקמפיין פעל כדי לערער את האמון של הציבור הישראלי בצבא ובממשלה ולפגוע בשיתוף הפעולה האסטרטגי בין ישראל לארה"ב. בין הכלים ששימשו לכך היו אתרי חדשות עבריים מזויפים וחשבונות פיקטיביים ברשתות חברתיות, בעיקר בטלגרם. בקמפיין הופצו מסרים כוזבים המציגים את מעורבות ארה"ב במלחמה ככושלת וככזו שמסכנת את ישראל, כשרוסיה, מנגד, יכולה לשמש לישראל בעלת ברית אסטרטגית.

המסרים שהופצו במסגרת הקמפיין הציגו את הקשר בין ישראל לארה"ב באור שלילי, והעמיקו את הפערים הפוליטיים והחברתיים בתוך ישראל. המידע הכוזב שהופץ בקמפיינים הללו נשען על כלי טכנולוגיה מתקדמים כמו זיופי וידאו ובינה מלאכותית, מה שהפך את הפעילות הזו ליותר מתוחכמת וממושכת. הדופלגנגר התבסס על הפצה מהירה של תכנים זדוניים במספר רב של פלטפורמות, והדגיש את ההשפעה השלילית כביכול של התמיכה במערב על ביטחונה ומעמדה של ישראל.

האתרים הכוזבים הוקמו על ידי על חברות ה־IT  הרוסיות Agency design Social ו־Technologies National Structura  וככל הנראה גם קבוצת ההאקרים APT28, שהייתה מעורבת גם בפריצה למפלגה הדמוקרטית בארה"ב, נטלה חלק טכני בביצועו. קבוצות אלה רתמו טכנולוגיות מתקדמות להפצת דיסאינפורמציה באופן מתואם ומתוחכם, עם מיקוד ברור בהשפעה על דעת הקהל בתוך ישראל ובמדינות המערב.

איראן

בין אוקטובר 2023 למאי 2024, במהלך מלחמת חרבות ברזל, איראן הובילה מבצעי השפעה שנועדו לערער את החברה הישראלית ולחזק את עמדותיה במזרח התיכון. איראן ניצלה את הרשתות החברתיות לפיזור דיסאינפורמציה ולעידוד חוסר יציבות פוליטית, תוך טשטוש מעורבותה הישירה.

אחת הדוגמאות הבולטות למבצעי השפעה אלה הייתה הקמת קבוצות מזויפות בטלגרם שהתחזו לקבוצות המזוהות עם הימין הקיצוני בישראל. קבוצות אלו הפיצו ידיעות כוזבות על מחבלים פלסטינים שמסתתרים בבתי חולים ישראליים. דוגמה לכך הייתה פרסום שקרי על מחבל המאושפז בבית חולים שיבא, שהוביל לקבוצות של פעילים קיצוניים, כולל חברי "לה פמיליה," שניסו לפרוץ למחלקות כדי "ללכוד" אותו. ההתארגנות האלימה עוררה מהומה ונעצרו מספר משתתפים. המבצע הוביל להסלמה פיזית והגביר את המתח בין חלקי האוכלוסייה בישראל.

איראן השתמשה גם בנרטיבים של חוסר אמון כלפי הממשלה, כשהיא מנצלת את סוגיית החטופים כדי ליצור תחושת תסכול ודמורליזציה בקרב הציבור. תכנים אלו, שיוצרו בחלקם באמצעות טכנולוגיות בינה מלאכותית וזיופי וידאו, הוצגו כחדשות אמיתיות, מה שהגביר את האמינות שלהם והשפיע על השיח הציבורי. המטרה הייתה לעודד הפסקת אש מהירה ולפגוע בלכידות הפנימית הישראלית, ובכך לתמוך במטרות האסטרטגיות של איראן וחמאס​.

האחים המוסלמים

קמפיין "איסנאד" הינו קמפיין השפעה אסלאמיסטי שמנוהל על ידי רשת מוסלמית-ערבית התומכת בחמאס, המנוהלת על ידי גורמים המצויים בטורקיה. הרשת פועלת דרך פלטפורמות חברתיות כמו X (טוויטר לשעבר), פייסבוק ואינסטגרם, ומטרתה לקדם את הנרטיבים של חמאס ולהשפיע על דעת הקהל הישראלית, על ידי שימוש בחשבונות מזויפים המתחזים לאזרחים ישראלים.

המסרים שמציפה הרשת מיועדים לערער את החוסן החברתי בישראל ולהעמיק את הפילוג הפוליטי והחברתי בה. בחלק מהמקרים, למשל הרשת השתמשה במסרי משפחות חטופים מהצד הישראלי כדי לעורר ביקורת על המלחמה ולהעצים את הביקורת הציבורית- מתוך ידיעה כי סוגיית החטופים היא הרגישה ביותר עבור הציבור הישראלי. היא גם ניסתה לעודד מחאה נגד אלימות שוטרים בהפגנות ולהשתמש בקמפיינים אלו לקידום מטרותיה.

בד בבד, פעילי הרשת משתמשים בבינה מלאכותית כדי להתגבר על מגבלות השפה ולהפיץ תעמולה נגד אזרחי ישראל. הם מעתיקים תגובות מחשבונות ישראליים ומפעילים כלים מתקדמים כמו צ'אט GPT כדי ליצור שמות ותכנים בעברית שנראים אותנטיים, במטרה להקטין חשד. בנוסף, מופעלים כלים ייחודיים כמו "מתרגם מאימוג'י לעברית", המאפשרים ליצור משפטים מדויקים בעברית מתוך סמלים רגשיים. כך, הרשת מצליחה להקשות על זיהוי פעילותה ומפיצה מסרים מתוחכמים בפלטפורמות חברתיות, תוך ניצול כלים טכנולוגיים שפותחו למטרות כלליות.

מה הלאה?

המלחמה לא צפויה להסתיים בקרוב, וכך גם ניסיונות ההשפעה העוינת. לכן, יש צורך להציג שני צעדים שניתן ליישם בטווח הקצר והארוך כדי לשפר את כושר העמידה של אזרחי ישראל מול ניסיונות ההשפעה הזרים.

ראשית, יש להשקיע באוריינות דיגיטלית. אומנם מערך הסייבר הלאומי השיק בתחילת המלחמה קמפיין נגד הפצת פייק ניוז, אך נדרשת הכשרה מעמיקה יותר לתלמידי בתי הספר, שכן רק אחוז אחד מהתלמידים בארץ עובר תוכניות הכשרה בנושא זה. במיוחד יש להתמקד בזיהוי תכנים מזויפים מבוססי בינה מלאכותית, שהוכחו כתכנים שבני אדם מתקשים להבחין בהם.

שנית, יש לשקול שיתופי פעולה עם גופים נוספים ברחבי העולם שמתמודדים עם הפצת מידע כוזב. המלצה זו רלוונטית במיוחד בהתמודדות עם האיום הרוסי, שכן שיטות הפעולה שלה נצפו גם במדינות אחרות כמו צרפת, גרמניה וארצות הברית. שיתופי פעולה עם גופים ישראליים כגון פייק רפורטר, לצד שותפים ממדינות המערב, יכולים להוביל לחילופי מידע אודות שיטות פעולה מוצלחות. בהקשר הזה, יש לשקול העמקה של שיתוף פעולה בין ישראל לחברות טכנולוגיה כגון מיקרוסופט ו-OpenAI, שחשפו מבצעי השפעה זרים במסגרת הבחירות לנשיאות ארצות הברית, שיתקיימו בנובמבר הקרוב. בניסיונות ההשפעה הללו ישנו שימוש לא מבוטל בבינה מלאכותית לצרכי השפעה ויתכן שהניסיון שנלמד שם בהתמודדות עם השפעה מהסוג הזה יוכל לסייע גם לישראל.

]]>