אופיר בראל https://ofir-barel.co.il מה האמת מאחורי הפייק ניוז Thu, 10 Oct 2024 14:49:13 +0000 he-IL hourly 1 https://wordpress.org/?v=6.7 https://ofir-barel.co.il/wp-content/uploads/2020/01/FavIconOfirBarel.pngאופיר בראלhttps://ofir-barel.co.il 32 32 שנה ל"חרבות ברזל": היבט התודעהhttps://ofir-barel.co.il/2024/10/10/%d7%a9%d7%a0%d7%94-%d7%9c%d7%97%d7%a8%d7%91%d7%95%d7%aa-%d7%91%d7%a8%d7%96%d7%9c-%d7%94%d7%99%d7%91%d7%98-%d7%94%d7%aa%d7%95%d7%93%d7%a2%d7%94/ Thu, 10 Oct 2024 14:49:12 +0000 https://ofir-barel.co.il/?p=10994 לפני מספר ימים ציינו שנה למלחמת חרבות ברזל ושוחחנו עליה מהיבטים שונים, למשל המחיר הנפשי של ניצולים ממעשי טבח והמשמעויות אסטרטגיות של המלחמה. עם זאת, ישנו היבט חשוב שלא נדון באותם אירועים – היבט התודעה. בשנה האחרונה, לצד המתקפות הפיזיות שספגה מדינת ישראל, היא גם חוותה מתקפות פסיכולוגיות באמצעות השפעה עוינת ודיסאינפורמציה. מתקפות אלו נועדו לערער את חוסנם הנפשי של האזרחים ולהשפיע עליהם באופן פסיכולוגי, בדיוק כפי שהפיגועים נועדו לפגוע בהם פיזית.

למרות שנסיונות ההשפעה הגיעו ממקורות שונים ופורסמו בדרכים מגוונות, מטרתם המשותפת הייתה אחת: לפגוע בכושר העמידה של מדינת ישראל ואזרחיה במהלך המלחמה. ניסיונות אלו נועדו לסייע לחמאס ולתומכיו להשיג ניצחון דרך ערעור החוסן הנפשי של הציבור הישראלי. מאמר זה מסכם שלושה ניסיונות מרכזיים של הפצת מידע כוזב ממקורות זרים ברשתות החברתיות בישראל, במטרה להשפיע על דעת הקהל ולהגביר את הלחץ על הציבור והמדינה בזמן המלחמה.

רוסיה

קמפיין הדופלגנגר הוא מבצע השפעה רחב היקף, נועד להפיץ דיסאינפורמציה באמצעות אתרים מזויפים המתחזים לאתרי חדשות לגיטימיים וחשבונות פיקטיביים ברשתות חברתיות. הקמפיין פועל מאז תחילת המלחמה של רוסיה נגד אוקראינה בפברואר 2022, ומתמקד ביצירת מחלוקות פנימיות במדינות המערב והחלשת התמיכה הבינלאומית באוקראינה. המטרות המרכזיות הן לערער את האמון בממשלות המערב, להציג את הסיוע לאוקראינה כגורם לנזקים כלכליים וחברתיים, ולהגביר את המתיחות הפוליטית בתוך מדינות אלו.

בישראל, בזמן מלחמת חרבות ברזל, הקמפיין פעל כדי לערער את האמון של הציבור הישראלי בצבא ובממשלה ולפגוע בשיתוף הפעולה האסטרטגי בין ישראל לארה"ב. בין הכלים ששימשו לכך היו אתרי חדשות עבריים מזויפים וחשבונות פיקטיביים ברשתות חברתיות, בעיקר בטלגרם. בקמפיין הופצו מסרים כוזבים המציגים את מעורבות ארה"ב במלחמה ככושלת וככזו שמסכנת את ישראל, כשרוסיה, מנגד, יכולה לשמש לישראל בעלת ברית אסטרטגית.

המסרים שהופצו במסגרת הקמפיין הציגו את הקשר בין ישראל לארה"ב באור שלילי, והעמיקו את הפערים הפוליטיים והחברתיים בתוך ישראל. המידע הכוזב שהופץ בקמפיינים הללו נשען על כלי טכנולוגיה מתקדמים כמו זיופי וידאו ובינה מלאכותית, מה שהפך את הפעילות הזו ליותר מתוחכמת וממושכת. הדופלגנגר התבסס על הפצה מהירה של תכנים זדוניים במספר רב של פלטפורמות, והדגיש את ההשפעה השלילית כביכול של התמיכה במערב על ביטחונה ומעמדה של ישראל.

האתרים הכוזבים הוקמו על ידי על חברות ה־IT  הרוסיות Agency design Social ו־Technologies National Structura  וככל הנראה גם קבוצת ההאקרים APT28, שהייתה מעורבת גם בפריצה למפלגה הדמוקרטית בארה"ב, נטלה חלק טכני בביצועו. קבוצות אלה רתמו טכנולוגיות מתקדמות להפצת דיסאינפורמציה באופן מתואם ומתוחכם, עם מיקוד ברור בהשפעה על דעת הקהל בתוך ישראל ובמדינות המערב.

איראן

בין אוקטובר 2023 למאי 2024, במהלך מלחמת חרבות ברזל, איראן הובילה מבצעי השפעה שנועדו לערער את החברה הישראלית ולחזק את עמדותיה במזרח התיכון. איראן ניצלה את הרשתות החברתיות לפיזור דיסאינפורמציה ולעידוד חוסר יציבות פוליטית, תוך טשטוש מעורבותה הישירה.

אחת הדוגמאות הבולטות למבצעי השפעה אלה הייתה הקמת קבוצות מזויפות בטלגרם שהתחזו לקבוצות המזוהות עם הימין הקיצוני בישראל. קבוצות אלו הפיצו ידיעות כוזבות על מחבלים פלסטינים שמסתתרים בבתי חולים ישראליים. דוגמה לכך הייתה פרסום שקרי על מחבל המאושפז בבית חולים שיבא, שהוביל לקבוצות של פעילים קיצוניים, כולל חברי "לה פמיליה," שניסו לפרוץ למחלקות כדי "ללכוד" אותו. ההתארגנות האלימה עוררה מהומה ונעצרו מספר משתתפים. המבצע הוביל להסלמה פיזית והגביר את המתח בין חלקי האוכלוסייה בישראל.

איראן השתמשה גם בנרטיבים של חוסר אמון כלפי הממשלה, כשהיא מנצלת את סוגיית החטופים כדי ליצור תחושת תסכול ודמורליזציה בקרב הציבור. תכנים אלו, שיוצרו בחלקם באמצעות טכנולוגיות בינה מלאכותית וזיופי וידאו, הוצגו כחדשות אמיתיות, מה שהגביר את האמינות שלהם והשפיע על השיח הציבורי. המטרה הייתה לעודד הפסקת אש מהירה ולפגוע בלכידות הפנימית הישראלית, ובכך לתמוך במטרות האסטרטגיות של איראן וחמאס​.

האחים המוסלמים

קמפיין "איסנאד" הינו קמפיין השפעה אסלאמיסטי שמנוהל על ידי רשת מוסלמית-ערבית התומכת בחמאס, המנוהלת על ידי גורמים המצויים בטורקיה. הרשת פועלת דרך פלטפורמות חברתיות כמו X (טוויטר לשעבר), פייסבוק ואינסטגרם, ומטרתה לקדם את הנרטיבים של חמאס ולהשפיע על דעת הקהל הישראלית, על ידי שימוש בחשבונות מזויפים המתחזים לאזרחים ישראלים.

המסרים שמציפה הרשת מיועדים לערער את החוסן החברתי בישראל ולהעמיק את הפילוג הפוליטי והחברתי בה. בחלק מהמקרים, למשל הרשת השתמשה במסרי משפחות חטופים מהצד הישראלי כדי לעורר ביקורת על המלחמה ולהעצים את הביקורת הציבורית- מתוך ידיעה כי סוגיית החטופים היא הרגישה ביותר עבור הציבור הישראלי. היא גם ניסתה לעודד מחאה נגד אלימות שוטרים בהפגנות ולהשתמש בקמפיינים אלו לקידום מטרותיה.

בד בבד, פעילי הרשת משתמשים בבינה מלאכותית כדי להתגבר על מגבלות השפה ולהפיץ תעמולה נגד אזרחי ישראל. הם מעתיקים תגובות מחשבונות ישראליים ומפעילים כלים מתקדמים כמו צ'אט GPT כדי ליצור שמות ותכנים בעברית שנראים אותנטיים, במטרה להקטין חשד. בנוסף, מופעלים כלים ייחודיים כמו "מתרגם מאימוג'י לעברית", המאפשרים ליצור משפטים מדויקים בעברית מתוך סמלים רגשיים. כך, הרשת מצליחה להקשות על זיהוי פעילותה ומפיצה מסרים מתוחכמים בפלטפורמות חברתיות, תוך ניצול כלים טכנולוגיים שפותחו למטרות כלליות.

מה הלאה?

המלחמה לא צפויה להסתיים בקרוב, וכך גם ניסיונות ההשפעה העוינת. לכן, יש צורך להציג שני צעדים שניתן ליישם בטווח הקצר והארוך כדי לשפר את כושר העמידה של אזרחי ישראל מול ניסיונות ההשפעה הזרים.

ראשית, יש להשקיע באוריינות דיגיטלית. אומנם מערך הסייבר הלאומי השיק בתחילת המלחמה קמפיין נגד הפצת פייק ניוז, אך נדרשת הכשרה מעמיקה יותר לתלמידי בתי הספר, שכן רק אחוז אחד מהתלמידים בארץ עובר תוכניות הכשרה בנושא זה. במיוחד יש להתמקד בזיהוי תכנים מזויפים מבוססי בינה מלאכותית, שהוכחו כתכנים שבני אדם מתקשים להבחין בהם.

שנית, יש לשקול שיתופי פעולה עם גופים נוספים ברחבי העולם שמתמודדים עם הפצת מידע כוזב. המלצה זו רלוונטית במיוחד בהתמודדות עם האיום הרוסי, שכן שיטות הפעולה שלה נצפו גם במדינות אחרות כמו צרפת, גרמניה וארצות הברית. שיתופי פעולה עם גופים ישראליים כגון פייק רפורטר, לצד שותפים ממדינות המערב, יכולים להוביל לחילופי מידע אודות שיטות פעולה מוצלחות. בהקשר הזה, יש לשקול העמקה של שיתוף פעולה בין ישראל לחברות טכנולוגיה כגון מיקרוסופט ו-OpenAI, שחשפו מבצעי השפעה זרים במסגרת הבחירות לנשיאות ארצות הברית, שיתקיימו בנובמבר הקרוב. בניסיונות ההשפעה הללו ישנו שימוש לא מבוטל בבינה מלאכותית לצרכי השפעה ויתכן שהניסיון שנלמד שם בהתמודדות עם השפעה מהסוג הזה יוכל לסייע גם לישראל.

]]>
שלושה מחקרים חדשים מציגים את תופעת הפייק ניוז מזוויות מפתיעותhttps://ofir-barel.co.il/2024/06/13/%d7%a9%d7%9c%d7%95%d7%a9%d7%94-%d7%9e%d7%97%d7%a7%d7%a8%d7%99%d7%9d-%d7%97%d7%93%d7%a9%d7%99%d7%9d-%d7%9e%d7%a6%d7%99%d7%92%d7%99%d7%9d-%d7%90%d7%aa-%d7%aa%d7%95%d7%a4%d7%a2%d7%aa-%d7%94%d7%a4%d7%99/ Thu, 13 Jun 2024 12:14:11 +0000 https://ofir-barel.co.il/?p=8946 בחודשים האחרונים, חוקרים ממדינות שונות בעולם פרסמו מחקרים רבים על תופעת הפייק ניוז והדרכים להתמודד איתה. כמה מהם מציגים ממצאים מסקרנים ואף מפתיעים, שיכולים לשנות את הדרך שבה אנחנו תופסים את התופעה.

חיפוש בגוגל עלול להגביר אמונה במידע כוזב

אחת העצות הבסיסיות ביותר שאנשים מיישמים כשהם רוצים לדעת האם ידיעה מסוימת שהיא שמעו היא נכונה, היא לבדוק אותה בגוגל. אולם, מחקר שפורסם בסוף 2023 מראה כי העצה הזו עלולה להטעות אותנו ודווקא להעלות את הסיכוי שנאמין למידע כוזב.

במסגרת המחקר, שפורסם בכתב העת Nature, החוקרים ערכו חמישה ניסויים בהם התבקשו אנשים להעריך את אמינותן של כתבות חדשות. חלק מהאנשים התבקשו לחפש מידע באינטרנט כדי לעזור להם להחליט. החוקרים מצאו שחיפוש באינטרנט גרם לאנשים להאמין יותר במידע כוזב. האפקט הזה היה חזק יותר כאשר אנשים מצאו מידע באיכות נמוכה בחיפושים שלהם. החוקרים מצאו גם שחיפוש באינטרנט יכול לגרום לאנשים להאמין יותר לכתבות חדשות אמיתיות, אך האפקט הזה היה חלש יותר. ממצאים אלה מצביעים על כך שאנשים עשויים לא להיות טובים בשיפוט אמינות המידע שהם מוצאים באינטרנט.

המחקר מציע מספר הסברים אפשריים לכך שחיפוש באינטרנט עלול להגביר את האמונה במידע כוזב. אפשרות אחת היא שאנשים נוטים להתמקד במידע שמאשר את האמונות הקיימות שלהם. כאשר אנשים מחפשים מידע באינטרנט, הם עשויים להיתקל במידע שתומך בנקודת המבט שלהם, מה שעלול לגרום להם להאמין בו יותר. אפשרות נוספת היא שאנשים נוטים לתת יותר משקל למידע שהם מוצאים באינטרנט מאשר למידע שהם מקבלים ממקורות אחרים. ייתכן שזה בגלל שאנשים תופסים מידע באינטרנט כיותר אובייקטיבי או אמין מאשר מידע שהם מקבלים מאנשים או מקורות אחרים.

הממצאים של מחקר זה חשובים מכיוון שהם מצביעים על כך שחיפוש באינטרנט עלול להיות דרך לא יעילה להעריך את אמינות המידע- אבל האם זה בהכרח אומר שלא כדאי להסתמך על גוגל? ממש לא. צריך פשוט לדעת לחפש בחוכמה:

  1. מומלץ לא לחפש מילה במילה את הכותרת או המשפט הראשון שלקוחים מהידיעה שאותה בודקים. חיפוש כזה עלול להוביל את הגולשים לעוד מקורות המצטטים את הידיעה הכוזבת. במקום זאת, מומלץ לחפש מספר מילות מפתח הקשורות לידיעה אותה בודקים.
  2. יש לשים לב למקור ממנו מגיעה הידיעה: האם זהו מקור מהימן?
  3. בונוס: מומלץ לגולשים להיעזר במקורות חדשותיים הנוגדים את תפיסות העולם שלהם. כך הם ייחשפו לכלל צדדי הסיפור ויקבלו תמונה מהימנה יותר לגביו.

כותרות מטעות על מחלת הקורונה שפורסמו בתקשורת הממוסדת גרמו ליותר נזק ממידע כוזב על המחלה ממקורות אחרים

מחקר מבית הספר לניהול של MIT Sloan חושף שכותרות מטעות בנוגע לקורונה ממקורות חדשותיים שפורסמו בפייסבוק גרמו ליותר ספקנות לגבי החיסונים מאשר פייק ניוז. המחקר, שנערך על ידי פרופסורית ג'ניפר אלן, פרופסור דייויד רנד ודאנקן ג'יי וואטס, מציין אמנם שפייק ניוז מזיק יותר לכל חשיפה, אך טווח ההפצה שלו מוגבל. לעומת זאת, כותרות מטעות ממקורות מהימנים שעברו מתחת לרדאר, שלרוב היו סנסציוניות ורמזו לסכנות בחיסונים, הגיעו לקהל רחב יותר, וכך גרמו לפגיעה משמעותית יותר בשיעורי ההתחסנות הכלליים.

החוקרים השתמשו בשיטה חדשנית המשלבת ניסויים אקראיים, תגובות סקרים וכלים מבוססי בינה מלאכותית כדי להעריך את כוח ההשפעה של כותרות והחשיפה אליהן. הם גילו שתכנים מעוררי ספק לגבי חיסונים ממקורות מהימנים, שלא סומנו כמידע מטעה, הפחיתו באופן ניכר את הכוונות להתחסן. לדוגמה, כותרת של כתבה שקיבלה חשיפה נרחבת ורמזה על מותו של רופא לאחר החיסון, למרות שגוף הכתבה הודה בחוסר ודאות, זכתה ל-54.9 מיליון צפיות והשפיעה באופן משמעותי על התפיסה הציבורית.

המחקר מדגיש שסינון תכנים לא צריך להתמקד רק במידע כוזב לחלוטין, אלא גם בתכנים מטעים ממקורות אמינים, שכן לאלו יש תפוצה רחבה יותר והם עלולים לגרום לנזקים משמעותיים בבריאות הציבור. המחקר ממליץ על שיפור הסטנדרטים העיתונאיים וסינון תכנים מדויק יותר כדי לצמצם את הנזק שנגרם על ידי מידע מטעה מסוג זה.

כיצד אתרי חדשות מזויפות מצליחים למכור לנו פייק ניוז?

עייפים? לא מרוכזים? זה בדיוק הזמן שבו אתם הכי פגיעים לפייק ניוז. מחקר חדש מאוניברסיטת סנט אנדרוז חושף את הטקטיקות הערמומיות בהן משתמשים אתרי חדשות מזויפות כדי לתפוס אותנו לא מוכנים.

החוקרים גילו שאנשים נוטים יותר ללחוץ על כותרות פייק ניוז כשהם עייפים או לא מרוכזים. הסיבה לכך פשוטה: במצב כזה, אנו פחות נוטים לבחון ביקורתית את המידע שאנו צורכים. אתרי פייק ניוז מנצלים זאת על ידי הצגת מידע כוזב בצורה הדרגתית, החל מכותרת מושכת תשומת לב ועד למאמרים ארוכים ומלאים בפרטים מזויפים.

לאחר שקורא לוחץ על כתבת פייק ניוז, הוא נוטה יותר להאמין למידע שמוצג בה, ויותר סביר שילחץ על כתבות פייק ניוז נוספות בעתיד. זהו מעגל קסמים שקל להיכנס אליו וקשה לצאת ממנו.

אז מה אפשר לעשות?

הנה כמה טיפים פשוטים שיעזרו לכם להימנע מפייק ניוז:

  • בדקו את המקור: ודאו שהכתבה פורסמה על ידי אתר חדשות אמין ומוכר.
  • קראו בעיון: שימו לב לטעויות עובדתיות, שגיאות כתיב ותוכן חשוד.
  • חפשו מידע נוסף: השוו את הכתבה למקורות אחרים כדי לוודא את אמינותה.
  • היו סקפטיים: אל תאמינו לכל מה שאתם קוראים, במיוחד לכותרות דרמטיות או נשמעות טוב מכדי להיות אמיתיות.
]]>
קמפיין רוסי אנטי-ישראלי חדש במהלך חרבות ברזל: ממצאים ותובנותhttps://ofir-barel.co.il/2023/11/20/%d7%a7%d7%9e%d7%a4%d7%99%d7%99%d7%9f-%d7%a8%d7%95%d7%a1%d7%99-%d7%90%d7%a0%d7%98%d7%99-%d7%99%d7%a9%d7%a8%d7%90%d7%9c%d7%99-%d7%97%d7%93%d7%a9-%d7%91%d7%9e%d7%94%d7%9c%d7%9a-%d7%97%d7%a8%d7%91%d7%95/ Mon, 20 Nov 2023 20:11:10 +0000 https://ofir-barel.co.il/?p=6090 בשעה בה ניצבת מדינת ישראל בפני אתגר הסברתי עצום- אולי הגדול בתולדותיה- התפרסמה כתבה נרחבת בעיתון הארץ, המציגה קמפיין ממקור רוסי, שעירב חשבונות ברשתות החברתיות ואתרים המתחזים לאתרי חדשות, שהפיצו נרטיבים אנטי-ישראליים במסגרת המלחמה. מבצע דומה כבר נחשף בחודש יוני האחרון על ידי צרפת. אז, יחידים וארגונים המזוהים עם רוסיה השתמשו ב-355 דומיינים להקמת אתרים המתחזים לאתרי חדשות וממשל באירופה, ישראל וארה"ב, שהופץ מידע כוזב נגד אוקראינה ובעד רוסיה.

הממצאים המרכזיים מהכתבה מהיום הם:

  • אתרים המתחזים לאתרי חדשות שונים מרחבי העולם- בהם אתר Le Parisien הצרפתי, Der Spiegel הגרמני ואתר וואלה! הישראלי פרסמו מידע כוזב נגד ישראל ונגד אוקראינה, שהופץ ברשתות החברתיות, בגוגל וביוטיוב.
  • הרשת החברתית בה הופץ עיקר המידע הכוזב היא X (מה שהיה פעם טוויטר), בה פעלו במתואם מעל 6,000 חשבונות פיקטיביים שהפיצו מעל 27 אלף ציוצים בעלי מידע כוזב.
  • חלק מהפוסטים שקידמו את הכתבות המזויפות נוצרו באמצעות בינה מלאכותית. כך, למשל, הופץ סרטון deep-fake של חייל צה״ל, המזמין לכאורה אוקראינים להצטרף ללחימה למען ישראל תמורת אזרחות ושכר.

שני הסנט שלי על משמעויות הקמפיין שנחשף

הממצאים המתוארים בכתבה בעיתון הארץ מרתקים עוד יותר, אם מתחשבים ברקע הרחב יותר העומד מאחוריהם- רקע הכולל בעיקר את טיבה של לוחמת המידע בין רוסיה למדינות המערב בשנים האחרונות.

ראשית, יש לציין כי הדמיון בין הקמפיין נגד ישראל לקמפיין נגד אוקראינה אינו מתבטא רק בנרטיבים דומים (למשל, ביחס לשתי המלחמות טענו הרוסים כי הן יובילו לעלייה במחירי האנרגיה), אלא גם במטרות העומדות מאחוריהן: במהלך המלחמה באוקראינה, מכונת התעמולה הרוסית הקדישה מאמצים רבים לפלג את המערב באופן כפול- הן בין מדינות המערב לאוקראינה והן בתוככי מדינות המערב עצמן. במסגרת זו, למשל, פרסמו לא פעם תועמלנים רוסיים כי עלויות המלחמה באוקראינה מצריכות את האיחוד האירופי להשקיע כספים רבים לטובת אוקראינה, הבאים על חשבון סיוע חברתי-כלכלי למעמדות החלשים ביבשת.

נסיון להדהד מתיחות כזו נמצא בשאלת הסיוע האמריקאי לישראל ולאוקראינה. ידוע, כי בקונגרס האמריקאי התגלעה מחלוקת בין מחוקקים רפובליקנים לדמוקרטים אודות מתן הסיוע, מאחר והאחרונים דרשו להעניק סיוע לשתי המדינות יחדיו, בעוד שמחוקקים רפובליקנים הסתייגו ממתן עזרה נוספת לאוקראינה.

הפצת הטיעון הזה בעת הזו היא מעניינת- לא רק בצל השיתוק בו נתקל בית הנבחרים לאור הדחת יושב הראש הקודם, אלא גם בשל העובדה שאנחנו מצויים בשנת בחירות לנשיאות ארה"ב- מה שכמובן מקצין את המתיחות הקיימת בין המחנות הפוליטיים.

באשר לאוקראינה- החל מראשית המלחמה באוקראינה, פועלת רוסיה לצמצם את היקף התמיכה הצבאית, הכלכלית והמדינית של מדינות המערב באוקראינה, מתוך ידיעה שככל שתמיכה זו תרד, כך יגברו סיכוייה של רוסיה לנצח את אוקראינה. אחד הסיפורים המעניינים שפורסמו בהקשר הזה הוא, שאזרחים אוקראיניים מכרו ברשת האפלה- המרחב הוירטואלי המאפשר לעבריינים מכל הסוגים לבצע ככל העולה על רוחם- מערכות נשק שארה"ב סיפקה למדינתם. הנרטיב לפיו הסיוע שיסופק לישראל יבוא על חשבון אוקראינה תואם, אפוא, את רצונה של רוסיה לראות את אוקראינה "נזרקת מתחת לגלגלי האוטובוס" מצד המערב ומפסידה במלחמה.

שנית, משפטים כמו "אנטישמיות עולמית תלוייה בביידן"- שפורסמו במהלך הקמפיין- מציגים תפיסה רוסית ישנה-נושנה, הרואה במערב- ובראשו ארה"ב- את המקור לאי היציבות העולמית. אחד המאמינים הגדולים בכך הוא ולדימיר פוטין, שכמו רבים מבני דורו סבור כי לרוסיה- על גלגוליה השונים- ישנו תפקיד בייצוב המערכת הבין-לאומית. משכך, קריסת בית המועצות בסוף המאה שעברה היא, לדידו, האירוע הטרגי ביותר *בהיסטוריה האנושית כולה*. בהתאם לכך, סבור פוטין כי עליו לפעול ולחזק את רוסיה מבחינה מדינית, כלכלית וצבאית, שכן חיזוקה של רוסיה הוא למעשה חיזוק השלום העולמי. בשם הצידוק הזה יצאה רוסיה למלחמתה ב"נאציזם האוקראיני".

מתוך התיאוריה הזו, התעמולה הרוסית מייחסת למערב צמאון דם וסטנדרט כפול בכל הנוגע לחיי אדם. בקריקטורה פרו-רוסית שפורסמה בעולם הערבי במהלך המלחמה (ראו תמונה), ניתן לראות כיצד מנהיגי המערב מגנים את מלחמתה של רוסיה באוקראינה, מבלי שישימו לב כי על ידיהם דם של מוסלמים רבים חפים מפשע.

קריקטורה אנטי-מערבית המציגה את צביעות המערב בנוגע לרוסיה. מקור

לבסוף, מציינת הכתבה מהיום כי על פי העיתון הצרפתי לה מונד, בחודשים האחרונים פיתחה רוסיה מערכת נרחבת ליצירת חשבונות מזויפים. ממצאים אלו דומים מאוד לאלו שעלו בכתבת תחקיר מיוחדת של עיתון ה-Washington Post מחודש מרץ השנה: התחקיר, המבוסס על כ-5,000 מסמכים מודלפים, מציג ממצאים על מיזמים לפיתוח אמצעי לוחמת סייבר ולוחמת מידע מתקדמים על ידי רוסיה. במסגרת אותם מסמכים, מתואר פרויקט בשם Amezit, הכולל, בין היתר, פיתוח מנגנונים להקמה אוטומטית של חשבונות מזויפים ברשתות החברתיות, במטרה להפיץ מידע כוזב בתפוצה המונית. הפרויקט אף אִפְשֵׁר לגורמים רשמיים ברוסיה לנטר את תנועת הרשת ברחבי המדינה ולקבוע לאילו תכנים ייחשפו המשתמשים. ייתכן מאוד, אפוא, כי המערכת עליה הצביע לה מונד פותחה במסגרת Amezit והיא השורש לשיפור ביכולותיה של רוסיה בהפצת המידע.

]]>
מי אתה, יבגני פריג'וזין?https://ofir-barel.co.il/2023/07/06/%d7%9e%d7%99-%d7%90%d7%aa%d7%94-%d7%99%d7%91%d7%92%d7%a0%d7%99-%d7%a4%d7%a8%d7%99%d7%92%d7%95%d7%96%d7%99%d7%9f/ Thu, 06 Jul 2023 14:29:12 +0000 https://ofir-barel.co.il/?p=4874 בסוף יוני 2023, עיני העולם כולו היו נשואות לרוסיה- שם, צבא שכירי החרב כוח ואגנר מרד ברוסיה וקבוצה מחייליו החלה להתקדם לכיוון מוסקבה. בסופו של דבר, המרד נפסק בתיווך נשיא בלארוס והכוחות, שנמצאו כ-200 קילומטרים בלבד מהקרמלין, נסוגו. איש השעה של אותה היממה היה מפקד הכוח- יבגני פריגוז'ין. המרד הוא החוליה האחרונה בסיפור החיים המרתק של פריגוז'ין, במהלכו הפך מעבריין לשעבר למקורב של פוטין ולבסוף- ל"בוגד".

האסיר שעלה לגדולה

הסיפור האישי של פריג'וזין מוכיח שכדי להתקדם בחיים, יש צורך בשני דברים חשובים: מזל וכישורים קולינריים טובים. פריגוז'ין, יליד 1961, הורשע בעבר במספר מקרי גניבה, שוד והונאה ושוחרר לאחר תשע שנות מאסר, אותן ריצה במהלך שנות ה-80 של המאה הקודמת. לאחר שחרורו מהכלא, החל לעסוק בתחום המזון- מכירת נקניקיות, ליתר דיוק. בשנת 2001, התרחש מפגש גורלי בין פוטין לבין פריגוז'ין, שעתיד להשפיע עמוקות על שניהם: באותה השנה, הנשיא הטרי-יחסית (פוטין נבחר לראשונה לנשיאות שנתיים לפני כן, ב-1999) הלך לאכול אצל פריגוז'ין. האוכל שהוגש לו כל כך מצא חן בעיני פוטין, עד שפריגוז'ין הושכר על ידי הנשיא על מנת לארגן את ימי ההולדת שלו ובהמשך אף זכה במכרזי ענק להסעדת מוסדות ממשלה וצבא ברחבי רוסיה. ההיכרות שהחלה להירקם בין השניים הביאה לפריגוז'ין קשרים עם הממשל בקרמלין וכסף. המון כסף. ההערכה היא, שברבות השנים, חברת הקיטטרינג של מוכר הנקניקיות לשעבר- קונקורד הכניסה לכיסו של האוליגרך סכום עתק של כ-2.5 מיליארד לירות שטרלינג.

מפעל לייצור "פייק ניוז"

ההיכרות בין האוליגרך לנשיא הביאה גם לכניסתו של פריגוז'ין לתחום עסקי חדש: אם בעבר הגיש המסעדן לשעבר קוויאר לנשיא בוש (בעת שזה ביקר ברוסיה, בשנת 2022), הרי שהחל משנת 2013, פריגוז'ין החל לעסוק בהגשת "חדשות מטעם" בסגנון פרו-רוסי לציבור המערבי, דרך הרשתות החברתיות. באותה השנה הוקם בסנט פטרסבורג מקום בשם "המרכז לחקר האינטרנט". על פי תחקירים שונים וכן על פי הערכות מודיעין של גופי ביון מערביים- המקום שימש למעשה "חוות טרולים", שממנה פורסמו סטטוסים, תמונות וסרטונים, שהפיצו תעמולה פרו-רוסית כוזבת, מתוך נסיון להשפיע על דעת הקהל בנושאים פוליטיים ובינלאומיים מגוונים. שיאה של הפעילות הזו התמקד בהשפעה על מערכת הבחירות לנשיאות ארה"ב של שנת 2016. המקום פעל במשך כשנתיים, עד שבאוקטובר 2018, המקום הועלה באש על ידי בקבוקי תבערה שנזרק לעברו, מה שאילץ אותו לעבור לבניין אחר בעיר.

אנחנו יכולים לדעת על הדרכים בהן פעל המפעל, על סמך עדויות של טרולים לשעבר שעבדו בו. כך, למשל, סיפר ויטלי (שם בדוי), שמרבית המועסקים במקום היו למעשה מועסקות. ליתר דיוק, עיקר הטרולים היו נשים צעירות בנות 20-35. ויטלי עצמו פעל ברשתות החברתיות תחת זהות נשית, מתוך הנחה של בעלי המקום, שפרופיל פייסבוק נשי יעורר אמינות גבוהה יותר מפרופיל גברי. הקבלה לעבודה במקום הותנתה במעבר בחינה, שעסקה בדעותיהם של המועמדים על מדיניותה של רוסיה ועל המערב. עם זאת, מרבית העובדים הגיעו למקום לא מתוך נאמנות גבוהה לשלטון, אלא בשם השכר הגבוה למדי שהוצע להם- 700 דולר בחודש כשכר התחלתי.

עוד מספר ויטלי, שהעבודה הוצגה בפניו ככתיבה מחדש של חדשות מהפלישה לאוקראינה מפברואר 2014. העבודה נעשתה במשמרות של 12 שעות, כאשר העבודה נעשתה במשך יומיים רצופים, אחריהם יומיים מנוחה וחוזר חלילה. במשמרות בהן ויטלי עבד, הדרישה ממנו הייתה לפרסם 20 מאמרים באורך של כשמונים מילה כל מאמר. סגנון המאמרים היה מעורב: עובדות הקשורות למלחמה נכתבו כמו שהן במציאות, אך הקו המרכזי שעבר בכל המאמרים היה, שאסור שרוסיה תהיה מבוקרת באיזה שהוא אופן.

מעורבותו של פריגוז'ין במקום התבטאה בפן הכלכלי: הצורך לגייס עובדים רבים לתוקפות ממושכות עולה לא מעט כסף (ההערכה היא, שבשיא פעילותו המרכז הועסקו במקום כאלף איש). על פי פרטים חדשים שנחשפו , פריגוז'ין מימן את פעילות המקום כספים שהגיעו למרכז לחקר האינטרנט והוצגו כתשלום עבור "תמיכה טכנית". ישנן הערכות שונות לגבי היקף התמיכה הכלכלית של פריגוז'ין במרכז והן נעות בין 400 אלף למיליון דולר בכל חודש. בחודש דצמבר 2016, בעקבות חשיפת הקשר של פריגוז'ין למקום, הטיל הממשל האמריקאי סנקציות על האוליגרך.

בחודש נובמבר האחרון, הודה פריגוז'ין באופן רשמי כי ארצו התערבה בבחירות בארה"ב ואף הרהיב עוז והצהיר כי ארצו תמשיך לעשות זאת, "בצורה זהירה, מחושבת ומדויקת… כפי שאנחנו יודעים לעשות".

המרד הביא לקיצו גם את פעילות המרכז, לאחר שפריגוז'ין נאלץ לוותר על בעלותו במרכז.

כוח ואגנר

כוח ואגנר הוקם במאי 2014 על ידי דמיטרי אוטקין, ששימש כמפקד יחידה מיוחדת במודיעין הצבאי הרוסי (GRU), אך למעשה הייתה מעורבת בלחימה לטובת רוסיה עוד בפלישתה לאוקראינה מפברואר 2014. הכוח הוא למעשה מליציה פרטית, המעורבת במוקדי סכסוך שונים בעולם- בראש ובראשונה במסגרת המלחמה באוקראינה, אך גם במלחמת האזרחים בסוריה, בהתקוממות העממית בלוב  ובמלחמת האזרחים ברפובליקה המרכז-אפריקאית, הנמשכת כבר כעשור.

המרד של כוח ואגנר החל על רקע יחסים אמביוולנטים של הממשל הרוסי עם הכוח- מצד אחד, הכוח, המונה 50 אלף חיילים, סיפק לרוסיה הישגים משמעותיים במסגרת המלחמה באוקראינה החל משנת 2022, למשל בקרב פופסאנה שבמזרח אוקראינה, שנערך בחודשים מרץ-מאי 2022 והסתיים בנצחון רוסיה. הישגים אלו ואחרים גרמו לתקשורת הרוסית- הנשלטת על ידי הממשל- להלל את כוח ואגנר. מעניין לציין, כי החיבוק התקשורתי של הכוח בתקשורת (המכנה אותו: "התזמורת") עמד בניגוד מוחלט לחשאיות שאפיינה את פעילות כוח ואגנר באוקראינה ב-2014: אז, חיילי הכוח, יחד עם חיילי יחידות מובחרות נוספות מרוסיה, היו מעורבים בפלישה תחת מטעה חשאיות כבד (בשל כך, חיילים אלו כונו "חיילים ירוקים קטנים").

מצד שני, ההישגים הללו הדגישו את הביצועים הירודים של הצבא הרוסי, שלפי דיווחים רבים בתקשורת העולמית, מגייס חיילים רבים ושולח אותם לשדה הקרב ללא הכשרה וציוד מתאימים.

המרד, המהווה את שיאה של המתיחות בין הממשל הרוסי לכוח ואגנר, החל לאחר שפריגו'זין טען כי הצבא הרוסי הפגיז עמדות בהם נמצאו חיילי הכוחות- טענה שהוכחשה על ידי רוסיה. לא רק זאת, אלא שפריגוזי'ן ליבה את המחלוקת וטען כי לא הייתה הצדקה לפלישה הרוסית לאוקראינה מ-2022 והאשים את שר ההגנה של רוסיה, סרגיי שויגו, במותם של חיילים רוסיים לשווא.

(פרטים אודות יוצר תמונת הנושא והרשיון תחתיו היא מוצגת)

]]>
כיצד deepfake עלול להכריע מלחמות ולשבש בחירות?https://ofir-barel.co.il/2023/01/31/%d7%9b%d7%99%d7%a6%d7%93-deepfake-%d7%a2%d7%9c%d7%95%d7%9c-%d7%9c%d7%94%d7%9b%d7%a8%d7%99%d7%a2-%d7%9e%d7%9c%d7%97%d7%9e%d7%95%d7%aa-%d7%95%d7%9c%d7%a9%d7%91%d7%a9-%d7%91%d7%97%d7%99%d7%a8%d7%95%d7%aa/ Tue, 31 Jan 2023 17:48:57 +0000 https://ofir-barel.co.il/?p=3316 אתמול, משרד החוץ ביצע צעד יוצא דופן מבחינה טכנולוגית והסברתית כאחד- לראשונה, הוא השתמש בבינה מלאכותית על מנת להפיק שמונה סרטונים, בהם נראה ראש חטיבת הדיגיטל של המשרד, דוד סרנגה, מברך את אזרחיהן של מדינות שונות בשמונה שפות שונות, בהן טורקית, פורטוגזית ופרסית. הסרטונים הופקו בשיתוף הסטארט-אפ הישראלי D-ID, שפיתח טכנלוגיה המאפשרת לשנות את השפה המדוברת בסרטונים ולהתאים אליה את תנועות השפתיים של הדובר.

יש לציין, אומנם, שהסרטונים אינם באיכות מושלמת, כי השפתיים זזות באופן שנראה מלאכותי. יחד עם זאת, הם הוכחה נוספת למגמה שתופסת תאוצה בשנים האחרונות בעולם: אפשר להשתמש בקטעי מדיה מבוססי בינה מלאכותית, באיכות יחסית גבוהה, על מנת להשיג מגוון מטרות. זה יכול להיות, למשל, למטרת בידור או גיוס תרומות, אבל אפשר גם לקדם מטרות שליליות ופוגעניות.

הזירה הבינלאומית- הפוליטית והצבאית- לא חפה כמובן מההשלכות של השימוש בבינה מלאכותית, להשפעה על דעת הקהל לצרכים פוליטיין או על מהלכים צבאיים בזירת הקרב. בשנים האחרונות התפרסמו מחקרים שונים בעולם, שחוקרים את משמעויות השימושים הללו ולכולם ישנה מסקנה משותפת- מדינות, אזרחים ורשתות חברתיות אינן ערוכות להתמודד עם ההשלכות החמורות, שרק מקצתן מתוארות בהמשך הפוסט.

מתוך כלל המחקרים, אציג כאן שניים, שלצד האיומים האפשריים, מספקים גם דרכי פעולה שונות, המצריכות את מעורבותם של המגזר הממשלתי, הפרטי והשלישי- הלאומיים והבינלאומיים כאחד.

מהם האיומים הפוטנציאליים?

במישור הצבאי, מכון המחקר האמריקאי Brookings פרסם החודש מחקר מעניין, שבודק כיצד גורמים לא סימפטיים עלולים לנצל קטעי deepafke לטובתם במהלך מלחמות וכיצד ניתן להתמודד עם הסכנות.

על פי המחקר, אותם גורמים עלולים לנצל לרעה קטעי מדיה מבוססי בינה מלאכותית במגוון דרכים:

  • ניתן, למשל, ליצור סרטונים מזוייפים, בהם נראה מנהיג המדינה היריבה קורא לאזרחיו להיכנע במלחמה. כאן, לא מדובר בתיאוריה: בחודש מרץ האחרון, מספר שבועות לאחר תחילת המלחמה באוקראינה, הופץ במדינה סרטון וידאו מזויף שבו נראה נשיא אוקראינה, ולדימיר זלנסקי, קורא כביכול לאזרחיו להניח את נשקם ולהיכנע לרוסיה.
  • באותו האופן, ניתן גם להפיק ולהפיץ סרטונים מזוייפים שנועדו ליצור לגיטימציה למהלכים צבאיים ממשמשים ובאים. ניתן, למשל, להפיק סרטונים מזוייפים המראים, כביכול, מהומות במדינת היעד, שעלולות לשמש עילה להצדקת המהלך המלחמתי בו נקטה המדינה היוזמת.
  • קטעים אלו עלולים גם לעודד מחלוקות בתוך הגופים הלוחמים, למשל על ידי הפקת סרטון מזויף, שבו נראה מפקד בכיר מתבטא באופן גזעני נגד חיילים ממוצא מסויים.

מחקר אחר, שפרסם מכון המחקר CSET (האמריקאי גם הוא), שהתפרסם בדצמבר 2021 מציג לעומק כיצד ניתן לנצל בינה מאכותית על מנת להשיק קמפיינים מתקדמים יותר של דיסאינפורמציה:

  • ניתן, למשל, להשתמש ב-Sentiment analysis (שהוא שימוש בעיבוד שפה טבעית- NLP- כדי לזהות, לחלץ ולחקור מצבים רגשיים ומידע סובייקטיבי באופן שיטתי) על מנת לזהות את מידת הקיטוב בתגובות של משתמשים בקהילה פוליטית מסויימת. כבר היום, ישנם אלגוריתמים שיודעים לעשות זאת ברמת דיוק של 94%-96% ושימוש בהם עלול לאפשר לגורמים זדוניים להעמיק את רמות הקיטוב הפוליטי (אתם מתארים לעצמכם, למשל, כיצד גורמים בעלי כוונות זדוניות משתמשים בהן על מנת ללבות את השיח סביב הרפורמה המשפטית של יריב לוין?)
  • באותו אופן, ניתן להשתמש בבינה מלאכותית גם על מנת לשפר את פילוח קהלי היעד אותם מגדירים יוזמי מבצעי ההשפעה. הדיוק הזה מעלה את אפקטיביות מבצעי ההשפעה בשני מובנים: קודם כל, הם מאפשרים להגיע לקהל היעד שיושפע ביותר מהמסרים אותם מבצע ההשפעה מקדם (למשל, בעלי דעות פוליטיות קיצוניות שייטו יותר לקבל מידע כוזב על יריבים פוליטיים כאמת). בנוסף, ככל שקמפיין השפעה יהיה מצומצם יותר בהיקפו, כך יפחת הסיכוי שיתגלה על ידי הרשתות החברתיות ויוסר על ידן.

מה ניתן לעשות?

שני המחקרים מציגים פתרונות מגוונים, אותם מדינות, גופי אקדמיה והמגזר הפרטי יכולים ליישם, על מנת להיערך טוב יותר להתפתחויות נוספות בבינה מלאכותית ובשימוש בהם לרעה.

ברמה הטכנית, יש לציין שכיום ישנה היכולת הטכנית לייצר ולאמן אלגוריתמיים ייעודיים, שיוכלו לזהות טקסטים, תמונות וסרטונים מזוייפים מסוג deepfake. עם זאת, לטענת מחברי המחקר ממכון Brookings, השימוש בהם אינו מומלץ לאורך זמן, משום שלטווח הארוך, ההתקדמות בפיתוחם של האלגוריתמים "הרעים", שמשמשים ליצירת deepfake, תשיג את פיתוח האלגוריתמים ה"טובים" ותהפוך את השימוש בהם ללא יעיל במצבי חירום. במקום זאת, יש להשקיע את המאמצים במנגנונים המסוגלים לוודא את מקורם של סרטונים ותמונות המתפרסמים ברשתות.

פתרון טכני נוסף, שעשוי להאט את התפתחותם של מבצעי השפעה מבוססי בינה מלאכותית, הוא פיתוח אמצעים שיגבילו את גישתם של גורמים עוינים מידע אישי השייך למשתמשים ברשתות החברתיות. הגבלת המידע היא חשובה, לאור העובדה שגורמים אלו משתמשים בו על מנת לבנות את הקמפיינים שלהם ולאמן את מערכות למידת המכונה שברשותם. בהתאם לכך, על מחוקקים להחליט איזה מידע יכול להימכר על ידי סוחרי מידע, בייחוד שירותים שאוגרים מידע אישי ממקורות פומביים ומוכרים אותו לגורמים שונים, מבלי לבדוק את טיבם. בנוסף, יש לכונן כללים אחידים ברחבי הרשתות החברתיות לשיתוף מידע ובחינת יישומים המבוצעים ע"י צדדים שלישיים.

ברמת המדיניות, אחד הפתרונות עליהם ממליצים מחברי המחקר מ-CSET הוא הגברת אמצעי המעקב של ארה"ב אחר נסיונות של יריביה לשפר את האמצעים העומדים לרשותם בייצור ובהפצת מבצעי השפעה. באופן מובן, הממשל יצטרך לשתף מידע בנושא עם בעלות ברית ושותפים פוטנציאליים, אך מחברי המחקר ממליצים לה לשקול להרחיב את שיתופו של מידע מודיעיני עם מדינות שאינן מוגדרות כבעלות ברית. כמו כן, גם נציגויות של ארה"ב בחו"ל יזדקקו לאמצעים ולהכשרה על מנת לזהות טכניקות השפעה בקמפיינים המתבצעים במקומיות שונים בעולם, שעלולים לפגוע באינטרסים של ארה"ב באותם אזורים.

מסקנות המחקרים הללו (ורבים נוספים) רלוונטיות לכל מדינה, אך לישראל במיוחד, בשל הלוחמה הצבאית והמדינית בהן היא מצויה באופן מתמיד. בהתאם לכך ובהתחשב בהתפתחויות הטכנולוגיות בבינה מלאכותית, המוצגות ללא הרף, על ישראל להקדים וללמוד את האיום באופן מקיף בהקדם.

]]>