תארו לעצמכם את התרחיש הבא:

אי שם בחו"ל, במשרד חשוך, יושבים אנשי מודיעין, עיתונאים חוקרים והאקרים. הם מביטים במספר מסכים גדולים בו זמנית, עוקבים בכל רגע נתון אחר כמויות עצומות של פוסטים מהרשתות החברתיות. בתוך שלל המידע, הם חייבים למצוא מידע מפליל, שמגיע מאנשים בעלי כוונות זדוניות. במידה ויפעלו מהר מדי או לאט מדי- המשימה שלהם תיכשל.

התיאור הזה לא נלקח מסרט מתח הוליוודי, אלא מהמציאות- או, יותר נכון, ממשרדיה של חברת פייסבוק.

בחירות 2016 בארה"ב, על הכמויות העצומות של הפייק ניוז שמלוו אליהן, יצרו שתי מפסידות גדולות: האחת- הילארי קלינטון, שהחדשות הכוזבות המכפישות שכוונו כלפיה פגעו בתדמיתה וככל הנראה פגעה בסיכויי הנצחון שלה.

המפסידה השנייה היא ענקית הטכנולוגיה: מאז הבחירות ההן, פייסבוק הואשמה על ידי רבים בכך שהיא לא פעלה בזמן אמת על מנת למנוע את התפשוטתן של החדשות הכוזבות (לפי דיווחים שונים, היא לא עשתה זאת אף על פי שאנשיה ידעו על כך). הביקורת הציבורית ההולכת והגדלה, יחד עם הפחד שהחל להתפשט ברחבי העולם מהשפעתן של חדשות כוזבות ברחבי העולם, הביאו את החברה לבצע שינוי דרמטי ביחסה לתופעה: אם בהתחלה, מארק צוקרברג עצמו דחה את הרעיון שפייק ניוז ממקור רוסי, שהתפרסם ברשת שלו, זיהם את השיח הפוליטי בארה"ב, הרי שבשנתיים וחצי שעברו מאז הבחירות, החברה יישמה שורה של צעדים מגוונים, שנועדה להבטיח שאף גורם לא יצליח להתערב בתהליכי בחירות באמצעות הפצת פייק ניוז.

מבין המאמצים המרובים, ראוי לציין שניים מקיפים במיוחד: הצעד הראשון הוא הקמת "חדר מלחמה"- כינוסם של כעשרים עובדים, שמנטרים את הרשת על מנת לזהות קמפיינים של הפצת חדשות מזוייפות בזמנים של מערכות בחירות ברחבי העולם (חדר מלחמה כזה אף פעל בישראל במועד א' של בחירות 2019).

הצעד השני, שנחשף השבוע בכתבה נרחבת של ה-Financial Times, מתאר את פעילותם של צוותי "מלחמת מידע", שפועלים כל העת כדי לאתר ולהסיר חשבונות שמפיצים מידע כוזב. הצוותים מאגדים אישים מרקעים שונים- בטחון, עיתונות, טכנולוגיה ועוד- והם מחולקים לארבעה צוותי גרעים, שפועלים ממשרדים שממוקמים במנלו פארק, וושינגטון באירופה ובאסיה.יחד איתם פועלים מומחי סייבר מרשויות החוק, גורמי ממשל וחברות פרטיות.

הצוותים, שפועלים החל משנת 2017, מנטרים תכנים שמתפרסמים בפייסבוק, בווטסאפ ובאינסטגרם, באמצעות המערכות של פייסבוק או באמצעות "טיפים" מגורמים שלישיים, כגון חוקרי אקדמיה, שמכוונים אותם לאן ללכת בתוך אוקיינוס המידע. הצוותים בוחנים את המידע שלפניהם ומחליטים אם הוא אמיתי או מזויף, על סמך שני קריטריונים: התוכן שהם בוחנים חייב להיחשב כ"לא אותנטי" (למשל, כזה שמגיע ממשתמשים שמציגים את עצמם באופן מטעה) והמאמץ  להפיץ חדשות מזוייפות חייב להיות מתואם ממספר מקורות. במהלך החקירה שלהם, הצוותים מתחילים לבנות תמונה ברורה יותר של קבוצת החשבונות שמאחורי המידע החשוד ודרכי הפעולה שלה. הגורמים שמפיצים פייק ניוז מחולקים על פי החברה לקטגוריות שונות: גורמים זרים מול גורמים פנימיים, גורמים ממשלתיים מול גורמים לא ממשלתיים ועוד, כאשר מול כל קטגוריה ישנה רמת דחיפות שונה של פעילות, במקרה של פעילות חשודה. 

כאשר הצוותים מבחינים במידע שלדעתם עונה על שני הקריטריונים שצוינו, הם לוקחים את הממצאים ומביאים אותם לקבוצה של 10 עד 20 בכירים בפייסבוק, שצריכים להחליט האם אותם גורמים חשודים אכן הפרו את המדיניות של פייסבוק (מה שיוביל להשעיית החשבונות שלהם). במידה ואותם גורמים אכן הפרו את הכללים של פייסבוק, החברה חייבת לדעת כיצד להסיר את התכנים באופן היעיל ביותר. כאן, פעולה יעילה אינה בהכרח פעולה מהירה ביותר- אם ההשעיה של החשבונות תהיה מהירה מדי, הצוותים עלולים לפספס תכנים מסוימים, שימשיכו להתפשט ברשת. מנגד, אם הפעילות נגד התכנים המזויפים תתבצע באופן איטי מדי, הצעד יהיה למעשה לא יעיל, כי השקרים ימשיכו להסתובב ברשת באין מפריע. נוסף על כך, הפעילות של הצוותים חייבת להיות כזו שתוכל להגן על פייסבוק מפני טענות של הטייה פוליטית בעבודה שלה.

חסימת מידע מזויף שמופץ ברשת הוא משימה חשובה מאוד של הצוותים, אך זוהי לא המטרה היחידה שלהם: בזמן הקמת הצוותים, החברה הגדירה שלושה דפוסי פעולה של פעילות זדונית ברשת: איסוף מידע על גולשים, יצירת מידע (כולל מידע מזויף) והעצמה של המידע הזה (למשל דרך "בוטים"- חשבונות מזויפים שפועלים באופן אוטומטי). 

במרחב טכנולוגי שבו השינויים מתבצעים במהירות, הצוותים חייבים ללמוד מהר את הזירה ולפתח נגד האיומים בה תשובות הולמות. אנקדוטה אחת יכולה להמחיש את כושר הלמידה וההסתגלות של הצוותים: בשנת 2017, הצוותים במשך חצי שנה כדי להוריד קמפיין הפצת פייק ניוז, שהגיע מ"המרכז לחקר האינטרנט" שבסנט פטרסבורג (מרכז ראשי של ממשלת רוסיה להפצת תכנים מזויפים ברשתות החברתיות, שפעל במערכות הבחירות הגדולות ברחבי העולם בשנים האחרונות). במחצית השנייה של 2018, לעומת זאת, הקבוצה הורידה לפחות 20 קמפיינים שנועדו לפגוע בבחירות האמצע, כשלקח להם שש שעות בלבד למצוא ולהוריד אותם.

מספר החשבונות הפיקטיביים שנמחקו על ידי פייסבוק בכל רבעון, 2017-2019. מקור

המידע שהצוותים מוצאים מועבר לרשויות החוק, כמו גם לצדדים שלישיים, כגון ארגוני בדיקת עובדות. במהלך בחירות האמצע ב-2018, החברה קיימה פיילוט מעניין, שבמהלכו הצוותים הגנו על חשבונות הפייסבוק של מנהלי קמפיינים פוליטיים. 

בסקירה של השנים האחרונות, הצוותים מזהים שינויים בעולם הפייק ניוז, שמציבים בפניהם אתגרים חדשים. אחד מהם נוגע למקור המידע- בעבר, בשנים 2016-2017, המקורות העיקריים להפצת פייק ניוז היו גופים ממשלתיים, כגון אותו מרכז ל"חקר האינטרנט". כעת, חברי הצוותים מזהים שמרבית התכנית המזוייפים מגיעים דווקא מחברות פרטיות ליחסי ציבור. מפיצי פייק ניוז בשירות חברות פרטיות פועלים כמו מקביליהם מהגופים הממשלתיים, המניעים שלהם, שאינם בהכרח פוליטיים, נהיים קשים יותר למעקב. דוגמה לקמפיין שכזה הוא הקמפיין שנחשף במאי 2019, שבמרכזו עמדה החברה הישראלית "ארכימדס". על פי פייסבוק, חברת ארכימדס עמדה מאחורי קמפיינים שנועדו להתערב במערכות בחירות באפריקה, אסיה ודרום אמריקה. 

מאפיינים נוספים שהצוותים מזהים הוא מעבר משימוש ברשתות של חשבונות מזויפים לגיוס אנשים אמיתיים, כגון עיתונאים, שמתגייסים לקמפיינים מזויפים, על מנת להעצים את המסרים שלהם. שינוי נוסף, שעשוי להפתיע, נוגע לפומביות הקמפיין- בעוד שב-2016, הגורמים שהפיצו פייק ניוז עשו מאמצים גדולים להסתיר את הקמפיין על מנת לשוות לו מעטה אותנטי, הרי שבבחירות האמצע, אותם גורמים פחות טרחו לטשטש את כוונתיהם- הבלטתו למעשה נעשתה בהתרסה, על מנת להביא לחשש ולדאגה בקרב קבוצות היעד שלהם.

השנים הבאות צפויות להעמיק את האתגרים של הצוותים המסורים, שפועלים על מנת לשמור על טוהר הבחירות והשיח הפוליטי-חברתי. כשאחד מבכירי הממשל האמריקני תיאר את ההתכוננות של ארה"ב לקראת בחירות 2020, הוא ציין: "זהו מירוץ ללא קו סיום. אנחנו חייבים לשמור בכל יום על המיקוד ותשומת הלב שלנו".