זינוק במספר הדיווחים על פגיעות ברשת מאז ה-7 באוקטובר: צעירות "מופשטות" והתמונות המזויפות מופצות

מאז ה-7 באוקטובר הוכפל מספר הדיווחים על אלימות ברשת, ובאקט שפל אף הגיעה תמונה של חטופה שנרצחה לאתר פורנוגרפי, אחרי שהיא "הופשטה" מבגדיה. הצד האפל של הבינה המלאכותית (AI) מכה בעוצמה, כאשר טכנולוגיות של עירום מזויף הופכות פופולריות בקרב מטרידים, גורמים פליליים וטרוריסטים, אבל גם בקרב צעירים ישראלים. שומרים עם התופעה ועם הנתונים הבלעדיים על היקפה מאז פרוץ המלחמה

דיפ-פייק. אילוסטאציה: שאטרסטוק

מאז ה-7 באוקטובר הוכפל מספר הדיווחים על אלימות ברשת, ובאקט שפל אף הגיעה תמונה של חטופה שנרצחה לאתר פורנוגרפי, אחרי שהיא "הופשטה" מבגדיה. הצד האפל של הבינה המלאכותית (AI) מכה בעוצמה, כאשר טכנולוגיות של עירום מזויף הופכות פופולריות בקרב מטרידים, גורמים פליליים וטרוריסטים, אבל גם בקרב צעירים ישראלים. שומרים עם התופעה ועם הנתונים הבלעדיים על היקפה מאז פרוץ המלחמה

דיפ-פייק. אילוסטאציה: שאטרסטוק
דיפ-פייק. אילוסטאציה: שאטרסטוק

מאז ה-7 באוקטובר הוכפל מספר הדיווחים על אלימות ברשת, ובאקט שפל אף הגיעה תמונה של חטופה שנרצחה לאתר פורנוגרפי, אחרי שהיא "הופשטה" מבגדיה. הצד האפל של הבינה המלאכותית (AI) מכה בעוצמה, כאשר טכנולוגיות של עירום מזויף הופכות פופולריות בקרב מטרידים, גורמים פליליים וטרוריסטים, אבל גם בקרב צעירים ישראלים. שומרים עם התופעה ועם הנתונים הבלעדיים על היקפה מאז פרוץ המלחמה

דיפ-פייק. אילוסטאציה: שאטרסטוק

דיפ-פייק. אילוסטאציה: שאטרסטוק

מילאן צ'רני

יחד עם

13.6.2024

תקציר הכתבה

מאז מתקפת הטרור של ה-7 באוקטובר מקבלים באיגוד האינטרנט הישראלי פניות רבות להסרת סרטונים פוגעניים ממנועי החיפוש ברשת ומהרשתות החברתיות. החומרים איומים לצפייה, אבל פנייה אחת הצליחה בכל זאת לשבור שיא נוסף של שפל. זה קרה כאשר הנציגות המשפטית של מטה משפחת החטופים פנתה אל האיגוד לאחר שתמונה של חטופה שכבר אינה בחיים "טופלה" באמצעות כלים מתקדמים של בינה מלאכותית (AI) והופצה כתמונת עירום מזויפת באתר פורנוגרפי.

"מישהו מנוול במידה קיצונית לקח תמונה של אחת החטופות בביקיני, השתמש ב-AI כדי 'להפשיט אותה', הוסיף לתמונה כיתוב נבזי במיוחד שהתייחס לכך שהיא נרצחה בידי החמאס, ופרסם אותה", מספר לשומרים יונתן בן-חורין, מנהל קו הסיוע לאינטרנט בטוח באיגוד הישראלי, שפנה אל מנהלי האתר הפורנוגרפי בדרישה להסיר את התמונה באופן מיידי. התמונה אמנם הוסרה בעקבות הפנייה, אבל ברשת כמו ברשת, נזק כבד כבר נעשה וספק רב אם נגמר, שכן ייתכן מאוד שגולשים אחרים כבר הורידו אותה למחשבים האישיים שלהם והעבירו אותה הלאה, לפלטפורמות אחרות.

ביזוי הנרצחת הוא רק נקודת קיצון במגיפה שיוצאת משליטה לאחרונה, של תוכן מזויף המופק באמצעות AI. מצד אחד, ענקיות הטכנולוגיה מפליאות בהשקות מעוררות השתאות עם שדרוגי מנועי ה-AI שלהן לגרסאות "אנושיות" יותר ויותר. רק בשבועות האחרונים הייתה זאת הגרסה החדשה של ChatGPT ושל ג'ימיני מבית גוגל. מצד שני, האנושיות של המשתמשים בטכנולוגיה מדרדרת והולכת, כמו מרבית השימושים הפופולריים באינטרנט - ולא צריך ללכת רחוק אל טרוריסטים במרחב הווירטואלי.

מתוך התכתבות עם קו הסיוע

עידן רינג, סמנכ"ל קהילה וחברה באיגוד האינטרנט הישראלי, מספר כי "בזמן האחרון אנחנו מקבלים מהציבור יותר פניות ושיחות שקשורות בכלי AI. אם בעבר, אנשים בדרך כלל ניסו לגנוב תמונות אינטימיות או פרטים אינטימיים מאינסטגרם, למשל, ואפילו מהטלפון או ממחשבים פרטיים. היום זה הרבה יותר קל. בני נוער יכולים להשתמש בכלים נגישים מאוד, לצלם תמונות של נערות בבגד ים או אפילו לבושות לגמרי, ולהשתמש ב-AI כדי לייצר 'תמונת עירום' שלהן".

פעילות ופעילים ישראלים שהתגייסו למאבק בתופעה סיפרו לשומרים, כי היא שגורה מאוד בקרב תלמידי תיכון ישראלים, שיוצרים תמונות מיניות של חברותיהם לכיתה. זה קורה בעיקר בערוצי הרשת החברתית טלגרם ובשרתי דיסקורד (שירות מדיה חברתית פופולרי בקרב גיימרים), שם צעירים חולקים זה עם זה כלים עדכניים המאפשרים "להפשיט את מי שרוצים עם AI", וכן תמונות ערוכות דיגיטלית – המכונות "דיפ פייק" (Deepfake) או "דיפ ניוד" (Deepnude) – של צעירות ישראליות. 

הנה דוגמאות להתכתבות פומבית משם: "למישהו יש בוט של AI שמפשיט?", "למישהו יש תמונות עירום שלה (לא דיפ-פייק)?", "זאת תמונה אמיתית או AI?". המשתמשים מפרסמים מאות הודעות כאלה בערוצים פומביים ופרטיים, שבהם אלפי חברים.

פרסומת לאחת האפליקציות. צילום מסך

באחד המקרים שפורסמו לאחרונה, תלמיד חטיבת ביניים מאריאל, שהיה קורבן לבריונות מצד תלמידות בכיתתו, נחשד כי על מנת לנקום בהן יצר באמצעות AI תמונות עירום מזויפות של בנות כיתתו והפיץ אותן בטלגרם. הוא עצמו סולק מבית הספר, ואילו התלמידות שהתעמרו בו הושעו.

אף שהחומרים הוויזואליים במקרים כאלה מזויפים, הנזקים הנגרמים לקורבנות עלולים להיות אמיתיים מאוד, כאשר מומחים בתחום מסבירים, כי השימוש בתמונות עירום מזויפות לצורך השפלה והתעמרות עלול לגרום נזקים נפשיים, חברתיים וגופניים חמורים. נעמה פלכיינפלד, העומדת בראש פרויקט מא'את, עמותה ישראלית העוסקת בזיהוי ומיצוי דין בעבירות מין ברשת, מציינת זאת, אף כי במקרים רבים, מניעיהם של תלמידי תיכון העושים זאת לא בהכרח מיניים, אלא קשורים ברצון להשפיל את בנות כיתתם ולפגוע בהן. רינג מוסיף כי צעירים עושים זאת לפעמים כמעין מתיחה ואינם מביאים בחשבון את ההיבט הפוגעני והמשפיל, כמו גם את הפן הבלתי חוקי של ייצור והפצת חומרים פורנוגרפיים המציגים קטינים.

"התחלתי לבכות, זה נורא"

תמונות עירום מזויפות, יש להקדים ולומר, אינן תופעה חדשה ברשת. ״כלים ידניים״, כמו תוכנות עריכת תמונות דוגמת פוטושופ, קיימים זמן רב. אולם אין להשוות, לא את איכות הזויף ובטח שלא את הקלות והמיידיות של כלי ה-AI שהופכים נגישים וזולים ובעיקר ריאליסטיים מתמיד. בפלטפורמות פופולריות דוגמת אינסטגרם או בחנות האפליקציות של אפל, ניתן למצוא פרסומים בתשלום של אפליקציות המתפארות ביכולתן להפיק סרטונים ותמונות עירום, ומדגישות את היכולות מרחיקות הלכת של השירותים השנויים במחלוקת שהן מציעות. התוצאה היא שהיקפו של התוכן הזדוני המופק באמצעותם גדל בהתאם ובמידה חסרת תקדים.

פרסומת לאחת האפליקציות. צילום מסך

עד כמה נרחבת התופעה קשה להעריך בדיוק, שכן רבות מן הקורבנות לעיתים מתביישות לבקש להסיר את תמונות ה-AI המזויפות המציגות אותן בעירום, או שכלל אינן מודעות למשאבים הזמינים להן כדי להתמודד עם הנושא, לרבות פנייה למוקד של איגוד האינטרנט. 

מי שכן פנתה לעזרה היא הצעירה א', לאחר שנפגעה עד עמקי נשמתה, כשקיבלה תמונת עירום מזויפת שלה, אשר יוצרה באמצעות AI. בשיחה עם שומרים היא מספרת, איך התעוררה בוקר אחד בבית חברה, הציצה בטלפון ומצאה כי משתמש אנונימי שלח אליה את התמונה הפורנוגרפית. התמונה, שנלקחה מחשבון האינסטגרם של א', טופלה באמצעות תוכנת AI כדי להסיר כביכול את בגדיה. לתמונה התלוותה הודעה בעלת אופי מיני שנכתבה באנגלית, וכן דרישת כופר כספית.

מתוך התכתבות עם קו הסיוע

"דבר כזה בחיים לא קרה לי", היא אומרת. "לראות את התמונה הזאת שלי גרם לי ממש לחלחלה, אפילו שאני יודעת שהיא לא אמיתית. התחלתי לבכות. זה נורא להגיד, אבל המחשבה הראשונה שעלתה לי כשראיתי את התמונה הזאת זה שבנים סוטים הולכים לאונן עלי 'עירומה'". 

א' חששה מאוד שהתמונה תופץ באינטרנט ומשם יהיה בלתי אפשרי לעצור את הסחף. "מאוד הטריד אותי שזה יופץ", היא משתפת. "אפילו אם אנשים יודעים שזה לא אמיתי, עדיין הבן-אדם הזה יכול להפיץ את התמונה. אני יודעת שהיא לא אמיתית ואני בקלות יכולה להוכיח שהיא לא אמיתית, כי יש אותה באינסטגרם שלי, אבל היא באמת נראית אמיתית ואת לא רוצה שיסתובבו תמונות כאלה שלך". "וואו הטכנולוגיה מטורפת...", כתב מי ששלח לה את התמונה.

מי שיצר ושלח לא' את התמונה לא עצר שם. מאוחר יותר קיבלה א' הודעה מחשבון אחר, שהסבה לה גם היא מצוקה אדירה. "הי, מצטער להפריע, אבל מישהו שלח לי את התמונה הזאת ונראה לי לא בסדר שמפיצים אותה ככה", נכתב באותה הודעה. "יש עוד דרך ליצור איתך קשר? אולי במייל?". לא' אין ספק שגם החשבון הזה היה שייך לאדם ששלח לה את התמונה לראשונה, כחלק מאותו המהלך. היא משוכנעת שהשולח המקורי הוא ששלח גם את ההודעה הזו בזהות אחרת, והפעם בניסיון ליצור איתה קשר ולהשיג את פרטיה.

א' פנתה תחילה לדיאן שוורץ, שהשתתפה בעבר בתוכנית הריאליטי "האח הגדול, ואשר נפלה גם היא קורבן לתופעה, כמו גם מפורסמות ברחבי העולם דוגמת גל גדות, סקרלט ג'והנסון ואפילו הגברת הראשונה של ארה"ב לשעבר, מישל אובמה. לאחר מכן פנתה א' אל איגוד האינטרנט הישראלי ולמשטרה. האיגוד, היא מספרת, סייע לה מאוד בהתמודדות עם התוכן עצמו, יצר קשר עם אינסטגרם והביא לסגירת החשבון של האדם המטריד. המשטרה, לעומת זאת, "לא עשתה הרבה", כדבריה. 

"בהתחלה התקשרו לקחת פרטים", א' מספרת, "ואחרי זה, אחרי חודשיים-שלושה, קיבלתי פשוט הודעה שהתיק נסגר בגלל חוסר ראיות. אני בטוחה שיש להם כלים לדעת פחות או יותר מאיפה החשבון הזה נמצא – אם הוא בארץ, אם הוא בחו"ל – אבל נראה שזה לא כל כך עניין אותם. אני עדיין לא יודעת מי זה ומאיפה הוא". 

הנתונים נחשפים: זינוק מאז ה-7 באוקטובר

כשזה נוגע לערבים, המשטרה דווקא מראה יעילות

העובדה שהמשטרה לא נתנה מענה במקרה של א' אינה יוצאת דופן, מסבירים מומחים ועורכי-דין הפועלים בתחום. רינג מאיגוד האינטרנט מציין, כי לרוב אין לרשויות האכיפה די זמן ומשאבים כדי להיאבק בפשעי סייבר וכדי להסיר את מסך האנונימיות שמספקות פלטפורמות המדיה החברתית ולחשוף את זהותם של האחראים. 

יחד עם זאת, כפי שהחודשים האחרונים הוכיחו, המשטרה יכולה לעשות הרבה יותר, ומאז ה-7 באוקטובר היא גם עושה אבל בתחום אחר. המשטרה "יעילה פי כמה", אומרים המומחים, כאשר הפשעים המקוונים נוגעים לענייני ביטחון וטרור, בייחוד על רקע המלחמה הנוכחית. "ברגע שנושא מתויג כאיום טרור מופנים לכך משאבים אחרים, יחידות אחרות וגם קל למשטרה יותר להתנהל מול בית המשפט. כשפלסטינים כותבים משהו נגד ישראל, למשל, אחרי 20 דקות המשטרה תדפוק להם בדלת. אבל כשמישהו מטריד את השכנה שלו, אף אחד לא יטרח לדבר איתו". 

אבל זו לא רק המשטרה: עולם שיש בו יישומי AI דורש מעטפת חוקית שתאפשר לרשויות האכיפה להתמודד עם האתגרים שמציבה הטכנולוגיה החדשה – ועם שלל הסוגיות הספציפיות הכרוכות בה. בארה"ב, למשל, יותר מעשר מדינות כבר העבירו חוקים שיאפשרו להן להתמודד במישור הפלילי עם מי שיוצרים ומפיצים דימויים פורנוגרפיים באמצעות AI בלא הסכמת המצולמות או המצולמים. בעקבות הפצתן של תמונות עירום מזויפות רבות של הזמרת טיילור סוויפט, מחוקקים דמוקרטים ורפובליקנים כאחד הגישו הצעת חוק פדרלית, שתכליתה למנוע הפצה של פורנוגרפיית דיפ-פייק בלא הסכמה. 

טיילור סוויפט. הצעת חוק פדרלית בעקבות הפצת תמונות עירום מזויפות שלה. צילום: רויטרס

מומחים מספרים, כי גם האיחוד האירופי כבר נקט צעדים תחיקתיים במסגרת המאבק בתוכן דיפ-פייק פורנוגרפי, כאשר לפני כמה חודשים הציגה הנציבות האירופית הנחיה שאם תאושר, תניע את 27 מדינות האיחוד האירופי למהלכי חקיקה מקומית בנושא.

ישראל, לעומת זאת, משתרכת מאחור, כאשר המשטרה המתינה עד תחילת חודש מאי החולף רק כדי לציין, שהיא מעוניינת לרכוש כלים לזיהוי דיפ-פייק, כך עולה ממסמך שהגיע לידי שומרים. 

מה הסיכוי לחקיקה ישראלית בנושא? עו"ד יהונתן קלינגר, היועץ המשפטי של התנועה לזכויות דיגיטליות, משיב שהסיכוי נמוך מאוד משום שבמצב הפוליטי הנוכחי "קשה לפתח ולקדם חוקים חדשים". בהינתן האקלים הפוליטי בישראל, "אין מה לצפות לדיון רציני בכנסת" אפילו בנושאים שאפשר היה לצפות שישרור בהם קונצנזוס, כמו למשל חוק נגד ייצור והפצה בלא הסכמה של דימויים פורנוגרפיים באמצעות AI.

לצד זאת, ולמרות המכשולים הפוליטיים, קלינגר מציין כי ניתן להחיל גם על תמונות שיוצרו באמצעות AI את החוק הישראלי הקיים, ובייחוד את החוק להגנת הפרטיות, שקובע בין היתר שאסור לצלם "אדם כשהוא ברשות היחיד", וכן שאסור "פרסום תצלומו של אדם ברבים בנסיבות שבהן עלול הפרסום להשפילו או לבזותו". אף שתמונות AI אינן אמיתיות, יש מקום לטעון שהשימוש בהן הוא גם בגדר הפרה של הזכות לפרטיות – וזאת, הן בגלל טבען והן בגלל השינוי שבוצע בתמונה המקורית בלא הסכמתם של המצולמים. סוגיה אליה התייחסה גם הרשות להגנת הפרטיות במסמך המלצות שפרסמה.

ועם כל זאת, מסכם קלינגר, אין כמעט כל אכיפה נגד עבירות כאלה, וקשה גם להבחין בין בני נוער שמשתמשים בטכנולוגיית AI כבדיחה פוגענית ובלתי מוסרית לבין ארגוני פשע אשר מוכרים טכנולוגיית AI או סוחטים כסף ממצולמות תמורת אי-פרסום של תמונות עירום מזויפות. "ניסיתי יותר ממאה פעם לבקש עזרה, כולל מבית הספר שלי, אבל זה לא עזר כלום", מסכמת אחת הקורבנות.

ממשטרת ישראל נמסר בתגובה: "כל תלונה המתקבלת במשטרה בהקשר זה נבדקת ומטופלת ביסודיות. בעקבות תלונה מקוונת שהתקבלה במשטרה בנושא לפני כ-7 חודשים, חוקרי המשטרה ניסו להעמיק בחקירת המקרה ולקדם את החקירה, אולם לצערנו המתלוננת בחרה שלא להגיע לתחנה מסיבותיה כשנתבקשה לכך ותיק החקירה נסגר". יצוין בהקשר זה כי שומרים חזר אל המתלוננת עם טענת המשטרה, והיא הבהירה שכלל לא הוזמנה לתחנה ושהסיבה הרשמית שנמסרה לה לסגירת התיק היא חוסר ראיות. "עצוב לי שזאת ההתייחסות שלהם", אמרה.

עוד נמסרה מהמשטרה בתגובה: "נציין כי במקרה אחר באותו הנושא, במהלך חודש מרץ השנה התקבלו תלונות בתחנת לב הבירה בירושלים, אודות חשד לעריכה והפצה של תמונת תלמידות בי"ס בעיר ירושלים, ובעקבות כך נפתחה חקירה. במקרה זה שיתוף פעולה מצד המתלוננות אפשר את קידום החקירה, שממנה עלה כי מספר תלמידים השתמשו בתמונות של תלמידות בנות שכבתן, שנלקחו מהרשת החברתית ובאמצעות תוכנת AI ערכו תמונות עירום שאותן העבירו מאחד לשני. במסגרת חקירת המקרה, נחקרו שבעה חשודים קטינים ונגבו עדויות מגורמים שונים. בסיום חקירתם בשיתוף המוסד החינוכי, הם הופרדו בין הכיתות, ולאחר שמוצו כלל פעולות החקירה במשטרה, הועבר תיק החקירה לעיון והחלטת הפרקליטות".