Connect with us

אבטחת מידע ארגונית

מומחי TrendAI מזהירים – ההגנה על פרטיות ב-AI לא שווה דבר אם התשתית שמפעילה אותה חשופה לתקיפה

Published

on

קיריל גלפנד. באדיבות טרנד מיקרו

רשות הגנת הפרטיות דורשת מארגונים לשלב טכנולוגיות פרטיות במערכות בינה מלאכותית.
אבל בלי אבטחה של התשתית עצמה, כל ההבטחות האלה נשארות בתיאוריה

הנחיות חדשות שפרסמה רשות הגנת הפרטיות בדצמבר האחרון מחייבות ארגונים העושים שימוש בבינה מלאכותית לאמץ טכנולוגיות להגנה על פרטיות, הידועות בשם PET  (Privacy Enhancing Technologies). כלים אלו, הכוללים למידה מאוחדת, הצפנה הומומורפית וחישוב מאובטח רב-צדדי, נועדו לאפשר עיבוד נתונים רגישים מבלי לחשוף אותם. אלא שמומחי TrendAI מתריעים עכשיו כי כל ההגנות האלה חסרות ערך אם התשתית שמריצה אותן לא מאובטחת בעצמה.

לדברי קיריל גלפנד, אוונגליסט AI ואדריכל פתרונות אבטחה בכיר ב-TrendAI, "השימוש ב-PET בלבד עלול לייצר אשליה מסוכנת של הגנה. דוגמה בולטת לכך היא הצפנה הומומורפית: היא מאפשרת עיבוד נתונים מוצפנים, אך אם אחת מתחנות הקצה נפרצה, התוקף יכול להזריק נתונים מורעלים לתוך תהליך האימון ולהטות את המודל כולו. בקיצור, אפשר להתקין את הכספת הכי מתוחכמת בעולם, אבל אם הבניין עצמו פתוח לכל דורש, היא לא תגן על כלום".

וזה לא תרחיש דמיוני. תקיפות על שרשראות אספקה, ניצול של חולשות שלא פורסם להן תיקון, והזרקת קוד זדוני למודלים, כל אלה איומים מוכרים ומתועדים שקורים בפועל. ארגונים בתחומי הביטחון, הבריאות והפיננסים שמסתמכים על PET בלבד, בלי שכבת אבטחה מקיפה מסביב חיים באשליה מסוכנת.

כשהמידע לא יכול לצאת מהמדינה

Advertisement

המלחמה האחרונה הציבה את ישראל במוקד של קמפיינים סייבריים איראניים מתמשכים. קבוצות כמו MuddyWater  ו-Charming Kitten הפועלות בחסות משמרות המהפכה, מתמקדות בארגונים ישראליים בתחומי האנרגיה, הבריאות והביטחון.

לפי דיווחי מערך הסייבר הלאומי, חלק מהמתקפות על ישראל מכוונות ספציפית לתשתיותAI  , כולל ניסיונות להשפיע על מודלים של קבלת החלטות קריטיות. המשמעות ברורה: תשתיות PET שמגנות על פרטיות בתחומים רגישים הפכו ליעד אסטרטגי. תוקף שמצליח לפגוע בתשתית כזו לא רק גונב מידע. הוא יכול לשבש תהליכי החלטה קריטיים.

עבור גופים ביטחוניים וממשלתיים בישראל, האתגר כפול בשל הצורך בריבונות על המידע. ארגונים כאלה אינם מורשים להוציא נתוני אבטחה, לוגים, תצפיות סייבר ונתוני אבטחה לשרתים שיושבים מחוץ לישראל. פתרון אבטחה שפועל רק דרך ענן ציבורי בחו”ל פשוט לא רלוונטי עבורם.

לכן יש חשיבות רבה ליכולת של פריסה מקומית מלאה, בסגנון Cloud  Sovereign Private. פלטפורמות כמו Trend Vision One  למשל, מאפשרות להקים את כל מערך האבטחה, החל מניתור איומים, עבור בתגובה, וכלה בניהול סיכונים  בתוך התשתית הארגונית הפנימית, בלי שאף פיסת מידע תעבור לענן חיצוני.  עבור גופים מסווגים בישראל, זו לא תוספת נוחות. זו דרישה בסיסית.

לדברי גלפנד, אחד האיומים החמורים ביותר על תשתיות שמריצות PET הוא ניצול חולשות Zero-Day  לא מוכרות. תוקף שמגלה פרצה בספריית הצפנה או בשירות ענן יכול לעקוף את כל מנגנוני ההגנה על הפרטיות, ואף אחד לא ידע שזה קרה.

Advertisement

בתעשיית הסייבר פועלות תוכניות מחקר שמטרתן לגלות חולשות כאלה לפני שתוקפים מנצלים אותן. דוגמה בולטת היא Zero Day Initiative של חברת TrendAI , תוכנית מחקר החולשות (באג-באונטי) הגדולה בעולם, שמספקת טלאי וירטואלי, כלומר, הגנה מפני הפרצה עוד לפני שיצרן התוכנה הוציא עדכון רשמי. עבור ארגון שמפעיל תשתיות PET קריטיות, ההבדל בין לקבל הגנה תוך שעות לבין להמתין שבועות לעדכון הוא ההבדל בין מערכת שלמה למערכת שנפרצה.

מי שומר על השומרים של ה-AI

בנוסף לאבטחת התשתית, ארגונים צריכים גם לשלוט בפועל במה שעובדים עושים עם כלי AI . פתרונות כמו AI Service Access  מאפשרים לנטר ולבקר את הגישה לשירותים כמו ChatGPT, DeepSeek  ו-Gemini, כולל סינון תוכן בזמן אמת, מניעת הדלפת מידע רגיש, וחסימה של ניסיונות מניפולציה על המודל. שכבה נוספת של כלים כמו AI Guard ו-AI Scanner  בודקת את המודלים עצמם, מזהה תוכן מזיק, ומתריעה על דליפות ועל ניסיונות תקיפה.

ההנחיות של רשות הגנת הפרטיות, מבהיר גלפנד, הן צעד נכון וחשוב. אבל הן עונות על השאלה “מה צריך להגן” ופחות על השאלה “איך מוודאים שההגנה עצמה עמידה”. הטכנולוגיה לא תציל אף אחד אם הבסיס שעליו היא בנויה רעוע. השאלה שכל מנהל אבטחת מידע בישראל צריך לשאול היום היא לא “האם יש לנוPET  " אלא, "האם מי שאמור לשמור על הפרטיות שלנו, בעצמו מוגן.”

המלצות לשעת חירום
בעיקר עכשיו, בתקופה של מציאות ביטחונית מתוחה,ארגונים צריכים לחזק ולהתאים את אסטרטגיית האבטחה שלהם. גלפנד ממליץ על הצעדים הבאים:
הקשחת גישה מרחוק – עם מעבר לעבודה מהבית וגיוס מילואים, נקודות הגישה מרחוק הפכו ליעד מרכזי. יש לוודא אימות רב-שלבי (MFA) על כל גישה לתשתיות  AI.

Advertisement

ניטור מוגבר של שרשרת האספקה – קבוצות איראניות ידועות בשימוש בתקיפות שרשרת אספקה. יש לבדוק כל עדכון לספריות ML וכלי AI לפני הטמעה.

בידוד תשתיות AI קריטיות – מערכות AI שמשפיעות על החלטות קריטיות (רפואיות, ביטחוניות, פיננסיות) צריכות להיות מבודדות מרשתות אחרות.

תרגול תגובה למתקפת AI  – לא מספיק לתרגל תגובה לדליפת מידע. יש לתרגל תרחישים של הרעלת מודל (model poisoning)  ומניפולציה על פלטי AI.

גיבוי מודלים ונתוני אימון – במקרה של תקיפה שמשחיתה מודלים, יכולת שחזור מהירה היא קריטית.

Advertisement
Continue Reading