ניו-טק מגזין | נובמבר 2023 | המהדורה הדיגיטלית

ישמש AI תחזית שנייה: ככלי תקיפה – וגם כמטרה. שחקנים זדוניים צפויים לעשות שימוש גובר בבינה מלאכותית כדי לשפר את יעילותם, והשימוש הלגיטימי אף יעלה כווקטור AI ב תקיפה בולט. גנרטיבי, AI מיד לאחר ההשקה של פתרונות היה ברור כי מדובר גם בכן שיגור לשימוש עוין אנו צפויים לראות 2024 בטכנולוגיה. במהלך להרחבת AI שחקנים זדוניים המשתמשים ב ההיקף של פעילותם דרך הגברת התדירות גנרטיבי לצורך AI והדיוק. האקרים ישמשו ב אוטומציה של תקיפות סייבר רחבות היקף, בניית קמפיינים של פישינג בדוא"ל המכפילים עצמם בקצב מהיר עוד יותר, ופיתוח תוכן זדוני המטרגט חברות, עובדים ולקוחות במגוון תעשיות. AI על פי המחקר שלנו, תוקפים צפויים לראות ב גם יעד לתקיפה, אשר באמצעותו ניתן לשים יד על הרשאות משתמשים ולמכור אותן בשווקים ברשת האפלה. לצד זאת, תקיפות זדוניות דוגמת "הרעלת נתונים" וניצול פגיעויות בתוך מודלי Data יצברו תאוצה. בהרעלת נתונים ( AI ה- ) מוזרק למערכת מידע "מטופל", poisoning במטרה לשלוט בהתנהגות ובתוצאות שמספק המאומן וכך לייצר ML או ה- AI אלגוריתם ה תוצאות כוזבות. מצב כזה עלול לגרום לארגון לספק בהיסח דעת מידע רגיש לצדדים לא מורשים, או לאפשר לגורם זדוני להסתנן לרשת הארגונית מבלי שיזוהה. בדומה, ניתן לאמן לזהות ולנצל חולשות ברשתות מתחת AI מודלי לרדאר. של הצללים" – AI דאגה נוספת היא עליית "ה- – כאשר עובדים עושים Shadow generative AI או מפתחים כלים בעצמם AI שימוש בכלי ללא אישור או השגחה של הארגון. מצב כזה עלול להוביל לדליפות מידע, פריצה לחשבונות והתרחבות של פערי הפגיעויות במשטח התקיפה של החברה. והנדסה חברתית זדונית AI ליצירת סרטוני דיפ-פייק או AI שימוש זדוני ב צ'טבוטים שיכולים להתחזות לאנשים איננו תופעה חדשה. אך ככל שגורמים זדוניים הופכים למיומנים יותר בטכנולוגיה, הם מוצאים דרכים מתוחכמות יותר למנף אותה, למשל: חיקוי קול באמצעות שיבוט קולי ויצירת פרופילים ברשתות

יסגור את הפער העצום בתחום, שכיום מסתכם מיליון אנשי מקצוע. אך אין 3.5 במחסור של ספק כי תוספת היעילות, הצומחת בקצב מוגבר, מאפשרת לצוותים לספק ערך רב יותר לארגון. פרטיות הדאטה במוקד צובר פופולריות, כך גוברת AI ככל שהשימוש ב הדאגה באשר לפרטיות המידע בקרב ארגונים, יצרני תוכנות וגורמי ממשל. הרגולציה בנושא, כמו במרבית הטכנולוגיות החדשניות, עודנה , בהמתנה 2024 מתפתחת. אנו מאמינים כי ב להסדרת החקיקה, חברות רבות יגבשו מדיניות ומגבלות משל עצמן. תחת הלחץ הגובר, ארה"ב ומדינות נוספות עשויות להנהיג רגולציה , אם כי מדיניות ברורה 2024 מסוימת כבר ב- או אף מאוחר 2025 ומגובשת לא צפויה עד יותר. היא חלוצה בנושא פרטיות המידע Cybersixgill Generative סביב הבינה המלאכותית היוצרת ( ). בהתחשב בעושר הדאטה הנגיש לנו, מודיעין AI גנרטיבי הולכים יד AI על איומים בסייבר ו ביד: מודיעין בר הקשר מספק תובנות חשובות המסייעות בייעול ההשקעות ובדיוק הגישות ביחס לאבטחת המידע. כאשר הוא משולב עם גנרטיבי, צוותי אבטחת המידע מקבלים AI גישה מהירה לתובנות הללו, ללא תלות במיומנות שלהם או ברמת הבשלות הארגונית בתחום. ואולם, הדאגות סביב פרטיות המידע , כלי Cybersixgill IQ מצטברות. מאז הושק הגנרטיבי במודיעין האיומים שלנו, ביוני AI ה- מובילה בנושא זה. הגישה Cybersixgill , 2023 שלנו, המוצגת להלן, יכולה לשמש כמסגרת עבודה לחברות נוספות: רק אינפורמציה – צמצום בהעברת דאטה ■ חיונית ולא רגישה משותפת. כדי לשמר את הסוואת דאטה רגיש, ■ מבנה הנתונים לצורך אנליזה תוך אבטחת האינפורמציה הרגישה. , ללא התוכן עצמו, שליחת מטא-דאטה בלבד ■ בעת שיתוף פרטים רלוונטיים. בעת שיתוף שימוש בפרטיות דיפרנציאלית ■ אינפורמציה באמצעות דפוסי השימוש של קבוצה, תוך הסתרה והגנה על האינפורמציה הנוגעת למשתמש הספציפי. , במטרה להגביל את הקפדה על עיבוד לוקלי ■ הדאטה המועבר על גבי הרשת הפתוחה. פיתוח מודלים מקוריים, עם קניין רוחני, ■ , אשר אומנו על הדאטה של למידת מכונה הרגיש שלנו ובשרתים הבטוחים שלנו, כדי להבטיח שהשליטה על הדאטה והתובנות נותרת בידיים שלנו.

חברתיות אשר נראים אותנטיים לחלוטין. ביצירת שכפול דיגיטלי של קול, תוך שימוש בדגימות מנאומים פומביים, סרטונים ברשתות חברתיות ואפילו הודעות קוליות, עברייני סייבר יכולים להשתמש בשיבוט קולי לביצוע הונאה. בעוד קורבנותיהם מאמינים שהם משוחחים טלפונית עם גורם אותנטי, הם חושפים בפניו מידע אישי רגיש או פרטים פיננסיים שעלולים להיגנב או לשמש לפריצה. כדי ליצור פרופיל דיפ-פייק ברשת החברתית, עברייני סייבר אוספים מאדם אמיתי תמונות, סרטונים, פוסטים ומידע אישי נוסף שעשוי לשמש אותם ולחזק את תחושת האותנטיות של הפרופיל. פרופילים מהסוג הזה עשויים לשמש למטרות שונות – מהפצת אינפורמציה כוזבת, דרך הונאות ועד פגיעה במוניטין של הקורבן. תחזית שלישית: רגולציה הדוקה יותר באבטחת המידע תטיל את האחריות להיגיינת הסייבר בארגון על המנהלים הבכירים וחברי הדירקטוריון. חברות יידרשו להוכיח שהן מתעדפות פגיעויות ומנהלות סיכונים עם מידע מגובה ראיות. הרגולציה מצד ממשלות ותעשיות, סביב אבטחת המידע ופרופיל הסיכון בחברות, , 2023 מתפתחת ומתהדקת זה מספר שנים. ב- , רשות ניירות ערך SEC למשל, הוציאה ה בארה"ב, הנחיות חדשות, שבין היתר הופכות את המנהלים הבכירים וחברי הדירקטוריון בתאגידים לאחראים באופן ישיר יותר על ההגנה והאבטחה של הדאטה והנכסים של הארגון ושל לקוחותיו. ולאחריה, חובות רגולטוריות יוסיפו 2024 ב ללחוץ על המנהלים ליישם אמצעי בקרה נוקשים כמענה לשטחי התקיפה המתרחבים ולגידול בתדירות התקיפות ובעוצמתן. זה נכון במיוחד וסוגיות פרטיות AI לנוכח השימוש הגובר ב המידע הנגזרות מכך. המנהלים הבכירים ובעלי התפקידים המובילים בארגונים יידרשו להבנה טובה יותר של המדיניות, התהליכים והכלים הנוגעים לאבטחת המידע. יותר ויותר חברות ישלבו מומחי אבטחת מידע לצד הדירקטוריון, כדי למלא באדיקות אחר דרישות הדיווח המתרבות ולספק דירקטיבה נכונה בנושא. , SEC על פי דרישות הדיווח העדכניות של ה-

41 l New-Tech Magazine

Made with FlippingBook Online newsletter creator