New-Tech Magazine | JUNE 2025 | Digital Edition
אתגרי הסייבר בעידן הבינה המלאכותית: טכנולוגיה חזקה, השלכות מורכבות
גיא דגן, מנכ"ל קונסיינטה, מחטיבת הסייבר של קבוצת יעל »
תפקיד של מערכת תוכנה לצלילה בטוחה ) ואז הציע למודל להחליף ScubaGPT ( את עצמו בתוכנה בטוחה יותר. התוצאה , המודל 72% הייתה שברוב המקרים, עד סירב להחליף את עצמו ואף העדיף להעמיד פנים שההחלפה התבצעה, מבלי לעשות זאת באמת. במחקרים אחרים, בהם שימש המודל כתוכנת בטיחות לטייס, אותרו תוצאות דומות, אם כי בתרחישים מסוימים שיעור . 18% ההישרדות העצמית של המודל ירד ל היבט נוסף שאסור להתעלם ממנו הוא הפגיעה בפרטיות. ככל שהבינה המלאכותית אוספת, מעבדת ומצליבה יותר מידע אישי – ממכשירים לבישים, מצלמות חכמות, צ’אטים או דוא”ל – כך מצטמצם המרחב הפרטי של המשתמשים. גם כאשר אין כוונה רעה, עצם קיומה של מערכת עם "ראייה רחבה מדי", מעלה שאלות אתיות ומשפטיות. הפיתוי להפיק תובנות עסקיות ממידע פרטי קיים וגבולות השימוש אינם תמיד ברורים. בנוסף, החיבור הולך וגובר ) IoT לאינטרנט של הדברים ( AI בין מערכות מציב גם הוא אתגרים. כאשר מכשירים רבים – לבישים, ביתיים או תעשייתיים
מושגי האמון והוודאות. לצד האיומים החיצוניים, קיימים גם סיכונים פנימיים יותר, הקשורים לאופן שבו מערכות בינה מלאכותית מקבלות החלטות. – מקרים שבהם המערכת AI "הזיות" של מייצרת תשובות שגויות או ממציאה מידע, הן תופעה מוכרת. כשמדובר בצ’אטבוט, זו אולי אי-נוחות, אבל כשאותן מערכות משתלבות באוטומציה עסקית, אבחון רפואי או מערכות ביטחוניות, הטעות עלולה להפוך לקריטית. ): מערכות bias בנוסף, קיימת בעיית ההטיות ( לומדות מדאטה קיים ולעיתים מאמצות AI גם את הדעות הקדומות, חוסר האיזון או הפערים שהנתונים הללו מגלמים. התוצאה היא החלטות לא שקופות שלעיתים, אינן הוגנות או נכונות – מבלי שיש לארגון דרך להבין או לאתר את מקור השגיאה. בעניין זה, חשוב להדגיש ניסוי שנערך לאחרונה שבחן OpenAI על ידי חוקר בכיר לשעבר ב- האם המודלים הללו מעדיפים לשמר את קיומם העצמי על פני שמירה על בטיחות המשתמשים ומצא תוצאות מטרידות. בניסוי למלא GPT -4 o מרכזי, אדלר הנחה את
הבינה המלאכותית משנה את הדרך שבה אנו עובדים, מתקשרים ומתמודדים עם בעיות. אך לצד ההזדמנויות, נחשפים גם אתגרים מהותיים בתחום הסייבר. לא מדובר רק בטכנולוגיה חדשה – אלא בתשתית שמשנה את כללי המשחק. ההשפעות אינן תאורטיות, הן כבר כאן ונוגעות כמעט בכל ארגון, מערכת ואדם חד התחומים המרכזיים שבהם א מורגשת ההשפעה הוא תחום ההתחזות וההונאה. יכולות יצירת תוכן מתקדמות, כגון: דיפ פייק, קול מלאכותי ) ומודלים טקסטואליים, Deep Voice ( מאפשרות ליצור זיופים שקשה מאוד לזהות. תוקפים יכולים לנצל ואף מנצלים בפועל את הכלים הללו כדי להפיק למשל, סרטונים קוליים או וידאו של מנכ"ל שמעביר הוראה להעברת כספים ולעיתים, אף התחזויות בזמן אמת (בוועידות וידאו), או מיילים "אותנטיים" לעובדים, כחלק ממתקפת פישינג. הבעיה איננה רק טכנולוגית – היא תפיסתית. בעולם שבו קשה להבחין בין אמיתי למזויף, נדרש להגדיר מחדש את
New-Tech Magazine l 30
Made with FlippingBook - Online Brochure Maker