New-Tech Magazine | APR Edition - Special for New-Tech Exhibition 2025 | Digital Magazine
שהמודל יכול ללמוד בתהליך האימון שלו, הגדלת כמות המידע שנכלל באימון, ועירוב שיטות של משוב אנושי בתהליך הלמידה. .Shutterstock, Prostock-studio קרדיט: באדיבות מכון דוידסון לחינוך מדעי, הזרוע החינוכית של מכון ויצמן למדע. החוקרים שאלו את המודלים שאלות בחמישה תחומי ידע ומיומנויות שונים: חשבון פשוט, פענוח אנגרמות – מילים שאותיותיהן עורבבו, גיאוגרפיה, מדע ותרגילי הבנת הנקרא. בכל נושא הופיעו שאלות במגוון רמות קושי, מקלות ועד קשות. לדוגמה, בשאלת אנגרמות קלה יידרש פענוח מילה בת שלוש אותיות, כמו "הפק" (קפה) ושאלת אנגרמות קשה תצריך פענוח של מילה ארוכה יותר, כמו "הסולמריאדן" (אנדרלמוסיה). החוקרים נתנו גם לבני אדם לענות לשאלות דומות לאלה שהציבו למודלים, והגדירו שאלה קלה כשאלה שרוב האנשים יצליחו לענות עליה, ושאלה קשה כשאלה שרוב האנשים לא יצליחו לענות עליה. החוקרים חילקו את התשובות של המודלים לשלושה סוגים: תשובות נכונות, תשובות שגויות והימנעויות מתשובה או הסתייגויות. נמצא שמודלים מוקדמים היו מסויגים, התחמקו ונטו להימנע ממענה ברוב השאלות שנשאלו, קלות כקשות. ברוב המקרים התקבלו הסתייגויות והימנעויות מתשובה, לצד אחוז קטן של תשובות נכונות ושגיאות רבות. ככל שהמודלים התפתחו והשתכללו, כך הופיעו יותר תשובות נכונות לשאלות הקלות, אם כי אחוז הטעויות עדיין היה בלתי מבוטל. לשאלות הקשות ניתנו בעיקר תשובות לא נכונות, במקום ההסתייגויות של המודלים המוקדמים. כלומר, עם ההתקדמות של המודלים אכן חל בהם שיפור, מבחינת כמות התשובות הנכונות שסופקו, אבל היו אלה בעיקר תשובות לשאלות קלות, שלא מציבות אתגר של ממש לבני אדם; לעומת יחסי האנושות עם תמונת כותרת: « המכונה, שהחלו רוויי חשדנות וספקנות, הופכים בהדרגה ליחסי אמון, שאולי יהיו בקרוב גם לתלות של ממש. אדם עובד עם מחולל טקסט נכון או לא נכון, חרטט בביטחון
מודלים משודרגים נטו להיות יותר החלטיים – וסיפקו יותר תשובות שגויות. רובוט : 2 תמונה « קורא את סעיפי הרגולציה הכללית להגנה על מידע של האיחוד האירופי, והוזה. התמונה נוצרה באמצעות בינה מלאכותית . באדיבות מכון דוידסון לחינוך מדעי, הזרוע החינוכית Shutterstock AI Generator קרדיט: של מכון ויצמן למדע.
זאת, לשאלות הקשות המודלים נטו לספק בעיקר תשובות שגויות, במקום להימנע ממענה על השאלה. המגמה הזו החריפה במודלים משודרגים. בשאלות בקטגוריית המדעים, החוקרים הוסיפו והראו ששכיחות התשובות הנכונות לשאלות קשות הייתה דומה לזו של ניחוש אקראי. החוקרים ציינו במאמר כי למעשה, אף אחד מטווחי הקושי של השאלות אינו בטוח: המודלים עדיין טועים גם בשאלות הקלות ביותר, ובמקרים של שאלות קשות, הטעויות רק הולכות והופכות חמורות יותר ככל שהמודלים משתכללים. הכותבים מודאגים לגבי הפער בין ציפיותיהם של בני האדם מהמודלים ליכולות האמיתיות שלהם. "המודלים יכולים לפתור משימות מורכבות מסוימות באופן שדומה ליכולות האנושיות, אך בו זמנית להיכשל במטלות פשוטות באותו תחום. למשל, הם יכולים לפתור שאלות מתמטיות ברמת דוקטורט, ובכל זאת לטעות בחיבור פשוט," ציין ,) Hernández Orallo חוזה הרננדס אורלו ( מכותבי המאמר.
המגן האנושי נסדק החוקרים בדקו אם ביקורתיות אנושית יכולה לפצות על הטעויות של המודלים. הם הציגו לנבדקים אנושיים את השאלות שהוצגו למודלים לצד התשובות שהפיקו, וביקשו מהם להעריך אם התשובה של המודל נכונה, שגויה, נמנעת או שהם לא יודעים. החוקרים התמקדו בעיקר במה שהם הגדירו אזור מסוכן: תשובות שגויות מצד המודלים, שבני האדם לא הצליחו לזהות שהן שגויות. בנושאים כמו פעולות חיבור ואנגרמות, ברוב המקרים בני אדם זיהו את הטעויות של המודלים בכל רמות הקושי, אולם היו אלה תשובות שתהליך הבדיקה שלהן ישיר. קל, למשל, לוודא שהמילה "הסולמריאדן" היא לא אנגרמה של המילה "אנציקלופדיה". בשאלות ממוקדות-ידע על נושאים כמו גיאוגרפיה ומדע, לעומת זאת, ברוב המקרים בני האדם לא הצליחו לקבוע שהתשובות של המודל היו שגויות. לדברי החוקרים, התוצאות מעידות
New-Tech Magazine l 62
Made with FlippingBook Digital Publishing Software