New-Tech Magazine | APR Edition - Special for New-Tech Exhibition 2025 | Digital Magazine

שיטה זו מובילה לסקיילינג ליניארי כמעט אידיאלי של מהירות האימון: הכפלת מספר מקצרת את זמן האימון בחצי, CS -3 מערכות שילוש מספר המערכות מקצר את זמן האימון לשליש, וכן הלאה. Cerebras למשל, בעבודה משותפת של , הראו Sandia National Laboratories ו כיצד ניתן לאמן מודל עם טריליון פרמטרים 3% אחת בלבד. זה דרש רק CS -3 על מערכת 1% ורק GPU מהקוד הדרוש לעשות זאת עם מהאנרגיה. נוסף על כך, כאשר נוספו מערכות נוספות, הושגה האצה כמעט ליניארית: CS -3 מכונות השיגו מהירות אימון גבוהה פי 16 .15.3 ישנם יתרונות טכניים נוספים, כמו צריכת חשמל ושטח פיזי נמוכים ביחס לביצועים, פרוצדורות ניהול פשוטות יותר, מספר מצומצם של רכיבים, מה שמוביל גם לתחזוקה פשוטה יותר, ועוד. "נפגשים" עם חוקרי Cerebras מחשבי-העל של בינה מלאכותית ועוסקים בלמידת מכונה , מה שבז׳רגון התעשייתי PyTorch ברמת אומר שהמשתמשים אינם צריכים להתעסק במורכבות של ארכיטקטורת המחשוב, או להשקיע זמן ואנרגיה בתכנון שיטות לחלוקת 2,048 המודל בצורה מיטבית. אשכול של מתוכנת בדיוק כמו מכונה אחת CS -3 מערכות , יש לשנות רק פרמטר קונפיגורציה CS -3 של יחיד. כך, המשתמשים יכולים להתמקד במה שבאמת יוצר ערך בפיתוח מודלי בינה מלאכותית – כלומר, בפיתוח המודל עצמו ובעבודה עם נתוני האימון, כדי להבטיח שהמודל האיכותי ביותר ייחשף לנתוני האימון המתאימים והעשירים ביותר. ניתן לראות את היתרונות הללו ואת הפשטות ציבורי" AI הנובעת מהם גם בהקשר של "מפעל היפותטי – מקום שבו ארגונים מתעשיות ודיסציפלינות מדעיות שונות ירצו לאמן את המודלים שלהם עבור שימושים תעשייתיים או מדעיים. סביבה כזו שונה מאוד ממעבדות מדעי המחשב האקדמיות, שבהן מחקר מתמקד בהיבטים רבים של מדעי המחשב והמורכבות עצמה מהווה מנוע למחקר. לגבי משתמשים מחוץ לעולם מדעי המחשב, מורכבות זו היא נטל ועלות שמעכבת את הדרך שלהם ליצירת ערך. ציבורי" אין מקום רב להתעסקות AI ב"מפעל מתמדת ולתכנות ברמות נמוכות. לכן, בעוד AI הם הכרחיים לניסויים, ל- GPU שמעבדי ) ולמחקר, Non - Generative AI שאינו יוצר ( הרי שבמונחים מעשיים, נוכחות של אשכולות

CS-3. The fastest AI accelerator :2 תמונה

« Cerebras Systems קרדיט:

תאפשר מתן שירות פשוט וישיר Cerebras . AI לאימון מודלי עומס עבודה נוסף בתחום הבינה המלאכותית הוא הרצת מודלי שפה GPU שאינו מתאים ל ), כלומר ביצוע מה שנקרא LLMs גדולים ( ). אפשר לטעון שזהו תהליך inference היסק ( חשוב אף יותר מאשר אימון המודל, שכן האימון הוא רק עלות, ואילו הערך העסקי האמיתי מופק מהשימוש במודלים. היסק של בינה מלאכותית רלוונטי לכל תחום – עסקים, מגזר ציבורי ומדע. לדוגמה, חברת מותאם LLM תרופות עשויה להריץ מודל אישית לפי המידע הקנייני שלה כדי לסייע בכתיבת פטנטים ובכך לפנות את זמנם היקר של חוקרים. או סוכנות מודיעין עשויה לפרוס שמחבר בין דוחות טקסטואליים LLM מודל מהשטח לבין כמויות עצומות של תמונות

לוויין, מה שמאפשר לאנליסטים לחקור מרחב מידע מגוון כדי לזהות אותות נדרשים. בתחום מדע LLM ניתן גם לדמיין מודל החומרים שמאיץ מחקר בפיתוח חומרים חדשים. LLM אופן הפעולה של ההיסק במודלי הוא בכך שלא רק קלט הנתונים (טוקנים מהבקשה) משמש ליצירת הטוקן הבא, אלא שכל הטוקנים שנוצרו עד כה מוזנים חזרה אל תוך המודל בזמן בניית התגובה המלאה. משמעות הדבר היא שלכל טוקן חדש שנכנס, כל המודל חייב לעבור מהזיכרון המהיר אל GPU ) שעל ה High Bandwith Memory ( דרך ערוץ מיוחד. GPU מודול החישוב באותו תהליך GPU בדור החדש ביותר של כרטיסי מאשר במעבד של 2000 הזה איטי פי יותר מ- . Cerebras

AI training on Cerebras: supercomputing performance of a :3 תמונה « single machine, single chip simplicity for a cluster of machines Cerebras Systems קרדיט:

New-Tech Magazine l 34

Made with FlippingBook Digital Publishing Software