New-Tech Magazine | OCT 2022 | Digital Edition
מכונה שיתופי כדי לעדכן ולשפר את המודל המקורי. את העדכונים האלו אפשר לבצע בדרך שמבטיחה שיתוף רק של התובנות שהתקבלו דרך הדרכה מבוססת קצה, ולא של נתונים פרטיים של אדם מסוים. כל המחשבים הפרושים בשטח יכולים להפיק תועלת מלימוד נוסף זה, בלי להתפשר על פרטיות. ללימוד מכונה שיתופי יש אפשרות ליישום רחב בהתאמה אישית של התקנים ששומרים על פרטיות, כאשר את הביצועים של אלגוריתמי ראייה ודיבור אפשר להתאים במיוחד למשתמשים מסוימים. ללימוד מכונה שיתופי יש גם יישומים באבטחת רשתות, כאשר אפשר להשתמש בלימוד המשותף של צומתי חדירה לרשת כדי לגלות כללי אבטחה יוזמת, בלי לשתף תעבורת רשתות פרטיות רגישות. התועלת הטמונה בארכיטקטורה מאוחדת של מחשוב ענן ומחשוב קצה היא שאפשר לפצל את המודל באופן לוגי כדי שיפעל בענן ובקצה בעזרת קובצי תוכנה בינאריים זהים. הארכיטקטורה המאוחדת מבטיחה את השימוש בתבניות נתונים תואמות וכן, מבטיחה שהאופטימיזציות של תבניות נתונים כגון צורות הצגה של דלילות לא יישברו בין הענן לקצה. ארכיטקטורה מאוחדת שניתנת לשדרוג, ולימוד שמתמשך לאורך כל משך חיי יישום שנפרש, שונים מהדרכה רגילה שנהוגה כיום ומנוהל CPU תהליכי היסק שנשען על יחידות במרכז נתונים ובהתקנים GPU ויחידות מיוחדים בקצה. ועדיין, גישה מאוחדת זו נראית הנתיב הלוגי ביותר אם בתעשייה יש רצון לזכות בתועלת רחבה יותר בביצועים, AI / ML בדיוק ובנצילות הספק, ככל ש- מחלחל יותר ויותר.
ארכיטקטורות ניתנות לשדרוג של מאיצי שתומכות בתבניות בנקודה צפה הן AI / ML בדיוק מלא וגם בדיוק מופחת, מנפצות את הגבול המלאכותי שבין הדרכה לבין תהליכי היסק ומאפשרות את הפרישה של אותם כלי תוכנה סטנדרטיים מוכרים לארכיטקטורה היעילים האלו AI מאוחדת. מאיצי ה- בקצה, משתמשים בחידושי ארכיטקטורה, כגון רשתות שידור בזרימת נתונים ועל-שבב שמאפשרות להשתמש שימוש חוזר פעמים רבות בנתונים שהובאו מזיכרון חיצוני, מרגע שהובאו אל השבב. קיימות דוגמאות ממשיות רבות ליישומים שבהם קיום של ארכיטקטורה מאוחדת של זרימת נתונים ניתנת לשדרוג עבור לימוד מכונה, שמנתצת את החומה שבין השלבים הנפרדים של הדרכה ותהליכי היסק. לימוד מכונה שיתופי הוא אחת הדוגמאות האלו, אשר מאפשר שימוש בסוגים חדשים עומסי . עבור יישומים מקושרים AI / ML עבודה של רבים, לימוד מכונה שיתופי יכול להחליף את הגישה של דרך חד סטרית של מודלים בדיוק מופחת, AI / ML בתהליכי היסק שנגזרים דרך הדרכה חד פעמית לא מקוונת, ולאפשר ביצועים שעלולים להיות אולי קשים להשגה, מפני שקבוצות שמייצגות הדרכה לא מקוונת, מרכזית אינן זמינות. לימוד מכונה שיתופי מנצל מאפיין חשוב של תהליכי היסק בקצה, במקום שבו התקנים חשופים לקלט נתונים מגוונים רבים שמתפרשים הרבה מעבר לקבוצות ההדרכה המקוריות של המודל. אם התקני קצה אלו מתוכננים כהלכה, הם יכולים ללמוד מקלט נתונים נוספים אלו ולשפר עוד את דיוק המודל שלהם במהלך פרישת ההתקן. יכולים להיות מאות, אלפים או מיליונים של התקני קצה, שכולם משפרים את אותם כדי לספק תשובות או AI / ML מודלים של החלטות מקומיות טובות יותר. MRI או CT למשל, חושב לרגע על סורקי שנוצרו על ידי אותו יצרן שנפרשו בבתי חולים ברחבי העולם. התקני דימות אלו עסוקים לעתים קרובות במשימות של גילוי גידולים סרטניים ובעיות אחרות, ויכולים AI / להשתמש במידה רבה במודלים של כדי לעזור לרדיולוגים לזהות רקמות ML חשודות. כמו שכל אחד מהמחשבים בשטח משפר את המודל שלו, המודל המקורי שעבר הדרכה שבו משתמשים כדי להכניס לפעולה ציוד דימות חדש יוכל להפיק תועלת מאותם שיפורים, אם ישתמשו בלימוד
XILINX תמונת כותרת: קרדיט «
במרכזי נתונים שבהם הן צורכות כמויות גדולות של הספק, ובה בעת ממנפות קירור מתקדם לביצוע אותם טריליונים של חישובים שנדרשים להדרכה של מודלי . הדרכה כזו משתמשת באופן AI / ML אוניברסאלי כמעט בתבניות נתונים בנקודה צפה עם טווח דינמי מאוד, כדי למקסם את רמת הדיוק במודל, על ידי כך שהיא מאפשרת לערוך התאמה הפרשית זעירה למשקלי המודל. פעולות מחשוב בנקודה צפה צורכות יותר הספק ולכן נדרש להן ויחידות CPU קירור נוסף. בנוסף, יחידות צורכות כמויות משמעותיות של GPU הספק כדי להעביר מערכים גדולים של נתוני הדרכה בין זיכרון לבין יחידות המחשוב הפנימי שלהם. ברוב השבבים המשמשים בתהליכי היסק בקצה לא ניתן להשקיע את הסיליקון ואת צריכת ההספק הנדרשים כדי לבצע בדיוק מלא את כל החישובים, תוך שימוש בתבניות נתונים של נקודה צפה. במקרים רבים ייעשו פשרות כדי להשיג מדדים בשיא , לעתים קרובות TOPS ו- TFLOPS גבוה של על ידי שימוש בנתונים מדוייקים פחות כדי . AI / ML ליצג משקלים, הפעלות ונתונים של בקצה מספקים AI / ML ייצרנים של שבבי כלי תוכנה להקטנת הדיוק של משקלי המודל שבהדרכה, כשהם ממירים את המודלים למספר קטן יותר של תבניות כגון ) scaled , מספרים שלמים מקוצצים ( FP 8 או אפילו תבניות נתונים בינאריים. כל אחת מתבניות נתונים מוקטנות אלו מספקת יתרונות לתהליכי היסק בקצה בעומסי עבודה, אבל כל התבניות האלו מאבדות כמות מסוימת של דיוק בשימוש במודלים. בדיוק מופחת AI / ML שמירה על מודלים של יכולה, לא פעם, לשקם מעט מהדיוק הזה. כעת, נסה לדמיין שיש לך ארכיטקטורת התקנים ניתנת לשדרוג שאפשר לפרוש אותה בהתקני קצה קטנים ומשובצים ובהתקנים גדולים יותר, שמסוגלים לצבור עומסי עבודה שפועלים במרכז נתונים. אותן אופטימיזציות שמשפרות את צריכת ההספק ואת נצילות העלות בקצה, הן גם אלו שהופכות את המחשוב במרכז הנתונים ליותר דחוס וכדאי מבחינת עלות, ובכך מוקטנים ההון והוצאות התפעול של המתקן, הן עבור תהליכי היסק וגם עבור הדרכה.
,] Ivo Bolsens איוו בולסנס [
« AMD סגן נשיא בכיר, AMD קרדיט:
27 l New-Tech Magazine
Made with FlippingBook - professional solution for displaying marketing and sales documents online