self-attention

[ארה"ב]/ˌself.əˈten.ʃən/
[בריטניה]/ˌself.əˈten.ʃən/

תרגום

n. מנגנון ברשתות נוירונים המאפשר למודל לשקול את החשיבות של חלקים שונים של נתוני הקלט בעת עיבוד רצפים.

צירופים וביטויים

self-attention mechanism

מנגנון קשב עצמי

using self-attention

שימוש בקשב עצמי

self-attention layer

שכבת קשב עצמי

apply self-attention

החלת קשב עצמי

self-attention weights

משקלי קשב עצמי

with self-attention

עם קשב עצמי

self-attention scores

ציוני קשב עצמי

self-attention model

מודל קשב עצמי

self-attention network

רשת קשב עצמי

self-attention improved

קשב עצמי משופר

דוגמאות למשפטים

the model utilizes self-attention to weigh the importance of different words in the input sequence.

המודל משתמש במנגנון תשומת לב עצמית כדי לשקול את החשיבות של מילים שונות ברצף הקלט.

self-attention allows the transformer to capture long-range dependencies effectively.

תשומת לב עצמית מאפשרת לטרנספורמר ללכוד תלות ארוכת טווח ביעילות.

we fine-tuned the pre-trained model with self-attention on a new dataset.

בצענו כוונון עדין של המודל המאומן מראש עם תשומת לב עצמית על מערך נתונים חדש.

the self-attention mechanism significantly improved the model's performance on the task.

מנגנון תשומת הלב העצמית שיפר משמעותית את ביצועי המודל במשימה.

visualizing self-attention weights provides insights into the model's reasoning process.

ויזואליזציה של משקלי תשומת הלב העצמית מספקת תובנות לגבי תהליך החשיבה של המודל.

multi-head self-attention enables the model to attend to different aspects of the input.

תשומת לב עצמית מרובת ראשים מאפשרת למודל להתמקד בהיבטים שונים של הקלט.

self-attention layers are crucial for understanding context in natural language processing.

שכבות תשומת לב עצמית חיוניות להבנת הקשר בעיבוד שפה טבעית.

the self-attention mechanism helps the model resolve ambiguity in the sentence.

מנגנון תשומת הלב העצמית עוזר למודל לפתור דו משמעות במשפט.

we compared self-attention with traditional recurrent neural networks.

השוואנו תשומת לב עצמית עם רשתות נוירונים חוזרות מסורתיות.

the effectiveness of self-attention is well-established in the field of nlp.

היעילות של תשומת לב עצמית מבוססת היטב בתחום ה-nlp.

self-attention contributes to better machine translation quality.

תשומת לב עצמית תורמת לאיכות טובה יותר של תרגום מכונה.

מילים פופולריות

חקור אוצר מילים שמחפשים לעיתים קרובות

הורד את האפליקציה כדי לפתוח את כל התוכן

רוצה ללמוד אוצר מילים ביעילות רבה יותר? הורד את אפליקציית DictoGo ותהנה מאפשרויות נוספות לשינון ולתרגול אוצר מילים!

הורד את DictoGo עכשיו