self-attention mechanism
مکانیزم خود-توجه
using self-attention
استفاده از خود-توجه
self-attention layer
لایه خود-توجه
apply self-attention
اعمال خود-توجه
self-attention weights
وزنهای خود-توجه
with self-attention
با استفاده از خود-توجه
self-attention scores
نمرات خود-توجه
self-attention model
مدل خود-توجه
self-attention network
شبکه خود-توجه
self-attention improved
خود-توجه بهبود یافته
the model utilizes self-attention to weigh the importance of different words in the input sequence.
مدل از مکانیزم خود-توجه برای وزندهی به اهمیت کلمات مختلف در دنباله ورودی استفاده میکند.
self-attention allows the transformer to capture long-range dependencies effectively.
خود-توجه به ترانسفورمر اجازه میدهد وابستگیهای طولانیمدت را به طور مؤثر ثبت کند.
we fine-tuned the pre-trained model with self-attention on a new dataset.
ما مدل از پیشآموزششده را با استفاده از خود-توجه بر روی یک مجموعه داده جدید، دقیقتر کردیم.
the self-attention mechanism significantly improved the model's performance on the task.
مکانیزم خود-توجه به طور قابل توجهی عملکرد مدل را در این وظیفه بهبود بخشید.
visualizing self-attention weights provides insights into the model's reasoning process.
تصویرسازی وزنهای خود-توجه، بینشی در مورد فرآیند استدلال مدل ارائه میدهد.
multi-head self-attention enables the model to attend to different aspects of the input.
خود-توجه چند-هد به مدل اجازه میدهد تا به جنبههای مختلف ورودی توجه کند.
self-attention layers are crucial for understanding context in natural language processing.
لایههای خود-توجه برای درک زمینه در پردازش زبان طبیعی بسیار مهم هستند.
the self-attention mechanism helps the model resolve ambiguity in the sentence.
مکانیزم خود-توجه به مدل کمک میکند تا ابهام را در جمله برطرف کند.
we compared self-attention with traditional recurrent neural networks.
ما خود-توجه را با شبکههای عصبی بازگشتی سنتی مقایسه کردیم.
the effectiveness of self-attention is well-established in the field of nlp.
اثربخشی خود-توجه در زمینه NLP به خوبی ثابت شده است.
self-attention contributes to better machine translation quality.
خود-توجه به بهبود کیفیت ترجمه ماشینی کمک میکند.
self-attention mechanism
مکانیزم خود-توجه
using self-attention
استفاده از خود-توجه
self-attention layer
لایه خود-توجه
apply self-attention
اعمال خود-توجه
self-attention weights
وزنهای خود-توجه
with self-attention
با استفاده از خود-توجه
self-attention scores
نمرات خود-توجه
self-attention model
مدل خود-توجه
self-attention network
شبکه خود-توجه
self-attention improved
خود-توجه بهبود یافته
the model utilizes self-attention to weigh the importance of different words in the input sequence.
مدل از مکانیزم خود-توجه برای وزندهی به اهمیت کلمات مختلف در دنباله ورودی استفاده میکند.
self-attention allows the transformer to capture long-range dependencies effectively.
خود-توجه به ترانسفورمر اجازه میدهد وابستگیهای طولانیمدت را به طور مؤثر ثبت کند.
we fine-tuned the pre-trained model with self-attention on a new dataset.
ما مدل از پیشآموزششده را با استفاده از خود-توجه بر روی یک مجموعه داده جدید، دقیقتر کردیم.
the self-attention mechanism significantly improved the model's performance on the task.
مکانیزم خود-توجه به طور قابل توجهی عملکرد مدل را در این وظیفه بهبود بخشید.
visualizing self-attention weights provides insights into the model's reasoning process.
تصویرسازی وزنهای خود-توجه، بینشی در مورد فرآیند استدلال مدل ارائه میدهد.
multi-head self-attention enables the model to attend to different aspects of the input.
خود-توجه چند-هد به مدل اجازه میدهد تا به جنبههای مختلف ورودی توجه کند.
self-attention layers are crucial for understanding context in natural language processing.
لایههای خود-توجه برای درک زمینه در پردازش زبان طبیعی بسیار مهم هستند.
the self-attention mechanism helps the model resolve ambiguity in the sentence.
مکانیزم خود-توجه به مدل کمک میکند تا ابهام را در جمله برطرف کند.
we compared self-attention with traditional recurrent neural networks.
ما خود-توجه را با شبکههای عصبی بازگشتی سنتی مقایسه کردیم.
the effectiveness of self-attention is well-established in the field of nlp.
اثربخشی خود-توجه در زمینه NLP به خوبی ثابت شده است.
self-attention contributes to better machine translation quality.
خود-توجه به بهبود کیفیت ترجمه ماشینی کمک میکند.
لغات پرجستجو را کاوش کنید
میخواهید واژگان را مؤثرتر یاد بگیرید؟ اپلیکیشن DictoGo را دانلود کنید و از امکانات بیشتری برای حفظ و مرور واژگان لذت ببرید!
همین حالا DictoGo را دانلود کنید