self-attention

[ایالات متحده]/ˌself.əˈten.ʃən/
[بریتانیا]/ˌself.əˈten.ʃən/

ترجمه

n. مکانیسمی در شبکه‌های عصبی که به مدل اجازه می‌دهد تا اهمیت بخش‌های مختلف داده‌های ورودی را در هنگام پردازش توالی‌ها در نظر بگیرد.

عبارات و ترکیب‌ها

self-attention mechanism

مکانیزم خود-توجه

using self-attention

استفاده از خود-توجه

self-attention layer

لایه خود-توجه

apply self-attention

اعمال خود-توجه

self-attention weights

وزن‌های خود-توجه

with self-attention

با استفاده از خود-توجه

self-attention scores

نمرات خود-توجه

self-attention model

مدل خود-توجه

self-attention network

شبکه خود-توجه

self-attention improved

خود-توجه بهبود یافته

جملات نمونه

the model utilizes self-attention to weigh the importance of different words in the input sequence.

مدل از مکانیزم خود-توجه برای وزن‌دهی به اهمیت کلمات مختلف در دنباله ورودی استفاده می‌کند.

self-attention allows the transformer to capture long-range dependencies effectively.

خود-توجه به ترانسفورمر اجازه می‌دهد وابستگی‌های طولانی‌مدت را به طور مؤثر ثبت کند.

we fine-tuned the pre-trained model with self-attention on a new dataset.

ما مدل از پیش‌آموزش‌شده را با استفاده از خود-توجه بر روی یک مجموعه داده جدید، دقیق‌تر کردیم.

the self-attention mechanism significantly improved the model's performance on the task.

مکانیزم خود-توجه به طور قابل توجهی عملکرد مدل را در این وظیفه بهبود بخشید.

visualizing self-attention weights provides insights into the model's reasoning process.

تصویرسازی وزن‌های خود-توجه، بینشی در مورد فرآیند استدلال مدل ارائه می‌دهد.

multi-head self-attention enables the model to attend to different aspects of the input.

خود-توجه چند-هد به مدل اجازه می‌دهد تا به جنبه‌های مختلف ورودی توجه کند.

self-attention layers are crucial for understanding context in natural language processing.

لایه‌های خود-توجه برای درک زمینه در پردازش زبان طبیعی بسیار مهم هستند.

the self-attention mechanism helps the model resolve ambiguity in the sentence.

مکانیزم خود-توجه به مدل کمک می‌کند تا ابهام را در جمله برطرف کند.

we compared self-attention with traditional recurrent neural networks.

ما خود-توجه را با شبکه‌های عصبی بازگشتی سنتی مقایسه کردیم.

the effectiveness of self-attention is well-established in the field of nlp.

اثربخشی خود-توجه در زمینه NLP به خوبی ثابت شده است.

self-attention contributes to better machine translation quality.

خود-توجه به بهبود کیفیت ترجمه ماشینی کمک می‌کند.

واژه‌های پرکاربرد

لغات پرجستجو را کاوش کنید

برای دسترسی به محتوای کامل، اپلیکیشن را دانلود کنید

می‌خواهید واژگان را مؤثرتر یاد بگیرید؟ اپلیکیشن DictoGo را دانلود کنید و از امکانات بیشتری برای حفظ و مرور واژگان لذت ببرید!

همین حالا DictoGo را دانلود کنید