auto-attention

[ایالات متحده]/[ˈɔːtoʊ əˈtenʃən]/
[بریتانیا]/[ˈɔːtoʊ əˈtenʃən]/
بسامد: خیلی زیاد

ترجمه

n. یک مکانیسم در شبکه‌های عصبی که به مدل اجازه می‌دهد در هنگام پردازش، روی بخش‌های مختلف دنباله ورودی تمرکز کند.؛ نوعی مکانیسم توجه که وزن‌های آن توسط مدل به طور خودکار یاد گرفته می‌شود، به جای اینکه به صورت صریح تعریف شوند.

عبارات و ترکیب‌ها

auto-attention mechanism

مکانیسم توجه خودکار

using auto-attention

استفاده از توجه خودکار

auto-attention layer

لایه توجه خودکار

with auto-attention

با توجه خودکار

auto-attention scores

نمرات توجه خودکار

auto-attention weights

وزن‌های توجه خودکار

apply auto-attention

اعمال توجه خودکار

auto-attention model

مدل توجه خودکار

auto-attention network

شبکه توجه خودکار

auto-attention improved

بهبود یافته توجه خودکار

جملات نمونه

the model leverages auto-attention to focus on relevant input features.

مدل از توجه خودکار برای تمرکز بر ویژگی‌های ورودی مرتبط استفاده می‌کند.

we incorporated auto-attention into the transformer architecture for improved performance.

ما توجه خودکار را در ساختار تبدیل‌دهنده جایگذاری کردیم تا عملکرد را بهبود بخشیم.

auto-attention allows the network to weigh different parts of the input sequence.

توجه خودکار به شبکه امکان می‌دهد تا بخش‌های مختلف دنباله ورودی را وزن دهد.

the auto-attention mechanism significantly boosted the machine translation accuracy.

مکانیزم توجه خودکار دقت ترجمه ماشین را به طور قابل توجهی افزایش داد.

visual auto-attention helps the model understand image context better.

توجه خودکار تصویری به مدل کمک می‌کند تا بهتر با زمینه تصویر آشنا شود.

we observed that auto-attention captured long-range dependencies effectively.

ما مشاهده کردیم که توجه خودکار به طور مؤثر وابستگی‌های فاصله‌دار را ثبت می‌کند.

the research explored the application of auto-attention in sentiment analysis.

پژوهش کاربرد توجه خودکار در تحلیل احساسات را بررسی کرد.

sparse auto-attention reduces computational complexity without sacrificing accuracy.

توجه خودکار پراکنده پیچیدگی محاسباتی را کاهش می‌دهد بدون اینکه دقت را کاهش دهد.

auto-attention layers are crucial for understanding complex relationships in data.

لایه‌های توجه خودکار برای درک روابط پیچیده در داده‌ها حیاتی هستند.

the auto-attention scores highlight the most important words in the sentence.

نمرات توجه خودکار کلمات مهم‌تر در جمله را تاکید می‌کنند.

compared to previous methods, auto-attention demonstrated superior contextual understanding.

مقایسه با روش‌های قبلی، توجه خودکار درک زمینه‌ای برتری نشان داد.

واژه‌های پرکاربرد

لغات پرجستجو را کاوش کنید

برای دسترسی به محتوای کامل، اپلیکیشن را دانلود کنید

می‌خواهید واژگان را مؤثرتر یاد بگیرید؟ اپلیکیشن DictoGo را دانلود کنید و از امکانات بیشتری برای حفظ و مرور واژگان لذت ببرید!

همین حالا DictoGo را دانلود کنید