self-attention

[अमेरिका]/ˌself.əˈten.ʃən/
[ब्रिटेन]/ˌself.əˈten.ʃən/

अनुवाद

n. तंत्रिका जाल (neural networks) में एक तंत्र जो मॉडल को क्रमों को संसाधित करते समय इनपुट डेटा के विभिन्न हिस्सों के महत्व को तौलने की अनुमति देता है।

वाक्यांश और स्थायी शब्दसमूह

self-attention mechanism

सेल्फ-अटेंशन मैकेनिज्म

using self-attention

सेल्फ-अटेंशन का उपयोग करके

self-attention layer

सेल्फ-अटेंशन लेयर

apply self-attention

सेल्फ-अटेंशन लागू करें

self-attention weights

सेल्फ-अटेंशन वेट

with self-attention

सेल्फ-अटेंशन के साथ

self-attention scores

सेल्फ-अटेंशन स्कोर

self-attention model

सेल्फ-अटेंशन मॉडल

self-attention network

सेल्फ-अटेंशन नेटवर्क

self-attention improved

सेल्फ-अटेंशन बेहतर

उदाहरण वाक्य

the model utilizes self-attention to weigh the importance of different words in the input sequence.

मॉडल इनपुट क्रम में विभिन्न शब्दों के महत्व को मापने के लिए स्व-ध्यान का उपयोग करता है।

self-attention allows the transformer to capture long-range dependencies effectively.

स्व-ध्यान ट्रांसफ़ॉर्मर को लंबी दूरी की निर्भरताओं को प्रभावी ढंग से कैप्चर करने की अनुमति देता है।

we fine-tuned the pre-trained model with self-attention on a new dataset.

हमने एक नए डेटासेट पर स्व-ध्यान के साथ पूर्व-प्रशिक्षित मॉडल को ठीक किया।

the self-attention mechanism significantly improved the model's performance on the task.

स्व-ध्यान तंत्र ने कार्य पर मॉडल के प्रदर्शन में काफी सुधार किया।

visualizing self-attention weights provides insights into the model's reasoning process.

स्व-ध्यान भार को देखने से मॉडल की तर्क प्रक्रिया में अंतर्दृष्टि मिलती है।

multi-head self-attention enables the model to attend to different aspects of the input.

मल्टी-हेड स्व-ध्यान मॉडल को इनपुट के विभिन्न पहलुओं पर ध्यान देने की अनुमति देता है।

self-attention layers are crucial for understanding context in natural language processing.

स्व-ध्यान परतें प्राकृतिक भाषा प्रसंस्करण में संदर्भ को समझने के लिए महत्वपूर्ण हैं।

the self-attention mechanism helps the model resolve ambiguity in the sentence.

स्व-ध्यान तंत्र मॉडल को वाक्य में अस्पष्टता को हल करने में मदद करता है।

we compared self-attention with traditional recurrent neural networks.

हमने पारंपरिक आवर्ती तंत्रिका नेटवर्क के साथ स्व-ध्यान की तुलना की।

the effectiveness of self-attention is well-established in the field of nlp.

एनएलपी के क्षेत्र में स्व-ध्यान की प्रभावशीलता अच्छी तरह से स्थापित है।

self-attention contributes to better machine translation quality.

स्व-ध्यान बेहतर मशीन अनुवाद गुणवत्ता में योगदान देता है।

लोकप्रिय शब्द

अक्सर खोजे जाने वाले शब्दावली का अन्वेषण करें

पूर्ण सामग्री अनलॉक करने के लिए ऐप डाउनलोड करें

क्या आप शब्दावली को अधिक कुशलता से सीखना चाहते हैं? DictoGo ऐप डाउनलोड करें और और भी अधिक शब्द याद रखने और दोहराने की सुविधाओं का आनंद लें!

अभी DictoGo डाउनलोड करें