self-attention

[États-Unis]/ˌself.əˈten.ʃən/
[Royaume-Uni]/ˌself.əˈten.ʃən/

Traduction

n. Un mécanisme dans les réseaux neuronaux qui permet au modèle de pondérer l'importance de différentes parties des données d'entrée lors du traitement de séquences.

Expressions & Collocations

self-attention mechanism

mécanisme d'auto-attention

using self-attention

en utilisant l'auto-attention

self-attention layer

couche d'auto-attention

apply self-attention

appliquer l'auto-attention

self-attention weights

poids de l'auto-attention

with self-attention

avec l'auto-attention

self-attention scores

scores de l'auto-attention

self-attention model

modèle d'auto-attention

self-attention network

réseau d'auto-attention

self-attention improved

auto-attention améliorée

Phrases d'exemple

the model utilizes self-attention to weigh the importance of different words in the input sequence.

le modèle utilise l'auto-attention pour pondérer l'importance des différents mots dans la séquence d'entrée.

self-attention allows the transformer to capture long-range dependencies effectively.

l'auto-attention permet au transformateur de capturer efficacement les dépendances à long terme.

we fine-tuned the pre-trained model with self-attention on a new dataset.

nous avons affiné le modèle pré-entraîné avec l'auto-attention sur un nouveau jeu de données.

the self-attention mechanism significantly improved the model's performance on the task.

le mécanisme d'auto-attention a considérablement amélioré les performances du modèle sur la tâche.

visualizing self-attention weights provides insights into the model's reasoning process.

la visualisation des poids de l'auto-attention fournit des informations sur le processus de raisonnement du modèle.

multi-head self-attention enables the model to attend to different aspects of the input.

l'auto-attention multi-tête permet au modèle de prêter attention à différents aspects de l'entrée.

self-attention layers are crucial for understanding context in natural language processing.

les couches d'auto-attention sont cruciales pour comprendre le contexte dans le traitement du langage naturel.

the self-attention mechanism helps the model resolve ambiguity in the sentence.

le mécanisme d'auto-attention aide le modèle à résoudre les ambiguïtés dans la phrase.

we compared self-attention with traditional recurrent neural networks.

nous avons comparé l'auto-attention aux réseaux neuronaux récurrents traditionnels.

the effectiveness of self-attention is well-established in the field of nlp.

l'efficacité de l'auto-attention est bien établie dans le domaine du TAL.

self-attention contributes to better machine translation quality.

l'auto-attention contribue à une meilleure qualité de traduction automatique.

Mots populaires

Explorez le vocabulaire le plus recherché

Téléchargez l'application pour débloquer l'intégralité du contenu

Vous souhaitez apprendre du vocabulaire plus efficacement ? Téléchargez l'application DictoGo et profitez de plus de fonctionnalités de mémorisation et de révision du vocabulaire !

Téléchargez DictoGo maintenant