self-attention

[Mỹ]/ˌself.əˈten.ʃən/
[Anh]/ˌself.əˈten.ʃən/

Dịch

n. Một cơ chế trong mạng nơ-ron cho phép mô hình đánh trọng số tầm quan trọng của các phần khác nhau của dữ liệu đầu vào khi xử lý chuỗi.

Cụm từ & Cách kết hợp

self-attention mechanism

cơ chế tự chú ý

using self-attention

sử dụng tự chú ý

self-attention layer

lớp tự chú ý

apply self-attention

áp dụng tự chú ý

self-attention weights

trọng số tự chú ý

with self-attention

với tự chú ý

self-attention scores

điểm số tự chú ý

self-attention model

mô hình tự chú ý

self-attention network

mạng lưới tự chú ý

self-attention improved

tự chú ý được cải thiện

Câu ví dụ

the model utilizes self-attention to weigh the importance of different words in the input sequence.

mô hình sử dụng cơ chế tự chú ý để đánh trọng số mức độ quan trọng của các từ khác nhau trong chuỗi đầu vào.

self-attention allows the transformer to capture long-range dependencies effectively.

cơ chế tự chú ý cho phép mô hình transformer nắm bắt các phụ thuộc dài hạn một cách hiệu quả.

we fine-tuned the pre-trained model with self-attention on a new dataset.

chúng tôi đã tinh chỉnh mô hình được huấn luyện trước với cơ chế tự chú ý trên một tập dữ liệu mới.

the self-attention mechanism significantly improved the model's performance on the task.

cơ chế tự chú ý đã cải thiện đáng kể hiệu suất của mô hình trên tác vụ.

visualizing self-attention weights provides insights into the model's reasoning process.

trực quan hóa trọng số tự chú ý cung cấp thông tin chi tiết về quá trình suy luận của mô hình.

multi-head self-attention enables the model to attend to different aspects of the input.

cơ chế tự chú ý đa đầu cho phép mô hình chú ý đến các khía cạnh khác nhau của đầu vào.

self-attention layers are crucial for understanding context in natural language processing.

các lớp tự chú ý rất quan trọng để hiểu ngữ cảnh trong xử lý ngôn ngữ tự nhiên.

the self-attention mechanism helps the model resolve ambiguity in the sentence.

cơ chế tự chú ý giúp mô hình giải quyết sự mơ hồ trong câu.

we compared self-attention with traditional recurrent neural networks.

chúng tôi đã so sánh cơ chế tự chú ý với các mạng nơ-ron hồi quy truyền thống.

the effectiveness of self-attention is well-established in the field of nlp.

hiệu quả của cơ chế tự chú ý đã được chứng minh rõ ràng trong lĩnh vực NLP.

self-attention contributes to better machine translation quality.

cơ chế tự chú ý đóng góp vào chất lượng dịch máy tốt hơn.

Từ phổ biến

Khám phá những từ vựng được tìm kiếm thường xuyên

Tải ứng dụng để mở khóa toàn bộ nội dung

Muốn học từ vựng hiệu quả hơn? Tải ngay ứng dụng DictoGo và tận hưởng nhiều tính năng ghi nhớ và ôn tập từ vựng hơn nữa!

Tải DictoGo ngay