Come funziona l'attenzione su se stessi?
Come funziona l'attenzione su se stessi?

Video: Come funziona l'attenzione su se stessi?

Video: Come funziona l'attenzione su se stessi?
Video: Esercizi per il controllo della mente e delle emozioni 2024, Novembre
Anonim

In parole povere, il se stesso - Attenzione meccanismo consente agli input di interagire tra loro (“ se stesso ”) e scopri chi dovrebbero pagare di più Attenzione a (" Attenzione "). Le uscite sono aggregati di queste interazioni e Attenzione punteggi.

Inoltre, cos'è l'attenzione al Sé?

Se stesso - Attenzione , talvolta chiamato intra- Attenzione è un Attenzione meccanismo che mette in relazione diverse posizioni di una singola sequenza al fine di calcolare una rappresentazione della sequenza.

Inoltre, cos'è l'auto-attenzione nell'apprendimento profondo? Innanzitutto, definiamo cosa “ se stesso - Attenzione " è. Cheng et al, nel loro articolo intitolato "Long Short-Term Memory-Networks for Macchina Lettura”, definito se stesso - Attenzione come il meccanismo di mettere in relazione diverse posizioni di una singola sequenza o frase al fine di ottenere una rappresentazione più vivida.

A questo proposito, cos'è il meccanismo di attenzione?

Meccanismo di attenzione consente al decodificatore di occuparsi di diverse parti della frase sorgente in ogni fase della generazione dell'output. Invece di codificare la sequenza di input in un singolo vettore di contesto fisso, lasciamo che il modello impari come generare un vettore di contesto per ogni fase temporale di output.

Che cos'è il modello basato sull'attenzione?

Attenzione - modelli basati appartengono a una classe di Modelli comunemente chiamato sequenza-sequenza Modelli . Lo scopo di questi Modelli , come suggerisce il nome, produce una sequenza di output data una sequenza di input che sono, in generale, di lunghezze diverse.

Consigliato: