Semana 7 - Videoaula 20 - Redes Neurais - COM510
Semana 7 - Videoaula 20 - Redes Neurais - COM510
Semana 7 - Videoaula 20 - Redes Neurais - COM510
1. Desaparecimento/explosão do
gradiente
2. Unidades com memória de Longo
Prazo:
• GRU e LSTM
3. Possíveis extensões
UNIDADE TRADICIONAL
Saída
at-1 tanh at
xt
PROBLEMAS COM O GRADIENTE
Fontes: https://de.wikipedia.org/wiki/Sepp_Hochreiter
https://www.brainpreservation.org/team/juergen-schmidhuber/
LONG-SHORT TERM MEMORY
ct-1 * + ct tanh
*
c~t * at
F U tanh O
at-1
xt
LONG-SHORT TERM MEMORY-LSTM
LONG-SHORT TERM MEMORY-LSTM
ct-1 * + ct tanh
*
c~t * at
F U tanh O
at-1
xt
GATED RECURRENT UNIT-GRU
at-1 * at
tanh
Fonte:
https://cims.nyu.edu/people/pr
ofiles/CHO_Kyunghyun.html xt
GRU (SIMPLIFICADA)
GRU LSTM
• Um (ou dois) gates • Três gates
• Dois (ou três) • Quatro matrizes
matrizes de pesos de pesos
• Apenas um sinal • Dois sinais
interno internos (a e c)
y1 y2 y3 yt
• Geralmente
não se usa
C31 C32 C33 C3T
muitas
camadas
C21 C22 C23 C2T
• Excesso de
C11 C12 C13 C1T
parâmetros
dificulta o
x2 x3 xt
treinamento
x1
VARIAÇÕES
Redes LSTM (ou GRU)
Bidirecionais
• Precisamos avaliar a ativação
dos neurônios nos dois
→ ←
sentidos [𝒂, 𝒂] Fonte:
http://colah.github.io/posts/
2015-09-NN-Types-FP/
• A saída depende das ativações
calculadas nos dois sentidos:
̂ → ←
𝒚 = 𝒈 𝑾𝒚 [𝒂, 𝒂] + 𝒃
• RNNs Convolucionais
Fonte: https://towardsdatascience.com/an-approach-towards-
convolutional-recurrent-neural-networks-a2e6ce722b19
O QUE VIMOS?