3. Attention, Transformer, Deep Generative Model, Variational Autoencoder, Generative Adversarial Network, Self-supervised Learning, Reinforcement Learning
Attention for CNN&RNN 1. Seq2seq Sentence를 Input으로 받아서 sentence를 output으로 가지는 model이다. Encoder RNN + Decoder RNN Encoder RNN의 마지막 hidden state를 Decoder의 Input hidden state로 사용한다. Decoder RNN: Loss function: \( J = {1 \over k} \sum J_{k} \) Backpropagation operated end-to-end 여기서 볼 수 있듯이, Encoder RNN은 sentence에 대한 정보를 하나의 hidden state에 녹여서 Decoder로 보내게 된다. Long sentence에서 불리하며, Information bottle..
2023.05.01