본 논문은 2014년 발표된 논문으로 당시 Seq2Seq Machine translation은 RNN,LSTM,GRU 기반의 encoder-decoder 구조가 주를 이루고 있었습니다. encoder-decoder 구조는 (x1,...,xT)→v→(y1,...,yT)(x1,...,xT)→v→(y1,...,yT)의 순서로 encoder를 통하여 input sequence를 고정된 길이의 벡터로 바꾸고, 다시 decoder를 통하여 고정된 길이의 벡터를 translation 결과로 output하는 구조입니다. 무엇보다 장점은 가변 길이의 input과 output에 적용 가능하다는 것 입니다. 하지만 이러한 장점에도 고정된 길이의 벡터 vv를 사용하는 부분은 모델의 bottleneck이 됩니다...