본문으로 바로가기

aiffel 대전 1기 nlp 반 fast paper

fast paper 는 논문의 abstract, introduction 만 읽는 읽는 모임

2일차 3편 중 2편 

원문 논문 링크 :

 

1.abstract

 

 - 기존 attention 적용 알고리즘들이 sota 먹고있다. 잘 작동되는듯하다.

 - 나는 global-approach, local-attention 두 가지를 추가하였다.

 

2.introduction

 

 - global approach : 항상 모든 단어(입력 vectors)와의 attention 을 적용한다. Baudanau attention 과 차이?

 - local attention : 한번에 일부 단어(입력단어 vectors 의 subset, 부분집합)와의 attention 을 본다.