Group Study (2020-2021)/Deep Learning

[DeepSleep] 논문 리뷰 스터디 3주차

hrxorxm 2021. 7. 19. 10:57

📚 3주차 발표 내용

💡 하람

  • 주제 : Layer Normalization
  • 링크 : https://arxiv.org/pdf/1607.06450.pdf
  • 배경
    • Batch Normalization을 이용하면 feed-forward neural network 에서 학습시간을 줄일 수 있다.
    • 하지만, Batch Normalization의 효과는 batch size 에 따라 달라지고,  Batch Normalization을 RNN에 적용하는 방법이 명확하지 않다.
  • 내용
    • BN은 "각 feature의 평균과 분산"을 구해서 batch에 있는 "각 feature를 정규화" 한다.
    • 반면 LN은 "각 input의 feature들에 대한 평균과 분산"을 구해서 batch에 있는 "각 input을 정규화" 한다.

💡 수연

 

📝 4-5주차 발표 계획

  • 회의 : 같은 주제 안에서 논문을 선정하여 읽어보자
  • 목표 : 6-8주차에 NLP 관련 논문을 읽기 위해서 RNN의 개념과 논문들을 먼저 살펴보자

💡 희

  • 주제 : RNN 및 LSTM 개념 정리

💡 도연

  • 주제 : Cho, Kyunghyun, et al. "Learning phrase representations using RNN encoder-decoder for statistical machine translation." arXiv preprint arXiv:1406.1078 (2014) (First Seq-to-Seq Paper)
  • 링크 : https://arxiv.org/pdf/1406.1078.pdf

💡 혜주

  • 주제 : Sutskever, Ilya, Oriol Vinyals, and Quoc V. Le. "Sequence to sequence learning with neural networks." Advances in neural information processing systems. (2014) (Outstanding Work)
  • 링크 : https://arxiv.org/pdf/1409.3215.pdf