노바깅 로그

  • It's Me!
  • Github

layer normalization 1

딥러닝 | 정규화? (Batch Normalization, Layer Normalization)

기계학습 살펴보기 할 때, 정규화와 표준화를 잠깐 언급하긴 했는데 이번에 좀 더 자세히 정리하려고 한다. 일단, 우리는 보통 zero-mean, unit-variance를 선호하는데 그 이유가 무엇일까? activation 함수를 생각해보자. 대부분의 활성함수는 0 부근에서 gradient 값을 갖고, 0에서 멀어지면 gradient가 거의 0에 수렴하게 되고 더 이상 학습이 진행되지 않는다. 따라서 우리는 데이터 인풋이 0 근처에 있었으면! 하는 것이다. 그래서 input을 어느정도 normalization 해주자!가 되는 것이다. 배치 정규화 (Batch Normalization) 위에서 언급했듯이, zero-mean, unit-variance를 위해서 아래 수식을 이용한다. (아래에서 소개할 레이어..

🖥️ 컴퓨터 싸이언스 2023.05.16
이전
1
다음
프로필사진

노바깅 로그

공부를 하자!

  • 글 목록 (35)
    • 📑 논문 (14)
    • 💡 공부 (1)
    • 🖥️ 컴퓨터 싸이언스 (10)
    • 🍑 잡지식 (10)

Tag

SGG, Multimodal, 포인터, 2023, Human Feedback, 파이썬, C, 컴퓨터비전, CV, git, TWIR, Computer Vision, til, WACV, 멀티모달, tip, Scene Graph Generation, Domain Generalization, paper, 논문,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

방문자수Total

  • Today :
  • Yesterday :
Github Google Scholar

티스토리툴바

개인정보

  • 티스토리 홈
  • 포럼
  • 로그인

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.