Slide

SlideShare에 올려놓은 슬라이드 버전은 아래와 같습니다.

Content

  • Plain Backpropogation (BP)
    • Gradient Descent for MLP
  • BP with Momentum

Recall: Supervised Learning

Recall: Error Function

  • Error function epsilon(w)는 못생김
    • 매우 높은 차원
    • non-linear
    • global minima는 도달 불가능할 수 있음
    • local minima는 bad or good

Recall: Gradient Descent

Backpropagation

  1. Q개의 데이터셋이 존재함

  2. Forward Pass

  3. Error Computation : 출력 뉴런의 에러를 계산

  4. compute Weight Changes : 출력 레이어부터 역순으로 가중치 업데이트

  5. 네트워크의 모든 가중치 업데이트

  6. 1~5를 global error function이 원하는 임계치에 도달할때까지 반복

Backpropogation: Illustration

Forward pass: Input Layer

Forward pass: Hidden Layer

Forward pass: Output Layer

Backward pass : Output Layer

Backward pass : Hidden Layer

Weights Updating (1/3)

Weights Updating (2/3)

Weights Updating (3/3)

Finally … Done

Iteration

A Numerical Example

Weights Initialization

Error Computation

Weights Update

Gradient Error Computation (1/2)

Gradient Error Computation (2/2)

Weights Update (1/2)

Weights Update (2/2)

All Weights Updated!

Batch, Stochastic and Mini Batch Mode Training

  • Stochastic (Pattern) mode:
    • 단일 패턴이 존재
    • local error gradient 계산
    • 네트워크 weight 변경

  • Batch mode:
    • global error gradient전체 epoch에 대해 수집
    • 최초 네트워크 N0의 가중치를 한번에 업데이트

Batch, Stochastic and Mini Batch Mode Training

Batch, Stochastic and Mini Batch Mode Training

Next Lecture

  • MLP의 이론과 알고리즘을 배웠다.
    • 그러나 MLP를 이용하에 실전 문제에 어떻게 이용할까?
    • 이 tool을 최적화하는데 응용할수 있는 trick이 무엇일까?

Ref: Backpropagation Step by Step