열심히하자

  • 홈
  • 태그
  • 방명록

경사하강법 1

경사 하강법

제목은 경사하강법이지만 사실 경사 상승법이 편해서 경사상승법 형식으로 다룹니다. GD(Gradient Descent) 경사하강법이 최적해(global optimal)를 보장하는지와 그리고 과연 진짜 수렴하는지에 대해서 수식적으로 알아 보겠습니다. 서적이나 강의를 바탕으로 한게 아니라 제가 혼자 수식을 끄적이고 공부한 내용을 정리하다 보니 아마 틀린 내용이 많습니다. sgd와 gd의 차이는 (mini-batch)sgd는 데이터 셋에서 mini-batch만큼 샘플링을 하여 추출하여 경사하강법을 하여 매개변수를 업데이트 합니다. gd는 전체 데이터 셋에 대하여 업데이트를 합니다. 이때 sgd에서 추출하는 mini-batch간의 관계가 i.i.d로 정의 된다면 기울기의 기댓값이 전체 데이터셋의 기울기와 같아져 ..

ML/개념 2024.04.11
이전
1
다음
더보기
프로필사진

농구 좋아하세요...?

  • 분류 전체보기 (30)
    • python (0)
    • math (4)
      • Linear Algebra (2)
      • Probability (1)
      • etc (1)
    • 문제풀이 (13)
    • 논문리뷰 (2)
    • 강의 정리 (2)
      • CS229 (2)
    • ML (6)
      • 강화학습(reinforcement learning.. (1)
      • 잡생각 정리 (4)
      • 개념 (1)
    • 나중에 공부하고 쓸거 (3)
    • 공부할때 보면 좋을 자료 (0)

Tag

파이썬, reinforcement learning, 백준, SGD, 경사하강법, Softeer, 강화학습, Python, 인공지능, 선형대수, 소프티어, python #파이썬 #프로그래머스, vae, Generative model, 프로그래머스, softer, 머신러닝, 생성모델, Generative AI,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바