Enlightenment in the shadow

  • 홈
  • 방명록

Machine Learning 1

Importance Sampling

Importance Sampling은 기댓값을 계산하는 확률분포함수는 알고 있지만 표본을 생성하기 어려울 때 해당 확분포함수 대신에 표본을 생성하기가 쉬운 다른 확률 분포함수를 이용해 기댓값을 추정하는 방법이다. 즉 표본 $x$의 확률분포함수를 $p(x)$라 할 때 해당 표본에 대한 어떤 함수 $f(x)$의 기댓값은 아래와 같이 전개할 수 있게 된다는 것이다. $$ \begin{align} \Bbb{E}_{x \sim p(x)} [f(x)] &= \int_{x} p(x) f(x) dx \\ &= \int_{x} \frac{p(x)}{q(x)} q(x) f(x) dx \\ &= \Bbb{E}_{x \sim q(x)} \left [ \frac{p(x)}{q(x)} f(x) \right ] \end{align..

Machine Learning 2022.12.20
1
더보기
  • 분류 전체보기 (5)
    • Machine Learning (1)
    • Finance (4)
      • Financial Mathematics (4)
      • Finance Modeling (0)
    • Daily (0)

Tag

Python, 코테, 코딩테스트, GBM variance, LQR, HJB equation, stochastic HJB equation, 행렬회전, GBM simulation, 해밀턴 자코비 벨만 방정식, GBM solution, Ito's lemma, 해밀턴 야코비 벨만 방정식, 계층적구조다중필터링, 파이썬, 테일러 전개, GBM mean, Bellman's Optimality, 해밀턴 자코비 방정식, Hamilton Jacobi Bellman equation,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/10   »
일 월 화 수 목 금 토
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바