Enlightenment in the shadow

  • 홈
  • 방명록

Machine Learning 1

Importance Sampling

Importance Sampling은 기댓값을 계산하는 확률분포함수는 알고 있지만 표본을 생성하기 어려울 때 해당 확분포함수 대신에 표본을 생성하기가 쉬운 다른 확률 분포함수를 이용해 기댓값을 추정하는 방법이다. 즉 표본 $x$의 확률분포함수를 $p(x)$라 할 때 해당 표본에 대한 어떤 함수 $f(x)$의 기댓값은 아래와 같이 전개할 수 있게 된다는 것이다. $$ \begin{align} \Bbb{E}_{x \sim p(x)} [f(x)] &= \int_{x} p(x) f(x) dx \\ &= \int_{x} \frac{p(x)}{q(x)} q(x) f(x) dx \\ &= \Bbb{E}_{x \sim q(x)} \left [ \frac{p(x)}{q(x)} f(x) \right ] \end{align..

Machine Learning 2022.12.20
1
더보기
  • 분류 전체보기 (5)
    • Machine Learning (1)
    • Finance (4)
      • Financial Mathematics (4)
      • Finance Modeling (0)
    • Daily (0)

Tag

해밀턴 자코비 벨만 방정식, 계층적구조다중필터링, 테일러 전개, HJB equation, Hamilton Jacobi Bellman equation, LQR, Ito's lemma, 코딩테스트, Python, 행렬회전, 해밀턴 자코비 방정식, 파이썬, 해밀턴 야코비 벨만 방정식, GBM variance, GBM solution, 코테, GBM mean, stochastic HJB equation, GBM simulation, Bellman's Optimality,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/10   »
일 월 화 수 목 금 토
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바