카테고리 없음

[coursera ML, 1주차] Model Representation

NoelBird 2019. 8. 3. 20:00

지도 학습(Suprevised Learning) 방법 중 하나인 선형 회기(Linear Regression) 모델에서 

$$ minimize_{\theta_0, \theta_1} \frac{1}{2m}\sum_{i=1}^m (h_{\theta}(x^{(i)} - y^{(i)})^2 $$

 

위와 같이 minimize 이하의 cost function(위에서 쓰인 cost function은 squared error function이라고도 함.)을 최소화 하는 것이 곧 최적화된 모델을 찾는 것입니다.

 

관례적으로 cost function은 J라는 문자로 나타냅니다.

$$ J(\theta_0, \theta_1) = \dfrac {1}{2m} \displaystyle \sum _{i=1}^m \left ( \hat{y}_{i}- y_{i} \right)^2 = \dfrac {1}{2m} \displaystyle \sum _{i=1}^m \left (h_\theta (x_{i}) - y_{i} \right)^2 $$

 

y_hat: 가설 함수(hypothesis function)

 

 

모델(=가설 함수)과 비용 함수

모델(h_theta): 고정된 theta이고, 변수는 x

비용 함수: theta에 관한 함수