카테고리 없음
[coursera ML, 1주차] Model Representation
NoelBird
2019. 8. 3. 20:00
지도 학습(Suprevised Learning) 방법 중 하나인 선형 회기(Linear Regression) 모델에서
$$ minimize_{\theta_0, \theta_1} \frac{1}{2m}\sum_{i=1}^m (h_{\theta}(x^{(i)} - y^{(i)})^2 $$
위와 같이 minimize 이하의 cost function(위에서 쓰인 cost function은 squared error function이라고도 함.)을 최소화 하는 것이 곧 최적화된 모델을 찾는 것입니다.
관례적으로 cost function은 J라는 문자로 나타냅니다.
$$ J(\theta_0, \theta_1) = \dfrac {1}{2m} \displaystyle \sum _{i=1}^m \left ( \hat{y}_{i}- y_{i} \right)^2 = \dfrac {1}{2m} \displaystyle \sum _{i=1}^m \left (h_\theta (x_{i}) - y_{i} \right)^2 $$
y_hat: 가설 함수(hypothesis function)
모델(=가설 함수)과 비용 함수
모델(h_theta): 고정된 theta이고, 변수는 x
비용 함수: theta에 관한 함수