[시즌1].Lecture 05_1 - Logistic Classification_Hypothesis 함수 소개
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Regression(회귀) 일반화Regression(회귀)의 Hypothesis(가설)을 일반화 해보면 Equation (1)으로 표현이 가능합니다. $$ H(x)=Wx $$(1) 일반화시킨 Hypothesis를 Cost Function(비용 함수)에 대입해서 Equation (2)를 도출하고, 이 새로이 도출한 Cost Function을 Gradient Descent Algorithm(기울기 감소 알고리즘)에 대입하여 일반화된 공식인 Equation (3)를 도출할 수 있습니다. $$ \text{cost}(W) = \frac{1}{m} \sum_{i=1}^{m} (Wx^{(..