* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Deep Learning(딥 러닝)의 시작인류의 궁극적 목표 중 하나는 우리를 대신해서 골치 아픈 일을 생각해 주는 기계를 만드는 것 일것입니다. 이러한 목표를 이루기 위해서 사람들은 인간의 뇌에 대하여 연구를 하게 되었고 연구해본 결과 인간의 뇌가 굉장히 복잡하게 연결되어 있다는 사실에 놀랐고 이것과 반대로 뇌에서의 가장 작은 단위인 뉴런이 굉장히 단순하게 동작된다는 것에 놀라게 되었습니다. 뉴런은 어떠한 입력 신호를 받아서 다른 뉴런으로 보내주거나 어떠한 반응을 일으킵니다. 뉴런은 달려있는 여러개의 돌기로부터 신호를 받아들이는데 이 돌기들의 길이에 따라 입력받는 신호의 양..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Training/Test Data Set(학습/테스트 데이터셋)Machine Learning(기계 학습) 에서는 Data Set을 사용해서 학습을 하게됩니다. 만약 보유하고 있는 Data Set 전부를 사용해서 학습을 마친 후 같은 데이터를 입력해서 결과를 얻는다면 100%의 정확도를 얻을 가능성이 있지만 이것은 단순히 데이터를 기억하고 있는 것 일수도 있기 때문에 좋은 방법이 아닙니다. 이러한 이유 때문에 일반적으로는 보유하고 있는 Data Set에서 약 70%를 학습하는 데 사용하고 나머지 30%를 학습시킨 모델을 테스트 하는데 사용합니다. 이것을 각각 Training D..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Learning Rate(학습율)Machine Learning(기계 학습)에서 학습을 할때, Cost Function(비용 함수)의 최소지점을 찾기 위하여 Gradient Descent Algorithm(기울기 감소 알고리즘)을 많이 사용합니다. 이 Gradient Descent Algorithm의 공식인 Equation (1)을 보면 Cost Function의 미분값에 Alpha를 곱한것을 볼 수 있습니다. 여기서 이 Alpha가 바로 Learning Rate(학습율)를 의미합니다. $$ W := W - \alpha \frac{\partial}{\partial W} cost..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Softmax Regression(소프트맥스 회귀)Logistic Regression(논리 회귀)은 단순히 입력한 결과를 2가지 종류로 분류하는 것이라고 한다면 Softmax Regression(소프트맥스 회귀)은 여러개의 종류로 분류하는 것을 말합니다. Logistic Regression과 Softmax Regression은 기본적인 과정은 비슷하지만 가장 큰 차이점을 말하자면, Logistic Regression은 Hypothesis(가설)에서의 결과를 Sigmoid 함수를 통해 0과 1사이의 값으로 도출시킨 후 분류하고 Softmax Regression에서는 Sigmoi..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Logistic Regression(논리 회귀)Logistic Regression(논리 회귀) 이란 Linear Regression(선형회귀)의 Hypothesis(가설)인 Equation (1)을 z 변수라고 하고 이 z변수를 Sigmoid Function(시그모이드 함수)의 변수로 사용한 공식을 Hypothesis로 사용한 Regression 입니다. $$ H(x)=W x $$(1) Logistic Regression의 결과값은 0과 1사이의 값이 나오며 이것을 통하여 Classification(분류)도 가능하기 때문에 Logistic Classification(논리 분류..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Cost Function(비용 함수)Cost Function(비용 함수)은 대입하는데 사용되는 Hypothesis(가설)에 의해서 그래프의 모양이 결정됩니다. 예를들어 Linear Regression(선형 회귀)에서 사용되는 Hypothesis인 Equation (1)을 Cost Function에 대입하면 Equation (2)를 구할 수 있고 이 공식은 W에 대한 2차방정식의 형태라는 것을 알 수 있습니다. $$ H(x)=Wx $$(1)$$ \text{cost}(W) = \frac{1}{m} \sum_{i=1}^{m} (Wx^{(i)} - y^{(i)})^2 $$(2) Lo..