컴공돌이의 스터디 블로그
close
프로필 배경
프로필 로고

컴공돌이의 스터디 블로그

  • 분류 전체보기 (29)
    • 논문 Study (0)
      • 국제 저널 논문 요약 (0)
      • 국제 학회 논문 요약 (0)
    • 모델 Study (0)
    • 강의 Study (29)
      • 모두를 위한 머신러닝과 딥러닝 강의-시즌 1 (22)
      • 모두를 위한 머신러닝과 딥러닝 강의-시즌 RL (7)
  • 홈
  • 태그
  • 방명록
[시즌1].Lecture 05_2 - Logistic Classification_Cost Function 소개

[시즌1].Lecture 05_2 - Logistic Classification_Cost Function 소개

* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Cost Function(비용 함수)Cost Function(비용 함수)은 대입하는데 사용되는 Hypothesis(가설)에 의해서 그래프의 모양이 결정됩니다. 예를들어 Linear Regression(선형 회귀)에서 사용되는 Hypothesis인 Equation (1)을 Cost Function에 대입하면 Equation (2)를 구할 수 있고 이 공식은 W에 대한 2차방정식의 형태라는 것을 알 수 있습니다. $$ H(x)=Wx $$(1)$$ \text{cost}(W) = \frac{1}{m} \sum_{i=1}^{m} (Wx^{(i)} - y^{(i)})^2 $$(2) Lo..

  • format_list_bulleted 강의 Study/모두를 위한 머신러닝과 딥러닝 강의-시즌 1
  • · 2024. 6. 22.
  • textsms
[시즌1].Lecture 03 - Linear Regression Cost Function 최소화

[시즌1].Lecture 03 - Linear Regression Cost Function 최소화

* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Linear Regression Cost Function(선형 회귀에서의 비용 함수)Linear Regression(선형 회귀)은 직선적 관계를 가지고 있기 때문에 Hypothesis(가설)은 1차 방정식인 Equation (1)으로 표현할수 있습니다. $$ H(x)=W x+b $$(1) 그리고 Linear Regression에서 사용하는 Cost Function(비용 함수)는 모든 x에서의 실제 값 y와 예측한 값 H(x)간의 거리들의 제곱값을 모두 더한 Equation (2)입니다. $$ \operatorname{cost}=\frac{1}{m} \sum_{i=1}^m\le..

  • format_list_bulleted 강의 Study/모두를 위한 머신러닝과 딥러닝 강의-시즌 1
  • · 2024. 6. 19.
  • textsms
  • navigate_before
  • 1
  • navigate_next
공지사항
전체 카테고리
  • 분류 전체보기 (29)
    • 논문 Study (0)
      • 국제 저널 논문 요약 (0)
      • 국제 학회 논문 요약 (0)
    • 모델 Study (0)
    • 강의 Study (29)
      • 모두를 위한 머신러닝과 딥러닝 강의-시즌 1 (22)
      • 모두를 위한 머신러닝과 딥러닝 강의-시즌 RL (7)
최근 글
인기 글
최근 댓글
태그
  • #state
  • #합성곱 신경망
  • #reinforcement learning
  • #Q learning
  • #cost function
  • #neural network
  • #action
  • #RL
  • #CNN
  • #convolutional neural network
전체 방문자
오늘
어제
전체
05-15 20:16
Copyright © 쭈미로운 생활 All rights reserved.
Designed by JJuum

티스토리툴바