Loading [MathJax]/jax/output/CommonHTML/jax.js
 
컴공돌이의 스터디 블로그
close
프로필 배경
프로필 로고

컴공돌이의 스터디 블로그

  • 분류 전체보기 (29)
    • 논문 Study (0)
      • 국제 저널 논문 요약 (0)
      • 국제 학회 논문 요약 (0)
    • 모델 Study (0)
    • 강의 Study (29)
      • 모두를 위한 머신러닝과 딥러닝 강의-시즌 1 (22)
      • 모두를 위한 머신러닝과 딥러닝 강의-시즌 RL (7)
  • 홈
  • 태그
  • 방명록
[시즌1].Lecture 06_1 - Softmax Regression_Multinomial 개념 소개

[시즌1].Lecture 06_1 - Softmax Regression_Multinomial 개념 소개

* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Logistic Regression(논리 회귀)Logistic Regression(논리 회귀) 이란 Linear Regression(선형회귀)의 Hypothesis(가설)인 Equation (1)을 z 변수라고 하고 이 z변수를 Sigmoid Function(시그모이드 함수)의 변수로 사용한 공식을 Hypothesis로 사용한 Regression 입니다. H(x)=Wx(1) Logistic Regression의 결과값은 0과 1사이의 값이 나오며 이것을 통하여 Classification(분류)도 가능하기 때문에 Logistic Classification(논리 분류..

  • format_list_bulleted 모두를 위한 머신러닝과 딥러닝 강의-시즌 1
  • · 2024. 6. 23.
  • textsms
  • navigate_before
  • 1
  • navigate_next
공지사항
전체 카테고리
  • 분류 전체보기 (29)
    • 논문 Study (0)
      • 국제 저널 논문 요약 (0)
      • 국제 학회 논문 요약 (0)
    • 모델 Study (0)
    • 강의 Study (29)
      • 모두를 위한 머신러닝과 딥러닝 강의-시즌 1 (22)
      • 모두를 위한 머신러닝과 딥러닝 강의-시즌 RL (7)
최근 글
인기 글
최근 댓글
태그
  • #RL
  • #cost function
  • #reinforcement learning
  • #action
  • #Q learning
  • #합성곱 신경망
  • #neural network
  • #state
  • #CNN
  • #convolutional neural network
전체 방문자
오늘
어제
전체
07-09 18:01
Copyright © 쭈미로운 생활 All rights reserved.
Designed by JJuum

티스토리툴바

개인정보

  • 티스토리 홈
  • 포럼
  • 로그인

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.