컴공돌이의 스터디 블로그
close
프로필 배경
프로필 로고

컴공돌이의 스터디 블로그

  • 분류 전체보기 (29)
    • 논문 Study (0)
      • 국제 저널 논문 요약 (0)
      • 국제 학회 논문 요약 (0)
    • 모델 Study (0)
    • 강의 Study (29)
      • 모두를 위한 머신러닝과 딥러닝 강의-시즌 1 (22)
      • 모두를 위한 머신러닝과 딥러닝 강의-시즌 RL (7)
  • 홈
  • 태그
  • 방명록
[시즌RL].Lecture 7 - DQN

[시즌RL].Lecture 7 - DQN

* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. DQN대부분의 Reinforcement Learning을 적용시키는 부분은 카메라를 통해 입력받은 화면을 사용하기 때문에 Q-Table로는 표현하기가 매우 어렵습니다. 이러한 이유 때문에 Q-Table을 대체할 것을 선택하였고 대안인 Neural Network를 사용한 방법을 Q-Network라고 합니다. Q-Network의 알고리즘은 매우 훌륭하지만 실질적으로 실행시켜보면 잘 돌아가지 않습니다. 그 이유는 2가지 요인 때문인데 첫번째 요인은 Sample Data들 간의 연관성을 고려해야 한다는 점이고 두번째 요인은 예측한 값을 비교해야하는 값이 안정되어 있지 않다는 점 입니..

  • format_list_bulleted 강의 Study/모두를 위한 머신러닝과 딥러닝 강의-시즌 RL
  • · 2024. 7. 15.
  • textsms
[시즌RL].Lecture 6 - Q-Network

[시즌RL].Lecture 6 - Q-Network

* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Q-NetworkQ-Table을 사용한 학습은 굉장히 쉽게 사용할 수 있습니다. 하지만 카메라를 통해 입력받은 화면에 대한 Q-Table은 엄청난 크기를 가지게 됩니다. Reinforcement Learning(강화 학습)을 사용할 수 있는 대부분이 이런 카메라를 통해 입력받는 화면을 사용해야 하기 때문에 Q-Table를 대신할 새로운 방법을 생각해야 했습니다. 이런 Q-Table을 대신하여 문제를 해결하기 위해서 선택된 방법이 바로 Neural Network(신경망)입니다. 이 Neural network를 사용한 Reinforcement Learning을 다른 말로 Q-Ne..

  • format_list_bulleted 강의 Study/모두를 위한 머신러닝과 딥러닝 강의-시즌 RL
  • · 2024. 7. 14.
  • textsms
[시즌1].Lecture 10_4 - Neural Network 2: ReLU and 초기값 정하기_레고처럼 Network 모듈을 마음껏 쌓아 보자

[시즌1].Lecture 10_4 - Neural Network 2: ReLU and 초기값 정하기_레고처럼 Network 모듈을 마음껏 쌓아 보자

* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. 다양한 형태의 Neural Network 위의 사진에서 볼 수 있듯이 Neural Network는 마치 레고처럼 생각한대로 만들 수가 있습니다. Neural Network 중간에 Layer를 나누는 것도 가능하고, 여러개의 Layer를 1개로 합치는 것도 가능합니다. 이런 다양한 모양의 Neural Network는 상상력에 의해서 얼마든지 새로운 모양이 나올 수 있습니다. 현재 상태를 분석하는데 이전 상태의 결과를 포함하는 모델인 Recurrent Neural Network 또한 이런 상상력에 의해서 발견되었다고 말할 수 있습니다.

  • format_list_bulleted 강의 Study/모두를 위한 머신러닝과 딥러닝 강의-시즌 1
  • · 2024. 7. 4.
  • textsms
[시즌1].Lecture 10_3 - Neural Network 2: ReLU and 초기값 정하기_Dropout 과 앙상블

[시즌1].Lecture 10_3 - Neural Network 2: ReLU and 초기값 정하기_Dropout 과 앙상블

* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. DropoutMachine Learning(기계 학습)의 가장 중요한 문제점들 중 하나는 바로 Overfitting(과적합)입니다. 이 Overfitting은 Training Data Set에 너무 적합해진 현상을 의미합니다. Training Data Set으로 입력데이터를 집어넣으면 결과는 잘 나오지만 그밖의 데이터 Test Data Set을 입력데이터로하여 집어넣으면 좋지 않은 결과가 나오게되는 것이 이 Overfitting의 문제점이라고 할 수 있습니다. Error율과 Neural Network의 Layer수를 비교해 보면 Training Data Set을 입력데이터로 ..

  • format_list_bulleted 강의 Study/모두를 위한 머신러닝과 딥러닝 강의-시즌 1
  • · 2024. 7. 3.
  • textsms
  • navigate_before
  • 1
  • navigate_next
공지사항
전체 카테고리
  • 분류 전체보기 (29)
    • 논문 Study (0)
      • 국제 저널 논문 요약 (0)
      • 국제 학회 논문 요약 (0)
    • 모델 Study (0)
    • 강의 Study (29)
      • 모두를 위한 머신러닝과 딥러닝 강의-시즌 1 (22)
      • 모두를 위한 머신러닝과 딥러닝 강의-시즌 RL (7)
최근 글
인기 글
최근 댓글
태그
  • #RL
  • #convolutional neural network
  • #cost function
  • #reinforcement learning
  • #Q learning
  • #state
  • #CNN
  • #합성곱 신경망
  • #neural network
  • #action
전체 방문자
오늘
어제
전체
05-21 13:48
Copyright © 쭈미로운 생활 All rights reserved.
Designed by JJuum

티스토리툴바