ML lec 04 - multi-variable linear regression (*new)

수업 웹페이지: http://hunkim.github.io/ml/ 이전 비디오에 남겨주신 댓글들 옮겨드립니다. 정동호2 months ago 꿀잼 유광현2 months ago This lecture is Amazing. Thanks Sir. I am not yet install Korean patch in my Ubuntu. Jang-Hwan Im10 months ago 아! 다변수 힘수 미분이네요 점점 어려움이 느껴지는데....강의 다 듣고 강의 횟수와 조회수 프로그램 짜보고 싶습니다 ^.^ Sung Kim10 months ago +임장환 우리는 다함수 미분을 하지는 않습니다. 프로그램이 해주니까, 미분한다는것만 이해 하시면 됩니다. Ashtray Kim3 weeks ago (edited) 교수님 질문있습니다! 그냥 1변수의 선형회귀일 경우, weight값이 하나이기 때문에 cost function이 단순 2차식, convex로 나온다는 것을 알겠는데요. weight가 2개 이상인 경우 cost function이 convex인지 아닌지 잘 모르겠습니다. 예를 들어 cost = (label- w0x0 - w1x1 - w2x2)^2 와 같은 경우 각 weight별 최대 차수는 2차이지만, 서로 다른 weight끼리 곱해지기도 하는 등 함수가 복잡하여 convex인지 아닌지 모르겠습니다. cost function의 개형이 어떤지 판단할 수 있는 방법이 있는지요 Jang Hwan Im1 month ago 선물 주신다고 해서 급 다시공부 하는데 ... 과연 설문 받을 수 있을 지...덕분에 강의 다시 듣습니다 ^.^ Alanga Doro2 months ago (edited) 교수님. 근데 머시러닝에서 bias는 어떤 역활인가요~ 바이어스를 적절히 넣으면 좋은 학습이 된다고 어디서 보았습니다. docworlds4 months ago 좋은 강의 감사합니다~! zhangbo00375 months ago 안녕하세요. 이렇게 좋고 쉬운 머신러닝 무료 강의는 처음입니다. 정말정말 고맙습니다. 짱! 이상민5 months ago 이런 강의를 이제 보다니... 혼자 독학하는 것보다 훨씬 좋군요.. 김시연7 months ago 좋은 강의 잘 듣고 있습니다. 감사합니다. Jein Song8 months ago (edited) 복습하는 도중 갑자기 궁금한 것이 생겼습니다! Gradient descent 알고리즘이 돌아가는 과정에서 만약 처음 weight에 대응하는 기울기가 무한대에 가까이 나오게 된다면 w = w - a * 무한대 답을 못구하고 계속해서 진동할 가능성도 있는 것인가요..? Jinwook Chang2 months ago 제가 정확히 알고 있는건지는 모르겠습니다만, 단순히 미분 후 극값을 찾지않고, 저런 알고리듬을 이용하는 이유 중 하나가, 첨점 즉, 기울기대 무한대인 값을 피하기 위해서인것으로 알고 있습니다.
업로드 일자 : 2017-03-05
시간 : 17:45
조회 : 1
Lec 00 - Machine/Deep learning 수업의 개요와 일정
10:05
Lec 00 - Machine/Deep learning 수업의 개요와 일정
2016-03-21
ML lec 01 - 기본적인 Machine Learning 의 용어와 개념 설명
12:29
ML lec 01 - 기본적인 Machine Learning 의 용어와 개념 설명
2016-03-21
ML lec 02 - Linear Regression의 Hypothesis 와 cost 설명
13:30
ML lec 02 - Linear Regression의 Hypothesis 와 cost 설명
2016-03-21
ML lec 03 - Linear Regression의 cost 최소화 알고리즘의 원리 설명
16:12
ML lec 03 - Linear Regression의 cost 최소화 알고리즘의 원리 설명
2016-03-21
ML lec 04 - multi-variable linear regression (*new)
17:45
ML lec 04 - multi-variable linear regression (*new)
2017-03-05
ML lab 04-1: multi-variable linear regression을 TensorFlow에서 구현하기 (new)
08:02
ML lab 04-1: multi-variable linear regression을 TensorFlow에서 구현하기 (new)
2017-03-14
ML lab 04-2: TensorFlow로 파일에서 데이타 읽어오기 (new)
13:23
ML lab 04-2: TensorFlow로 파일에서 데이타 읽어오기 (new)
2017-03-14
ML lec 5-1: Logistic Classification의 가설 함수 정의
14:57
ML lec 5-1: Logistic Classification의 가설 함수 정의
2016-03-25
ML lec 5-2 Logistic Regression의 cost 함수 설명
14:24
ML lec 5-2 Logistic Regression의 cost 함수 설명
2016-03-25
ML lab 05: TensorFlow로 Logistic Classification의 구현하기 (new)
15:42
ML lab 05: TensorFlow로 Logistic Classification의 구현하기 (new)
2017-03-14
ML lec 6-1 - Softmax Regression: 기본 개념 소개
10:17
ML lec 6-1 - Softmax Regression: 기본 개념 소개
2016-03-29
ML lec 6-2: Softmax classifier 의 cost함수
15:36
ML lec 6-2: Softmax classifier 의 cost함수
2016-03-29
ML lab 06-1: TensorFlow로 Softmax Classification의 구현하기
12:41
ML lab 06-1: TensorFlow로 Softmax Classification의 구현하기
2017-03-15
ML lab 06-2: TensorFlow로 Fancy Softmax Classification의 구현하기
16:31
ML lab 06-2: TensorFlow로 Fancy Softmax Classification의 구현하기
2017-03-15
lec 07-1: 학습 rate, Overfitting, 그리고 일반화 (Regularization)
14:03
lec 07-1: 학습 rate, Overfitting, 그리고 일반화 (Regularization)
2016-04-03
lec 07-2: Training/Testing 데이타 셋
09:21
lec 07-2: Training/Testing 데이타 셋
2016-04-03
ML lab 07-1: training/test dataset, learning rate, normalization
11:02
ML lab 07-1: training/test dataset, learning rate, normalization
2017-03-16
ML lab 07-2: Meet MNIST Dataset
13:09
ML lab 07-2: Meet MNIST Dataset
2017-03-16
lec 08-1: 딥러닝의 기본 개념: 시작과 XOR 문제
17:42
lec 08-1: 딥러닝의 기본 개념: 시작과 XOR 문제
2016-04-03
lec 08-2: 딥러닝의 기본 개념2: Back-propagation 과 2006/2007 '딥'의 출현
12:37
lec 08-2: 딥러닝의 기본 개념2: Back-propagation 과 2006/2007 '딥'의 출현
2016-04-03
ML lab 08: Tensor Manipulation
26:14
ML lab 08: Tensor Manipulation
2017-04-02
lec9-1: XOR 문제 딥러닝으로 풀기
15:03
lec9-1: XOR 문제 딥러닝으로 풀기
2016-04-06
lec9-x: 특별편: 10분안에 미분 정리하기 (lec9-2 이전에 보세요)
09:29
lec9-x: 특별편: 10분안에 미분 정리하기 (lec9-2 이전에 보세요)
2016-04-06
lec9-2:  딥넷트웍 학습 시키기 (backpropagation)
18:28
lec9-2: 딥넷트웍 학습 시키기 (backpropagation)
2016-04-06
ML lab 09-1: Neural Net for XOR
12:29
ML lab 09-1: Neural Net for XOR
2017-04-04
ML lab 09-2: Tensorboard (Neural Net for XOR)
12:08
ML lab 09-2: Tensorboard (Neural Net for XOR)
2017-04-04
lec10-1: Sigmoid 보다 ReLU가 더 좋아
17:30
lec10-1: Sigmoid 보다 ReLU가 더 좋아
2016-04-11
lec10-2: Weight 초기화 잘해보자
12:18
lec10-2: Weight 초기화 잘해보자
2016-04-11
lec10-3: Dropout 과 앙상블
09:55
lec10-3: Dropout 과 앙상블
2016-04-11
lec10-4: 레고처럼 넷트웍 모듈을 마음껏 쌓아 보자
05:09
lec10-4: 레고처럼 넷트웍 모듈을 마음껏 쌓아 보자
2016-04-11
ML lab10: NN, ReLu, Xavier, Dropout, and Adam
14:35
ML lab10: NN, ReLu, Xavier, Dropout, and Adam
2017-04-06
lec11-1 ConvNet의 Conv 레이어 만들기
16:22
lec11-1 ConvNet의 Conv 레이어 만들기
2016-04-15
lec11-2: ConvNet Max pooling 과 Full Network
05:33
lec11-2: ConvNet Max pooling 과 Full Network
2016-04-15
lec11-3 ConvNet의 활용예
12:31
lec11-3 ConvNet의 활용예
2016-04-15
ML lab11-1: TensorFlow CNN Basics
16:30
ML lab11-1: TensorFlow CNN Basics
2017-04-09
ML lab11-2: MNIST 99% with CNN
12:37
ML lab11-2: MNIST 99% with CNN
2017-04-09
ML lab11-3: CNN Class, Layers, Ensemble
10:07
ML lab11-3: CNN Class, Layers, Ensemble
2017-04-10
lec12: NN의 꽃 RNN 이야기
19:43
lec12: NN의 꽃 RNN 이야기
2016-04-30
ML lab12-1: RNN - Basics
12:34
ML lab12-1: RNN - Basics
2017-05-06
ML lab12-2: RNN - Hi Hello Training
14:52
ML lab12-2: RNN - Hi Hello Training
2017-05-06
ML lab12-3: Long Sequence RNN
11:19
ML lab12-3: Long Sequence RNN
2017-05-06
ML lab12-4: Stacked RNN + Softmax Layer
11:08
ML lab12-4: Stacked RNN + Softmax Layer
2017-05-06
ML lab12-5: Dynamic RNN
04:08
ML lab12-5: Dynamic RNN
2017-05-06
ML lab12-6: RNN with Time Series Data
10:16
ML lab12-6: RNN with Time Series Data
2017-05-06
lab13: TensorFlow를 AWS에서 GPU와 함께 돌려보자
18:13
lab13: TensorFlow를 AWS에서 GPU와 함께 돌려보자
2016-06-15
lab14: AWS에서 저렴하게 Spot Instance를 터미네이션 걱정없이 사용하기
17:58
lab14: AWS에서 저렴하게 Spot Instance를 터미네이션 걱정없이 사용하기
2017-01-31
Google Cloud ML with Examples 1  (KOREAN)
21:31
Google Cloud ML with Examples 1 (KOREAN)
2016-10-29