ML lab 05: TensorFlow로 Logistic Classification의 구현하기 (new)

강의 웹사이트: http://hunkim.github.io/ml/ 슬라이드 모음: https://goo.gl/jPtWNt 코드 모음: https://github.com/hunkim/DeepLearningZeroToAll
업로드 일자 : 2017-03-14
시간 : 15:42
조회 : 1
Lec 00 - Machine/Deep learning 수업의 개요와 일정
10:05
Lec 00 - Machine/Deep learning 수업의 개요와 일정
2016-03-21
ML lec 01 - 기본적인 Machine Learning 의 용어와 개념 설명
12:29
ML lec 01 - 기본적인 Machine Learning 의 용어와 개념 설명
2016-03-21
ML lec 02 - Linear Regression의 Hypothesis 와 cost 설명
13:30
ML lec 02 - Linear Regression의 Hypothesis 와 cost 설명
2016-03-21
ML lec 03 - Linear Regression의 cost 최소화 알고리즘의 원리 설명
16:12
ML lec 03 - Linear Regression의 cost 최소화 알고리즘의 원리 설명
2016-03-21
ML lec 04 - multi-variable linear regression (*new)
17:45
ML lec 04 - multi-variable linear regression (*new)
2017-03-05
ML lab 04-1: multi-variable linear regression을 TensorFlow에서 구현하기 (new)
08:02
ML lab 04-1: multi-variable linear regression을 TensorFlow에서 구현하기 (new)
2017-03-14
ML lab 04-2: TensorFlow로 파일에서 데이타 읽어오기 (new)
13:23
ML lab 04-2: TensorFlow로 파일에서 데이타 읽어오기 (new)
2017-03-14
ML lec 5-1: Logistic Classification의 가설 함수 정의
14:57
ML lec 5-1: Logistic Classification의 가설 함수 정의
2016-03-25
ML lec 5-2 Logistic Regression의 cost 함수 설명
14:24
ML lec 5-2 Logistic Regression의 cost 함수 설명
2016-03-25
ML lab 05: TensorFlow로 Logistic Classification의 구현하기 (new)
15:42
ML lab 05: TensorFlow로 Logistic Classification의 구현하기 (new)
2017-03-14
ML lec 6-1 - Softmax Regression: 기본 개념 소개
10:17
ML lec 6-1 - Softmax Regression: 기본 개념 소개
2016-03-29
ML lec 6-2: Softmax classifier 의 cost함수
15:36
ML lec 6-2: Softmax classifier 의 cost함수
2016-03-29
ML lab 06-1: TensorFlow로 Softmax Classification의 구현하기
12:41
ML lab 06-1: TensorFlow로 Softmax Classification의 구현하기
2017-03-15
ML lab 06-2: TensorFlow로 Fancy Softmax Classification의 구현하기
16:31
ML lab 06-2: TensorFlow로 Fancy Softmax Classification의 구현하기
2017-03-15
lec 07-1: 학습 rate, Overfitting, 그리고 일반화 (Regularization)
14:03
lec 07-1: 학습 rate, Overfitting, 그리고 일반화 (Regularization)
2016-04-03
lec 07-2: Training/Testing 데이타 셋
09:21
lec 07-2: Training/Testing 데이타 셋
2016-04-03
ML lab 07-1: training/test dataset, learning rate, normalization
11:02
ML lab 07-1: training/test dataset, learning rate, normalization
2017-03-16
ML lab 07-2: Meet MNIST Dataset
13:09
ML lab 07-2: Meet MNIST Dataset
2017-03-16
lec 08-1: 딥러닝의 기본 개념: 시작과 XOR 문제
17:42
lec 08-1: 딥러닝의 기본 개념: 시작과 XOR 문제
2016-04-03
lec 08-2: 딥러닝의 기본 개념2: Back-propagation 과 2006/2007 '딥'의 출현
12:37
lec 08-2: 딥러닝의 기본 개념2: Back-propagation 과 2006/2007 '딥'의 출현
2016-04-03
ML lab 08: Tensor Manipulation
26:14
ML lab 08: Tensor Manipulation
2017-04-02
lec9-1: XOR 문제 딥러닝으로 풀기
15:03
lec9-1: XOR 문제 딥러닝으로 풀기
2016-04-06
lec9-x: 특별편: 10분안에 미분 정리하기 (lec9-2 이전에 보세요)
09:29
lec9-x: 특별편: 10분안에 미분 정리하기 (lec9-2 이전에 보세요)
2016-04-06
lec9-2:  딥넷트웍 학습 시키기 (backpropagation)
18:28
lec9-2: 딥넷트웍 학습 시키기 (backpropagation)
2016-04-06
ML lab 09-1: Neural Net for XOR
12:29
ML lab 09-1: Neural Net for XOR
2017-04-04
ML lab 09-2: Tensorboard (Neural Net for XOR)
12:08
ML lab 09-2: Tensorboard (Neural Net for XOR)
2017-04-04
lec10-1: Sigmoid 보다 ReLU가 더 좋아
17:30
lec10-1: Sigmoid 보다 ReLU가 더 좋아
2016-04-11
lec10-2: Weight 초기화 잘해보자
12:18
lec10-2: Weight 초기화 잘해보자
2016-04-11
lec10-3: Dropout 과 앙상블
09:55
lec10-3: Dropout 과 앙상블
2016-04-11
lec10-4: 레고처럼 넷트웍 모듈을 마음껏 쌓아 보자
05:09
lec10-4: 레고처럼 넷트웍 모듈을 마음껏 쌓아 보자
2016-04-11
ML lab10: NN, ReLu, Xavier, Dropout, and Adam
14:35
ML lab10: NN, ReLu, Xavier, Dropout, and Adam
2017-04-06
lec11-1 ConvNet의 Conv 레이어 만들기
16:22
lec11-1 ConvNet의 Conv 레이어 만들기
2016-04-15
lec11-2: ConvNet Max pooling 과 Full Network
05:33
lec11-2: ConvNet Max pooling 과 Full Network
2016-04-15
lec11-3 ConvNet의 활용예
12:31
lec11-3 ConvNet의 활용예
2016-04-15
ML lab11-1: TensorFlow CNN Basics
16:30
ML lab11-1: TensorFlow CNN Basics
2017-04-09
ML lab11-2: MNIST 99% with CNN
12:37
ML lab11-2: MNIST 99% with CNN
2017-04-09
ML lab11-3: CNN Class, Layers, Ensemble
10:07
ML lab11-3: CNN Class, Layers, Ensemble
2017-04-10
lec12: NN의 꽃 RNN 이야기
19:43
lec12: NN의 꽃 RNN 이야기
2016-04-30
ML lab12-1: RNN - Basics
12:34
ML lab12-1: RNN - Basics
2017-05-06
ML lab12-2: RNN - Hi Hello Training
14:52
ML lab12-2: RNN - Hi Hello Training
2017-05-06
ML lab12-3: Long Sequence RNN
11:19
ML lab12-3: Long Sequence RNN
2017-05-06
ML lab12-4: Stacked RNN + Softmax Layer
11:08
ML lab12-4: Stacked RNN + Softmax Layer
2017-05-06
ML lab12-5: Dynamic RNN
04:08
ML lab12-5: Dynamic RNN
2017-05-06
ML lab12-6: RNN with Time Series Data
10:16
ML lab12-6: RNN with Time Series Data
2017-05-06
lab13: TensorFlow를 AWS에서 GPU와 함께 돌려보자
18:13
lab13: TensorFlow를 AWS에서 GPU와 함께 돌려보자
2016-06-15
lab14: AWS에서 저렴하게 Spot Instance를 터미네이션 걱정없이 사용하기
17:58
lab14: AWS에서 저렴하게 Spot Instance를 터미네이션 걱정없이 사용하기
2017-01-31
Google Cloud ML with Examples 1  (KOREAN)
21:31
Google Cloud ML with Examples 1 (KOREAN)
2016-10-29