본문 바로가기

머신러닝17

[실습] 모두의딥러닝 - Logistic Classification 을 Tensorflow로 구현해보자! 이론시간 에 배웠던 Logistic Regression 을 한번더 살펴보면 다음과 같습니다! 아직 X의 크기가 정해지지 않았기 때문에 len을 입력합니다. data 는 다음과 같습니다.이 때 X0를 모두 1로 해준 이유는 b를 제거하기 위해서입니다. 코드는 다음과 같습니다. 123456789101112131415161718192021222324252627282930313233343536373839404142import tensorflow as tfimport numpy as np xy = np.loadtxt('train.txt',unpack=True, dtype = 'float32')x_data = xy[0:-1]y_data = xy[-1];X = tf.placeholder(tf.float32)Y = t.. 2017. 2. 15.
[강의]시즌1 딥러닝의기본 - Logistic (regression) classification에 대해 알아보자 우리의 궁극적인목표는 deep learning 과 neural network 인데 이 알고리즘은중요한 component 이므로 잘 이해하는 것이 중요합니다! 그럼 복습의 의미로 linear regression 을 짧게 살펴볼까요? cost : 우리가 세운 가설과 실제 값의 차이이며이 cost 를 최소화하는 알고리즘이 Gradient decent 알고리즘 입니다.Gradient decent 알고리즘은 기울기를 작게하는 방향으로 한발짝씩 움직여 기울기가 0인부분에 수렴하도록하는 것입니다. 이 때의 한발짝을 learning rate 라고 부릅니다.이 기울기는 Cost function 을 미분하는 것입니다. 두개로 분류하는 것이라고 생각하시면됩니다.Facebook 에서 어떤 타임라인은 보여주고 어떤것은 보여주지.. 2017. 2. 15.
[실습] 모두의딥러닝 - multi-variable linear regression을 TensorFlow에서 구현해버리기 지난 이론시간에 Multivariable example 을 이용한 linear regression을 학습했습니다.좋은 성과를 내기 위해서는 적절한 feature 을 뽑아내는게 중요하다고 했었죠.어려운건 없고 단지 feature 가 여러개일 뿐입니다.두개의 weight를 학습해야 한다고 해봅시다. 코드는 다음과 같이 할 수있겠죠? 이런 방식으로 여러개의 W에 대한 linear regression 이 가능해집니다! 1234567891011121314151617181920212223242526272829303132333435363738import tensorflow as tf x1_data = [1,0,3,0,5]x2_data = [0,2,0,4,0]y_data = [1,2,3,4,5] #Try to find.. 2017. 2. 15.
[실습] 모두의딥러닝 - linear regression의 cost 최소화의 Tensorflow를 구현해보자! 상수를 제거함으로써 hypothesis 를 다음과 같이 간략해보자. matplotlib은 그래프를 출력하기위한 library 이다.x축은 W에 로, y 축은 cost 로한다. 12345678910111213141516171819202122232425262728293031323334353637383940 import tensorflow as tfimport pylab as pltimport matplotlib.pyplot as plt#tf Graph InputX = [1.,2.,3.]Y = [1.,2.,3.]m = n_samples = len(X) #Set model weightsW = tf.placeholder(tf.float32) #Construct a linear modelhypothesis = tf.. 2017. 2. 15.