일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 모두의 딥러닝 예제
- 컴퓨터 비전
- matlab 영상처리
- C언어 공부
- 딥러닝 스터디
- c언어
- 김성훈 교수님 PyTorch
- c언어 정리
- 해리스 코너 검출
- 케라스 정리
- 팀프로젝트
- object detection
- pytorch
- 골빈해커
- TensorFlow
- 가우시안 필터링
- 딥러닝
- c++
- pytorch zero to all
- c++공부
- 파이토치 김성훈 교수님 강의 정리
- 모두의 딥러닝
- MFC 프로그래밍
- 미디언 필터링
- Pytorch Lecture
- 파이토치
- 파이토치 강의 정리
- 영상처리
- 딥러닝 공부
- tensorflow 예제
- Today
- Total
목록DeepLearning/DL_ZeroToAll (11)
ComputerVision Jack
[12-0 rnn-basics] RNN엔 Cell에 대한 기본적인 접근 h = [1, 0, 0, 0] e = [0, 1, 0, 0] l = [0, 0, 1, 0] o = [0, 0, 0, 1] #실습에 사용될 hello에 대한 one-hot 인코딩 적용 with tf.variable_scope('one_cell') as scope: # One cell Rnn input_dim(4) -> output_dm(2) hidden_size = 2 cell = tf.keras.layers.SimpleRNNCell(units = hidden_size) print(cell.output_size, cell.state_size) x_data = np.array([[h]], dtype = np.float32) #x_data..
[11-0 cnn_basics] 합성곱 신경망에 대한 기본 sess = tf.InteractiveSession() image = np.array([[[[1],[2],[3]], [[4],[5],[6]], [[7],[8],[9]]]], dtype=np.float32) print(image.shape) plt.imshow(image.reshape(3,3), cmap='Greys') #기본적인 예제 이미지 생성 print("image.shape", image.shape) weight = tf.constant([[[[1.]],[[1.]]], [[[1.]],[[1.]]]]) print("weight.shape", weight.shape) conv2d = tf.nn.conv2d(image, weight, stride..
[10-1 mnist_softmax] softmax()함수를 이용한 mnist 데이터 분류 from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets("MNIST_data/", one_hot = True) #mnist데이터를 작업 환경으로 load한다. X = tf.placeholder(tf.float32, [None, 784]) Y = tf.placeholder(tf.float32, [None, 10]) #mnist 이미지를 통채로 넣어 준다. (28 * 28) 자료형이기 때문에 784크기를 받는다. W = tf.Variable(tf.random_normal([784, 10])) b = tf.Va..
[9-1 xor] 심층 신경망이 나오게 된 배경. 데이터가 선형으로 분리할 수 없게 등장하기 시작했다. (실제의 모든 데이터는 선형이지 않는다.) 그 중 대표적인 문제 xor 문제이다. x_data = np.array([[0, 0], [0, 1], [1, 0], [1, 1]], dtype = np.float32) y_data = np.array([[0], [1], [1], [0]], dtype = np.float32) #xor dataset을 준비한다. X = tf.placeholder(tf.float32, [None, 2]) Y = tf.placeholder(tf.float32, [None, 1]) #placeholder 공간 설정 W = tf.Variable(tf.random_normal([2, 1]..
[08 tensor_manipulation] Simple Array 간단한 1차원 array t = np.array([0., 1., 2., 3., 4., 5., 6.]) pp.pprint(t) print(t.ndim) # rank print(t.shape) #shape print(t[0], t[1], t[-1]) print(t[2: 5], t[4 : -1]) print(t[:2], t[3:]) 2D Array t = np.array([[1., 2., 3], [4., 5., 6.], [7., 8., 9.], [10., 11., 12]]) pp.pprint(t) print(t.ndim) print(t.shape) Shape, Rank, Axis t = tf.constant([1, 2, 3, 4]) tf.sh..
[07-1 learning_rate and evalutation] learning rate 중요성 learning_rate을 바꿔 가면서 다양하게 실험해본다. x_data = [[1, 2, 1], [1, 3, 2], [1, 3, 4], [1, 5, 5], [1, 7, 5], [1, 2, 5], [1, 6, 6], [1, 7, 7]] y_data = [[0, 0, 1], [0, 0, 1], [0, 0, 1], [0, 1, 0], [0, 1, 0], [0, 1, 0], [1, 0, 0], [1, 0, 0]] #x와 y 데이터 준비, 데이터 shape을 보면 다분류기라는 것을 알 수 있다. x_test = [[2, 1, 1], [3, 1, 2], [3, 3, 4]] y_test = [[0, 0, 1], [0,..
[06-1 softmax_classifier] 다분류기 모델 저번 모델은 이진 분류기를 사용하였다면 이번엔 다분류기를 사용하며 특성에 알맞게 다 클래스로 분류하는 과정이다. x_data = [[1, 2, 1, 1], [2, 1, 3, 2], [3, 1, 3, 4], [4, 1, 5, 5], [1, 7, 5, 5], [1, 2, 5, 6], [1, 6, 6, 6], [1, 7, 7, 7]] y_data = [[0, 0, 1], [0, 0, 1], [0, 0, 1], [0, 1, 0], [0, 1, 0], [0, 1, 0], [1, 0, 0], [1, 0 ,0]] #x_data는 저번과 거의 비슷하지만 y_data가 조금은 다르다. 분류 결과를 통하여 도출 할 수 있는 그룹군은 총 3개이다. 그리고 각 클래..
[05-1 Logistic_Regression] logistic_regresssion은 이진 분류기를 뜻한다. binary classificaiton x_data = [[1, 2], [2, 3], [3, 1], [4, 3], [5, 3], [6, 2]] y_data = [[0], [0], [0], [1], [1], [1]] #x_data 한 묶음이 y_data 하나와 매칭이 된다. 전의 데이터는 회귀 예측이기 때문에 라벨이 1 0이 아닌 특정한 value로 되어 있었다. X = tf.placeholder(tf.float32, shape=[None, 2]) Y = tf.placeholder(tf.float32, shape=[None, 1]) #마찬가지로 x_data와 y_data(라벨)의 shape에 맞게..