일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 파이토치 김성훈 교수님 강의 정리
- C언어 공부
- 컴퓨터 비전
- c++
- c언어
- tensorflow 예제
- 파이토치 강의 정리
- MFC 프로그래밍
- 해리스 코너 검출
- 모두의 딥러닝 예제
- 파이토치
- 딥러닝
- Pytorch Lecture
- 김성훈 교수님 PyTorch
- 가우시안 필터링
- c언어 정리
- c++공부
- 영상처리
- matlab 영상처리
- 골빈해커
- object detection
- TensorFlow
- 딥러닝 공부
- 딥러닝 스터디
- pytorch
- 케라스 정리
- 팀프로젝트
- 모두의 딥러닝
- pytorch zero to all
- 미디언 필터링
- Today
- Total
목록DeepLearning (47)
ComputerVision Jack
[12-0 rnn-basics] RNN엔 Cell에 대한 기본적인 접근 h = [1, 0, 0, 0] e = [0, 1, 0, 0] l = [0, 0, 1, 0] o = [0, 0, 0, 1] #실습에 사용될 hello에 대한 one-hot 인코딩 적용 with tf.variable_scope('one_cell') as scope: # One cell Rnn input_dim(4) -> output_dm(2) hidden_size = 2 cell = tf.keras.layers.SimpleRNNCell(units = hidden_size) print(cell.output_size, cell.state_size) x_data = np.array([[h]], dtype = np.float32) #x_data..
[개념 정리] 인셉션(Inception) 구글이 만든 이미지 인식 모델, 기본적으로 작은 컨볼루션 계층을 매우 많이 연결한 것. #책의 자료 주소 오류 책에서 주어진 예제를 실습하기 위해 자료를 찾아 github에 들어 갔으나, 404에러가.. 그래도 다행인건 데이터에 대한 자료는 존재한다. 시간을 내서 그냥 스스로 cnn을 제작하여 학습시켜보려고 한다. ##
[11-0 cnn_basics] 합성곱 신경망에 대한 기본 sess = tf.InteractiveSession() image = np.array([[[[1],[2],[3]], [[4],[5],[6]], [[7],[8],[9]]]], dtype=np.float32) print(image.shape) plt.imshow(image.reshape(3,3), cmap='Greys') #기본적인 예제 이미지 생성 print("image.shape", image.shape) weight = tf.constant([[[[1.]],[[1.]]], [[[1.]],[[1.]]]]) print("weight.shape", weight.shape) conv2d = tf.nn.conv2d(image, weight, stride..
[10-1 mnist_softmax] softmax()함수를 이용한 mnist 데이터 분류 from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets("MNIST_data/", one_hot = True) #mnist데이터를 작업 환경으로 load한다. X = tf.placeholder(tf.float32, [None, 784]) Y = tf.placeholder(tf.float32, [None, 10]) #mnist 이미지를 통채로 넣어 준다. (28 * 28) 자료형이기 때문에 784크기를 받는다. W = tf.Variable(tf.random_normal([784, 10])) b = tf.Va..
[개념정리] RNN(Recurrent Neural Network) 자연어 인식의 순환 신경망. 자연어 처리나 음성 인식처럼 순서가 있는 데이터를 처리하는데 강점인 신경망 셀(Cell) 한 덩어리의 신경망. RNN은 셀을 여러 개 중첩하여 심층 신경망을 만든다. 앞 단계 학습 결과를 다음 단계의 학습에 이용한다. [코드 정리] MNIST를 RNN으로 처리 learning_rate = 0.001 total_epoch = 30 batch_size = 128 n_input = 28 n_step = 28 n_hidden = 128 n_class = 10 #하이퍼 파라미터를 설정한다. X = tf.placeholder(tf.float32, [None, n_step, n_input]) Y = tf.placeholde..
[9-1 xor] 심층 신경망이 나오게 된 배경. 데이터가 선형으로 분리할 수 없게 등장하기 시작했다. (실제의 모든 데이터는 선형이지 않는다.) 그 중 대표적인 문제 xor 문제이다. x_data = np.array([[0, 0], [0, 1], [1, 0], [1, 1]], dtype = np.float32) y_data = np.array([[0], [1], [1], [0]], dtype = np.float32) #xor dataset을 준비한다. X = tf.placeholder(tf.float32, [None, 2]) Y = tf.placeholder(tf.float32, [None, 1]) #placeholder 공간 설정 W = tf.Variable(tf.random_normal([2, 1]..
[개념 정리] Gan(Generative Adversarial Netwrok) 오토 인코더와 같이 결과물을 생성하는 모델, 서로 대립하는 두 신경망을 경쟁시켜 결과물 생성 구분자(Discriminator) 실제 이미지를 구분자에게 이미지가 진짜임을 판단하게 한다. 생성자(Generator) 생성자를 통하여 노이즈로 부터 임의의 이미지를 만들고 구분자를 통해 진짜 이미지인지 판단하게 한다. 생성자는 구분자를 속여 진짜처럼 보이게 하고, 구분자는 생성자 이미지를 최대한 가짜라고 구분하기. 경쟁을 통해 생성자는 실제 이미지와 비슷하게 이미지를 생성한다. mnist를 이용하여 원하는 숫자에 해당하는 이미지 모델을 gan으로 구현 [코드정리] total_epoch = 100 batch_size = 100 lear..
[08 tensor_manipulation] Simple Array 간단한 1차원 array t = np.array([0., 1., 2., 3., 4., 5., 6.]) pp.pprint(t) print(t.ndim) # rank print(t.shape) #shape print(t[0], t[1], t[-1]) print(t[2: 5], t[4 : -1]) print(t[:2], t[3:]) 2D Array t = np.array([[1., 2., 3], [4., 5., 6.], [7., 8., 9.], [10., 11., 12]]) pp.pprint(t) print(t.ndim) print(t.shape) Shape, Rank, Axis t = tf.constant([1, 2, 3, 4]) tf.sh..