일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
- 딥러닝
- tensorflow 예제
- 골빈해커
- C언어 공부
- object detection
- 딥러닝 공부
- 가우시안 필터링
- 케라스 정리
- TensorFlow
- 파이토치 김성훈 교수님 강의 정리
- c++
- 모두의 딥러닝 예제
- 딥러닝 스터디
- MFC 프로그래밍
- 컴퓨터 비전
- 파이토치
- 해리스 코너 검출
- 김성훈 교수님 PyTorch
- matlab 영상처리
- Pytorch Lecture
- 파이토치 강의 정리
- pytorch zero to all
- 팀프로젝트
- 영상처리
- 미디언 필터링
- c언어
- c++공부
- 모두의 딥러닝
- c언어 정리
- pytorch
- Today
- Total
목록DeepLearning/골빈해커 - Tensor Lib (10)
ComputerVision Jack

[개념 정리] DQN(Deep Q-network) 딥마인드에서 만든 신경망 게임 화면만 보고 게임을 학습하는 신경망. 강화학습 알고리즘으로 유명한 Q-러닝을 딥러닝으로 구현한 의미 강화학습 : 어떤 환경에서 인공지능 에이전트가 현재 상태를 판단하여 가장 이로운 행동을 하게 만드는 학습방법 학습 시 이로운 행동을 하면 보상을 주고, 해로운 행동을 하면 패널티를 줘서 학습이 진행될수록 이로운 행동의 반경을 넓혀간다. Q-러닝 : 어떠한 상태에서 특정 행동을 했을 때의 가치를 나타내는 함수인 Q함수를 학습하는 알고리즘 Q함수를 신경망을 활용해 학습한것. 학습을 진행하면서 최적의 행동을 얻어내는 기본 신경망과 좋은 선택인지 비교하는 목표 신경망을 분리하는 방법 적용 http://gym.openai.com/env..
[개념 정리] 인셉션(Inception) 구글이 만든 이미지 인식 모델, 기본적으로 작은 컨볼루션 계층을 매우 많이 연결한 것. #책의 자료 주소 오류 책에서 주어진 예제를 실습하기 위해 자료를 찾아 github에 들어 갔으나, 404에러가.. 그래도 다행인건 데이터에 대한 자료는 존재한다. 시간을 내서 그냥 스스로 cnn을 제작하여 학습시켜보려고 한다. ##

[개념정리] RNN(Recurrent Neural Network) 자연어 인식의 순환 신경망. 자연어 처리나 음성 인식처럼 순서가 있는 데이터를 처리하는데 강점인 신경망 셀(Cell) 한 덩어리의 신경망. RNN은 셀을 여러 개 중첩하여 심층 신경망을 만든다. 앞 단계 학습 결과를 다음 단계의 학습에 이용한다. [코드 정리] MNIST를 RNN으로 처리 learning_rate = 0.001 total_epoch = 30 batch_size = 128 n_input = 28 n_step = 28 n_hidden = 128 n_class = 10 #하이퍼 파라미터를 설정한다. X = tf.placeholder(tf.float32, [None, n_step, n_input]) Y = tf.placeholde..

[개념 정리] Gan(Generative Adversarial Netwrok) 오토 인코더와 같이 결과물을 생성하는 모델, 서로 대립하는 두 신경망을 경쟁시켜 결과물 생성 구분자(Discriminator) 실제 이미지를 구분자에게 이미지가 진짜임을 판단하게 한다. 생성자(Generator) 생성자를 통하여 노이즈로 부터 임의의 이미지를 만들고 구분자를 통해 진짜 이미지인지 판단하게 한다. 생성자는 구분자를 속여 진짜처럼 보이게 하고, 구분자는 생성자 이미지를 최대한 가짜라고 구분하기. 경쟁을 통해 생성자는 실제 이미지와 비슷하게 이미지를 생성한다. mnist를 이용하여 원하는 숫자에 해당하는 이미지 모델을 gan으로 구현 [코드정리] total_epoch = 100 batch_size = 100 lear..

[개념 정리] 비지도 학습 AutoEncoder 입력값으로부터 데이터의 특징을 찾아내는 방법 비지도 학습은 X값만 있는 상황에서 학습한다. (대표적으로 Auto Encoder가 있다.) 오토인코더(AutoEncoder) 입력값과 출력값을 같게 하는 신경망. 가운대 계층의 노드 수가 입력값 보다 적은 것이 특이사항. 따라서 데이터 압축 효과와 잡음제거 효과까지 적용 가능하다. 입력층으로 데이터가 들어오면 인코더를 통해 은닉층으로 보내고, 은닉층 데이터를 디코더를 통해 출력층으로 보낸 뒤, 출력과 입력이 비슷해지도록 가중치를 찾아내는 것. 오토 인코더(Variational AutoEncoder) 잡음 제거 인코더(Denoising AutoEncoder) [코드 정리] from tensorflow.exampl..

[개념 정리] 이미지 인식의 CNN CNN은 합성곱 신경망이다. 이러한 CNN은 이미지 인식 분야와 자연어 처리, 음성인식에도 효과가 대단하다. CNN 개념 CNN의 모델은 기본적으로 컨볼루션 계층과 풀링 계층으로 구성된다. N차원의 데이터의 지정한 영역의 값들을 하나의 값으로 압축한다고 여기면 된다. 즉 마스크(윈도우)를 통하여 이미지의 특정 영역을 가져와 은닉층을 구성된다. 따라서 윈도우의 크기가 (3 x 3)이면 가중치 또한 (3 x 3)이 필요하며, 편향은 1개가 필요하다. 이를 커널 또는 필터라고 한다. stride(스트라이드) stride는 윈도우가 이동될 크기를 말합니다. 이미지는 보통 픽셀로 구성되어 있다. 따라서 stride가 1인경우 한픽셀씩 옆으로 마스크가 이동하면서 영역을 가져오지만..
[개념 정리] Mnist 데이터를 이용한 신경망 학습 우선 데이터를 분석한다. mnist의 데이터는 28 * 28 사이즈의 이미지로 되어있다. X = tf.placeholder(tf.float32, [None, 784]) Y = tf.placeholder(tf.float32, shape = [None, 10]) #우리는 이미지를 통으로 집어 넣기 때문에 feature 사이즈는 28 * 28 = 784이다. 그리고 label은 (0 ~ 9) 까지 이기 때문에 10으로 설정한다. 미니 배치 : 데이터를 적당한 크기로 잘라서 학습시키는 것 배치 사이즈를 설정하고 데이터가 한바퀴 다 돌아야 1epochs 라고 한다. W1 = tf.Variable(tf.random_normal([784, 256], stddev ..
[개념 정리] chapter4의 예제 포유류 조류 파일을 csv로 저장한 후 작업 환경에서 읽어온다. data = np.loadtxt('./data.csv', delimiter = ',', unpack = True, dtype = 'float32') #loadtxt의 unpack 매개변수 : 한 열을 쭉 읽어와 행으로 변환 #loadtxt의 transpose 매개변수 : 전치 행렬을 제작 은닉망을 늘릴땐, 전층의 은닉층 개수를 물려받아 사용하며 최정 출력 은닉망은 결과로 분류될 클래스 개수로 정의한다. #주의할 점 신경망의 계층 수와 은닉층 뉴런수를 늘리면 복잡도가 높은 문제를 해결하는데 도움을 준다. 그러나 많이 늘릴 수록 과적합 문제에 빠질 수 있다. global_step 생성이유 : 학습 마다 과정..