일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- object detection
- pytorch zero to all
- 파이토치
- c언어 정리
- 모두의 딥러닝 예제
- pytorch
- 팀프로젝트
- c언어
- 딥러닝 스터디
- TensorFlow
- 파이토치 강의 정리
- c++
- 딥러닝
- 파이토치 김성훈 교수님 강의 정리
- 가우시안 필터링
- 골빈해커
- 김성훈 교수님 PyTorch
- 해리스 코너 검출
- 컴퓨터 비전
- 모두의 딥러닝
- 영상처리
- 케라스 정리
- Pytorch Lecture
- 딥러닝 공부
- c++공부
- C언어 공부
- 미디언 필터링
- MFC 프로그래밍
- tensorflow 예제
- matlab 영상처리
- Today
- Total
목록골빈헤커 (2)
ComputerVision Jack
[개념 정리] Mnist 데이터를 이용한 신경망 학습 우선 데이터를 분석한다. mnist의 데이터는 28 * 28 사이즈의 이미지로 되어있다. X = tf.placeholder(tf.float32, [None, 784]) Y = tf.placeholder(tf.float32, shape = [None, 10]) #우리는 이미지를 통으로 집어 넣기 때문에 feature 사이즈는 28 * 28 = 784이다. 그리고 label은 (0 ~ 9) 까지 이기 때문에 10으로 설정한다. 미니 배치 : 데이터를 적당한 크기로 잘라서 학습시키는 것 배치 사이즈를 설정하고 데이터가 한바퀴 다 돌아야 1epochs 라고 한다. W1 = tf.Variable(tf.random_normal([784, 256], stddev ..
[개념정리] 심층 신경망과 다층 신경망을 간단하게 구현한다. 인공 신경망은 뉴런의 동작 원리에 기초한다. 즉 입력값 X에 가중치(W)를 곱하고 편향(b)을 더한 뒤 활성화 함수(Sigmoid, ReLU 등)를 거쳐 결과값 y를 만들어 내는 것 Y = Sigmoid(X x W + b) 출력 = 활성화 함수( 입력 x 가중치 + 편향) 따라서 가중치와 편향을 찾아내는 것이 학습 Sigmoid ReLU tanh 분류 문제 패턴을 파악해 여러 종류로 구분하는 작업 One-hot-encoding(온핫 인코딩) 레이블 데이터 구성 데이터가 가질 수 있는 값들을 일렬로 나열한 배열을 만들고 표현하려는 값을 뜻하는 인덱스 원소만 1로 표기 나머지 원소는 모두 0으로 표기 [ 포유류, 조류, 기타] 인경우 포유류 일때 ..