일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 파이토치 강의 정리
- 파이토치 김성훈 교수님 강의 정리
- 팀프로젝트
- 가우시안 필터링
- 미디언 필터링
- 딥러닝
- 해리스 코너 검출
- pytorch
- 모두의 딥러닝
- TensorFlow
- 딥러닝 스터디
- tensorflow 예제
- c언어 정리
- 김성훈 교수님 PyTorch
- 파이토치
- 컴퓨터 비전
- C언어 공부
- object detection
- 골빈해커
- 모두의 딥러닝 예제
- 영상처리
- pytorch zero to all
- 케라스 정리
- c++
- c++공부
- MFC 프로그래밍
- c언어
- 딥러닝 공부
- Pytorch Lecture
- matlab 영상처리
Archives
- Today
- Total
목록PyTorch MNIST 데이터 softmax 구현 (1)
ComputerVision Jack
PyTorch Lecture 09 : softmax Classifier
MNIST input 이번 시간엔 MNIST (숫자 그림 자료)데이터로 각각 해당 숫자에 맞게 분류하는 시간이었습니다. MNIST 데이터는 딥러닝을 공부할 때 기본이 되는 데이터로, 가로 28p 세로 28p 컬러값 1인 숫자 이미지 파일입니다. 지난 시간 저희는 간단하게 다변수에 대한 이진 결과를 예측하는 모델(logistic regression)을 만들었습니다. 이번엔 다변수에 대한 결과를 각각해당 class에 맞게 분류하는 모델을 만들려고합니다. 10 outputs 예전 모델을 생각해본다면 X -> Linear -> Activation Function -> Y_pred 입니다. 따라서 선형 모델에서 x_data의 shape이 (n, 2) 이라면 w의 shape은 (2, 1)되어 y의 shape은 자동..
DeepLearning/Pytorch_ZeroToAll
2020. 10. 23. 18:49