일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 골빈해커
- 모두의 딥러닝
- C언어 공부
- pytorch zero to all
- 딥러닝
- 케라스 정리
- 딥러닝 공부
- 해리스 코너 검출
- 팀프로젝트
- 파이토치 강의 정리
- Pytorch Lecture
- 김성훈 교수님 PyTorch
- 모두의 딥러닝 예제
- matlab 영상처리
- 딥러닝 스터디
- tensorflow 예제
- 가우시안 필터링
- c++
- 파이토치 김성훈 교수님 강의 정리
- 영상처리
- TensorFlow
- 미디언 필터링
- 컴퓨터 비전
- c언어
- c++공부
- object detection
- MFC 프로그래밍
- 파이토치
- c언어 정리
- pytorch
- Today
- Total
목록파이토치 강의 정리 (3)
ComputerVision Jack
Batch(Batch size) 앞에 저희가 처리했떤 당뇨 데이터인 경우 데이터의 사이즈가 그리 크지 않습니다. 하지만 딥러닝을 적용할 경우 데이터의 용량이 거대해지는 경우가 발생합니다. 이럴 경우 Batch와 Dataloader를 통하여 해결할 수 있습니다. Epoch 에폭의 경우 반복을 이용하여 데이터 전체를 한번 학습 시킨것을 지칭합니다. batch size batch size경우 해당 데이터셋을 사용자가 지정한 만큼 자른 것을 의미합니다. 따라서 1000개의 데이터가 존재할때 batch size를 500으로 한다면 1 Epoch을 적용할 경우 2번의 반복을 돌아야합니다. DataLoader 시퀀스적으로 보면 해당 데이터가 들어오면 셔플 적용여부를 선택하고 큐에 데이터가 들어갑니다. 그 다음 각각 ..
Gradient Descent x_data y_data 1 2 2 4 3 6 이번 강의에선 저번 시간의 예제를 사용하여 Gradient Descent 알고리즘에 대해 설명해 주셨습니다. 위의 예제는 간단한 예제로, 우리는 y = x * w 식에 대해 w를 쉽게 추론할 수 있었습니다. 하지만 이번엔 w에 대해 비용그래프의 기울기를 감소시키는 방향으로 정의내리려고 합니다. 저번 시간의 예제에 해당하는 손실함수 그래프 입니다. 그래프에서 알 수 있듯 w가 2.0값이 되는 부분에서 손실(비용)이 최소 값을 갖습니다. 이제 이 그래프에 대해 경사 하강법 알고리즘을 적용해 보겠습니다. 예를 들어 w가 2가 아닌 4라고 생각해본다면 비용은 최소값이 아닌 어떤 특정한 값을 갖게 됩니다. 특정한 값을 갖게 된다면 2차함..
김성훈 교수님의 모두의 딥러닝 수업에 이어 PyTorch ZeroToAll (in English) 강의를 듣고 스스로 정리해보는 시간을 가져보려고 합니다. 영문 버전이지만 교수님께서 쉽운 영어로 편안하게 가르쳐 주셨습니다. 강의 링크 www.youtube.com/playlist?list=PLlMkM4tgfjnJ3I-dbhO9JTw7gNty6o_2m PyTorchZeroToAll (in English) Basic ML/DL lectures using PyTorch in English. www.youtube.com Lecture 01 은 기본적인 딥러닝에 관한 개요를 설명해주시는 부분이기 때문에 강의를 듣고 따로 정리하진 않았습니다. 강의 정리는 Lecture02 : Linear Model 부터 정리를 시작..