일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- Pytorch Lecture
- 딥러닝 스터디
- matlab 영상처리
- 가우시안 필터링
- MFC 프로그래밍
- pytorch zero to all
- 미디언 필터링
- 딥러닝
- 골빈해커
- TensorFlow
- 영상처리
- 모두의 딥러닝
- 김성훈 교수님 PyTorch
- 파이토치 강의 정리
- c++공부
- 컴퓨터 비전
- c++
- tensorflow 예제
- 파이토치 김성훈 교수님 강의 정리
- 해리스 코너 검출
- c언어
- object detection
- 케라스 정리
- 모두의 딥러닝 예제
- pytorch
- C언어 공부
- 파이토치
- 팀프로젝트
- 딥러닝 공부
- c언어 정리
- Today
- Total
목록파이토치 김성훈 교수님 강의 정리 (3)
ComputerVision Jack

Batch(Batch size) 앞에 저희가 처리했떤 당뇨 데이터인 경우 데이터의 사이즈가 그리 크지 않습니다. 하지만 딥러닝을 적용할 경우 데이터의 용량이 거대해지는 경우가 발생합니다. 이럴 경우 Batch와 Dataloader를 통하여 해결할 수 있습니다. Epoch 에폭의 경우 반복을 이용하여 데이터 전체를 한번 학습 시킨것을 지칭합니다. batch size batch size경우 해당 데이터셋을 사용자가 지정한 만큼 자른 것을 의미합니다. 따라서 1000개의 데이터가 존재할때 batch size를 500으로 한다면 1 Epoch을 적용할 경우 2번의 반복을 돌아야합니다. DataLoader 시퀀스적으로 보면 해당 데이터가 들어오면 셔플 적용여부를 선택하고 큐에 데이터가 들어갑니다. 그 다음 각각 ..

이번 장에선 전 시간에 배운 logistic regression 네트워크를 깊고 넓게 구성하는 방법에 대해 설명해주셨습니다. 우선 설명해주신 예제로 풀어보겠습니다. HKUST PHD Program Application GPA(a) Admission? 2.1 0 4.2 1 3.1 0 3.3 1 만약 데이터가 이런식으로 제공되어 있다면 우리가 알고있는 logistic regression으로 처리하면 됩니다. GPA (입력) -> Linear -> Sigmoid -> y^ 식으로 접근이 가능합니다. How about experience and other GPA(a) Experience(b) Admission? 2.1 0.1 0 4.2 0.8 1 3.1 0.9 0 3.3 0.2 1 해당 데이터에 대해 Exper..

Linear model logistic regression을 학습하기에 앞서, 앞에서 배운 선형 모델에 대해 우선적으로 복습을 해주셨습니다. x_data -> Linear Model -> y_data 경우 Hours(x) Points 1 2 2 4 3 6 4 ? 우리는 쉽게 8로 예측을 할수 있습니다. 선형 모델이기 때문이죠. Binary prediction (0 or 1) is very useful! 이번엔 문제 접근 방식을 조금 바꿔보겠습니다. 결과가 특정한 value로 수렴하지 않고 0과 1의 두가지 결과만 초래 한다고 생각해 봅시다. 때때로 이런식의 이분법적인 결론은 우리 사회에서 많이 직면할 수 있습니다. 이렇게 이분법적인 결과를 도출하기 위해선 우리는 선형 함수 결과에 활성화 함수(Sigmoi..