일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- c++
- 케라스 정리
- 딥러닝 공부
- matlab 영상처리
- c++공부
- object detection
- 컴퓨터 비전
- 김성훈 교수님 PyTorch
- 모두의 딥러닝
- Pytorch Lecture
- 파이토치 강의 정리
- 모두의 딥러닝 예제
- 딥러닝
- TensorFlow
- pytorch
- 가우시안 필터링
- 해리스 코너 검출
- 골빈해커
- c언어 정리
- pytorch zero to all
- 딥러닝 스터디
- MFC 프로그래밍
- 파이토치
- 파이토치 김성훈 교수님 강의 정리
- 미디언 필터링
- tensorflow 예제
- 팀프로젝트
- c언어
- C언어 공부
- 영상처리
- Today
- Total
목록DeepLearning/Pytorch_ZeroToAll (10)
ComputerVision Jack
Gradient Descent x_data y_data 1 2 2 4 3 6 이번 강의에선 저번 시간의 예제를 사용하여 Gradient Descent 알고리즘에 대해 설명해 주셨습니다. 위의 예제는 간단한 예제로, 우리는 y = x * w 식에 대해 w를 쉽게 추론할 수 있었습니다. 하지만 이번엔 w에 대해 비용그래프의 기울기를 감소시키는 방향으로 정의내리려고 합니다. 저번 시간의 예제에 해당하는 손실함수 그래프 입니다. 그래프에서 알 수 있듯 w가 2.0값이 되는 부분에서 손실(비용)이 최소 값을 갖습니다. 이제 이 그래프에 대해 경사 하강법 알고리즘을 적용해 보겠습니다. 예를 들어 w가 2가 아닌 4라고 생각해본다면 비용은 최소값이 아닌 어떤 특정한 값을 갖게 됩니다. 특정한 값을 갖게 된다면 2차함..
김성훈 교수님의 모두의 딥러닝 수업에 이어 PyTorch ZeroToAll (in English) 강의를 듣고 스스로 정리해보는 시간을 가져보려고 합니다. 영문 버전이지만 교수님께서 쉽운 영어로 편안하게 가르쳐 주셨습니다. 강의 링크 www.youtube.com/playlist?list=PLlMkM4tgfjnJ3I-dbhO9JTw7gNty6o_2m PyTorchZeroToAll (in English) Basic ML/DL lectures using PyTorch in English. www.youtube.com Lecture 01 은 기본적인 딥러닝에 관한 개요를 설명해주시는 부분이기 때문에 강의를 듣고 따로 정리하진 않았습니다. 강의 정리는 Lecture02 : Linear Model 부터 정리를 시작..