일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 미디언 필터링
- 딥러닝
- 딥러닝 공부
- tensorflow 예제
- 케라스 정리
- MFC 프로그래밍
- c++
- 모두의 딥러닝 예제
- c언어
- 파이토치 김성훈 교수님 강의 정리
- C언어 공부
- 가우시안 필터링
- pytorch zero to all
- 컴퓨터 비전
- c++공부
- Pytorch Lecture
- 파이토치
- 김성훈 교수님 PyTorch
- 해리스 코너 검출
- object detection
- 딥러닝 스터디
- TensorFlow
- 골빈해커
- matlab 영상처리
- 파이토치 강의 정리
- 모두의 딥러닝
- pytorch
- 팀프로젝트
- c언어 정리
- 영상처리
Archives
- Today
- Total
목록SC Module (1)
ComputerVision Jack
FrostNet: Towards Quantization-Aware Network Architecture Search
FrostNet: Towards Quantization-Aware Network Architecture Search Abstract Edge-dvice에서 CNNs 동작 시키기 위해 메모리와 연산 자원을 줄이는 용도로 사용되는 INT8 quantization은 기본적인 기술이 되었다. 저자는 새로운 Network Architecture Search(NAS) 통해 full-precision(FLOAT32)와 quantized(INT8) 둘 다 보장하는 Network 발견하였다. quantization aware training(QAT)와 stochastic gradient bossting 가능하게 하는 중요하지만 간단한 최적화 방법을 제안한다. 이를 통해 quantization에 효율적인 Network B..
Reading Paper/Classification Networks
2022. 1. 20. 10:20