일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 완전 비밀 분산
- Shamir
- #암호학이론
- Adobe
- haze #텐서플로 #tensorflow #ai
- 디자인
- 포토샵
- UX
- 블로그_이전_계획보다_지금_해야할게_더_많아서_유지예정
- 샤미르
- graph 3 coloring
- 어도비
- 비밀 분산 기법
- zero knowledge proof
- CC
Archives
- Today
- Total
For Beginners
딥러닝 실험 일지 본문
728x90
오늘 테스트 해보아야 하는 것들
1. 레이어 개수 증가 8 -> 16
2. 배치사이즈 증가 8 -> 128 ( 안되면 16 부터 2씩 곱해가면서 시도)
3. clipping 조건 바꾸기 0.1 -> 0.01 또는 0.05로 바꿔보기
4. 에포크 수 증가 10 -> 50 ( 이거는 꼭 해야함 )
torch.nn.utils.clip_grad_norm is now deprecated in favor of torch.nn.utils.clip_grad_norm_.
torch.nn.utils.clip_grad_norm(dehaze_net.parameters(),config.grad_clip_norm)
이런 얘기가 나와서 코드를 조금 고쳐두었다
\https://stackoverflow.com/questions/54716377/how-to-do-gradient-clipping-in-pytorch
이거 보고 이렇게 수정하였다.
#torch.nn.utils.clip_grad_norm(dehaze_net.parameters(),config.grad_clip_norm)
torch.nn.utils.clip_grad_norm(dehaze_net.parameters(),args.clip)
일단 에포크 50으로 하고, 배치 사이즈도 128로 했으니까 크롬 다 꺼두어야겠다.
아 근데 터진다.ㅠ
하 램이 쫌 딸리네 슬프다..
일단 배치 사이즈를 64로 줄여보아야겠다.
안되면 또 올릴테니 일단 인터넷들 끄고 생각하자.
'2021 이전 자료들 > AI' 카테고리의 다른 글
딥러닝 실험 일지 (0) | 2020.02.08 |
---|---|
딥러닝 실험 일지 (0) | 2020.02.07 |
모두를 위한 딥러닝 강좌 필기 노트 (0) | 2020.02.04 |
딥러닝 실험 일지 (0) | 2020.02.04 |
딥러닝 실험일지라고 하고 일기 쓰기 (0) | 2020.02.03 |
Comments