일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- #암호학이론
- 어도비
- Shamir
- UX
- Adobe
- 블로그_이전_계획보다_지금_해야할게_더_많아서_유지예정
- haze #텐서플로 #tensorflow #ai
- 포토샵
- 샤미르
- 완전 비밀 분산
- 디자인
- zero knowledge proof
- graph 3 coloring
- 비밀 분산 기법
- CC
- Today
- Total
목록2021 이전 자료들 (168)
For Beginners
에포크 수를 늘리니까 사진이 안정적으로 나오는 것을 확인했다. 그렇지만, 배치 사이즈 같은거는 늘리면 쿠다가 터져버려서 아직 하지 못했다. 아무래도 장비 업그레이드를 하고 나서야 가능할것 같다.ㅠㅠ 그래서 지금은 기본 레이어 수만 중첩으로 해서 사진 전반에 어떤 영향이 가는지를 비교해보려고 한다. 이따가는 30레이어 돌려봐야겠다.
오늘 테스트 해보아야 하는 것들 1. 레이어 개수 증가 8 -> 16 2. 배치사이즈 증가 8 -> 128 ( 안되면 16 부터 2씩 곱해가면서 시도) 3. clipping 조건 바꾸기 0.1 -> 0.01 또는 0.05로 바꿔보기 4. 에포크 수 증가 10 -> 50 ( 이거는 꼭 해야함 ) torch.nn.utils.clip_grad_norm is now deprecated in favor of torch.nn.utils.clip_grad_norm_. torch.nn.utils.clip_grad_norm(dehaze_net.parameters(),config.grad_clip_norm) 불러오는 중입니다... 이런 얘기가 나와서 코드를 조금 고쳐두었다 \https://stackoverflow.com/..
보호되어 있는 글입니다.
이번에 리눅스를 사용하면서 느낀점들을 정리해보겠다. 단순 머신러닝 조금 시도하고 있는 학생의 입장에서 사용한 글이다. 윈도우 5년동안 쓰다가(대학교+대학원) 요번에 4개월 정도 우분투 사용하면서 쓰는 후기라 신빙성이 쪼금 떨어질 수 있다. 간단히 정리하자면 리눅스는 가벼운 대신 너무 가벼워서 자꾸 불편한게 생기고, 윈도우는 무거워서 넘 느려서 속터진다. 리눅스 장점 (윈도우 단점) - 빠르다. 확실히 딥러닝 돌릴 때 속도부터가 다르다 윈도우에서 파이참까지 얹는다? 그러면 속도 거의 4배 빨라졌다고 본다. - 깃헙에서 코드 받아서 바로 돌렸을 때 생기는 에러가 확실히 줄어든다. 대부분의 딥러닝 코드들은 다 리눅스 기반 또는 맥 기반이라서 윈도우에서 주로 겪은 경로 설정이나 문자열 파싱같은 장난 안쳐도 된다..
보호되어 있는 글입니다.
RuntimeError: CUDA out of memory. Tried to allocate 600.00 MiB (GPU 0; 7.80 GiB total capacity; 5.92 GiB already allocated; 255.12 MiB free; 5.21 MiB cached) 이 에러가 났다. 네트워크 별로 넣는 input의 형태가 다른데, 1채널이었던 것을 3채널로 증가시켰더니 이렇게 나왔다. 에러를 해결하기 위해서 네트워크의 처리 사이즈를 조금 줄였다. 음 그리고 트레이닝을 돌렸는데, 결과는 가봐야 알 수 있을 것이다.