일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- CC
- Adobe
- haze #텐서플로 #tensorflow #ai
- 어도비
- 비밀 분산 기법
- UX
- 완전 비밀 분산
- 샤미르
- Shamir
- 디자인
- 포토샵
- graph 3 coloring
- zero knowledge proof
- #암호학이론
- 블로그_이전_계획보다_지금_해야할게_더_많아서_유지예정
- Today
- Total
목록전체 글 (235)
For Beginners

부제: fn + f5키가 먹통일 때 하는 방법 사용 환경: windows 10 / LG GRAM 사용 환경이 다른 분들은 융통성 있게 비슷한 방법을 찾아서 성공하시길 바랍니다.. www.lgservice.co.kr/simple/selectSimpleSearchDetail.do?gubun=SCS&type=keyword&seq=27284&itemId=20150375974850 [LG전자서비스] 터치패드 클릭 시 동작이 안돼요. 터치패드 클릭 시 동작이 안돼요. www.lgservice.co.kr 엘지는 다 좋은데 공식 홈페이지 qna 찾기가 너무 어렵게 되어있다. 제가 해결한 방법 굳이 보시지 마시고 이걸로 시도해보시고 안되면 아래꺼 시도하세요 참고로 나는 밝기 조정은 되는데 이상하게 마우스 패드 부분과 절..
요새 딥러닝 실험에 진전이 안되고 잇는 중이다. 음 내 생각에는 중첩으로 레이어를 겹쳐서 하는 것이 뭔가 문제가 생기는 것 같다. 그래서 일단은 concat을 이용해서 해보는 것은 어떨까 싶다. 지금 residual layer에 대해서는 잘 안되는 것 같기도 해서, 이 residual layer를 바꾸어 보고 싶다. loss값이 줄어들듯 안줄어드니까 미치것다^^ 하 일단은 될때까지 한다!!!!! 물리모델을 벗어나서 진행하는 것이라서 이렇게 되는 것인지.. loss가 0.009 아래로 떨어질때까지 시도한다!!!
레이어를 아예 뜯어고쳐봣는데 에러가 난다. 역시 기존 이론에서 조금 벗어난 방식으로 딥러닝을 하는지 궁금했는데, 안되는 것 같다. 기존 이론에서 약간의 아이디어를 더해서 re-training을 해보아야할것같다.
에포크 수를 늘리는 것 까지는 어떻게 햇는데, 지금 아웃풋 레이어 수를 단일화했는데도 결과가 같아서, 무슨 영문인지 모르겠지만, 일단 기존 파일들과 뭐가 달라졌는지를 알아보아야할듯 싶다. 음 그리고 기존 파일에 레지듀얼 파일을 더했는데 아예 색상이 달라지는 상황이 생겨서 이 상황을 타개하기 위해 조금 더 고민을 해야 할 듯 하다. 일단은 레이어 상황을 이렇게 하지 말고 다르게 해보고 싶다. 특이한 점은 어떻게 해도 이 loss 값이 down 되지 않고, 일정 부분에서 머무른다는 것이다. 솔직히 말해서 loss 가 0에 가까우면 좋긴한데, 이 경우에서는 loss가 일정 부분에 머무르면서 계속 파동하는 형태로 가고 있다. 근데 이 네트워크가 결과가 어떻게 나오는지에 따라서 달라질 것 같다.
에포크 수를 늘리니까 사진이 안정적으로 나오는 것을 확인했다. 그렇지만, 배치 사이즈 같은거는 늘리면 쿠다가 터져버려서 아직 하지 못했다. 아무래도 장비 업그레이드를 하고 나서야 가능할것 같다.ㅠㅠ 그래서 지금은 기본 레이어 수만 중첩으로 해서 사진 전반에 어떤 영향이 가는지를 비교해보려고 한다. 이따가는 30레이어 돌려봐야겠다.
오늘 테스트 해보아야 하는 것들 1. 레이어 개수 증가 8 -> 16 2. 배치사이즈 증가 8 -> 128 ( 안되면 16 부터 2씩 곱해가면서 시도) 3. clipping 조건 바꾸기 0.1 -> 0.01 또는 0.05로 바꿔보기 4. 에포크 수 증가 10 -> 50 ( 이거는 꼭 해야함 ) torch.nn.utils.clip_grad_norm is now deprecated in favor of torch.nn.utils.clip_grad_norm_. torch.nn.utils.clip_grad_norm(dehaze_net.parameters(),config.grad_clip_norm) 불러오는 중입니다... 이런 얘기가 나와서 코드를 조금 고쳐두었다 \https://stackoverflow.com/..