일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 블로그_이전_계획보다_지금_해야할게_더_많아서_유지예정
- 포토샵
- 샤미르
- Adobe
- UX
- 어도비
- 디자인
- 비밀 분산 기법
- haze #텐서플로 #tensorflow #ai
- zero knowledge proof
- Shamir
- 완전 비밀 분산
- CC
- #암호학이론
- graph 3 coloring
Archives
- Today
- Total
For Beginners
딥러닝 실험 일지 본문
728x90
에포크 수를 늘리는 것 까지는 어떻게 햇는데,
지금 아웃풋 레이어 수를 단일화했는데도 결과가 같아서,
무슨 영문인지 모르겠지만, 일단 기존 파일들과 뭐가 달라졌는지를 알아보아야할듯 싶다.
음 그리고 기존 파일에 레지듀얼 파일을 더했는데 아예 색상이 달라지는 상황이 생겨서
이 상황을 타개하기 위해 조금 더 고민을 해야 할 듯 하다.
일단은 레이어 상황을 이렇게 하지 말고 다르게 해보고 싶다.
특이한 점은 어떻게 해도 이 loss 값이 down 되지 않고, 일정 부분에서 머무른다는 것이다.
솔직히 말해서 loss 가 0에 가까우면 좋긴한데, 이 경우에서는
loss가 일정 부분에 머무르면서 계속 파동하는 형태로 가고 있다.
근데 이 네트워크가 결과가 어떻게 나오는지에 따라서 달라질 것 같다.
'2021 이전 자료들 > AI' 카테고리의 다른 글
딥러닝 실험 일지 (0) | 2020.02.14 |
---|---|
딥러닝 실험 일지 (0) | 2020.02.11 |
딥러닝 실험 일지 (0) | 2020.02.07 |
딥러닝 실험 일지 (0) | 2020.02.06 |
모두를 위한 딥러닝 강좌 필기 노트 (0) | 2020.02.04 |
Comments