일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- TensorFlow
- 딥러닝
- #영어 명언
- #opencv
- word embedding
- #Android
- 영어
- findContours
- opencv SURF
- object detection
- convexhull
- #영어
- text2img
- tokenizing
- 영어명언
- #실생활영어
- #English
- keras
- #1일1영어
- #실생활 영어
- #일상영어
- tensorflow update
- 이미지 생성
- 완전탐색
- python __init__
- Convolution Neural Network
- c언어
- python 알고리즘
- python list
- #프로젝트
Archives
- Today
- Total
목록vanishing gradient (1)
When will you grow up?
Long Short Term Memory(using IMDB dataset)
저번시간에는 word embedding /1D conv, maxpool 을 이용하여 IMDB dataset을 학습 시켰다면,이번시간에는 RNN중에서도 가장 많이사용되는, LSTM으로 IMDB dataset을 학습시켜 볼 예정입니다. 기본적으로 RNN(Recurrent Neural Network)은 시간에 따라 x가 변화하는 데이터를 학습시키기에 좋은 Neural Network 입니다(ex. 동영상, 음성, text 등등) [1.기본적인 RNN 구조] RNN은 기존에 NN와 비슷한 모양처럼 생겼지만, 중간에 Recurrent의 구조가 반복되는 구조가 다른점 입니다.이 구조를 펼쳐보면 오른쪽과 1번 이미지의 오른쪽의 구조처럼 각 중간중간의 Hidden Layer들이 연결되어 있는 구조 입니다.보통 Neura..
02. Study/Keras
2017. 11. 12. 19:50