일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- TensorFlow
- 완전탐색
- python 알고리즘
- #Android
- #1일1영어
- 딥러닝
- #English
- opencv SURF
- #opencv
- #영어
- tokenizing
- c언어
- object detection
- python list
- #실생활 영어
- convexhull
- findContours
- 영어명언
- #프로젝트
- #일상영어
- 이미지 생성
- #영어 명언
- python __init__
- text2img
- 영어
- Convolution Neural Network
- keras
- tensorflow update
- #실생활영어
- word embedding
- Today
- Total
When will you grow up?
Transfer Learning이란?- 일반적으로 우리가 사용하는 Deep Learning에서 여러가지 문제점이 존재할 수 있다.흔한경우를 보면, 학습시켜야할 데이터수가 적을수도 있고, 충분한 학습을 위한 서버컴퓨터가 없을수도 있다. 여러가지 이유가 존재하겠지만,그래서 일반적으로 VGG,ResNet,gooGleNet등 이미 이러한 사전에 학습이 완료된 모델(Pre-Training Model)을 가지고 우리가 원하는 학습에 미세 조정 즉, 작은변화를 이용하여 학습시키는 방법이 Transfer Learning이다. 이야기하자면, 이미학습된 weight들을 transfer(전송)하여 자신의 model에 맞게 학습을 시키는 방법입니다. Keras에서는 이미 학습된 주요 모델들을 간편하게 제공합니다. 123456..
이번시간에는 RNN model을 기반으로 generative models을 만들어 보겠습니다.추가적으로 예측모델(Predictive models)을 만드는데 그럴듯한 스퀀스를 생성합니다. 이 예제에서는 원하는 large text를 이용하여 학습을 시켜 스퀀스 data를 생성할 수 있습니다. 문제 발생시 : 삭제 하도록 하겠습니다 Input Text data : http://www.bioinf.jku.at/publications/older/2604.pdf위 주소에서 크롤링을 하여 Text 파일로 "LSTM"이라는 이름으로 저장을 시켰다. [Data] [모델 정의] [Epochs 시각화] [학습된 모델로 Text Generation] 12345678910111213141516171819202122232425..
저번시간에는 word embedding /1D conv, maxpool 을 이용하여 IMDB dataset을 학습 시켰다면,이번시간에는 RNN중에서도 가장 많이사용되는, LSTM으로 IMDB dataset을 학습시켜 볼 예정입니다. 기본적으로 RNN(Recurrent Neural Network)은 시간에 따라 x가 변화하는 데이터를 학습시키기에 좋은 Neural Network 입니다(ex. 동영상, 음성, text 등등) [1.기본적인 RNN 구조] RNN은 기존에 NN와 비슷한 모양처럼 생겼지만, 중간에 Recurrent의 구조가 반복되는 구조가 다른점 입니다.이 구조를 펼쳐보면 오른쪽과 1번 이미지의 오른쪽의 구조처럼 각 중간중간의 Hidden Layer들이 연결되어 있는 구조 입니다.보통 Neura..