728x90
RNN(Recurrent Neural Network)의 가장 기초를 공부하는 단계지만 2018년 현재 시점에서 RNN 이 어떻게 급변하고 있는지 간단하게 알고 난 후 그래도 기초를 다지기로 한다. 최근 인공지능의 급격한 발전에 따라 RNN 과 LSTM(Long Short Term Memory)이 많은 관심과 더불어 응용이 이루어졌지만 이미 그 수준을 넘어가는 새로운 기법들로 대체되고 있는 상황이다. RNN 과 LSTM에 의해 불과 수년 만에 sequence learning 이나 sequence translation 기법에 의해 음성인식 분야에서 놀라울 정도의 성과를 보여주었고 더 나아가 애플의 Siri 라든지 Google voice assiatance 또는 아마존의 Alexa가 부각되게 된 계기가 되었다. 하지만 스크래치 상태로부터 RNN 머신 러닝을 공부하는 초보자들이 점프하여 막바로 새로운 기법들을 받아들이고 더욱 발전시켜 나간다는 것은 거의 불가능에 가까우므로 짧은 시간 내에 이들 알고리듬을 섭렵한 후 새로운 기법에 도전해 보도록 하자.
아래 url 로 넘어가서 마저 읽어 보세요.
https://steemit.com/kr/@codingart/6-6-10-tensorflow-rnn
'머신러닝' 카테고리의 다른 글
Recurrent Neural Network의 Sequence 데이터 입력 (0) | 2019.02.25 |
---|---|
TensorFlow 머신 러닝 수치해석 Revival: sin(x) = 0 (0) | 2019.02.24 |
Hopfield Network 회로에서 웨이트의 역할 (0) | 2019.02.23 |
Hopfield Network의 전기회로, GPU 및 5세대 칩의 AI 지원기능 (0) | 2019.02.23 |
RNN의 원조인 Hopfield Network의 정체 (0) | 2019.02.20 |