LSTM 언어모델 기반 한국어 문장 생성
기관명 | NDSL |
---|---|
저널명 | 한국통신학회논문지 = The Journal of Korean Institute of Communications and Information Sciences |
ISSN | 1226-4717,2287-3880 |
ISBN |
저자(한글) | 김양훈,황용근,강태관,정교민 |
---|---|
저자(영문) | |
소속기관 | |
소속기관(영문) | |
출판인 | |
간행물 번호 | |
발행연도 | 2016-01-01 |
초록 | 순환신경망은 순차적이거나 길이가 가변적인 데이터에 적합한 딥러닝 모델이다. LSTM은 순환신경망에서 나타나는 기울기 소멸문제를 해결함으로써 시퀀스 구성 요소간의 장기의존성을 유지 할 수 있다. 본 논문에서는 LSTM에 기반한 언어모델을 구성하여, 불완전한 한국어 문장이 입력으로 주어졌을 때 뒤 이어 나올 단어들을 예측하여 완전한 문장을 생성할 수 있는 방법을 제안한다. 제안된 방법을 평가하기 위해 여러 한국어 말뭉치를 이용하여 모델을 학습한 다음, 한국어 문장의 불완전한 부분을 생성하는 실험을 진행하였다. 실험 결과, 제시된 언어모델이 자연스러운 한국어 문장을 생성해 낼 수 있음을 확인하였다. 또한 문장 최소 단위를 어절로 설정한 모델이 다른 모델보다 문장 생성에서 더 우수한 결과를 보임을 밝혔다. |
원문URL | http://click.ndsl.kr/servlet/OpenAPIDetailView?keyValue=03553784&target=NART&cn=JAKO201619036406241 |
첨부파일 |
과학기술표준분류 | |
---|---|
ICT 기술분류 | |
DDC 분류 | |
주제어 (키워드) | LSTM,Recurrent Neural Networks,Language Model,Sentence Generation |