Evaluation of small-scale deep learning architectures in Thai speech recognition

Conference proceedings article


ผู้เขียน/บรรณาธิการ


กลุ่มสาขาการวิจัยเชิงกลยุทธ์

ไม่พบข้อมูลที่เกี่ยวข้อง


รายละเอียดสำหรับงานพิมพ์

รายชื่อผู้แต่งKaewprateep J., Prom-On S.

ผู้เผยแพร่Hindawi

ปีที่เผยแพร่ (ค.ศ.)2018

หน้าแรก60

หน้าสุดท้าย64

จำนวนหน้า5

ISBN9781509052097

นอก0146-9428

eISSN1745-4557

URLhttps://www.scopus.com/inward/record.uri?eid=2-s2.0-85049950212&doi=10.1109%2fECTI-NCON.2018.8378282&partnerID=40&md5=66c587956c3418005f69b3a25e297efa

ภาษาEnglish-Great Britain (EN-GB)


ดูบนเว็บไซต์ของสำนักพิมพ์


บทคัดย่อ

This paper presents a performance evaluation study for small-scale deep learning neural network for Thai speech recognition task. Convolutional neural network and long short term memory networks were built with a relatively small size dataset and small constructs. The aim of this study is to determine which method would be suitable for a small-scale deep learning study. Relatively small speech corpus was used to build deep-learning neural networks with two different architectures, including convolutional neural network (CNN) model and long short term memory (LSTM) model. Models were evaluated using cross validation technique and compare to one another. The result shows that CNN outperformed LSTM for a small-scale deep learning. This suggests that with the limited dataset and small-scale architecture CNN is a more suitable choice in the speech recognition study. ฉ 2018 IEEE.


คำสำคัญ

Long short term memory networkThai speech recognition


อัพเดทล่าสุด 2023-25-09 ถึง 07:36