Training an articulatory synthesizer with continuous acoustic data
Conference proceedings article
ผู้เขียน/บรรณาธิการ
กลุ่มสาขาการวิจัยเชิงกลยุทธ์
ไม่พบข้อมูลที่เกี่ยวข้อง
รายละเอียดสำหรับงานพิมพ์
รายชื่อผู้แต่ง: Prom-On S., Birkholz P., Xu Y.
ผู้เผยแพร่: International Speech and Communication Association
ปีที่เผยแพร่ (ค.ศ.): 2013
หน้าแรก: 349
หน้าสุดท้าย: 353
จำนวนหน้า: 5
นอก: 2308-457X
eISSN: 2308-457X
ภาษา: English-Great Britain (EN-GB)
บทคัดย่อ
This paper reports preliminary results of our effort to address the acoustic-to-articulatory inversion problem. We tested an approach that simulates speech production acquisition as a distal learning task, with acoustic signals of natural utterances in the form of MFCC as input, VocalTractLab - A 3D articulatory synthesizer controlled by target approximation models as the learner, and stochastic gradient descent as the training method. The approach was tested on a number of natural utterances, and the results were highly encouraging. Copyright ฉ 2013 ISCA.
คำสำคัญ
Acoustic-to-articulatory inversion, Articulatory synthesis, Embodiment constraint, Target approximation