Training an articulatory synthesizer with continuous acoustic data

Conference proceedings article


ผู้เขียน/บรรณาธิการ


กลุ่มสาขาการวิจัยเชิงกลยุทธ์

ไม่พบข้อมูลที่เกี่ยวข้อง


รายละเอียดสำหรับงานพิมพ์

รายชื่อผู้แต่งProm-On S., Birkholz P., Xu Y.

ผู้เผยแพร่International Speech and Communication Association

ปีที่เผยแพร่ (ค.ศ.)2013

หน้าแรก349

หน้าสุดท้าย353

จำนวนหน้า5

นอก2308-457X

eISSN2308-457X

URLhttps://www.scopus.com/inward/record.uri?eid=2-s2.0-84901774110&partnerID=40&md5=4f80a68edcbe1c5ede19b200baaa1443

ภาษาEnglish-Great Britain (EN-GB)


บทคัดย่อ

This paper reports preliminary results of our effort to address the acoustic-to-articulatory inversion problem. We tested an approach that simulates speech production acquisition as a distal learning task, with acoustic signals of natural utterances in the form of MFCC as input, VocalTractLab - A 3D articulatory synthesizer controlled by target approximation models as the learner, and stochastic gradient descent as the training method. The approach was tested on a number of natural utterances, and the results were highly encouraging. Copyright ฉ 2013 ISCA.


คำสำคัญ

Acoustic-to-articulatory inversionArticulatory synthesisEmbodiment constraintTarget approximation


อัพเดทล่าสุด 2022-06-01 ถึง 15:56