苹果彩票

  • <tr id='dZhFhI'><strong id='dZhFhI'></strong><small id='dZhFhI'></small><button id='dZhFhI'></button><li id='dZhFhI'><noscript id='dZhFhI'><big id='dZhFhI'></big><dt id='dZhFhI'></dt></noscript></li></tr><ol id='dZhFhI'><option id='dZhFhI'><table id='dZhFhI'><blockquote id='dZhFhI'><tbody id='dZhFhI'></tbody></blockquote></table></option></ol><u id='dZhFhI'></u><kbd id='dZhFhI'><kbd id='dZhFhI'></kbd></kbd>

    <code id='dZhFhI'><strong id='dZhFhI'></strong></code>

    <fieldset id='dZhFhI'></fieldset>
          <span id='dZhFhI'></span>

              <ins id='dZhFhI'></ins>
              <acronym id='dZhFhI'><em id='dZhFhI'></em><td id='dZhFhI'><div id='dZhFhI'></div></td></acronym><address id='dZhFhI'><big id='dZhFhI'><big id='dZhFhI'></big><legend id='dZhFhI'></legend></big></address>

              <i id='dZhFhI'><div id='dZhFhI'><ins id='dZhFhI'></ins></div></i>
              <i id='dZhFhI'></i>
            1. <dl id='dZhFhI'></dl>
              1. <blockquote id='dZhFhI'><q id='dZhFhI'><noscript id='dZhFhI'></noscript><dt id='dZhFhI'></dt></q></blockquote><noframes id='dZhFhI'><i id='dZhFhI'></i>
              2. 首页
              3. 装备资讯
              4. 热点专题
              5. 人物访谈
              6. 政府采购
              7. 产品库
              8. 求购库
              9. 企业库
              10. 品牌排行
              11. 院校库
              12. 案例·技术
              13. 会展信息
              14. 教育装备▲采购网首页 > 知识产权 > 专利 > CN103035244A

                一种可实时反馈用户朗读进度的语音跟踪方法

                  摘要:一种可实时反馈用户朗读进度的语音跟踪方法,(1)输入待跟踪的文本;(2)根据所述文本搭建跟踪解码网络,并将跟踪解码网络、声学模型传给解码器;(3)实时提取声学特征序列,并实时传递给解码器;(4)解□码器实时判断用户朗读的进度,同时检测用户是否朗读了文本外的内容;(5)实时显示跟踪进度。本发明解决了用户不按正常顺序朗读而无法正常跟踪的问题,提高了系统的抗环境噪音干扰能力,使语音朗读跟踪功能真正达到实用的水平。
                • 专利类型发明专利
                • 申请人安徽科大讯飞信息科技股份有限公司;
                • 发明人潘颂声;赵乾;吴玲;何春江;王兵;朱群;
                • 地址230088 安徽省合肥市高新开发区望江西路666号
                • 申请号CN201210483056.8
                • 申请时间2012年11月24日
                • 申请公◆布号CN103035244A
                • 申请公布时间2013年04月10日
                • 分类号G10L15/30(2013.01)I;