论文部分内容阅读
研究目的: 目前,关于人工耳蜗植入(cochlear implant,CI)术后言语识别评估的研究有很多,如安静环境或噪音环境下对人工耳蜗使用者的音素、单词或者语句的识别率的评估。这些研究使用的测试材料多是“清晰”语言。与会话语言(conversational speech)不同的是,“清晰”的语言材料具有语速慢、发音清楚、可理解性高的特点。然而现实生活中,人工耳蜗使用者往往会遇到更多不同的语言形式,例如人工合成的语言(Text-to-speech,从文本到语音的合成,如电话语音、汽车导航语音以及有声电子读物等),说话者不同的语言速度,以及带口音的语言等。不同的语言形式,也使人工耳蜗使用者的言语识别的任务难度增大。本次研究的目的是评估并比较人工耳蜗使用者和听力正常者(normalhearing,NH)在复杂的语言任务中的表现。研究分为两个课题:1)测试听力正常者和人工耳蜗使用者对自然语言和人工合成语言在多个说话者和不同语速(快语速、正常语速、慢语速)条件下的言语识别率;2)评估说话者的非母语口音对人工耳蜗使用者和听力正常者的语言识别中的语言可理解性的影响。 研究方法: (一)10名人工耳蜗使用者(3名男性,7名女性)和14名听力正常者(7名男性,7名女性)参加了本次测试。测试对象分为三组:人工耳蜗使用组、听力正常组以及CI模拟组。第一测试组中,人工耳蜗使用者识别未经处理的三种语速下(慢语速、正常语速、快语速)的自然语句和合成语句;第二测试组中,听力正常者识别未经处理的三种语速下自然语句和合成语句;第三测试组中,听力正常者识别模拟8通道的人工耳蜗声学刺激信号(CIS,acoustic CI simulation)的三种语速下自然语言和合成语言的语句。自然语言和合成语言都由一个男说话者和一个女说话者产生。测试所用的材料是具有中等难度的IEEE语句,共72组,每组10个句子。在语速的处理上,自然语言的语速调节具有时标(time-scaled)特点,即在正常语速的基础上对语句进行平均拉伸或者压缩,保留了原有的音调和基频信息。而合成语言则直接对语言合成工具系统进行调整,从而实现对语速的调节。 (二)14名人工耳蜗使用者(6名男性,8名女性)和6名听力正常者(3名男性,3名女性)参加了本次实验。所有测试对象的母语均为美式英语。人工耳蜗使用者和听力正常者在测试中识别由本国说话者(2名男性,2名女性)和以西班牙为母语的非本国说话者(4名男性,4名女性)录制的语句。8名非本国说话者带有不同程度的西班牙口音,对此我们对说话者的学习英语的年龄、在美国居住的时间长短、出生地、母语的种类,以及家庭常说的语言种类分别进行统计并记录。实验分为三个步骤:a)测试人工耳蜗使用者和听力正常者在噪音环境中(HINT,hearing in noise test)的言语感受阈(speech perceptionthreshold,SRT);b)记录安静环境下人工耳蜗使用者和听力正常者的单词识别的正确率;c)由测试对象对每一个说话者的可理解性和口音进行从1-10的主观评分。从1到10分别代表说话者语言的可理解性从低到高,口音从弱到强。 测试过程中,人工耳蜗使用者佩戴他们的临床处理器,其话筒的灵敏度和音量设置均调整在临床听力医师推荐的水平。双侧人工耳蜗植入者在测试中保持双侧CI处理器都开放。对侧耳使用助听器的人工耳蜗植入者测试时需关闭助听器。参加测试的听力正常者的双侧纯音听阈测定在0.25 kHz到8kHz八度音阶频率均小于15dB HL。所有测试对象均根据当地伦理委员会签署知情同意书并获得相应的工作报酬。 成果: 1.第一部分的三组测试对象中,听力正常者的表现比CI模拟组的表现好,具有统计学差异,而CI模拟组的表现又比人工耳蜗使用者的表现好。对所有测试组来说,测试对象对自然语言句子的识别率要比合成语言的句子识别率高。听力正常者对于未处理的合成语言识别力的缺陷相对于其他两组(人工耳蜗使用者识别未处理的语言,听力正常者识别8通道模拟CI听觉刺激信号)来说相对小一些。而人工耳蜗使用者和CI模拟组对合成语言的语言识别率明显比自然语言要差。另外,人工耳蜗使用者和CI模拟组两组测试对象对男性说话者和女性说话者的语言识别力也有统计学差异。在语速方面,各测试组在正常语速和慢语速的言语识别率较好,两种语速的表现没有统计学差异。相对于慢语速和正常语速,三个测试组对快语速语句的识别率都明显差。尤其是人工耳蜗使用者,在快语速的自然语句和合成语句的言语识别率均≤10%。 2.第二部分中,人工耳蜗使用者和听力正常者在安静环境和噪音环境下对非母语口音说话者的言语识别力均比对本国说话者的差,尤其是人工耳蜗使用者在噪音环境中识别非母语口音的说话者。值得关注的是,测试对象对8个非母语口音的说话者的语言理解能力存在着显著性差异。在噪音环境中,女性说话者比男性说话者更容易被理解。另外还发现,在安静环境中表现较好(单词识别率高)的测试对象在噪音环境中相应的也有较低的言语感受阈(SRT)。在噪音环境中,人工耳蜗使用者的言语感受阈和主观评分的说话者的可理解性(intelligibility)呈反比,与说话者的口音(accent)呈正比,说话者的语言可理解性越高,口音越弱,人工耳蜗使用者的言语感受阈越低,反之亦然;在安静环境中,人工耳蜗使用者和听力正常者两组测试对象的单词识别率都和说话者的可理解性呈正比,和说话者的口音呈反比,意即说话者语言的可理解性越高,口音越弱,测试对象的言语识别率越高。 结论及意义: 人工耳蜗使用者的语言理解力易受不同的语言形式的影响,如不同的语速和/或不同的语言产生方式(自然语言或者合成语言),以及带口音的语言。这种语言形式变化会造成人工耳蜗使用者言语识别力降低,这种影响在语言任务难度增加时表现尤其明显,如人工耳蜗使用者识别较快语速的合成语言,以及识别噪音环境中带口音的说话者。说话者的外国口音会降低语言的可理解性,尤其当倾听者是人工耳蜗使用者时。实验表明,言语感受阈的水平和测试对象在安静环境中的表现呈反比,在安静环境中言语识别率较高的测试对象,在噪音环境中的言语感受阈较低,反之亦然。在噪音环境中,女性说话者比男性说话者的可理解性好。 既往对人工耳蜗使用者的言语评估的研究多采用“清晰”的语言材料,得到了比较理想的测试结果。相对人工耳蜗在真实世界中面临的复杂的听力条件来说,这些研究结果可能会过高的估计了人工耳蜗使用者在现实生活中的语言识别能力。 相对于听力正常者来说,人工耳蜗使用者在言语识别力的表现较差,除了由于其频域-时域分辨率较低以外,还受别的因素的影响,如电刺激信号的质量,耳聋的持续时间,大脑听觉皮层的信号处理功能等。当面对非母语的说话者时,说话者对第二语言的熟练程度也影响到人工耳蜗使用者的表现。本次实验给人工耳蜗使用者言语评估的研究提供了一个新的方向,优化输入信号的质量,和/或应用语言培训(如增加人工耳蜗使用者对特定语言条件的暴露时间)都可能增加人工耳蜗使用者对语言形式多变性的耐受性。