能听到声音,但是这种声音跟正常的声音是很不一样的,所以说做完植入人工耳蜗后的语言康复训练师很重要的。
语训的内容,主要是习惯耳蜗的声音,以及纠正、锻炼你的发音。
1、植入人工耳蜗之后听到的声音和之前自然声不一样
人工耳蜗的原理是外部处理器对声音进行处理,通过头件发送到皮下的线圈,通过电极刺激听神经,进而产生听觉。人工耳蜗虽然过去20年已经在循证医学的基础上被认为是成熟的人工器官,但远远比不上人耳的精细结构。
据一些语后聋患者反映,声音有些像水中听到的声音或者机器人声音。因此在植入耳蜗之后,需要一段时间去适应。
从声音的准确度来说,人工耳蜗的电极目前几个厂商都是在12-24个。1个或几个电极对应一个频率,可以形象的理解为钢琴的键。同样的频率范围,自然是键越多,每个键对应的频率就越精确。但限于制造技术和电源管理、布线(混合电路),目前人工耳蜗还不能有过多的电极。也许未来能够有集成几百、几千、几万的纳米电极出现吧。
从声音处理来说。人工耳蜗声音处理器也是DSP芯片,和你的手机、MP3什么的是同类型的芯片。因为耳蜗和助听器都是小众的产品,所以目前芯片并不是最先进的,在运算速度、能耗等方面未来5-10年还有非常大的进步空间。
2、人工耳蜗是否是只解析言语声?
这个问题需要从需求来分析。对于一个重度极重度耳聋患者来说,最重要的是植入人工耳蜗之后能够听见声音,进而学会说话。更好的要求才是能欣赏音乐啦,噪声环境下有良好聆听效果啦。从目前的人工耳蜗设计理念来看,言语声是首要的,其次最近几年出现对非言语声的关注,从这个角度来看,不仅人工耳蜗的硬件还有进步空间,软件更有。
一般认为8个以上的电极已经有足够的刺激来辨别言语声。也能够说明多通道人工耳蜗出现的原因,也是满足最基本的要求——说话。
接下来从两个方面来分析以后的软件发展。
(1)降噪
无论耳蜗还是助听器,降噪是软件角度最需要的程序。噪声环境下的聆听效果,是比较差的。因此,在程序设计中如何识别噪声是目前的研究热点,为常见噪声建立模型。最新的产品热点是通过GPS确认用户所在地环境,判断噪声,建立模型,进行噪声控制。
(2)场景识别
比降噪更进一步的需求是场景识别的程序进行研发。在不同场景,使用不同的言语处理策略。比如欣赏音乐、多人会谈等等。