音乐和语言是人们最常听到的声音类型,但大脑是如何毫不费力地自动识别音乐和语言的?以往科学家对此缺乏清晰的理解。现在,包括美国纽约大学在内的一个国际研究团队通过实验重现了这一过程。相关论文发表在28日的《公共科学图书馆·生物学》杂志上。
研究人员表示,音乐和语言在音调、音色、声音质感等许多方面都有所不同。此次,他们借用一种精确测量单位来表示声音的节奏或变化周期,即赫兹(Hz)。Hz值越大,每秒发生的次数越多。例如,人们的行走速度约为每秒1.5—2步,也就是1.5Hz—2Hz;史蒂夫·旺达热门歌曲《Superstition》的节拍大约是1.6Hz。语言通常比音乐节拍快2—3倍。有充分证据显示,一首歌音量或响度随时间的变化(即所谓的“调幅”)相对稳定在1Hz—2Hz。相比之下,语言的调幅通常是4Hz—5Hz,这意味着它的音量经常变化。
研究团队进行了4个实验,让300多名参与者聆听一系列合成音乐和语言类的音频,这些声音具有不同的调幅和规律。
参与者被要求判断这些音频听起来是音乐还是语言。结果显示,人类的听觉系统使用非常简单且基本的声学参数来区分音乐和语言:对参与者来说,速率较慢(小于2Hz)且调幅较规则的音频听起来更像音乐;而速率较快(约为4赫兹)且调幅较不规则的音频听起来更像语言。
了解人类大脑如何区分音乐和语言,可能会使患有听觉或语言障碍(如失语症)的人受益。音乐疗法是一种很有前途的方法,可以训练失语症患者利用他们完好无损的“音乐机能”绕过受损的语言机能,唱出他们想说的话。记者 张佳欣
(责编:赵珊)