8月31日 森 富美

「タケシ」と「ヒロ」、どちらに甘い気持ちを感じますか?


どの「タケシ」か「ヒロ」かによる?
ごもっとも。


でも、人工知能(AI)の研究者で、感性研究の第一人者でもある黒川伊保子さんによると、
「タ」「ケ」「シ」は強い圧で息を吐き出す子音で構成されているため、
言う側の口元にも、発せられた音にも緊張があるのに対し、
あたたかい息を口元に運ぶ子音「H」と包み込むような母音「O」を含む「ヒロ」は、
くつろいだ甘い気分になる名前なんだそうです。
言葉の音そのものに感情を呼びおこす力があるとは驚きでした。


もちろん、声にはそれを発する人の感情もプラスされます。
楽しいとき、悲しいとき、怒るとき、
私たちの声は高さも、圧も、震えも違うんだそうです。
表情が違えば、使う筋肉も口の形も違い、出る音も違います。


会話ロボットの声に感情をのせられるか、
感情を表現できたとして、
ロボットの表情をそれにふさわしいものに変化させられるか
(ニコニコ顔のまま、「おなか痛いの?だいじょうぶ?」と声をかけられても、心配されているようには感じられません)
AIの研究には、そういうことも含まれるのですね。


私たちアナウンサーも、
楽しいナレーションをするときは笑顔で読みます。
「顔が笑ってないと、声も笑わないんだよ」
と教えてくれた先輩は、声を聞くだけで優しい笑顔が思い浮かぶ人でした。


元気いっぱいのナレーションや力が入るナレーションでは、
ガッツポーズをしたり、手を大きく広げてみたり、
ジェスチャーが加わることもあります。


ただ、悲しいナレーションの時は、
気持ちが増幅しすぎないように、抑えて抑えて、
むしろ心を無にするようにして読むことが多くなります。
あまりに入り込みすぎると泣き声になってしまったり、
言葉に詰まってしまったりするからですが、
それでも、じゅうぶんに思いは伝わります。


楽しい、うれしいは、大げさなぐらいに表現しないと伝わらないけれど、
悲しみは、抑えても伝わる。
そこに、人の優しさがあるような気もします。


言葉を受け取る側のそんな機微も、
AIにプログラムするのは至難の技なのでしょうね。


AIが「愛」や「哀」を身につける日も遠くないのかもしれません。
でもやはり、生身の人間だからこそと言える声を目指して、
今日もマイクに向かいます。

アナウンス部の「タケシ」と。「タケシ」という音は、叱られやすい名前(!)でもあるそうですが、そのぶん反応が早くたくましい男の子になるとか。