私は、メンバーが文字起こししてくれたデータを聞き直すチェッカー業務がメインですが、自分で文字起こしすることもあります。
リスピーク(復唱)のスピードアップは可能か
最近は、自分で起こすときは主に音声認識ソフトを使っています。2013年5月に、アドバンスト・メディア社にAmiVoiceの取材をさせていただいて以来、復唱(リスピーク)して文字起こしをする場合のコツが分かってきたのです。肩こりからはずいぶん解放されました。
音声認識だけで文字化するのは効率が悪いので、両手はキーボードの上に置いたまま、認識しそうにないところをタイピングで補いながら作業しています。
そうなったら、欲が出てきました。もうちょっとスピードアップできないか。
現在は、この図のように起こしています。
区切りのいいところまで音声を聞く→その通りに復唱する→しゃべっている途中から文字認識が始まり、しゃべり終わると間もなく文字が並び終わる→認識結果を直し、確定する。
(この図解では、音声長さの3.5倍の作業時間がかかっています。しかし、ネット検索などで用語を調べるとか、最後に全体を聞き直すなどもあるので、作業全体ではもっと時間がかかります)
聞きながら復唱できれば!
AmiVoiceの文字表示は速いものの、完全にしゃべった直後というわけではなく、ちょっとタイムラグがあります。
また、認識結果を直す時間は私が慣れるにつれて減っていますが、今後も絶対にゼロにはなりません。タイピングでも、同音異義語から選ぶとか自分の打ち間違いを直すなどの作業は常に必要です。音声認識でも同じです。
とすると、スピードアップする手段は、音声を聞きながらしゃべるしかありません。
図解するとこんなイメージです。
タイピングで起こす場合、私は音声を聞きながら入力しています。
つまり、音声はちょっと先を行く。私はそれを聞きつつ、ちょっと遅れて入力しています。逆に言えば、手が入力している部分よりも、耳はちょっと先を聞いているわけです。誤変換やミスタッチによって耳と手の差が広がってくると、音声を止めます。
音声認識ソフトを使う場合もそんなふうに、ちょっと先を聞きながら、ちょっと遅れてそれをリスピークしていくことはできないか。
さらに認識精度が良くなれば(もしくは自分がもっとリスピークのコツをつかめば)、ノンストップで音声の最後まで「聞きながら復唱」を作業し、認識結果は後で直せば済むようになるかもしれません。
自分の声が聞こえないと寝言になってしまう(らしい)
私は今のところ、「聞きながら復唱」がほとんどできません。
自分の声が聞こえてしまうと、ヘッドホンの中の話者の声を聞き取りにくくなります。かといって、話者の声の聞き取りに集中するとリスピークの発音がおろそかになり、認識精度がガクッと落ちます。自分の声を聞かないようにしているときは、きっと寝言みたいなしゃべり方になっているのでしょう。
同時通訳者はどう訓練しているのでしょうか。外国語を聞き取りながら、和訳をしゃべってついていく。その和訳も、他人が聞いてちゃんと分かる発音です。寝言みたいな発音ではありません。
私は日本語を聞きつつ日本語をしゃべるわけですから、同時通訳よりずっと難易度は低いはずです。
単純に慣れなのか? それとも、AmiVoiceのレクチャーを受けたら使えるようになったように、やっぱり何かコツやテクニックがあるのか? 同時通訳さんや養成機関に取材してみたくなってきました。
(廿 里美)