テープ起こし・音声起こしの総合情報サイトokoso | 今日も音声起こし中

今日も音声起こし中

2013年6月アーカイブ

今、同時通訳に興味を持っています。

 

私は、メンバーが文字起こししてくれたデータを聞き直すチェッカー業務がメインですが、もちろん自分でテープ起こしすることもあります。聞き直しが比較的体力を要しないのに比べ、自分でテープ起こしすると一日中タイピングですから、体力勝負でした。

 

最近は、自分で起こすときは主に音声認識ソフトを使っています。5月に、アドバンスト・メディア社にAmiVoiceの取材をさせていただいて以来、復唱(リスピーク)して文字起こしをする場合のコツが分かってきたのです。肩こりからはずいぶん解放されました。

音声認識だけで文字化するのは効率が悪いので、両手はキーボードの上に置いたまま、認識しそうにないところをタイピングで補いながら作業しています。

 

そうなったら、欲が出てきました。もうちょっとスピードアップできないのか。

現在は、この図のように起こしています。

 

fukusyo1.jpg

 

区切りのいいところまで音声を聞く→その通りに復唱する→しゃべっている途中から文字認識が始まり、しゃべり終わるとじき文字が並び終わる→認識結果を直し、確定する。

(この図解では、音声長さの3.5倍の作業時間がかかっています。しかし、ネット検索などで用語を調べるとか、最後に全体を聞き直すなどもあるので、作業全体ではもっと時間がかかります)

 

AmiVoiceの文字表示は速いものの、完全にしゃべった直後というわけではなく、ちょっとタイムラグがあります。

また、認識結果を直す時間は私が慣れるにつれて減っていますが、今後も絶対にゼロにはなりません。タイピングでも、同音異義語から選ぶとか、自分の打ち間違いを直すなどの作業は常に必要です。音声認識でも同じです。

 

とすると、スピードアップする手段は、音声を聞きながらしゃべるしかありません。

図解するとこんなイメージです。

fukusyo2.jpg

 

タイピングで起こす場合、私は音声を聞きながら入力しています。

つまり、音声はちょっと先を行く。私はそれを聞きつつ、ちょっと遅れて入力しています。逆に言えば、手が入力している部分よりも、耳はちょっと先を聞いているわけです。誤変換やミスタッチによって耳と手の差が広がってくると、音声を止めます。

音声認識ソフトを使う場合もそんなふうに、ちょっと先を聞きながら、ちょっと遅れてそれをリスピークしていくことはできないか。

 

私は今のところ、できません。

自分の声が聞こえてしまうと、ヘッドホンの中の話者の声を聞き取りにくくなります。かといって、話者の声の聞き取りに集中するとリスピークの発音がおろそかになり、認識精度がガクッと落ちます。自分の声を聞かないようにしているときは、きっと寝言みたいなしゃべりになっているのでしょう。

 

同時通訳者はどう訓練しているのでしょうか。外国語を聞き取りながら、和訳をしゃべってついていく。その和訳も、他人が聞いてちゃんと分かる発音です。寝言みたいな発音ではありません。

私は日本語を聞きつつ日本語をしゃべるわけですから、同時通訳よりずっと難易度は低いはずです。

単純に慣れなのか? それとも、AmiVoiceのレクチャーを受けたら使えるようになったように、やっぱり何かコツやテクニックがあるのか? 同時通訳さんや養成機関に取材してみたくなってきました。