テープ起こし・音声起こしの総合情報サイトokoso | 上手な録音起こし方の基本

上手な録音起こし方の基本

話者の口元近くで録音すればその分認識率が上がる。そこで前回は、インタビューの録音に何らかのマイクを使うことを提案した。

それでも音声認識がうまくいくとは限らない理由が、あと2つある。スマホの音声入力が短時間で止まることと、私たち自身の話し方の問題だ。

 

スマホの音声入力はすぐ止まってしまう

実は、1時間の音声を連続して認識させることはできない。スマホの音声入力モードは、1分ほどで勝手に停止してしまうのだ。

認識が止まるたびに対応するのは、かなり面倒だ。それに、止まってばかりでは「ご飯を食べている間に自動認識をかけておく」といったことができない。

 

音声入力(音声認識)専用のソフトやサービスはどうだろう。AmiVoiceやドラゴンスピーチには、録音された音声を認識する機能がある。

 

ドラゴンスピーチで音声ファイルを自動認識させる手順:

音声ファイルから文字起こし

http://japan.nuance.com/dragonspeech/function.html#recorder

 

この手順には「※あらかじめ、録音機器からの文字起こし用のプロファイルを作成しておく必要があります」と記載されている。何だろう?

いずれ試してレポートしたい。

 

AmiVoiceで自動認識させるには、付属する別ソフト「書起しエディタ」を使用する。

ICレコーダーからの書起し

http://sp.advanced-media.co.jp/ic.html

 

「書起しエディタ」を試してみた。これはスマホではなくPCで使うソフトだ。こんな感じに認識される。

 

0323-2.jpg

 

 

「書起しエディタ」は、長い音声を連続して認識させることができる。とはいえ、マイクを使ってさえこの程度の認識率。これでは実務には使えない。

 

話し方次第でここまで認識される

実は、認識率が悪いのはソフトウエアのせいではない。話し方のせいだ。

同じ「書起しエディタ」で、ここまでばっちり認識させることだってできるのだ。句読点までほぼ正しく挿入されている。

 

0323-3.jpg

 

 

これも同じく私がしゃべって録音した音声だが、この音声では「音声認識されやすい話し方」に徹した。整然と読み上げる口調だ。

だから低い認識率はソフトウエアのせいではない。の、だが。

インタビューするとき、読み上げ調の話し方で質問するのは、不自然すぎる。まして、インタビューに答える側が読み上げ調で返事をしたら、その人の感情もパッションもさっぱり伝わらない。

 

みんながボイストレーニングを受ければ…?

音声認識の導入が比較的進んでいるのは、地方議会だ。

議会においては、議事のほとんどは、議員が質問原稿を読み上げ、首長や役所側が答弁原稿を読み上げるという形で進む。つまり読み上げ調なので、ナチュラルな会話より認識されやすいのだろう。

 

しかし、ナチュラルな会話の認識率をアップする方策も、あることはある。

相手が聞き取ってくれることを知っているから、私たちは普段軽く発音している。さほど息を使っていないし、唇の動かし方も曖昧だ。

 

普段から、息をしっかり使って(大声を出すこととは異なる)、唇を上下左右にはっきり動かして、話せばいい。

みんなが話し方を意識する習慣を身に着け、社会人は毎年ボイストレーニングを受ける。そういう状況であれば、相手とナチュラルに対話する音声でも、そこそこ認識されるかもしれない。

 

というわけで、インタビュー音声を自動音声認識させるための提案は、次のようになる。

1)マイクを使って録音する

2)話者が、しっかり、はっきり、しゃべる

 

(手動で文字起こしをしている身としても、この1と2は切実に希望しております…)

 

 

ライターのための音声認識入門(1)へ

ライターのための音声認識入門(2)へ

インタビュー音声をスピーカーから流し、それをスマホの音声認識に聞かせても、ほとんど認識されないことがある。

 

実は、前回の認識結果を得るために、私はスタンドマイクを使った。ICレコーダーにスタンドマイクを外付けして、録音した。マイクと口元の距離は10センチほどの近さだった。

 

IMG_20170331_133603.jpg

 

 

1メートルも距離があると自動認識されない

実はこのとき、レコーダーをもう1台、自分から1メートル離れた机の上に置いた。しかし、スマホのGoogle音声認識にそちらの音声を聞かせたところ、全く認識されなかった。

インタビューの録音はライターと取材対象者の間にレコーダーを置くので、10センチの距離は実現されないのが普通だ。遠いと、相手がかなり大きい声で明瞭に話してくれない限り、自動音声認識は難しい。

 

この事情を説明する図を、なつかしい小冊子から見つけた。『絵とき テープ起こしのテクニック』、1989年の藤村勝巳さんの本。

音は、壁やテーブルや天井に反響し、ばらばらに録音機材に届く。微妙に時差のある音がいくつも届くため、不鮮明になる

 

 

IMG_20170331_113040.jpgIMG_20170331_111143.jpg

 

 

人が起こすとき以上に「近くで録音」が必要

音声認識のソフトウエアは、人間のような「根性で聞き取る」ことをしてくれない。だから、近くで録音することは人が起こすとき以上に重要だ。近い音ほど大きく録音されるから、ばらばらに届く音を圧倒することができる。

自動音声認識を使いたいなら、話者の口元近くで録るべきだ

 

スタンドマイクや襟元に着けるピンマイクで、口元から10~15センチ程度だろう。

AmiVoiceを出している会社アドバンスト・メディアでは「口元から5センチ以内」を推奨している。ヘッドセットマイクなら、確実に「口元から5センチ以内」が実現できる。しかし、取材相手が、快くヘッドセットマイクを装着してくれるとは限らない。

 

ハンドマイクを推奨、それでもまだハードルはある

ハンドマイクを持ってもらうのはどうだろう。これは案外いい方法なのではないかと思う。座談会やパネルディスカッションでは、ハンドマイクがあると、お互いに渡しながら誰もがきちんと使う。

 

レコーダーをハンドマイクのように、手に持って発言してもらうという方法もある。

ただ、レコーダー本体を持つわけだから、うっかり録音ボタンに触って、気づかないうちに録音ストップにしてしまう危険がある。やはりマイクを外付けするほうが安心だ。

 

(いずれにしろ、ミキサーでもかませない限り、レコーダーにマイクは1個しか接続できない。取材相手にマイクを渡して、ライターのほうはマイク無しで話すべきだろう。相手の答えがうまく文字認識されている場合、ライターはそれを読めば自分の質問を容易に思い出せる)

 

しかし、近くで録音してもまだ音声認識されるとは限らない

そこにはあと2つ、事情がある。続きは次回

 

 

ライターのための音声認識入門(3)へ

ライターのための音声認識入門(1)へ

ライターが、文字起こしというものにフラストレーションをためていることは間違いない。

1時間のインタビューを全部文字化すると1万8000字程度になるが、ライター自身が与えられた文字数は1500字程度だったりする。

発言をそのままの形で1500字切り取るわけではない。話し言葉というのは不完全であるため、言葉を言い換えたり補ったりして、読みやすいよう理解しやすいよう、全面的に執筆し直す。

文字起こし原稿は、単にその参考にするだけだ。それなのに、自分で起こせば手間がかかるし、外注すれば日数とお金がかかる

 

今回は、文字起こしにフラストレーションを抱えているライターに対策を提案したい。

 

提案1:自分で文字起こしする

原稿料が極度に安いと、やらざるを得ない。しかし、ライターは文字起こしに不慣れだから、時間がかかる。専用の再生ソフトやフットスイッチといった便利グッズを使っていないし、徹底した単語登録でタイピングを省力化するという技術がない。おかげで肩も凝る。

自分で文字起こしするなら、ぜひ文字起こし(テープ起こし、音声起こしなどともいう)の基礎を学んでおくことをお勧めしたい。

 

提案2:記憶で書く

これはやっているライターが多い。取材中に取ったメモも参考にして、インタビュー後すぐに、自分の記憶が鮮明なうちに、記事を書いてしまえばいい。

しかし、それができない場合もある。

例えば、ある特集のために連続何人もインタビューをして、その日はそれで終わってしまうことがある。翌日になって書こうとすると、記憶が不鮮明になっている。A氏が言ったのかB氏が言ったのか、具体的にどんな言い回しだったか、確定できなくなっている。

 

提案3:自動音声認識を使う

音声から自動で文字化する技術もある。

いわゆる音声認識ソフトは、録音された音声から認識するモードを持っている。ドラゴンスピーチにもAmiVoiceにもそれはある。

手軽なところでは、スマホの音声入力を使うという手もある。Androidの場合で手順を説明しよう。

 

録音したインタビューの音声ファイルをパソコンに取り込んで、スピーカーから音を出せるようにしておく。そして…。

1)スマホで、文字が入力できるアプリを起動。LINEでも何でもいいが、ここでは「ノート」を起動。

2)新しいノートを開いて、マイクのマークをタップする。

3)音声入力モードになったら、スピーカーの前にスマホをかざして、インタビュー音声を聞かせる。

 

これで、どんどん文字が表示されていくはずだ。例えばこんなふうに。

 

Screenshot_2017-03-23-17-22-09.png

 

 

Google音声認識の場合、句読点は挿入されない。

話の内容はなんとなく分かる。しかし、「敷金送りした質問状にソフト」は変だ(本当は「事前にお送りした質問表に沿って」と言っている)。誤認識だ。「お伺い」の「お」も落ちている。

ここはインタビュー冒頭だから多少の誤認識は問題ないが、話が佳境に入ったときこの認識率だと理解しにくくなる

 

しかも。

インタビューがここまで認識されることは、実はわりと少ない。なぜなら…。

続きは次回

 

(廿 里美)

 

 

ライターのための音声認識入門(2)へ

ライターのための音声認識入門(3)へ

再生ソフト5条件のうち「mp3、wma、wav」以外の音声ファイルを再生できるは、スマホ録音された音声にも対応せざるを得ないということで、あまりありがたい話ではありません。

 

これに比べて、音声起こしする側にもメリットがあるのが、動画ファイルを再生できるです。

 

douga1.jpg

 

 

動画は何といっても「見える」わけで、見えると次の点で作業がやりやすくなります。

・資料を参照できる

・発言者を特定できる

 

資料を参照できる

専門用語がたくさん出てくる音声では、資料を参照できると用語の特定に役立ちます。しかし、20分のプレゼンにパワーポイントが40枚もあったりする音声では、「えーと、時間の関係でこの辺はちょっと飛ばさせていただきまして」などという発言が、しばしば発生します。

資料のファイルを送ってもらっても、音声だけ聞いていると、いったい何枚飛ばされたのか、分かりません。動画でパワーポイント画面が映っていれば、今どのスライドかは一目瞭然です。

 

発言者を特定できる

何人も出席者がいる会議や座談会で、音声から話者を特定するのは難しいものです。

出席者当人は、決してお互いの声が似ているとは感じないものですが、録音されてしまうと、そんなに驚くほどの差異はありません。「いや、ちょっと難しいですね」などといった短い発言は、なかなか特定できません。

 

動画を見ると「口が動いている人」ということで、簡単に発言者を特定できます。

意外なのは、テーブルがロの字やコの字に配置されて真後ろから映っている人、すなわち口元が見えない人でも、「今しゃべっているのはこの人」と特定できることです。

 

人は頭を動かしながらしゃべっている

会議や座談会の動画を見ていて分かることは、人はしゃべるとき、そのリズムで頭を動かす、というか自動的に頭が動くということです。

後ろから映っている人の頭が、トークに合ったリズムで動いている。他の人は、身動きはしているけれども、言葉の流れや言葉の切れ目に合う身動きではない。というときは、この人と判断して大丈夫なのです。

 

もちろん、動画ファイルでの作業には問題もあります。例えば…

・ファイルサイズが大きすぎて、インターネット経由の受け渡しが難しいことがある。

・遠距離から撮影されていると、声が遠いし顔も見えない。

・至近距離から話者の顔がずっとアップで撮影されているのも、なんだか気まずい(笑)。

 

動画の再生状態はPCの性能で決まる

ちなみに、動画ファイルは同じ長さの音声ファイルに比べて、ファイルサイズがずっと大きくなります。何倍程度になるかは、動画や音声それぞれの設定によるので一概にはいえませんが。

ExpressScribeのユーザーサポートに質問したところ、動画を軽快に扱えるかどうかは、PCの性能に左右される、再生ソフトの性能とは直接関係しない。とのことです。

 

というわけで、2015年の私が考えた、音声起こし用再生ソフトの5条件はこれで全部です。

1)ちょっと戻りができる

2)フットスイッチが使える

3)音声のタイムをコピーできる

4)「mp3、wma、wav」以外の音声ファイルを再生できる

5)動画ファイルを再生できる

 

のろのろ連載しているうちに年が明けて、それどころか、もう1年の4分の1が終わろうとしています…。

 

1~3を満たす再生ソフトはOkoshiyasu2はじめいくつかあるのですが、1~5まで満たすものは限定されて、ExpressScribeのプロ版ぐらいしか思いつきません。

それで、年末休みに、自宅PCにもExpressScribeプロ版を入れました。今日WEBサイトを見たら49.99ドルの円換算という表示ですが、年末キャンペーンか何かだったようで、39.99ドルの円換算で買えました。

 

再生ソフトの5条件
第1回  第2回  第3回  第4回

今どきのテープ起こし用再生ソフトの条件、4つ目はこれだと私は考えます。

 

4)「mp3、wma、wav」以外の音声ファイルを再生できる

 

物持ちのいい会社・個人は多い

ICレコーダーを買い替えず、10年も前の機種を今でも大事に使っている人や会社は、案外多いものです。

古い機種は、当時フラッシュメモリが高価だったことから、記憶部が今ほど大容量ではありません。小さい領域に長い音声を録音するために、ビットレートは32kpbs程度でした。

ビットレートというのは、写真でいえば解像度のようなものです。数字が大きいほど音質はきめ細かくなります。ここ数年で発売されたビジネス用途のレコーダーなら、ビットレートは通常128以上です。

 

ビットレート32程度は、あまりに粗いのです。音が不鮮明ですし、話者の聞き分けが非常に困難です。10名も出席者がいる会議の録音となると、128の音声に比べて作業時間は倍増します。

 

「ここに録音アプリがある」?

このような事情をお客さまに訴えると、もちろんお客さまは分かってくださいます。しかし、備品の買い替えは、会社によってはなかなか上に通らなかったりします。

気落ちしたお客さまがふと手元のスマホを見ると、「音声レコーダー」といったアプリがインストールされています。

「去年買ったばかりのスマホだから、古いレコーダーよりは音質もましだろう。私物のスマホだけどこれで録音してみよう」と思われるのも、無理からぬことです。

 

 

0203-44.png

 

アプリ「音声レコーダー」の画面。

 

とはいえ、スマホ録音の音声は、「10年物のレコーダーに比べれば少しはいい」という程度です。もちろんモノラル録音です。

クライアントに対して、今度は「スマホを使わないでほしい」という要望を出すのが、また私の仕事になります。

(ビットレート32に逆戻りも困る…。いっそこちらでレコーダーを提供して、これに録音してくださいとお願いするのはどうかと検討中)

 

m4aや3gpへの対応は続く予感

継続して発注してくださるお客さまに対しては、お願いしたりお伝えしたりできます。しかし一方、単発のお客さまが、そういう経緯なく「ここに録音アプリがあるじゃん」とスマホ録音されることも、昨今は増えてきました。

 

ですから、

4)「mp3、wma、wav」以外の音声ファイルを再生できる

…は、当面やっぱり必要条件だろうと思うのです。

スマホで録音された音声は、多くは拡張子m4aとか3gpといった音声ファイル形式になるからです。

 

次回は、似た問題ですが実はちょっと違う、「5)動画ファイルを再生できる」をお送りします。

 

再生ソフトの5条件
第1回  第2回  第3回  第4回

明けましておめでとうございます。

「再生ソフトの5条件」の第2回です。年越しになってしまいました。

 

前回は、最初の2つの条件について書きました。

1)ちょっと戻りができる

2)フットスイッチが使える

 

今回は

3)音声のタイムをコピーできる

です。

 

アナログ時代のタイム表示は大ざっぱだった

テープレコーダーにも、タイムを表示する機能はありました。でもテレコとは、テープという薄くて伸びやすいものをぐるぐる巻き取りながら再生するアナログ方式です。秒単位までの正確さはありませんでした。

 

IMG_20160107_163227.jpg

 

ソニーのウオークマン。カウンターはどんな表示だったかなと数年ぶりに電源を入れようとしたら、電池が液漏れを起こしていました。もう使えそうにありません…。

 

ICレコーダーで録音する時代になると、デジタルなタイム表示が可能になりました。

そして、動画サイトなどが普及するにつれて、音声や動画のタイム表示は誰にとっても身近なものになりました。発注者から、タイムの入れ方について独自の指示があることが増えてきました。

 

 

私は、発注者から特に指示がなければ、次のようにタイムを付記しています。

聞き取れなかった箇所や文字を確認できなかった箇所の後ろに、カッコして音声のタイムを付記。

この●(01:56:22)につきましては

 

タイムの記載方法にバリエーションが増えてきた

それ以外に、発注者からは次のようなタイムの記載方法を指示されたことがあります。

1)文字起こししたファイル全体に、約5分に1回程度、タイムを記載

2)(1対1のインタビューで)質問者の発言と回答者の発言の間に、タイムを記載

3)全発言で、発言スタートのタイムを記載

 

3)の案件は、一人ひとりの発言が単語1個だったりするほど短く、発言の文字数よりタイムの文字数のほうが多いほどだったため、さすがにタイム付記の追加料金をいただきましたが。それ以外では、タイムを記載するかどうかで金額は変動させていません。

 

ES_time.jpg

最近使っている、ExpressScribeの設定画面。私はF5で「時間をコピー」にしています。

 

もはやタイムを手入力では仕事にならない

今やタイムの記載が特別なものでなくなった以上、また、記載されたタイムを参考にしながらお客さんが音声ファイルと文字起こし原稿を照合するようになった以上、「正確なタイムを」「簡単にコピーできる」機能が、音声起こしのソフトウエアには必要です。

 

音声起こしをしながら、「えーと、01、コロン、57、コロン、42」などと手で入力していては、「01:67:42」(←半角コロンと全角コロンの不統一、数字の打ち間違い)などといった誤入力を完全に防ぐことはできないからです。また、1発言ずつタイムを付記するような案件では、手入力だと作業時間が相当余計にかかるからです。

 

ちょっと戻りができて、タイムのコピーができる。ここで、おすすめの音声起こしソフトが絞られてきます。

 

MP3以外への対応は必要なのか

そして、5条件のうち4つ目はさらに問題です。

4)「mp3、wma、wav」以外の音声ファイルを再生できる

 

この4)が、今、音声起こし業界を揺るがす(?)大問題になりつつあります…。次回はこれについて書きますね。

 

再生ソフトの5条件
第1回  第2回  第3回  第4回

音声起こしのための再生ソフトには下記の条件が必要と、2010年の記事【音声ソフト10連発】で主張しました。

1)ホットキーが使える

2)再生・停止が同じキーでできる

3)ちょっと戻り(オートバックスペース)ができる

4)速聞き・遅聞き時に音程が変わらない

5)ノイズ除去など

 

2015年版 音声起こし用再生ソフトの5条件

あれから5年。私が今考える音声起こし用の再生ソフトの5条件は、次のようなものです。

1)ちょっと戻りができる

2)フットスイッチが使える

3)音声のタイムをコピーできる

4)「mp3、wma、wav」以外の音声ファイルを再生できる

5)動画ファイルを再生できる

 

ちょっと戻りは、ソフトウエアによって、「自動巻き戻し」「オートバックスペース」「停止時の自動バックステップ」など、さまざまな名称です。旧条件のうち1と2が消えたので、これが現在の1位になりました。

そして、次にフットスイッチを持ってきました。

 

ホットキーよりも足操作が最強

「ホットキーが使える」「再生・停止が同じキーでできる」が今回の条件から落ちた理由は、音声の再生・停止は足で操作するべきだと考えたからです。

 

タイピング中にマウスに持ち替えて再生・停止をするよりも、キーボードから操作できたほうが効率がいい。しかし、音声の再生・停止を足で行えば、両手がタイピングに専念できてさらに効率的です。

言葉のタイピングと音声の再生・停止という全く違った操作、しかも両方ひっきりなしに行う操作を、同じ指で行うのは、やはり不合理です。

 

あの頃はトランスクライバーだった…

音声がカセットテープに録音されていた時代、オコシストはフットスイッチを使って、音声の再生・停止や巻き戻し・早送りを行っていました。当時のテープ起こし業務用のカセットデッキはトランスクライバーと呼ばれ、これにはフットスイッチが付属していたからです(別売でしたが)。

 

0013.jpg

 

1989年発売の小冊子『絵とき・テープ起こしのテクニック』(今は絶版です)に、トランスクライバーの広告が掲載されているのを見つけました。

 

 

<次ページへ>

今日、単語登録のことを質問されたので、久々に速記者坂元正剛さんのホームページを探したら…なくなっている! いつから?

 

速記の考え方を生かした単語登録方法は、すごすぎて私には少ししか参考にできませんでしたが…。それでも、何度もこの方のホームページを見て勉強したのです。

 

探したところ、日本速記協会のWEBサイト「PDF文庫」のページに、坂元正剛さんの著書『新ワープロ速記法』がPDFファイルで置いてあるのを見つけました。

単語登録については、『新ワープロ速記法』のP70-143、P179-ラストに、詳細に記載されています。

かな入力用の単語登録なので、そのままでは私のようなローマ字入力派には向きませんが、活用のある言葉(動詞など)をどんなふうに分解して登録するかなど、考え方を学ぶことができます。

 

日本速記協会 PDF文庫 のページ

 

それにしても、1988年の出版です。まだワープロが登場したばかり。『新ワープロ速記法』は歴史の勉強にもなります。

ヘッドホンの右と左から別々の声が聞こえる音声って、ご経験おありでしょうか。

私は何度か遭遇したことがあります。同時通訳ありのイベントの録音で、片耳から英語、片耳から同時通訳さんの日本語が聞こえるというものです。

 

会場ではたぶん「チャンネル1が日本語、チャンネル2が英語」などに設定されていて、来場者はレシーバーでチャンネル設定して、どちらかを聞けるようになっているのでしょうね。普通は、文字起こしを発注する段階では分離されて、チャンネル1の音声ファイルが当社に届くというふうになっているのだと思います。

 

左耳から英語が流れてくる状況で右からの日本語を聞き取るというのは…音声1~2分ぶんぐらいならできなくはありませんが、それ以上は集中力が続きません。

最近、久々にこういう音声を受注したので、対処法をメモします。

 

1)日本語のみの録音がないか、発注者に問い合わせる。

→「あっ、送るファイルを間違えました。これが日本語版です」と届くことが多い。しかし今回は、無いとのこと。

 

2)ヘッドホンを根元まで挿さず、少し浮かせた状態で挿して聞く。

→しかし、今回の音声は、英語のみが聞こえて日本語が消えた状態に。

 

3)右耳だけで聞く。

→私はイヤホンタイプを使っているので、左のイヤホンを耳からはずすだけでいいけど…。大きいヘッドホンを使っている人だと、これはできない。

 

P1010810-3.jpg

 

 

4)音声編集ソフトで加工する。

→DigiOnSound6 Express(略してデジオン)

音声をデジオンで開く→[スペシャル]→[ステレオからモノラル]→Lを0%、Rを100%にして、[OK]。

 

これで日本語だけの音声になりました。こんな音声はめったにないと思いますが、もし遭遇したら試してみてくださいね。

 

 

(…ところが。この便利なデジオンが販売終了になってしまったのです。

私がデジオンを知ったのはもう10年以上前、同業者の交流会で教えてもらったのがきっかけでした。以来、音声ファイルの分割や、音が小さすぎるファイルの加工などに使ってきました。テープ起こし講座などでも紹介していたのですが、最近、受講者の方がデジオンが販売終了になっていると教えてくださいました。


デジオンのみに頼ってきたので、それ以外を知りません。私は当分、今のデジオンを使う予定ですが、講座などで質問が出たらどうしよう…。操作が簡単で、無料または安価な音声編集ソフト、ご存じの方ぜひ教えてくださいね)

(一度消えたソフトが違う会社から発売されることもありますから、それも期待したいと思います)

遅ればせながらあけましておめでとうございます。本年もokosoをよろしくお願いいたします。

 

昨年は、愛用してきたレコーダーオリンパスDS-750が使えなくなるという悲しい年でした。

DS-750本体よりも、750のケースが使えなくなったのがこたえました。750のケースは、録音時にはスタンドを立てると相手の口元を絶好の角度で狙うことができるという、すぐれものだったのです。しかも、ケースの裏側にはレコーダーを三脚にセットするためのネジ穴も付いているなど、何かと便利でした。

 

2015-01-07 15.13.37.jpg

 

 

 

DS-750の後釜として購入したDS-901は750より幅が13ミリほど広いので、750のケースは使えないと諦めていたのですが。

 

 

今日あらためてよく見たら、ケースのサイドはゴムだったのです!

901を強引に突っ込んでみました。なんとか入ります。深く入れると録音ボタンを操作できなくなるため下側も余ってしまい、あまりクールではありませんが。

 

 

2015-01-07 15.16.02.jpg

 

 

「ガリガリガリガリ…」という雑音が続く音声を起こしたことがあります。会議の音声で、録音担当者は自分の席にICレコーダーを置き、すぐ横でノートに議事をメモしていたわけです。「ガリガリガリガリ…」はボールペンで文字を書く音でした。

会議の現場では全く気にならない音ですが、ICレコーダーは近い音を大きく拾うので、人の声よりガリガリのほうが大きく録音されてしまうのです。

 

こんな録音を防ぐために、私は多少不細工であってもDS-901もスタンド付きケースに入れて録音しようと思っています。