MUSIKTECHNIK

音楽制作を変えたプラグインは、石油の埋蔵場所を発見するための技術を応用することで誕生した 〜 Auto-Tuneを開発した天才技術者、Antares アンディー博士インタビュー

Rolling Stone誌は先月、Webサイトに『24 Inventions That Changed Music』という記事を掲載。蓄音器からステレオ・スピーカー、Pro Tools、そしてSoundCloudに至るまで、音楽を変えた24の発明品を選定し、写真とともに紹介しました。その中で、デジタル・プロセッサーとして唯一選ばれていたのが、Antares Auto-Tuneです。入力された音声をリアルタイムに解析し、任意のピッチに自動的に補正するAuto-Tuneは、確かに音楽制作/レコーディングの世界に大きな影響を与えました。ピッチのあまいボーカルも、Auto-Tuneを使うだけで、いとも簡単に補正できるようになったのです。また、強制的にピッチが補正される効果を逆手に取って、Auto-Tuneをユニークなボーカル・エフェクトとして使う、シェールやDaft Punkのようなアーティストも現れました。下手な歌も上手に聴かせてしまうAuto-Tuneには否定的な意見もありますが、それでもゼロ年代以降の音楽制作/レコーディングの世界に大きな影響を与えたツールであることは間違いないでしょう。

“音楽を変えた24の発明品”に選ばれるほどのツールであるAuto-Tuneですが、いったいどんな人物が開発したのか、またどのようなバックグラウンドで誕生したのかということについては、あまり知られていません。実はAuto-Tuneは、地球物理学の研究に長年従事していたアンディー・ヒルデンブランド博士(Dr. Harold (Andy) Hildebrand)という人物が、石油が埋蔵されている場所を発見するための技術を応用することで完成させたプロセッサーなのです。そこでここでは、何年か前のAES Conventionサンフランシスコの際に収録した、アンディー博士のインタビューを紹介することにしましょう(もちろん、未公開記事です)。Antaresは、もう十年近く前から展示会の類には出展しておらず、アンディー博士もなかなか人前には姿を見せないので、貴重なインタビューかと思います。インタビューは、アンディー博士が滞在していたサンフランシスコのホテルの一室で、短時間行われました。(Special Thanks to Mr. Seiji Murai for MI7 Japan/Synthax Japan

Antares Dr. Andy Interview

Image via Antares Audio Technologies

長年、大手石油会社の研究所に籍を置き、地球物理学の研究に従事

——— まずはアンディー博士の経歴からおしえていただけますか。

DA 私は大学で電気工学を学び、1976年にイリノイ大学で博士号を取得しました。専門はランダム過程と推定理論です。大学卒業後、私は石油で有名なExxonの研究所であるExxon Production Researchに籍を置き、ジョン・モートン(John Mouton)博士とともに、地球物理学の研究に従事しました。1979年、私とモートン博士はExxon Production Researchを辞め、もうひとりの仲間とともにCyberanという地球物理学のコンサルティング会社を設立したのです。地球物理学の研究には高性能なコンピューターが必要になるのですが、Cyberanでは専用のワークステーションや対話型ソフトウェアの開発を行いました。私は1989年にCyberanを退社したのですが、その時点で会社は年間3,000万ドル(約30億円)の利益を上げるまでに成長していましたね。

——— オーディオとはまったく関係のない仕事をされていたんですね。

DA いや、そうでもありません。Cyberanでは、後のAuto-Tuneのアルゴリズムに直結する、ある技術の研究開発を行っていたんです。それは、地球上で石油が埋蔵されている場所を特定するための技術です。石油が埋蔵されている場所を特定するための方法はいくつもありますが、我々が研究していたのは、ダイナマイトを爆発させ、その際の地鳴りや爆発音を音響的に解析するという方法です。たとえば、グランド・キャニオンで石油が埋蔵されている場所を特定するには、まずワークステーション上でグランド・キャニオンの地形や地層を忠実にシミュレーションします。そうすれば、ダイナマイトを爆発させた際に起こる地鳴りの音も予測できるわけですが、石油が埋蔵されている地点は予測とは異なる地鳴りの音がするんです。

——— とても興味深い方法ですね。その方法は、アンディー博士が発明されたのですか?

DA 我々が発明した方法です。そして我々はこの技術を石油会社にライセンスすることで利益を上げました。

油脈を見つけるのには、莫大な費用がかかります。1つの脈を見つけるのに、最低でも5億ドル(約500億円)はかかりますし、何とか油脈を発見できたとしても、パイプラインなどを工事して敷くのにさらに数十億ドル(数千億円)かかるんです。ですので、石油会社は埋蔵量などを考慮して、割に合う油脈か十分に検討しなければならないのです。しかし彼ら(石油会社)は頭が良いので、デジタル技術を使って価値のある油脈を発見する方法の研究開発に、早くから膨大な資金を投じていました。私が身を置いていた研究開発機関はどこもすごかったですよ。オーディオや映像などとは比較にならない大規模なDSPを使った処理のリサーチが行われていました。そこでの研究をオーディオの世界に持ち込んだのは私だけでしょうけどね(笑)。私は油脈を発見するための研究開発の際、音声処理についても徹底的に勉強しました。IBMとCrayのスーパーコンピューターを使って。1989年、Cyberanを退社したとき私は40歳でしたが、その歳まで勉強をやめることはありませんでしたね。

——— Cyberanはなぜ退社されたのですか?

DA 何かすべてをやり遂げた気分になってしまったんです。年齢も40歳になって、そろそろ自分の好きなことをやってもいいんじゃないかと。それで私は、ずっと好きだった音楽を真剣に学ぼうと、ライス大学の附設機関であるシェパード音楽学校に通い始めたんです。シェパード音楽学校では、生楽器のサウンドのすばらしさに改めて触れ、当時優れていると言われていたKurzweilのシンセサイザーの音がいかにひどいかを知ることができましたよ(笑)。

——— 40歳で仕事をリタイヤし、音楽学校に通い始められたというのはすごいですね。楽器は何か演奏されたのですか?

DA 私はむかしからフルートを演奏していたんです。30歳くらいからは、休日にシンフォニー・オーケストラで演奏していました。

サンプリング・シンセサイザーの音の悪さに辟易して開発した最初のソフトウェア、INFINITY

——— 仕事を辞めて音楽学校に通い、フルート演奏を楽しんでいたアンディ博士が、DSPソフトウェアの開発を手がけるようになったのはなぜですか?

DA シェパード音楽学校で触れたKurzweilのシンセサイザーの音が、あまりにもひどかったからです(笑)。ピアノにしてもストリングスにしても、本物の楽器の音をサンプリングしているのにも関わらず、なぜこんなにひどい音なんだろうと考えたんですが、その要因のひとつがサンプル・ループだったんです。当時のサンプル・メモリーの容量は小さかったので、楽器の音のサスティンは、サンプルの尻をループさせることで再現されていました。しかし単純にループさせているだけだったので、“ウワンウワンウワン……”という、不自然な音になってしまっていたんです。単音ならまだしも、和音の場合は音程によってループ・ポイントが違ったので、それはもう聴くに耐えない音でしたよ。そこで私は、サンプルを単純にループするのではなく、DSPによってシンセサイズすることによって、自然なループを作ることができるソフトウェアを開発しようと考えたんです。そして出来上がったのが、私が開発した最初のオーディオ用ソフトウェア、INFINITYというわけです。

Antares Dr. Andy Interview

アンディー博士が最初に開発したINFINITY

——— 短いサンプルでもきれいなループが作れるINFINITYは、まさに魔法のようなソフトウェアでした。日本では限られたメモリーにサンプルを収めなければならないゲーム会社をはじめ、大手楽器メーカーでも標準的なツールとして愛用されていたようです。

DA INFINITYでは、サンプルの種類に合わせて、SPR Looper、Synthesis Looper、Rotated Looper、Freeze Looper、Crossfade Looperといったさまざまなルーピング・アルゴリズムを選択することができました。ループ部分をDSPで処理するため、自然なサウンドを得ることができたんです。また、基本的な波形編集機能も備えていたので、DAW用のディストラクティブなオーディオ・エディターとして使う人もいましたね。

——— INFINITYはOS Xに対応することなく、2004年、24bit/96kHzをサポートしたのを最後にディスコンになってしまいました。

DA INFINITYの市場がとても小さいというのが開発を止めたいちばんの理由ですが、あとはむかしのようにサンプル・ライブラリーを自分で作る時代ではなくなったというのも大きな理由のひとつです。市場には優れたサンプル・ライブラリーがたくさん出回っており、ユーザーは自分でサンプルを作るのではなく、それらを利用するという時代になりました。それに限られた時間の中で製品開発を行わないといけないので、INFINITYに手をかける余裕がなくなったというのもあります。

——— INFINITYの次に、MDT(Multiband Dynamics Tool)というプラグイン・エフェクトをリリースされましたね。マルチバンド・ダイナミクスというエフェクトは、いまでこそ当たり前ですが、MDTはその先駆けとなった製品だと思います。日本でも多くのエンジニアが愛用していました。

DA 音楽の世界では当時、音を複数の帯域に分割してダイナミクス処理するというのは目新しい手法でしたが、放送の世界では一部のエンジニアがむかしから使っていたテクニックだったんです。私はそのテクニックをソフトウェア化しようと思い、完成したのがMDTだったんですよ。

日本で多くのエンジニアが愛用してくれていたという話を聞いて、とても嬉しいですね。MDTのフィルターは、私がこれまで開発したものの中で最も性能が良いものだと思います。ひじょうにクリーンですしね。

Antares Dr. Andy Interview

世界初のマルチバンド・ダイナミクス・プラグイン、MDT

——— MDTは、WavesのQ10と並んで、Digidesignシステムで動作するサード・パーティー製プラグインの最初の製品だったと思います。なぜ、Digidesignシステム用のプラグインを開発しようと思ったんですか?

DA Digidesignのピーター・ゴッチャーから話があったからです。彼はINFINITYを気に入って、私にコンタクトしてきたのでしょう。私も、オーディオ・エディターにプラグインとして機能を追加するという考え方は、とてもすばらしいと思いました。

私はMDTの次に、JVP(Jupiter Voice Processor)というプラグインを開発しました。これはコンプレッサーやイコライザー、ディエッサー、ディレイといったエフェクトがオール・イン・ワンになったボーカル用プロセッサーです。なぜこのようなプロセッサーを開発したかと言うと、当時のDSPはとても非力で、Pro ToolsやSound Designer IIでいろいろなことをやろうとすると、すぐにDSPを占有してしまったからです。しかしご存じのとおり、ボーカル処理にはたくさんのプロセッサーが必要になります。私は、複数のエフェクトを使った複合的な処理が1基のDSPで実行できたなら、多くのユーザーに喜ばれるのではないかと考えたんです。

Antares Dr. Andy Interview

ボーカル処理用のエフェクトが統合されたプラグイン、JVP

——— JVPの名前を聞いて思い出しましたが、当時の社名はAntaresではなく、Jupiter Systemsでしたね。

DA Jupiter Systemsという社名はとても気に入っていたんですが、我々と同じようにDSP関連の開発を行うJupiterなんとかという会社があったんですよ。そこがものすごい弁護士を雇って、我々を訴えてきたんです(笑)。ですから仕方なく同じ恒星であるAntaresという名前に変えたんですよ。Antaresは、一緒に会社を始めたパートナーのテリー(Terry)と、私の名前であるアンディーを掛け合わせたかのような語感であることも気に入りました。

——— JVPの後に、SST(Spectral Shaping Tool)という製品もリリースされましたね。

DA よく憶えていますね(笑)。SSTは、MDTやJVPのようなシンプルなプラグインではなく、音響特性を解析してそのデータをさまざまな形で利用することができるソフトウェアでした。効果は絶大でしたが、セットアップがたいへんで、エンド・ユーザーが使うには難しいツールでしたね。開発もかなりたいへんでした。なので販売はすぐにやめてしまったんですが、SSTのために開発したスペクトラル・シェイピング技術は、後のAntares Microphone Modelerに活かされています。

Antares Dr. Andy Interview

マイクの特性をモデリングしたプラグイン、Antares Microphone Modeler

油脈を発見するための技術を応用することで、革新的なプラグイン Auto-Tuneを発明

——— そして1997年、革新的なプラグインであるAuto-Tuneがリリースされたわけですが、その開発の経緯についておしえてください。

DA いつのことだったかは正確には忘れてしまいましたが、SSTの開発に着手する前、会社のパートナーであるニール・リチャードと、その妻であるテリーといった友人たちと食事に行ったんですよ。そのときにテリーが、“ああ、どこかに私の歌を上手く聞かせてくれる魔法の箱はないかしら”と言ったんです。そのときはみんなで、“そんな箱、あるわけないじゃないか”と大笑いしたんですが、私はその後、“DSPを使えば、テリーが言っていたような魔法の箱も夢ではないんじゃないか”と思ったんです。これがすべての始まりですね。

私はさっそく開発に着手したんですが、テリーの夢をかなえる“魔法の箱”のアルゴリズムは、ひじょうにシンプルです。歌声のピッチを解析して、それを正しいピッチに補正して出力すればいいわけですから。ギター・チューナーなど、リアルタイムにピッチを解析する機器は既に出回っていましたし、高性能なピッチ・シフターも一般的なものでしたしね。しかし単純にその2つを組み合わせても、“魔法の箱”は出来上がりませんでした。ネックだったのは、歌声の解析部分で、人間の声というのはひじょうに複雑です。声質は人によってさまざまで、ピッチだけでなく音量なども常に揺れ続けています。そして“魔法の箱”を実現するためには、出来る限りレーテンシーを抑えなければなりません。私が知る限り、当時は“魔法の箱”で使いものになるような人間の声のキャプチャー/解析技術は存在しませんでした。

そこで私は、むかし研究した油脈を発見するための技術を応用してみることにしたんです。先ほども言ったとおり、私はダイナマイトを爆発させた際の地鳴りなどを音響的に解析するという方法で、油脈を発見する技術の研究開発に従事していました。油脈が眠る場所では、爆発音に影響が出ます。これ以上、詳しい説明は出来ませんが、この技術を人間の声の解析に応用したのです。

Antares Dr. Andy Interview

1997年にリリースされたAuto-Tune バージョン1

Antares Dr. Andy Interview

バージョンが上がるごとに進化していったAuto-Tune。この画像はバージョン3

——— Auto-Tuneの肝は、歌声の解析部分にあるということですね。

DA そのとおりです。最も重要な部分です。あとはキャプチャー部分ですね。“魔法の箱”を実現するには、それらの処理をレーテンシーを出来る限り抑えて実行しなければならないのです。これは私にとって大きなチャレンジでした。

——— Auto-Tuneを最初に発表したときの市場の反応はいかがでしたか?

DA ものすごい反響でした。確か1997年1月のNAMM Showで、Digidesignブースでお披露目したのが最初だったと思うんですが、Auto-Tuneを見に集まった人たちでブースは黒山の人だかりになりました。でも、NAMM Showで披露したバージョンは、グラフィックで手動で補正するモードしか無かったんです(笑)。その後、オートマチックで補正するモードも搭載して、NAMM Showから約1ヶ月後にバージョン1をリリースしました。最初はTDM版だけのリリースでしたが、その後VSTにも対応させ、RTAS版など、どんどんバリエーションを増やしていったんです。ATR-1というハードウェア版Auto-Tuneを開発したことによって、テリーが欲した“魔法の箱”を遂に形にすることもできましたよ(笑)。でも、ATR-1の開発は考えていた以上にたいへんで、思ったように製造できなかったのが残念なんですけどね。

Antares Dr. Andy Interview

Auto-Tuneをハードウェア化したATR-1

——— Auto-Tuneは、最初からビッグ・セールスを記録したのでしょうか。

DA ラッキーなことに最初から爆発的に売れました。会社の売り上げが、Auto-Tuneをリリースしたことによって100倍以上になったんです(笑)。いまだに売れ続けているんですから、すごい製品ですよ。

——— Auto-Tuneが発売されて以降、多くのメーカーが類似のプラグインを市場に投入してきました。それによって売り上げは下がりましたか?

DA いいえ。最初はセールスが下がるんじゃないかなと思ったんですが、実際にはそういうことはありませんでした。プロフェッショナルの方々は、常に良い製品を探しています。ですから、Auto-Tuneより優秀といったフレコミで新しいプラグインが登場すれば、それらを試すのは当然のことでしょう。しかし、ほとんどの人たちは新しいプラグインを試した後にAuto-Tuneに帰ってきます。私もそれらのプラグインを試したことがあるんですが、まぁまぁな性能を持ったものでも、“きっと「あのピッチ変化」のときは上手く追随しないんだろうな”と思ったら、案の定そうでしたよ(笑)。普通のDSP処理では、解析が難しいピッチの変化があるんです。いまのところ似たようなプロセッサーの中では、Auto-Tuneを超えるものは存在しないと自負していますよ。

Antares Dr. Andy Interview

最新のAuto-Tune 7。AAX Nativeにも対応

——— Auto-Tuneをボーカル・エフェクトとして使うアーティストも現れましたね。

DA シェールやDaft Punkですよね。私はああいう使い方もとてもおもしろいと思っていますし、誇りに思っています。もちろん、最初はそんな使われ方をするとは思ってもみませんでしたけどね。バージョン5でナチュラライズという機能を搭載したのは、ああいうボーカル・エフェクトを聴いたのがきっかけです。

Daft Punk “One More Time”

——— Auto-Tuneは、TDM版とネイティブ版では処理に違いはありませんか?

DA よい質問ですね。TDM版が固定小数点処理、ネイティブ版が浮動小数点処理ということ以外、大きな違いはありませんが、もし両方お持ちなのであれば、私はネイティブ版を使うことをおすすめしています。TDM版は、固定小数点演算なので、処理に限界があるんですよ。音声処理は、浮動小数点処理の方が圧倒的に優れています。コンピューターの処理能力が向上したいま、固定小数点演算を選ぶ理由はありません。TC Electronicは、固定小数点演算のDSPを使って上手くやっていると思いますけどね。Harmony EngineやAVOXといった新しいプラグインのTDM版をリリースしていないのは、TDMのDSPチップでは処理能力的に実行不可能だからです。

——— Auto-Tuneの後、Antares Microphone Modelerという製品を挟んで、Antaresはボーカル用プロセッサー専門の会社になった印象があります。

DA そうですね。歌声の処理は、開発する側からするととてもおもしろいんですよ。でも、私はなるべく一般的ではない独自の技術を使って開発をするようにしています。たとえば、Harmony Engineのフォルマント処理も独自の演算方法を用いています。

——— 日本ではVOCALOIDという歌声シンセサイザーが流行っているんですが、スピーチ・シンセシス製品の開発に興味はありませんか?

DA おもしろいと思います。いわゆるボイス・シンセサイザーですよね? 機会があればぜひ取り組んでみたいですね。