綺麗な音と個性的な音

日本のポップスを大ざっぱに分けると

昭和の後期と平成の前期に分かれると

思います。まあ学術的な定説とかでは

無いので感想に近いですけど。

 

日本のポップスを大ざっぱに二つの

期間で分けるとして昭和の後期が前期、

平成の前期が後期になると思います。

 

前期の頃は綺麗な音が好んで使われていた

ように思います。

後期は個性的な音が使われていたと

思います。

 

綺麗というとあまり悪い印象を持つ人は

少ないかも知れません。

ただ個人的には綺麗な音の印象は怖いとか

危険という印象が強いです。

 

例えば個性的な机を想像してみて下さいと

言うと想像する内容には人それぞれで

かなり違いがあると思います。

 

人がそれぞれ違う想像をするというのは

可能性が広いという事なので楽そうという

印象が僕にはあります。

 

次に売れそうな個性的な机を想像してみて

下さいと言うと、人それぞれやはり違いは

あるでしょうが、それなりの統一性の

ようなものが想像の中に含まれるように

なると思います。

 

売れそうというイメージ、印象が個性的

という漠然とした想像に一定の規制が

働くからそうなると思います。

 

つまり売れそうな個性的な机は範囲は

狭くないにしても売れそうという限定要素

が付加され無限では無くなります。

 

さらに人間の想像力には限界があるので、

似たような内容を想像する人が増える

でしょう。この事は可能性の限界と

同じ意味だと思っています。

 

実際に売れそうな個性的な机を探すと

突拍子も無いデザインの机はなかなか

見つからないと思います。

 

つまり机産業において売れそうで個性的な

デザインの机は種類が少ない訳ではないが

目移りするほどの量はないという事です。

 

これが今の日本のポップスの状況だと

思います。机なら視覚としてはっきりと

認識しやすいですけど、音楽の場合

なんとなく漠然として聞いている人が

多いのでなかなか今の状況を具体的な

感覚で掴みにくいですが、同じ事だと

考えていいと思います。

 

そういう意味を込めて個性的な音という

のは、僕の印象としてはいくらか楽だ

とか、可能性は増やしやすいという

安心感のような印象を持っています。

 

それに比べて綺麗に片付いた机を想像

してみて下さいと言うとほとんどの人が

ある程度似たような机を想像するのでは

ないでしょうか。

 

差は洋式か和式位で基本的には綺麗に

片付いている事に大きな違いは

無いでしょう。この人それぞれのはずが

みんな似たような想像をする状態は

可能性の無さに感じてしまい

僕にとってはとても怖いという印象に

なっています。

 

音楽は基本的にドレミです。七音階の

12音調律です。そしてボーカルの音域

は1オクターブ上がったり下がったり

という極端な差が出ることは少なく

ほとんどの人が似た音域に収まります。

そして歌はメロディーを歌うので

単音の旋律です。

 

おまけに綺麗な音を使うとなると

ただでさえ音階、調律、音域で限られて

いるのに音色まで限られるとその時点で

やることはほとんど限られてしまう

という事です。

 

綺麗な音はダンス向きの音か、バラード

向きの音かで考えた場合、バラード向き

だと思います。バラードというのは

リズムの変化を付けにくい音楽です。

そうなるとリズムの制約まで

付いて来ます。

 

はっきり言ってやる前から前例とさほど

変わらないと決まっているようなもの

です。なので僕にとっては綺麗な音は

とても怖いという印象になってしまい

ます。

 

音楽で綺麗な音を使う場合、この事を

忘れない事が大切だと思います。

聞く人は綺麗だなとしか思ってくれない

かもしれません。

 

綺麗な音を使うことの難しさなどを聞く人

がどれだけ理解してくれるかは全く

分からない事です。

 

ただ綺麗な音を使ってみればその難しさは

すぐに分かると思います。でもその

難しさは聞く人には分からない難しさ

です。綺麗に整理された机の難しさは

みんな直感的に理解すると思いますが、

音楽はなかなか直感的に理解するのは

難しいジャンルです。

 

なので綺麗な音を使う場合、そのような

難しさが伴う事を聞く人に説明しない

限り、前例とさほど変わらないので

聞く人には理解されない可能性がとても

高いと思います。

 

下手をすれば○○に似てると

言われて終わってしまう可能性も

あります。可能性があるというより

そうなる確率の方がかなり高いと

思います。

 

綺麗な音を使う場合にはそのような

怖さが常にあるという事を覚えて

おかないとなかなか使いあぐねてしまう

と思うので、綺麗な音の怖さを

忘れないようにして、そしてある程度

割り切って行かないと使いにくいという

事を覚えておいて欲しいと思います。

 

DTMとピアノ教室

 DTMで キーボードを使うから

ピアノ教室に行くという話しは話と

してはよく聞きますけど、

実際に 何の関係も無いと思います。

実際に通って続いてるという話も

ほとんど聞いたこと無いです。

 

ピアノ の曲を打ち込むならもちろん

関係あるでしょうけど、

DTMの打ち込みで使うキーボードの

使い方と、ピアノの為の鍵盤の使い方は

ピアノの曲を作るとか弾く訳ではない限り

関係無いと思います。

 

ピアノが弾きたい人は是非とも

ピアノ教室に通って熱心に練習

するのがいいと思いますけど、

ピアノ教室というのはピアノの為の

教室なのでDTMとはあまり関係無い

練習をさせられると思います。

 

簡単な教科書から始まってちょっと

間違えるとやり直しでリズムが

ずれてるとやり直し。

 

これはピアノを弾く場合は練習して

当たり前ですけど、DTMなら全部

マウスでちょいちょいと修正すれば

済むことです。 

 

それをピアノ教室に行って修正する

必要のない演奏力を身に付ける為の

練習を散々させられていたのでは、

ピアノを弾く為にはとてもいいですが、

DTMとは関係無いですね。

 

DTMで使うキーボードの使い方であれば、

シンセサイザーのプリセットを選んで

単音と2和音の練習を毎日一時間、

それを一週間か二週間続けてみて

それから考えた方がいいと思います。

 

シンセサイザーなんかでは弾き方より

音色選びの方が重要な問題だと気付くと

思います。

 

同じように弾いても音色で

全く変わります 。

 

という事はピアノの弾き方はピアノの

音色と深く関わっている事がわかると

思います。当たり前ですけど。

 

 つまりピアノでジャーンと弾いたときに

ジャーンと鳴るのは音色がピアノだから

であって音色が変わればピアノの

弾き方は全く通用しません。

 

ピアノの先生に言わせればさらに

ピアノの個体差の音色を弾き分け

られないと意味がないとなって、

 そうなるとピアニストへの道を

ましっぐらという事になってしまいます。

 

ピアノが弾ければピアノに近い音色で

あればいくらか応用が効くという

程度でしかなくて、やはり弾き方と

言うのは音色ごとによって変わる

という方が重要で、どう変えるといいか

はその場その場で考えていくという

アドリブ的な要素の方が重要です。

 

これは数をこなすしかないんですけど、

シンセサイザーで使われる音色と

いうのは細かな差はありますけど、

ある程度限られるので

どちらかと言えば慣れればなんとか

なるという方が近いと思います。

 

ピアノの音色というのは音の

ノイズ的要素を徹底的に取り除いた

ような音色でシンセサイザーなんか

ではあまり無い音色です。

 

どちらかと言うとMIDI音源に多いタイプ

です。そういう徹底的にノイズ的要素を

取り除いた音色だからあれだけ両手を

フル活用しても和音として

成り立つわけで 、

シンセサイザーなんかでよくある音色で

あんな弾き方したらすぐに音が

飽和状態になって何が何やら

わからなくなります。

 

そういう 両手をフル活用する必要がある

音色というのはピアノくらいしかなくて

DTMで使う音色としてはほとんど

出会わないと思います。

 

シンセサイザーの場合はほとんどが

単音で十分です。和音を弾くと

ぐちゃぐちゃになります。

 

つまり2和音を弾くだけでも

2和音を弾ける音色を探さないと

いけないような状態で、

そういう音色はかなり音色としては

インパクトに欠けると思います。

 

ピアノの音色というのは両手で

バシバシ弾くとそれなりに力の

ある音になりますけど、単音だと

ほんとにしょぼいです。

 

それをペダルやら左手右手を使い分けて

音に深みみたいなのを付けて行くんです

けど、ピアノ教室でペダルを学び始める

のはかなり基礎練習が終わってからだと

思います。

 

そのペダルの使い方がDTMにどれほど役に

立つのかは未知数ではありますけど、

ピアノ音源を使うとき位にしか役に

たたないと思います。

 

ピアノ教室というのはピアノ用の

両手の使い方、レッスンが進めば

ペダルの使い方を学んで行く場所で、

それはピアノの為の練習であって

DTMで使うキーボード操作とは

ほぼ関係無いにかなり近いと思います。

 

どうもキーボードがいまいち手に

しっくりこないからというなら

だいたいなんでそれはわからないです

けど、一週間から二週間ほどイカした

シンセの音色で毎日一時間ほど単音、

2和音で練習すれば慣れると思います。

 

あまり上達しないなあと思っても、

レッスンに行ったら上達するという

ものでもなくてですね、ちゃんと

練習してこないとダメじゃ無いですか

と言われて終わる感じです。

 

 なぜ2和音なのかというのも

ベースはベースでハイはハイで

分けて打ち込めばいいのでミドルの

2和音くらい弾ければ何とかなるし

慣れる練習にもちょうどいいです。

 

三和音になると慣れるとかそういう

問題ではない問題が色々出てきて

練習する前に勉強する事になって

それもまたキーボード操作とは

関係無い方に行ってしまうので、

2和音でいいと思います。

 

実際にそれで上手く行くかは

わからないのでそう思うだけです

けど、実際個人的にではありますが、

ソフトシンセ使って両手で弾くことは

ほほとんどしてないと思います。

 

6オクターブの鍵盤も置いてますけど、

シンセサイザーを使うときはまず

コルグの小さいやつしか

使わないですね。 

 

実際に6オクターブの鍵盤は使わない

というより使える音色にまず出会わない

からむしろ使えないに近いです。

邪魔だなみたいな。

 

ただ無いと何だか不安になるという

これは人によってはデメリットかも

しれません。 

 

AKG イヤーパット ベロア

ヘッドホンのイヤーパットが割れてしまったので交換してみました。

 

モニター系はこういう交換部品がちゃんと揃ってるのも魅力です。大事に使えば長く愛用出来ます。

 

せっかくなのでモコモコタイプのベロアイヤーパットにしてみました。季節も寒くなって来たので耳当てみたいにフカフカして暖かいです。冬はいいんですけど、夏はどうでしょうか。

 

ちなみにこのモコモコベロアイヤーパットがくせ者で苦労しました。届いた時にはイヤーパットがガチガチでヘッドホンのドライバーの振動がガンガン耳にまで響いてきてドライバーの振動をイヤーパットが吸収しないから音のバランスはもうめちゃくちゃ。

 

ハイとローが全面に出てきてボーカルが奥に引っ込んでしまうという、これは何に使えばいいんだというくらいひどい状態になってしまいました。これは大失敗の買い物だったかもと思いましたが、モミモミすれば柔らかくなるのでは?と思い必死にモミモミしました。

 

もう握力が若干プルプルするくらいガチガチで必死にモミモミしてると腕がだるくなりました。

 

ただ必死にモミモミしてる間にだいぶ柔らかくなってドライバーの振動もイヤーパットが吸収するようになって、若干のバランス変化はあるかなという気はしますけど、気がする程度で特に問題とか言うほどでは無いと思います。

 

つけ心地はどうでしょうか。少しナチュラルなフィット感になったような気もするような相変わらずのAKGのような気もするような。

 

とにかくモコモコして暖かいのは確かです。モミモミすれば使えるとは思いますが、かなり硬いです。しかも結構な時間モミモミする必要があるので腕にきます。特にモコモコである必要が無いならノーマルタイプの方がいいと思います。購入にはお気をつけを。

 

AACファイル

AACというのをよく聞くと思います。まあ聞かない人もいるかも知れませんけど。ファイル形式の一つです。

 

iPodが採用しているデータ形式で有名なので知ってる人は多いと思いますけど、iTunesが勝手にやってくれるからそれ以上は知らないという人もいるかとは思います。

 

AACファイル形式がiPodに採用されている事は知っていてもAACファイルが何か知らない人も多いと思います。

 

まずアナログ音声をデータ音声に変換した場合必ず全く同じという訳には行かないです。デジタルにはアナログには無いサンプリング周波数とか、サンプリングレートと言われるものがあります。

 

これは何かと言いますと、アナログ音声は交流電流ですからプラスとマイナスの波形に変換されます。

 

エレキギターであればピックアップが弦の振動を交流電流に変換してます。マイクで拾った音声もアナログ音声です。マイクはアナログ変換機です。マイクに入力というかしゃべったり歌ったりすると音声がアナログ音声に変換されます。

 

これをアナログ録音するとテープレコーダーとかレコードとかになります。テープレコーダーは無くなってしまいましたね。普通はこのアナログ音声に変換された音声を録音する場合にはデジタル録音します。

 

DAWとかの音声データを見ると並々の電流のプラスマイナスを表した波形が出てくると思いますけど、この並々はデジタルでサンプリングした場合、点々の集まりです。

 

交流電流がプラスとマイナスを行ったり来たりしているのを部分部分の点に変換して記録します。線に見えるのは人間の目や耳では点と点の間が狭すぎて見えない、聞こえないからです。

 

普通の音響機材ではこの違いはあまり気になりませんがモニター用と言われるような音響機材で聞いたりするとやっぱり違います。

 

波形を点々の連なりに変換するのがデジタル録音です。点々の量がサンプリングレートです。つまり点々の量が多いほどアタログ入力した音に近く、点々の量が少な過ぎるとアタログ入力した音とは全く違う音になることもあります。それを利用するのがLo-Fi系のエフェクターです。デジタル特有のものです。

 

このようにアナログ音声をデジタル録音してデジタル音声データに変換したものをPCM波形データといいます。PCMシンセサイザーオシレーターに使われている波形データのPCMはこの事です。

 

基本的なサンプリングレートはCDが基準になっています。このPCM波形データはサンプリングレートにもよりますが基本的なCDと同じサンプリングレートにした場合では最もアナログ入力音声に近いです。そのかわりデータサイズが大きいです。

 

次に出てきたのがmp3データファイルです。これは圧縮データと言ってPCMデータファイルのサイズを音質の劣化を少なくデータサイズを小さくする技術です。

 

PCMだとCD一枚でだいたい80分くらい記録出来るんだったでしょうか。それがmp3になるとCD一枚に二千曲とか三千曲とか記録出来るようになりました。要するにそれだけデータサイズが圧縮されたという事です。

 

さらに高い圧縮率でなおかつmp3より音質劣化が少ないと言われているのがAACデータファイルです。

 

iPodで使われているデータ形式ですけど、ご家庭のデジタルテレビでも使われています。さらにはネットのリアルタイム配信などもAACが使われます。ネットの場合は自分で選べる場合が多いのでAACをみんな使っているかは分かりませんがAACが多く使われています。

 

つまりiPodとデジタルテレビとネットのリアルタイム配信では音質は基本的にはそんなに大差ないという事です。

 

印象としてネットのリアルタイム配信よりデジタルテレビの方が音質は良さそうに思いますが、もし差があるとすれば音声をアナログ変換する部分、つまりマイクの差です。

 

性能はカラオケマイクで十分ですけど、配信の為にマイク買うとミキサーやオーディオインターフェースまで揃える必要があるので、安いマイク付きヘッドホンを使う場合が多いと思います。カラオケマイクでやってる人を見ると頑張ってるなって感じだと思います。

 

安いマイク付きヘッドホンがパソコン直差しで使えるからやってみようかなという人には便利ですからいいですけど、ネットでは頑張ってる人よりやってみようかなという人の方が慢性的に多いと思うのでその分の差だと思ういます。

 

マイクの音づくりの部分もありますが、デジタル技術は同じものが使われているので基本スペックさえ揃っていれば音声ではそんなにテレビとネットでは差は無いはずです。

 

圧縮データを送信する場合、必ず圧縮する時間分だけタイムラグが発生するんですけど、ネットもデジタルテレビもおおよそ五秒位と差はないようです。映像はちょっとガサガサではありますけど。

 

やはり音声をアナログ変換してそのままスピーカーで出力した場合でも音声とは違いが生まれますし、アナログ音声をデジタル録音した場合にも違いが生まれますし、圧縮技術でmp3を選択した場合とAACを選択した場合でも違いが生まれます。それぞれ違います。

 

基本的にこのような違いはマスタートラック用のエフェクターで修正が可能で、CD用とiPod用というか、AACデータ用ではミックスの内容をそれぞれに合わせて修正するというのが一般的です。

 

その修正は各トラックを触っているとめちゃくちゃになってしまうのでマスタートラックを利用するのが一番安全だし一般的だと思います。

 

安全である理由としてAAC用にかけたマスタートラックのエフェクターのオンオフだけでPCM用のデータファイルとAAC用のデータファイルが作成出来るからです。エフェクターも変にいじるとおかしくなる場合が多いと思うのでマスター用のリミッターを強めにかけるなどでだいたい対応出来ると思います。

 

データの圧縮によって起きる問題と言うのは基本的に点々の数を減らされてしまう事で音量が小さくなってしまって起きると考えていいと思います。音量が小さくなってしまうことで問題が生じているのならあらかじめ音量を上げておけばいいと言うことです。

 

マスターエフェクト

プラグインエフェクトの種類にマスターエフェクトというのがあります。

 

これはマスタリングとかリマスターとか言われる、ミックスし終わった音声データ、音楽データをもう一度調節し直したり、修正したりするというのがあります。

 

マスタリングと言うのはたいてい調整の範囲で大きく変えてしまう場合はリマスターという言い方をよくします。

 

レコード音源とか古いテレビ録画の音声、音楽データなどを今の技術で修復したりとかがよくリマスター版と言われます。

 

ミックスというのは各トラックごとで調整できますけど、古い新しいに関係無くもう出来上がっているデータに大きく変更を加える場合はリマスターという言い方をよくします。

 

だからマスターエフェクトというとマスタリングやリマスター用のエフェクターかと言うとそうでも無くて、DAWには普通はミキサーに最終出力を調節する為のマスタートラックというのがあります。

 

マスターエフェクトというのはどちらかと言うとこちらを意味してる場合が多いと思います。

 

ミキサーの最終出力部分ですから、もう出来上がったデータに対する変更または大きな修正と同じ事なので使い方は同じになります。

 

各トラックごとでは無く、各トラック事のエフェクト処理などは終わった後にかけるエフェクトという感じです。マスタートラック、マスタリング、リマスター含めてマスターエフェクトとよく言われます。

 

マスターエフェクトと言うのはよくあるのが多機能系のエフェクターなどとか、マルチバントコンプレッサーやマスター用リミッターなどがあります。

 

別に各トラックにかけても何か問題がある訳ではないです。ただメモリーをたくさん使うとか処理が重いからとかの理由でマスター用という言われ方をします。

 

逆に言うと各トラック用のエフェクターはたくさんかけてもメモリーの消費が少ないとか処理が重くならないような配慮がされているという事です。

 

各トラック事に使っていたらメモリーをたくさん使ったり、処理が重くなるから最終出力用のマスタートラックにかければ最終出力用のトラックは一つしかないはずですから、メモリー消費や処理の重さなどが最低限で済みますという事です。

 

マスタリングやリマスターにも使えますから全体の調整や修正にも効果的だと思います。まとめてマスターという言い方をしている場合が多いと思います。

 

別に誰かが決めたり、何か規格があってそこに登録する必要があるとかは全くなくて基本的には自己申告なのでだいたいがそういう意図でマスターエフェクトというジャンルわけをしてるだけです。

 

なのでそんなに気にする必要が必ずあるものではないので使いやすさで使っても大きな問題になるわけではないと思いますけど、気にしないと気にしないでメモリー消費がやたら増えたり処理がやたら重くなる場合があるので気をつけて下さいねというぐらいだと思います。

 

 

楽器で考える音楽の許容誤差

音楽は音を扱います。

音は物理現象なので計測したり理論化したりする事は可能ですが目では見えないし理論は大ざっぱだし、計測結果をどの様に使えばいいのかもよくわかりません。

 

計測結果を表示してくれる有名なものに周波数分布を表示してくれる物がありますが、ミックスのバランスや傾向を見るには役に立つと思いますが音楽的に良いのか悪いのかは聞いてみないとわかりません。

 

結局は感覚に頼る事になります。音楽関係の人はほとんどの人が自分の感覚の基準を保つためのリファレンスというものを使います。

 

電子ピアノでもいいですし、音楽プレイヤーでもいいです。音楽プレイヤーを使う場合は書ける曲も決めて置きます。昨日はパンクで今日はヘビメタでは困ります。ジャンルは同じは当然として曲も同じものを使います。

 

感覚というのはかなり狂いが生まれるものなので定期的に自分が感覚のリファレンス、つまり基準としているものを使って自分の感覚をリセットします。このような自分の基準を鍛えるのが第一ステップと言ってもいいと思います。

 

やってるうちによくわからなくなってきたという事は良くあるように、感覚を日頃から鍛えている人でも日常的に起こります。そのまま狂ってしまうと困るので感覚の基準をリセットする為のものを用意しています。

 

それぐらいあやふやなものという事ですね。DTMの話がメインなので楽器の話は全くしていませんでしたが、楽器は音楽で使う音を目で見ることが出来る貴重な存在です。

 

DTMのみという人の方が珍しく自分の好きな楽器と併用してDTMを活用するという人の方が一般的だと思います。

 

楽器の音はある程度目で見えます。これではまともな演奏は出来ないだろうなとか音楽で使う音を目で確認出来る唯一のものかも知れません。

 

とは言っても楽器の最終的な調節は0.1ミリレベルの目には見えないレベルでの微調整を耳で確認しながら行って行きます。

 

使える楽器か使えない楽器かはだいたい0.5ミリ以下の誤差で決まると言っていいと思います。楽器を見慣れていない人にはほとんど見分けが付かない範囲の誤差だと思います。

 

許容範囲は1ミリ以下と考えていいと思います。楽器の修理屋さんなどがまともに使える楽器にまで修理出来るのが1ミリ以下、楽器として使えなくは無い状態にまでには直せるのが1.5ミリ以下だと考えていいと思います。

 

2ミリ違うと修理不能という判断になると思います。部品などによっては修理ではなく作り直しで対応出来る可能性もありますが、修理ではなくなってしまうと思います。

 

普段楽器を触らない人にとってはに2ミリくらいと思いますが最終的な調節では0.1ミリ以下の耳での調節によって行われます。この調節で楽器の音は明らかに変わります。最終的にいい楽器と良くない楽器に分けられるのはこの調節でうまく行くかどうかで決まります。

 

まず目で見て分かる0.5ミリ以下に調節しそこで一度耳で確認します。これは修理に近い作業です。次に傾向を見て大まかに0.1単位の調節の為の準備調節を行い、次に0.1ミリ以下の調節を耳だけで行います。

 

ですので楽器として使えるのかどうかの判断としては0.5ミリ以下の調節がなされているものは最終的な調節の準備がされている立派な使える楽器と言えます。

 

1ミリ以下の場合は調節の為の修理に近い準備が必要な楽器であり、0.5ミリ以下になる可能性の高い楽器、つまり簡易な修理によって使える可能性が高い楽器と言えます。

 

1ミリ以上、1.5ミリ近く誤差のある場合は調節準備の為に必要な0.5ミリ以下にまで近付けられるか怪しい、つまり簡易な修理では楽器として使えるか怪しい楽器と言えると思います。

 

古くからある楽器だと楽器の形というのはほとんど細部にわたり決まっていて良し悪しは最終調節で決まります。

 

デジタル楽器は計測してみないと良くはわかりませんし、電源が入れば出る音が変わるという事も無いですのでリファレンスとしてはいいですが、やはり目で見て判断は出来な無いと思います。何より重要なのは電源が入るかどうかでしょう。

 

近年に出来た楽器と言っても古いですが、エレクトリックなどのアナログ楽器があります。エレクトリックギターなどは様々な形があるようですが音響に関する部分は基本的に全て同じです。基本的に弦が物理的に問題無く振動し、楽器として使える尺度は物理現象ですので自ずと決まります。

 

各メーカーによって微妙に作りは違います。この辺が誤差の計測が難しいですが、基本的に問題無く動作する似たような形のものと比べて見分けが付かないなら問題無いと思います。

 

0.5ミリ以下の誤差であれば問題無いと考えていい範囲、中古でしたら状態の良いものと言えると思います。

 

1ミリ近くの誤差がある場合、きちんと動作するかどうかは今までの使われ方にもよりますが五分五分だと思います。

 

1ミリ以上の誤差がある場合、正常な楽器として使えるかはかなり怪しくなります。専門家などに修理を依頼する必要がある可能性が高いと考えていいと思います。

 

1.5ミリ以上の誤差がある場合、専門家に依頼しても無理な可能性が高い、可能であっても作り直すに近い費用がかかる可能性が高いと考えられると思います。

 

掃除機なら吸うか吸わないか確かめれば済むので楽ですが、楽器というのは1ミリの誤差がある時点で掃除機でいう吸引力がかなり弱ってる部類になります。

 

そういう意味でも自分のリファレンスとして問題無く使える楽器を目のリファレンスとして持っておくというのも良いかも知れません。

 

肝心な部分は物理現象ですので2万円でも20万円でも基本的には同じです。最近は安くても作りのいいものもありますが、1万円以下では少しリファレンスとしては怪しいと思います。あと怪しい楽器屋で買うと1万円でも20万円でもリファレンスとして怪しい場合もあります。しっかりと使える役に立つリファレンスを用意するという事は何かと役に立つのでおすすめです。

 

 

 

 

印象と周波数で考えるミックスパターン

一つ一つやってると全体像が全く見えてこない、見えてくるのも何時の事やらわからないので何となくミックスパターンからミックスの全体像を把握してみようと思います。

 

イコライザーを見ると右側がハイ、左側がロー、どっちとも言えない辺りがミドルになります。

 

グルーヴで考えるならこれでいいんですけど、みんなが一番よく聞くのはボーカルの音だと思います。

 

ボーカルの音は基本的に全部右側、つまりハイになります。これは人の普段の印象とはあまり合わないと思います。

 

一般的に男性の声は低いと言われていますけど、イコライザーで見ると高い部類になってしまいます。

 

どの辺が真ん中くらいと感じるかは人それぞれで難しいところですけど、男性の声と女性の声でローとハイを分けると真ん中あたりは男性の高めの声、女性の低めの声になるでしようか。

 

イコライザーで見た場合と印象とでローが左側というのは大体食い違いは無いです。ローの下の方は重低音と言われるサブウーハーの音になります。楽器で言うとベースとキックです。サブウーハーはベースとキックのより低い音を強調するスピーカーです。

 

問題は右側です。男性の声の帯域で言われるのが中低音と言われる帯域でイコライザーでは右側でハイですが印象では低音域になります。なので間をとって中低音と言われる事が多いです。

 

女性の声で言われるのが中高音です。印象では中音の高めになりますが、イコライザー的にはかなり右寄りです。その間が中音になります。

 

イコライザー的に高め低めと言うのとボーカルをメインで感じ取った印象で高め低めというのではかなり差があります。

 

これがミックスと関係して来ます。要するに分け方ですね。ダンス系は重低音を多く含み低音域を多く使うので全体的にボーカルも中音域あたりになります。

 

海外のボーカルの人はお腹から声を出す人が多いので女性でも高い声のようでもイコライザー的には低めの周波数がかなり含まれるので大体中音域あたりにまとまります。

 

ポピュラーの場合は中音域をメインで使うので女性の音域と男性の音域に分けて考える事が多くなります。

 

そうするとボーカルがリードになってそれを補う為にパッド音を入れます。シンセのプリセットにリードとパッドという風に分類されてますがこれの事です。

 

パッド音というのはカラオケの音の事で、MPCなどのサンプラーに付いてるパッドとは何の関係ないです。なぜ同じ名前なのかは知りません。

 

男性がボーカルの場合はリードを中低音にしてパッド音を中高音にします。ボーカルが女性ならリードを中高音にしてパッド音を中低音にします。

 

ボーカルが入ったらリードは間奏などの部分以外はボーカルとぶつかるのでパンで振るかミュートします。

 

もう一つ高音域というのがありますね。女性アイドルグループ系で良く使われる帯域で扱いが難しいです。ハイハットなんかもこの帯域です。ハイに帽子をかぶせるからハイハットだったような違うような。まあいいです。

 

とにかく一番上と考えていいと思います。イコライザー的には右の端っこの方です。扱いの何が難しいかと言うとエフェクターのちょっとしたかけ方の違いですごく音が変わってしまいます。なのでより慎重にかける必要があります。ですのですごく手間がかかります。

 

女性アイドルグループはたくさんあって競争が激しそうですがなぜそんな手間のかかる音を多様するかと言うと、この帯域を強くすると音痴に聞こえなくなるという裏技があるためです。

 

ボイストレーニングをしっかり受けていなくてお腹に力を入れてなかなか歌えないので自ずと音は高音寄りになります。さらにお腹に力が入って無いので音程が安定しません。なのでこの裏技が無いと女性アイドルグループは成り立ちません。逆に言えばこのミックスパターンを覚えれば女性アイドルグループは成り立ちます。

 

アニソンも印象では女性アイドルと似たような印象がありますが、アニソンはしっかりボイストレーニングをしている歌手や声優でも声のプロなので芯の太い声が出ます。なのでアニソンはオケが高い事はあってもボーカルは中音域が多いです。

 

あとこの高音域の帯域の音が強いとコード進行とか言われるような和音を扱わないとなかなか上手く行かなくなるのでそれなりのお勉強が必要になります。アレンジャーやエンジニアに頼る要素がかなり強いミックスパターンです。

 

ただこれは回避技みたいなのがあって和音を意識しないといけないのはグルーヴで言う、要するにイコライザーで見るハイとローの関係を協和させて繋ぐ必要があるからです。

 

いくらDAW上ではトラックが違うと言ってもスピーカーは同じです。つまり違うトラックでもスピーカーが同じなのだから帯域は共有しているわけです。

 

スピーカーでなくてもホールでもそうですけど、それぞれの楽器は同じ周波数帯域を共有しています。スピーカーだとよりはっきり共有します。

 

ですのでスネアが低いとキックと周波数を共有してはっきり聞こえるスネアが勝ってしまってキックが負けて弱くなります。スピーカーが別々なら出した音なら出るはずですがスピーカーを共有しているので消えてしまいます。

 

なので共有している帯域を削り取ってしまうという方法で干渉を避ける事によって和声感を無くし不協和音を避ける事が出来るので高音域を使ったら和声に従わないといけないというわけでは無いです。

 

ただ干渉する帯域というのはイコライザーで言うとほとんど全部真ん中あたり、ボーカル的には中低音の低めの音をごっそり削るのでかなりはっきり高音域と低音域に分離します。

 

和声感を無くすことで高音域を使えるようにして無くなったイコライザーの真ん中を低音域で補っているわけですから当然和声感より分離感の方が強くなります。

 

このパターンが最近の女性アイドルグループ系やダンス系でよくあるミックスパターンです。流行りのやつという感じでしょうか。

 

ここまでは良くあるミックスパターンを見てきましたが、無理なミックスパターンというのもあります。無理なことをいくらやっても無理は無理というやつです。

 

無理な基本は同じです。まず高音域が強いと低音域はあまり使えません。これは和声的に間違いではなくても無理です。

 

高音域と低音域を両方聞くと高音域の印象の方が強くなります。するとピントというか意識は高音域になります。そこで低音が過剰な動きをすると視界の端で何かがずっと動いてるような落ち着かない音になってしまいます。

 

人間には可聴域というのがありますが、動態認識範囲という別の範囲もあります。これはテレビ画面の中で動いている場合には認識として不快ではないがテレビを見ている最中にテレビ画面より少し外で何かが動くとすごく不快になるというものです。

 

聴覚も同じです。聞こえても認識範囲を超えている場合認識し辛い、つまり不快な音になってしまいます。このような音はあまり使い道があるとは言えないでしょう。

 

なのでミックスに利用出来る周波数範囲は低音域を多様するような場合、イコライザーの右側はボーカル的に中音域あたりまでになります。

 

高音域を多く使う場合、イコライザーの真ん中より少し下くらいまでになります。だいたいアコギの弾き語りと同じくらいと考えるとわかりやすいと思います。

 

しかしイコライザーの真ん中あたりを削り取ると真ん中あたりが無い分だけ低音域が使えるようになります。中音域を削り取る事で低音域がテレビ画面無いに入るようになった、下の端にレポーター画面を増やすように音を増やせるようになったと考えるとわかりやすいかもしれません。

 

ただそれと同時にイコライザーの真ん中を削り取って和声感を出すという事は出来ません。削り取ってますから低音域と高音域の2画面を繋げたようになります。

 

このように考えるとミックスパターンは限られてきます。

 

イコライザーの左寄りで高音域は使わない。

 

イコライザーの右寄り。ダンス系以外はほとんどそうです。

 

イコライザーの右側寄りでボーカルが中低音。もしくはボーカルが中高音。ポップス系はほとんどこれです。

 

アニソン系もミックスパターンではこれが多いです。少しローカット気味かもしれません。

 

余談ですがこのローカットはローダウンですね。ハイパスフィルターによるローカットとイコライジングで低い周波数を下げるのもローカットとよく言うのでこれもややこしい一つです。低いもボーカル的にかイコライザー的にか分かりにくい表現ですが。ボーカル的にです。

 

高音域が強く低音域を使わない。清純派女性アイドルグループ系特有のミックスです。お腹から声を出すのが基本の洋楽ではあまり聞かれません。

 

高音域が強くイコライザーの真ん中あたりを削って低音域を強くする。最近何かと流行りのミックスパターンです。ダンス系や女性アイドルグループ系によく使われます。清純派にはあまり使われません。