研究してますか

研究しているときは更新されます。研究してないときは更新されません

カメラのレンズを紹介するぜ(単焦点編)

買った順にレンズを紹介するぜ。

本当は全部やるつもりだったのだけど、力尽きたのでまずは単焦点のみ。

AF-S NIKKOR 50/1.8G

6群7枚(非球面1枚)全群繰り出しフォーカス。¥35,000くらい


f:id:magihara:20180403231520j:plain
f:id:magihara:20180403231811p:plain
f:id:magihara:20160514131143j:plain:w500

きれいなダブルガウスと思いきや、後ろの張り合わせの凸レンズは両凸なんですね。

いわゆる「標準レンズ」の50mmという画角で、寄れすぎない上に離れられないと使い所が難しかったりしますが、逆に言うとどこでもそれなりに使えるということなのかも?

当初買ったときはAPS-CのD5100につけていたのでフルサイズ換算75mm相当で、これまた難しかった。
ライブのときにはまあ使えるんだけどね。それ以外だと寄りすぎてしまうので手軽な写真には難しい。

キヤノンの撒き餌とまでは行かないけど、手頃な値段なので1本目の単焦点としてもありなのかも。

個人的にはAPS-Cなら1本目の単焦点は35/1.8Gをおすすめします。

AF-S NIKKOR 85/1.8G

9群9枚 インナーフォーカス ¥73,000くらい


f:id:magihara:20180404002530j:plain
f:id:magihara:20180404003022p:plain
f:id:magihara:20150322191313j:plain:h500

ニコンの85mmは(といっても他をそんなに知ってるわけじゃないのですが…)、どれも凸凸凸の3群構成ですね。

アプラナチック面のメニスカスを使った凸凸凹の前群と、トリプレットが2組。

非常に素直かつ色っぽい描写をしてくれるレンズで、ライブ撮影のときは多用させていただきました。それでいてコスパ最強。
個人的にはちょっと絞ったときの解像感とボケのバランスが最高。上の写真はF2.8くらいだったような。

85mmはポートレイトによく使われる画角なので、F1.4のレンズはツァイスOtusを始めシグマArt、キヤノンの新モデルなど""強い""レンズを出していますが、ニコンはF1.4とF1.8で変わらず、美しい凸凸凸。
50mmといえばF1.8もF1.4もダブルガウスだ!と言わんばかりに。

確かに時代に取り残されているのかもしれませんが、そういうところ、好きですね。

AF-S NIKKOR 35/1.8G ED

8群11枚(EDレンズ1枚、非球面レンズ1枚)リアフォーカス ¥80,000くらい


f:id:magihara:20180404002529j:plain
f:id:magihara:20180404002703p:plain
f:id:magihara:20150627171446j:plain:w500
f:id:magihara:20150705162517j:plain:w500

教科書の、とまではいかないけれども、非常に綺麗なレトロフォーカスタイプ。

凹のパワーを持つ前群の3枚と、マスターかつフォーカシングの後群はガウスタイプ。最後に像面補正用の非球面メニスカスが1枚。
意味のないレンズがどこにもない。

黄色で示されたEDレンズ(Extra-low Dispersion : 異常低分散)は、色収差の特に二次スペクトルを抑えるためのガラスで、ニコンではPC102と呼ばれる硝材ですね。
このレンズではおそらく、近距離撮影時の色収差を抑えているのではないかと思います(てきとう)。

アウトフォーカスがなめらかなせいか、空間の写し込みが非常に魅力的で、適当に撮っても奥行きのある写真になります。
画角も使いやすく小さく軽量なので、散歩に1本持ち歩くならこれ。

Ai-S NIKKOR 35/1.4

7群9枚 フローティングフォーカス


f:id:magihara:20180404011058j:plain
f:id:magihara:20180404005110j:plain
f:id:magihara:20180401230518j:plain

ここからはMFレンズ。Ai-Sというのは

  1. 絞り優先自動露出に対応。絞り値と明るさから自動的にシャッター速度を決める機能に対応
  2. 上記 + 開放F値を自動識別する(Aiレンズ)
  3. 上記 + シャッター速度優先の自動露出に対応(Ai-Sレンズ)

ということ。

ちなみに説明しなかったけど、AF-Sはオートフォーカスに対応し(AF)、超音波モータを内蔵している(AF-S)ということ。

ニコンのレンズ名称の解釈については以下のページが非常に詳しいです。

kintarou.skr.jp


閑話休題。このレンズについて。

"フローティング"(近距離補正機構 : CC (=Close-range Correction))というのは、それまでの全群繰り出しフォーカスでは、特にレトロフォーカスタイプで発生してしまう像面湾曲を補正するため、レンズを群に分けてそれぞれを独立させて動かすことでフォーカシングをする機構のこと。

全群繰り出しをすると同時に、像面湾曲を補正する空気間隔を調整する、といったイメージかな。

3枚目の写真は、開放で夜景を撮ってみたら教科書のようなサジタルコマフレアが出たので記念に。
あまり性格の良い写真ではないですね。

Ai-S NIKKOR 20/2.8

9群12枚 フローティングフォーカス


f:id:magihara:20180404015439j:plain
f:id:magihara:20180404021501p:plain
f:id:magihara:20180401221414j:plain:w500

広角小型のこれも便利レンズ。こんなに小さい鏡筒の中に12枚ものレンズが詰まっていると思うだけで胸が熱くなります。

誠に恥ずかしげながら、これくらい広角なレンズになると見方がわからないので、断面図についてあれこれ言うことができません。
ただ、20mmという広角レンズなのに凸先行タイプだったんですね。

凹レンズを前において画角を稼いだ上で一旦光線を発散させ、凸レンズで結像するというのが「レトロフォーカス」タイプの原理なのですが、凸を先行させることで空気間隔をぎゅっと詰めて、レンズのコンパクトに寄与しているのかもしれません。

もうすこし勉強して詳しくなりたいと思います。

Ai-S NIKKOR 50/1.8

5群6枚 全群繰り出しフォーカス


f:id:magihara:20180404011759j:plain
f:id:magihara:20180404004731j:plain
f:id:magihara:20180401222818j:plain:w500
教科書に載ってるようなきれいな変形ダブルガウス

薄いことからその名がついた「パンケーキ」レンズにするため、中央の空気間隔を減らし、凹面のパワーを減らしたとのことです。
ニッコール千夜一夜物語 - 第六十夜 | Enjoyニコン | ニコンイメージング

お手本のようなレンズで写真を取れることに感謝。ただ桜並木の写真はアンダーでした。ざんねん。。

Ai AF Micro-NIKKOR 60/2.8D

7群8枚 フローティングフォーカス


f:id:magihara:20180404024305j:plain
f:id:magihara:20180404025644p:plain

現像後フィルムをデジタル化するために中古品を購入。
デジカメでフィルムを1:1マクロ撮影すれば、そのまま画像データになるのです。これがめちゃ便利。

マクロレンズというのは、等倍以上の撮影ができるレンズのこと。
つまり、大きさ1cmのものをフィルム上でも1cmで写せるということです。

どんなレンズでもめちゃくちゃ近づけば拡大撮影できるじゃないか!と思うかもしれませんが、非マクロのレンズではそうはいかず、近づきすぎるとピントが合わなくなってしまう。

一般に撮影距離が変わるとレンズの性能も変わり、あまりに近づきすぎるとまともな写真が撮れなくなってしまうため、性能を保証できない距離にはピントが合わせられないように設計されているのです。

逆に言うと、等倍になるような拡大・近距離撮影でも性能が保てるようにわざわざ設計をしたのがマクロレンズということになります。

ちなみにニコンマクロレンズはマイクロニッコールと呼びます。

HPを見に行くとなんかそれっぽい説明がしてありますが、中身はどうでもいいのです。マイクロニッコール、かっこよくないですか。


このレンズの場合、近距離補正方式(フローティングフォーカス)を採用していて、フォーカシングの際には最後の分離ダブレットは固定のまま、ダブルガウス部分を繰り出しながら、中間の空気間隔をだんだん狭めて行くことで像面湾曲を補正しているようです。

これ単体でまだ写真を撮っていないので、そのうち写真を上げるかもしれません。

感想

一通り広角~中望遠までのプライムレンズを揃えてしまったので、次はどのレンズが欲しくなるのでしょうか。。。

ニコンのF1.8シリーズはどれも良いレンズなので、広角の残り2本にも興味はありますが、そこまで必要性を感じたことは無いんだよなあ。

まずはいい写真を撮ることを心がけて行きていきます。

コーヒーに詳しくなりたい

コーヒーにこだわりたい

コーヒー、美味しいですよね。

人間、せっかくならコーヒーを良く知って飲みたいもの。


世間はサードウェーブだのいって、東京には至る所にコーヒーロースター、スタンド、カフェが乱立するこの現状。

「よくわからんけど・・・スタバよりはなんか美味しい」

とかいうレベルからは脱したい!という気持ちになったときに、

どういうことを気にすればいいかなーということを考えてみました。暇なので。

コーヒーへのこだわり方

大体の人にとって、コーヒーは飲むものです。

その前のステップ、焙煎や抽出の仕方がどうとかいう話はここではしません。


また味に関しても、プロの審査員が判断している

  • Clean Cup
  • Sweetness
  • Acidity
  • Mouthfeel
  • Flavor
  • Aftertaste
  • Balance

とかいった判断基準も、素人が最初から手を出すには高尚すぎます。

よく、「青りんごのような」「ナッツの風味」「複雑な」とかいったカッピングコメントがありますが、

ある程度の訓練をしないとそういった判別はできません。


この記事では

コーヒーの産地と品種

に絞って、ざっくりと知識をまとめてみます。

前提 ~スペシャルティコーヒーとは~

最近はなんでもスペシャルティコーヒーです。

スペシャルティコーヒーがあるなら、アンスペシャルティコーヒーはあるのかって話ですが、

コーヒーの中で特に品質が良いものをスペシャルティと呼ぶという区分けです。


具体的には、コーヒーのオフィシャルな品評会に出品された豆で、

(上で書いた7つの項目+総評) x8点 +基礎点36点をの100点満点で評価したとき、

80点以上の点数を得たものが「スペシャルティコーヒー」として流通している豆です。


もう一つ、スペシャルティには重要な「トレーサビリティ」というものがあって、

その豆が栽培された「国」や「農園」、「品種」、豆へ加工する際の「精製プロセス」などが

明記されていることが、スペシャルティ品質の必要条件になっています。


逆に、世間一般でちょっとこだわって売られているコーヒー豆であれば、

「国」「農園」「品種」「精製プロセス」が書いてあるので、

コーヒーの味に詳しくなりたい!と思ったら、そこを見るのが最初の一歩かなと思います。


コーヒーの産地

前座が終わったので、あとは雑多です。

コーヒーの産地というと、主に

中米、カリブ海

グァテマラ、ホンジュラスパプアニューギニアパナマ、ジャマイカ

南米

ブラジル、コロンビア

アフリカ

エチオピアケニア

東南アジア

インドネシア


適当に書いたけどこんな感じ。

ハワイコナとか特殊なのもありますが、だいたいこの近辺が主です。



コーヒーの品種

コーヒーの品種で分けるともっとざっくりわけられて

「ブルボン、カツーラ系」

主に中南米の味。ムンドノーボ、カツアイ、カティモールとかもここにぶち込む。

もちろん国、農園、品種で味の違いはあるけれども、このあたりのコーヒーはだいたい、

このあたりのコーヒーの味がする。

ケニア系」

SL28とかSL34いった品種のコーヒー。

カツアイ、ブルボン系とはまた違った味がする。

エチオピア

エチオピアはコーヒー発祥の地とも呼ばれていて、くそたくさんの品種が混合して

独自の発展を遂げているらしい。みんな大好きイルガチェフェG1に代表されるように、

地域/精錬ステーションごとにコーヒーを出している。

「マンデリン」

インドネシアのコーヒーといえばだいたいこれ。中深煎りで飲むことが多いかな。

ゲイシャ」

みんな大好きゲイシャ。パナマエスメラルダ農園とかドンパチ農園が有名。

まじでこれはコーヒーなのか?という味がする。エチオピアとはまた違った風味



これくらい。

あと、いわゆるブルーマウンテンというのは、ジャマイカで栽培されるティピカ種で、

癖がなく日本人好みらしいけど、最近は台風や害虫の被害で生産量が著しく落ちているらしい。

ハワイコナ、トラジャ、ジャワなどあるけれども、まあこれくらいを抑えておけば

大体の分類はできそう

http://hawaii-coffee.info/wp-content/uploads/2014/09/86bb3e69902c578cc353f19e4f1c8cd8.png

こちらのページより
hawaii-coffee.info




ということで、もしコーヒーを飲む機会があれば、産地と品種も気にしてみてください。

感想

美味しいコーヒーが飲みたいです。

ゲームの配信をしたい

タイトルそのまま、半年くらい前にゲームの配信がしたくなりました。



今は不自由なく配信できている状況なのですが、

段階とやりたいことに応じて、どれくらいのものが必要なのかをまとめてみました。


【スプラトゥーン】 プライムシューターコラボで神エリア【後付実況】

これは配信とはあんまり関係ない。


キャプチャーボード

これがないと、PCに映像が取り込めません。できることは主に

  • USBまたはPCI-expressでPCに接続
  • HDMI(またはアナログ映像)を入力
  • PC上でなんらかの形で映像を認識できる*
  • パススルー出力できる**


*アマレコ等のキャプチャソフトを通すのが基本。OBS等の配信ソフトで認識もできる
**入力した映像をPCに送ると同時に、遅延のない映像信号として分配出力ができる。PCに送った映像は必ずデータ変換するので遅延が生じる。



こんなところです。

配信するだけならキャプボだけで十分。

f:id:magihara:20170401190302p:plain:w500


マイクとオーディオインターフェース

実況などをするために自分の声を入れるにはマイクが必要です。

PCに接続できるマイクは大きく3種類あります。

  1. USB接続
  2. ライン(3.5φプラグ)接続
  3. キャノン(XLRコネクタ)接続


USBとライン接続は、そのままPCにつなげるので問題無しです。

キャノン接続の場合、基本的にオーディオインターフェースを挟まないといけません。
(XLRをUSBやラインに変換する手もあるにはある)


オーディオインターフェース(オーディオI/O)は、PCの音声入出力を補助する装置です。
主にDAW等で楽器やマイクの音を録音する際に使われたりします。できることは

  • キャノン/ライン端子を入力。
  • PCにUSBで接続し、音声を認識。
  • チャンネル数(つなげる端子の数)が多ければ、多くの楽器/マイクを独立して入力できる*。
  • ヘッドホンをつなぎ、入力した音声と、PC上の音声も聞くことができる。


*チャンネル数は安いもので2, 多いと4~8, 強いやつは16,18,20以上とか。それだけたくさんの楽器を同時録音できるということ。


こんなところです。
オーディオインターフェースを使ったほうが音がいいらしいので、これを使うのもありですね。

f:id:magihara:20170401195437p:plain:w500


手軽なものは1万から2万

Roland ローランド オーディオインターフェイス DUO-CAPTURE EX UA-22

Roland ローランド オーディオインターフェイス DUO-CAPTURE EX UA-22


良いものはもうちょいしますね


PCを使わないゲームプレイ

キャプチャーボードからパススルーした信号をTVに送っている場合、
PCの電源を入れておかないとキャプチャーボードに通電されず、ゲーム映像が一切見えません

f:id:magihara:20170401191443p:plain:w500


ゲーム→TVのバスはキャプチャーデバイスとは別に用意しておく必要があります。

そこで、キャプチャーボードの手前に分配器をかませておきます。

f:id:magihara:20170401234326p:plain:w500


そうすると、PC電源を切ってキャプボがついてなくても、テレビに映像が映ります

f:id:magihara:20170401234546p:plain:w500



分配器はHDMI対応のが良いですね


録画をしたい

一番上に載せたような動画を撮りたいです。

アマレコなどのキャプチャソフトや、OBS(Open Broadcas Software)とかのキャプチャ兼配信ソフトを使えば、
PC上で即座に保存することができます。これが一番簡単。


ただしこれもPC必須なので、録画だけするのにPCをいちいち立ち上げたくない、という場合は使えません。

PCを使わないためには、HDMI録画ができる外部機器が必要になりますね。
(録画した動画を見るのはPC必須なので意味がないという説もありますが。。。)


HDMIからPCレスでUSB機器に録画する道具、こんなものがあります。


上の製品でできることとしては

  • HDMI入力してUSBに保存(H264の.mp4形式)
  • HDMIでパススルー出力
  • 音声のみを3.5φジャックで出力
  • マイク入力して合成もできるっぽい(試したこと無し)

これを使うことで、ヘッドホンを音声出力端子に挿して、テレビからでなくても音を聞くことができます。

接続場所としては、分配器とテレビの間でOK

f:id:magihara:20170402003611p:plain:w500


これならPCを切っていても録画ができます。


f:id:magihara:20170402003607p:plain:w500


Skypeなどで通話をしたい

通話しながらのゲーム。いいですねえ。

友達がいれば、の話ですが。



通話しながらのゲームしながらの配信をするには、考慮することが増えます。

  • PCの音声(Skype等の通話相手)をヘッドホンで聞きたい
  • ゲームの音声もヘッドホンで聞きたい
  • ゲームの音声は配信したい
  • マイクの音声はSkype等に入力しつつ、配信に加えたい


マイク音声をPCに取り込むのは先述しました。

配信にゲーム音声とPC音声を乗せるには、配信ソフトで設定をすればOK。



問題はそれを自分でどう聞くか。

配信ソフトと同じ、PC上の音を聞くと、ゲーム音声は多少遅延があってきついです。


なので、PCの音声と、「遅延のないゲーム音声」を何らかの方法で合成する必要があります。
そのためには

  1. オーディオインターフェースでまとめる
  2. ミキサーでまとめる
  3. Belkinロックスターを使う

のどれかがいいところなんじゃないでしょうか。



ちなみに、Wii UPS4などはコントローラーにヘッドホン端子が有ります。

上で書いたレコーダーの音声出力から音を拾えば、本体から有線でつながっていることになり、

無線を介しているコントローラーからの音声よりも遅延が少ないです。
(コントローラー側の遅延も小さいですが)

1. オーディオインターフェースでまとめる


さて、すでにオーディオI/Oでマイク入力している場合、

かつそのI/Oのチャンネル数が3以上あれば、モノラルマイク+ステレオゲーム音声で、

欲しい音声をそこに集約できます。



純粋な「オーディオインターフェース」としては、3チャンネルのものはほぼ無くて、

4チャンネルからが普通ですね。

Roland ローランド オーディオインターフェイス QUAD-CAPTURE UA-55

Roland ローランド オーディオインターフェイス QUAD-CAPTURE UA-55




最近は生放送用にか、3チャンネル以上のミキサーにオーディオI/O機能をつけたものも

ぼちぼち売られています。

BEHRINGER ベリンガー XENYX 302USB ミキサー

BEHRINGER ベリンガー XENYX 302USB ミキサー

安定のベリンガー。音質は良くないけど形式だけなら。



こっちのほうがコスパは良さそう。




f:id:magihara:20170402032910p:plain:w500

ゲームから直接伸びてる赤線は、さっきのHDMIレコーダーをかませても同じ。



オーディオインターフェースでまとめることの利点は、下で書くような余計なものを買わなくて済むこと。
(まあ、ミキサー兼オーディオI/Oのものを買ってると捉えることもできる)


欠点としては、大体がUSBバスパワーで動くので、PCが無いと音すら聞けないこと。

あと、4ch以上の「純オーディオI/O」は大体高性能機種なので、音質が良い高価なものになってしまう。



「I/O機能のついたミキサー」であれば、基本的に外部電源で動くので、PCなしでもOK

これ良さそうね。


2. ミキサーでまとめる


ミキサーは一番確実だけどそのためだけに用意するにはもったいない。

普段から外部ミキサーをつかう稀有な人向けの方法ではある。


ちなみにゲームで2chとPCで2chなので4チャンネル以上のミキサーが必要。



f:id:magihara:20170402052553p:plain:w500

ミキサーを使うメリットとしては、外部入力が増えたときにでも対応しやすいってことかな。

ヘッドホンはミキサーに常時繋ぎっぱなしで、あらゆる音をそこでまとめたい、って用途向け。

iPodをつなぎたい。楽器をつなぎたい、などなど。


さらにこれに加えて分配器とレコーダーを挟めば、PCレスでもゲームと録画ができます。


f:id:magihara:20170402052846p:plain

だんだんカオスになってきた。けどこれが今の自分の現状。

3. Belkinロックスターでまとめる

仰々しいミキサーを使わなくても、Belkinからロックスターという素晴らしい商品が出ています。



これは、ステレオイヤホン端子が6つあって、それぞれが入出力に対応しているすぐれものです。


1つの音源を5人までで聞くことができるだけではなく、

5つまでの音源を一つのイヤホンで聞くことができるのです。


なので、簡易ミキサーとしてこれを使う手もあり。しかも安い!!




配信せずに、通話しながらゲーム音声が聞きたい場合も、

PCとゲームをこれに繋いでヘッドホンを挿せばOK。


ちなみにiPhone等のイヤホンマイクには対応していないので、マイクは外部のものを使う必要あり。


グラウンドループ(おまけ)

ちなみに、オーディオインターフェースを使わないでXLRコネクタのマイクを繋ぐとどうなるか?

これに以前困ったので書いておきます。



まず、XLRコネクタのマイクは、ダイナミック/コンデンサ共に、変換プラグを使ってPCのマイク端子に

つなぐということはしないほうが良さそうです。


PCのマイク端子からは、繋いだPC用マイクを駆動するための電流が流れていて、

それがダイナミックマイクには悪さをするらしいです。ノイズが出たり、壊れたりするらしい。


コンデンサマイクに関しては、XLR→ステレオフォンで変換してしまうと電源は来ないのでそもそも使えない。



なので一旦ミキサーにマイクを繋いで、それをPCに送るということを考えましょう。

ミキサーからPCにマイク音声だけを取り込むには、ミキサーのオグジュアリバス(AUX)*から、

マイク音声だけ選んで、PCのマイク端子に送ればOKです。

*オグジュアリバスとは、全部の音をまとめた音声ではなく、いくつかの音を選んで別ルートに出したいようなときに使われる信号ルートのこと。ライブハウスなどでは、リバーブを掛けたい音声だけを抜き出して、外部にあるリバーブエフェクターに送ったりしている。


f:id:magihara:20170402054428p:plain:w500



さてこれで一見うまくいっているように見えるのですが、図の左下のようにPCとミキサー間で「ループ」ができると、

ノイズが増幅されてしまうという、「グラウンドループ」という現象が起きます。

www.dtmstation.com

※ もしかしたら、PCマイク端子に流れているプラグインパワー電流のせいもあるかも?



対策としては、上の記事にあるようにDI*などをかませて回路的に分断して、ループを取り除くこと。

*DI(ダイレクトボックス)は主にギターやベースから直接出た高インピーダンスの信号をミキサーに送るためにインピーダンスを下げるための箱。パッシブタイプはコイルによる相互誘導を使ったトランスと呼ばれる装置で変換、アクティブタイプはトランジスタを使った回路でもっとしっかりと変換。



DIを使わなくても、トランスで回路的に分断するのが目的なので、オーディオアイソレーターというものを使えばOK





ちなみにオーディオアイソレーター。Amazonで安く売っていたので買って試してみましたが、それよりも、

オーディオI/Oを通してPCとやり取りしたほうが圧倒的に安定するし拡張性が高いので、

今はお蔵入りしています。


まとめ

こんなに苦労する必要は無いと思います。


なによりこのブログにまとめるのが大変だった。

動画を作るのはとても大変だった

「恋ダンス」ビデオ

友人の結婚式の余興として、今流行りの「恋ダンス」のビデオを作りました。



完成から既に2ヶ月が過ぎようとしていますが、

この機会にいろいろと思ったこととかをまとめていこうと思います。

例によってとても長いです。


機材・役に立ったもの

メインカメラ(デジタル一眼レフ

買ったのは2014年の誕生日だから、大体2年くらいの相棒。

撮った写真の枚数は6万枚くらい、1.3TB。



いつか書いたけれども、センサに汚れがつきやすい製品らしい。

問題になったD600から改善したとはいえ、そもそもの機構がね。

でもとても頑張ってくれている。また掃除しないとな


動画能力はあんまり高くないけど、720pで60fpsのMP4が出せるのでまあよし。


キャノンの最近の一眼レフは、デュアルピクセルCMOS AFという機構があって、

動画撮影のライブビュー時でもフォーカスがスムーズで速かったりする。


動画はそんなに撮らないから、ノロノロの旧式コントラストAFで良いんだけどね。

まあこれは下の方で書こうかな。



加えて、この子との思い出とか感謝を述べだすと1記事書けるのでこれくらいで

サブカメラ(ビデオカメラ)

主にメイキング用。

餅は餅屋ではないけれども、やっぱり動画はハンディカムが撮りやすい。

画質に関しては、一眼レフのセンサーにはかなわないけれども



レンズ


この前買った24-70/2.8Eが大活躍した。


ビネッティング、ディストーションも含めて一つの絵になっている一眼レフでは

トリミングをあまりしたくないので、やはりズームレンズが有利。



広角めで寄る、望遠めで離れる、といった画角の使い分けもできるのでとても助かる。

それでいて開放f/2.8は、暗所撮影で露光を稼ぎたいときにとても助かる。


結婚式でも大活躍しているけれども、この動画ができたのはこのレンズのおかげである。



広角ズームも一部使った


三脚


携帯性を重視した、けれども安定感のあることで重宝していたベルボンのウルトレックシリーズに、

最近発売された1ストップのビデオ雲台をつけて使った。

今買うなら、セットになっているタイプもある(UT-55)



荷物が多くなりがちなので、コンパクトに収まるUTシリーズは非常に助かる。

一点、雲台が自由雲台で動画撮影には向かなかったんだけど、

対応のビデオ雲台が出たので敵なしになった。


ちなみにこれ、伸ばす際には脚をねじってロック/解除するんだけど、

ねじり方、というか持つ位置が悪くて脚が根本から抜けてしまった。
(接着剤で固定している部分が剥がれてしまった)

300番の紙ヤスリで削って、接着剤で固定して一応復活した。

セメダイン 超多用途 接着剤 スーパーX クリア P20ml AX-038

セメダイン 超多用途 接着剤 スーパーX クリア P20ml AX-038


色について


色、とても難しい。

映像の出来栄えを左右するのは「色」であるような気がしている。


それに気をつけていればそれっぽい映像になるし、

気をつけないと(撮ったまま出した素材を使っていると)それなりの動画になってしまう。



幸い、Adobe Premiere ProにはLumentriカラー補正というのがあって、

普段写真で多用しているLightroomと同じ感覚で、色調補正ができる。


f:id:magihara:20161231023929p:plain

f:id:magihara:20161231023940p:plain


微妙な違いだけど、結構変わるでしょ。




ただ、RAW画像の現像とは違って、H.264圧縮された動画を

画像処理しているので、補正の幅は(思っているより)狭い。

変更を大きくしすぎると、破綻して画面のどこかが不自然な色合いになってしまう。



f:id:magihara:20161231021449p:plain

WBがおかしいまま撮ってしまったのを力づくで補正した図。



f:id:magihara:20161231021856p:plain

力づくの跡。

色温度を鬼下げして、死んだコントラストと彩度を爆上げする。
良い子は真似してはいけません笑


色をおかしくしない、そのために

カメラ側のホワイトバランスや露光で、画像処理しやすい色合いにしておくことが大事。


いや、当たり前のことなんだけど。

「映像が撮れていれば良い」とか「後から何とかする」とか甘えた考えは捨てて、

撮影の時から、生でも使えるレベルの映像を素材として用意しておかなければ、

と実感した今回でした。


カメラにおいては、映像の場合も情報は

センサー → [カメラ側プロセッサで圧縮] → H.264 → [PCで編集] →完成素材

のように変換されていくので、メインの補正は

センサーからの生情報からH.264に圧縮する際の、カメラ側プロセッサの画像処理で

行ってしまったほうが情報の劣化は少ない。


PCでの編集は本当に最後の微調整、味付け程度にするべき



そこで、PC側で、カレーをシチューにしようとか、

焼き魚を煮魚にしようとか変更しようとすると、破綻してしまう。



露光・ホワイトバランスのカメラ側のオート設定は、

理想的な環境(自然な太陽光があって、余計な影も無くて、変な色も存在しない状況)であれば

確かに適切に機能してくれるし、意外とそういう場面は多い。



ただ、少し暗かったり、照明の特性が少し違ったり、そういうときは、

自分の目とライブビューで露光と色合いを確認して、

できるだけフラットかつ不自然でないものに合わせておかないとなって感じです。



企画の大切さ

マジで今回、これに尽きる。


f:id:magihara:20161231033806j:plain

企画ノートの1ページ目。イントロは一番最初に決まっていた。


その場の思いつきでなんとかなるほど、規模は小さくなかった。

作りたいものを明確に頭に浮かべて、人を集めて、カメラを回さないと、

ちゃんとしたものは作れないなと、本当に実感しました。

コンテが先。素材はあと。


だから、自分が必死に撮影する傍らで、メイキング用にということで、

ビデオを渡して適当に撮ってもらっていたんだけど、

ちゃんと使える映像を残しておいてくれた人にはとても感謝してる。

良い映像は、撮ろうと思わないと撮れない中でやってもらったからね。

余談

今回、時間がたくさんあったわけでもないので、踊りというか演出を決めつつ、

決まったところは配役を決めつつ、配役が決まったら日程を決めて、

残った部分の演出を決めつつ、という感じの自転車操業だったので、

最後のPPAPネタを詰め込んだのが完成予定日の前々日とかだっけな。


ラスサビは、これまでに思いついたネタのしわ寄せを受けた部分で、

やりたいことはたくさんあるが尺が足りないので、
(全体的にそうだった。沢山のアイディアが思いついては消えていった)

色々試した結果として、渦巻き切り替えからのPPAPに落ち着いた。

最後のババババってのも、自然な流れで思いついたかな。PVのオマージュかな。


オマージュの話をすると、2BのギターもPVのオマージュ、

YouTubeの動画に見せるってのも昔の卒業ビデオと同じ、

イントロとアウトロのカメラキャップは、むかし東京事変がトーク映像でやってたんだよね。

探せば見つかるかも。


あと、構成ノートを書いてるのはこの万年筆です。マジでどうでもいい情報

正確には細軟(SF)、インクはかの有名な色彩雫の月夜。


余談終わり

ピント・フォーカシング

ニコンの動画機能はあくまでオマケなので、

動画撮影時ライブビューでのAF、特に追尾AF(AF-F:常時AFサーボ)は

遅いし追尾も適当だしで、信頼してはいけない。

コントラストAFで合わせていても、信頼してはいけない。


そのせいで(もちろん、確認を怠った自分のせいだけど)いくつか

ピントが合ってないシーンがじつは有ったりします。



教訓として、ピントは必ずライブビューでMFで合わせましょう。

動いているものを撮りたいのであれば、一眼レフのレンズでMFを上手にするか、

キヤノンの一眼レフを買いましょう。


こんな感じです。


また余談

オートフォーカス時において、純粋なレンズのフォーカシングの駆動速度は

レンズに内蔵されているアクチュエータの性能で決まると思うのですが、
(フォーカシング群の重さも関係あるけど。本当は)

AF開始から合焦までに掛かる時間はそれとはまた別問題で、

車を運転して目的地にたどり着くように、実際にレンズを制御してピントを合わせるのは、

カメラ内でのアルゴリズムに拠るところが大きい。


キヤノンのAFは早いが、ニコンの方が正確かも、みたいに言われたりするのは

そういうところが影響しているのだと思う。



ライブビュー時のAFで使われているコントラスト方式は、

画像処理で「ピントの合ってる度」を計算していて、一定の範囲で前後を探して、

一番それが大きくなる所を、最終的にピントが合っているとしている。

ただこの方式はトライ&エラーを繰り返すので、比較的遅いと言われている。



ただ最近のミラーレスとか、上で書いたキヤノンの一眼レフではそれに加えて、

センサ上で、「今いるピント位置から前後どちらに」「どれくらいピントがずれているか」を

計算できるようになってきている。

いわゆる像面位相差とか、デュアルピクセルCMOSとかいうやつ。


これは像面に光を当てている、つまりライブビューの動画撮影状態でも、

位相差AFのようなことができるので、速くてスムーズだし正確。



ただ、一眼レフのスチル(静止画)では絶対に必要になることのないAFセンサをわざわざ、

CMOSセンサ上に置く必要は、無いと思うけれどもね。個人的には。

YouTuberが増えている現在、トレンドはそちらに移ってきているような気がするけれど。

だってこれまでのライブビューでは考えられないくらいAFがスムーズで速いからね。



AFはここが詳しい

デジカメ「超」基礎解説:「コントラスト」「位相差」2つのAFを理解する - ITmedia LifeStyle
http://camera.itmedia.co.jp/dc/articles/1009/14/news026.html


余談終わり

フリッカー

フリッカーって、後からの編集で消すのが難しいんですね。

全然知らなかった。


ってか発生原理もちゃんとは考えたことなかった。


一眼レフ動画であれば、同じ60fpsでも露光時間を1/100とかにすれば完全に消える。

でも、iPhoneとかハンディカムで撮る場合はおそらく、60fpsなら1/60程度に

なっているはずで、フリッカーが出てしまう。


蛍光灯なんか使うなという話で済めばよいのだけど、そうもいかないからね。


30fpsで撮ればまだましになるっぽい?

フォントの難しさ

未だに克服できていない。圧倒的にセンスがない。

テロップ(Premiere Proで言うところの「タイトル」)で悩むのは主に3つ

  • フォントの書体
  • 背景と馴染む色使い
  • 縁取り、影

本当は、こういう背景であればこういう色のテロップを使えっていう

セオリー?みたいなのがあると思うんだけど、

まだ全然つかめてないんだよなあ。


数年前から、卒業生へのビデオレターという、ほとんどテロップ芸のような

動画を作り続けているけれども、

毎年ポリシーがブレブレなのと、上映してみたら意外と微妙だったりして

自分の中での正解がつかめずに今です。


バラエティ番組とか、ドキュメンタリーとかしっかり見て

学ばないといけないなあという最近でした。


Premiere ProとAfter Effects


その違いは何なの?とは昔から思っていて、

  • それらを一つの映像にまとめるのがPremiere Pro

という認識だったのだけれども、

Premiere Proでも動画にエフェクト掛けられるし、

テロップも出せるしなあと思っていた。



ただ、今回わかったのが、

テロップのアニメーションはAfter Effectsじゃないとできない!(今更!!)

他の動画編集ソフトでボタン一つでとかでできる、

「それっぽいテロップ」とか、パワポのアニメーションみたいな効果は

Premiere Proではできないんですね。

字幕しか使ったことなかったから気付かなかった。



だから、今の認識としては

  • テロップにアニメーションをつけられるのがAfter Effects
  • つけられないのがPremiere Pro

という感じ。暴言にも程がある…




ただPremiere Proの神的機能として、マルチカメラというのがあります。

たくさんの素材を並べておいて、9分割とかで並んだ画面を見ながら、

逐一カメラを選択して切り替えていき、一本の動画にできるというやつ。


今回の恋ダンスビデオでは、サビで多用させてもらいました。

あと間奏のダンスでも重宝しました。



f:id:magihara:20161231022320p:plain

f:id:magihara:20161231022514p:plain

マルチカメラ編集中の図


もちろんこの機能使わなくても、全部を別トラックに並べておいて、

適当なところでバラバラに切り刻んで、必要なクリップだけ残して他を消せば

同じことはできるのだけど(実際、余裕が無いときはその方法を使ったりした)、

「マルチトラック」という1つのサブシーケンスとして保持しておけるのが

管理の点からもとても便利。



f:id:magihara:20161231022804p:plain

f:id:magihara:20161231022725p:plain


ラスサビの9分割。

構想中の比較的当初からやりたかったけど、これくらいになるとマルチカメラは使えない。

各素材を手作業で縮小・配置して、時間を合わせて並べていく。


気の遠くなる作業だけど、素材もたくさんあったし、出来上がってる感が強くて楽しくやれた。


DVDに書き出すという闇

こんなに闇を感じたことは無かった。


通常のDVD-Videoというのは思った以上に画質が悪い。480pで30fps。

編集はすべて720pの60fpsで作っていたのでかなりのダウンスケール。

できることならもっと高画質で上映したい。でも式場にはDVDで持ち込むのが普通かつ信頼性が高い。


調べてみると、巷にはハイビジョン(AVCHD形式)映像をDVDに書き込むことができて、

通常のDVDプレーヤーでは観れないけど、家庭用ビデオコンポなどのブルーレイ対応の

プレーヤーだったら観られるらしい。なんじゃそりゃ。


まあでもそれはよかった。式場のプレーヤーが古いものでなければ、

その形式のDVDを持っていけば、編集と同じ720pでの動画が再生できる。と思った。

しかしそこからが面倒だった。


さて書き出すぞとなっても、なんとAdobeのソフトではDVDオーサリングができない。
(オーサリングは、DVDにただ書き込むだけでなく、DVDプレーヤーで観られるように書き込むこと)

昔、Encoreというソフトがあった気がしたんだけど、CCになってから消滅したみたい。

フリーソフトでは、うっかりすると試用版で、透かしが入ったりする。

悪態をつきながら、インストール・アンインストールを繰り返す深夜であった。



少し探して、通常のDVD-Video(低画質)であれば、書き込めるソフトを見つけた。


WinX DVD Author
https://www.winxdvd.com/dvd-author/index-jp.htm



一方でAVCHDの方は、かなりいろいろ試した結果、普段Sonyのハンディカムで

撮った動画の管理をしている、Play Memories Home(PMH)というソフトで書き込める様子。

本当に色々無料ソフトを探しても無くて、有料ソフトを買おうかと

クレジットカード番号を記入しているときに思いついた。


ただし、どんな形式で出力しても、「この形式の動画は対応していません」と言われる始末。


そこで、

編集した動画をH.264のmp4形式で書き出し

PMHのトリミング機能で、何も編集せずに再変換だけする

ことで、何故かハイビジョン映像書き込みに対応させることができた。



もちろん、今日びDVDなんて媒体に書き込むなんて状況になる人がほぼいないのはわかる。

でも結婚式の余興動画はDVDで持ち込むのが基本となっている現状なので、

どうにかならないものかという気持ちになりました。


確かに他人のPC上で動画が再生できる/できないという問題はさらに闇が深くて、

式場側が、すべての動画を再生する責任を負いたくない気持ちは非常にわかるんだけど。


時代の最先端をいった動画共有の方法はどうやっているのか、非常に気になる。

誰か知ってる人、情報ください。


写真から動画へ。次の課題は音声

普段の守備範囲である写真から映像になって、1秒間に60枚もの画像情報を扱うことになるので、

まずはそこが最初の難関だった。

ただ画角と露光と色だけでなく、時間軸を増やした

「動き」を表現することの難しさが動画作成にはあります。



そしてさらにもう一歩、音。

これに関しては、今回は妥協してしまった。


本編は、音声についてはCD音源を流しておけば良いので完全に甘えることができた。

ただメイキングは色々なカメラで撮った映像の音を使っているので、ゲインとかレンジとかがバラバラ。

平均だけ見てゲイン調整してしまうと、どこかでクリッピングを起こしてしまう。

例えばフォーカス駆動の音が意外と高周波で扱いにくかったり、

ドラムの演奏の音が入るとすぐサチってしまったり。



なので今回は、ヤバそうなところだけコンプとリミッターかけて済ませることにした。
(メイキングはそれでなくても書き出しが当日に間に合うかどうかのギリギリだったので)


本当は1クリップずつゲインを合わせて、EQかけて、しっかりマスタリングすべきなんだけど。

セリフとかが入らない分、そこは手を抜く形になった。

次回動画を作ることがあれば、音声にまでちゃんと配慮したものを作りたいなと思ってます。



最後に

当日めっちゃウケて嬉しかったし、今でも再生数が伸びているので嬉しいです。

一般公開はしてない、本編+メイキングの映像も載せておきます。



今後も頑張りたいと思います。