光害になんて負けたりしない!東京都心でもできる天体観測

惑星の撮影

追尾 する
撮影機材 コンパクトデジカメ/一眼レフ/動画カメラ
撮影方法 コリメート法/拡大撮影法
難易度 中~高

惑星は見かけの大きさが小さいので、風景の一部として撮影する場合を除き、望遠鏡の領分です。撮影に必要な拡大率が大きいので日周運動の影響も大きく、基本的には赤道儀での追尾が必要となります(感度を上げてシャッタースピードを稼げば追尾なしでも撮れないことはないですが)。

コリメート法や拡大撮影法によるデジカメを使った撮影方法は、月と共通するので説明を省き、ここでは最近流行の動画を用いた撮影方法について簡単に紹介します。

地上から惑星を観測・撮影する場合、地球を取り巻く厚い大気の層を通して見ていることになります。大気中では温度や密度の異なる空気の塊が常に混じり合っており、これが光を複雑に屈折させるため、地上から見る惑星は常に揺らいでいます。普通に写真を撮った場合、この揺らぎまで写し取ってしまうため、いわば「被写体ぶれ」を起こしたのと同じ状態になってしまい、なかなか鮮明な画像が得られません。

動画カメラで捉えた木星
実際に木星を動画カメラで捉えた時の映像です。この日はかなりシーイングが良好でしたが、それでもこれだけ像が揺れ動きます(地上の風などの影響もあります)。これでは普通に写真を撮っても、ブレてぼやけてしまうのは当たり前です。Celestron EdgeHD800+Meade 3x TeleXtender+ZWOptical ASI120MC, 2016年2月27日撮影

しかし近年、惑星を動画で撮影した後、PCでコマごとに揺らぎで変形した惑星像を補正しつつ数千コマ分を重ね合わせ、さらに画像処理を行うことで鮮明な画像を得るという方法が普及してきました。この手法を「スタッキング」(stack:「重ねあわせる」の意)といい、これによって惑星の撮影レベルは飛躍的に向上しました。

撮影にはデジカメの動画機能やUSB接続タイプの動画カメラを用います。画質劣化のない無圧縮の動画ファイルが得られる点や、感度の点などから、本格的な撮影には後者が好んで用いられます。

どうやって拡大するか

惑星の見かけの大きさは、写真に撮るには極端に小さいものです。たとえば、一番大きい木星でも見かけの直径は角度にして最大45秒程度で、月の約1/40しかありません。そのため、これをまともに撮影しようと思えばかなりの拡大が必要です。

そこで、アイピースやバローレンズによる「拡大撮影法」が用いられます。アイピースを用いた場合、光学系全体としての焦点距離(合成焦点距離)fc(mm)は以下の通りになります。

fc = LM = Lf/fe

ここで、L:アイピース後端から撮像素子面までの距離(mm)、M:望遠鏡の倍率、f:対物レンズの焦点距離(mm)、fe:アイピースの焦点距離(mm)、です。例えば、ビクセンのED81S(f=625mm)に拡大撮影アダプターを取り付け、アイピースとしてNLV 10mmを用いて拡大撮影を行うと、その合成焦点距離は

fc = 103x625/10 = 6438 mm

となります。

一方、バローレンズを用いた場合の合成焦点距離は(当然ですが)望遠鏡の焦点距離にバローレンズの倍率をかけたものになります。。

必要な拡大率は?

ではどのくらい拡大すればいいかですが、望遠鏡の分解能とカメラの解像度との兼ね合いで、合理的な大きさを求める必要があります。拡大率が足りなければ望遠鏡やカメラの性能が生かしきれませんし、逆に大きすぎれば、解像度が上がらないにもかかわらず像が暗くなり、ノイズやシャッター速度の面で不利です。

そこで、望遠鏡の「遮断空間周波数」(Spatial cutoff frequency)νとイメージセンサーの「ナイキスト周波数」νnをそれぞれ求めた上で比を取り、ここから必要な拡大率を求めるという方法を取ります。

「遮断空間周波数」というのは、その光学系がどれだけ細かい明暗模様を見分けることができるか(1mmあたり何組の明暗模様を見分けられるか)を示す値で、以下の式で求めることができます(単位はmm-1)。

ν = 1/λF = D/λf

ここで、D:対物レンズの口径(mm)、f:対物レンズの焦点距離(mm)、F:対物レンズのF値、λ:光の波長(mm)をそれぞれ表します。

λは可視光の範囲で色々な数値を取りえますが、ここでは簡単のためにλ = 500nm = 0.0005mmとします。例えば私が撮影に用いているEdgeHD800の場合、D = 203mm、f = 2032mmのF = 10ですから、これらを上の式に代入すると、

ν = 1/(0.0005x10) = 200(mm-1

となります。

一方、イメージセンサーには多数の画素が並んでいますが、この画素間の間隔(画素ピッチ)によって記録できる明暗模様の細かさは決まってきます。これを「ナイキスト周波数」といい、以下の式で求められます。

νn = 1/2d

ここでd:画素ピッチ(mm)です。

たとえば、私がモノクロ撮影で使っているASI120MMで用いられている、Aptina ImagingのMT9M034というセンサーの画素ピッチは3.75μm = 0.00375mmですから、ナイキスト周波数は1/(2x0.00375) = 133.3(mm-1)となります。

もしナイキスト周波数が望遠鏡の空間遮断周波数を上回っていれば、センサーは望遠鏡が解像した像を完璧に記録することができるということになるのですが、今回の場合、νn = 133.3(mm-1)に対し、ν = 200(mm-1)となっていて、望遠鏡の解像度の方が上回っています。逆に言えば、なるべくν = νnとなるように光学系の焦点距離を伸ばしてやればいいということになります。

具体的には、M = ν/νnを計算することで、必要な拡大率を求めることができます。この例の場合、この値は約1.5となります。つまり、1.5倍~2倍のバローレンズを用いることで、必要な拡大率が得られることになります。

ただし、ここで考慮しなければいけないのがカラーセンサーの方です。ここまではモノクロセンサーを前提に計算していましたが、一般的なベイヤー配列のカラーセンサーの場合、正方形に並んだR, Gx2, Bの4画素(2×2)が基本単位となっています。つまり、R画素やB画素については、ナイキスト周波数はモノクロカメラの半分しかないわけです。そのため、上記と同規格のカラーカメラを用いる場合はMの2倍、すなわち「3倍」が適正な拡大率ということになります。

撮影に用いるカメラについて

惑星撮影に用いることのできる動画カメラはいくつかのメーカーから発売されていますが、最近は価格などの面からQHYCCDやZWOpticalといった中国メーカーの製品が人気です。また、これらのカメラが出てくるまで半ば市場を独占していたImagingSource社の「DMK」シリーズの流れをくむ、ImagingSource/セレストロン共同開発の「Skyris」シリーズも根強い人気があります。ユーザーの数も多いので、これらのカメラならまず問題はないでしょう。

あと考えなければならないのは、カラーカメラにするかモノクロカメラにするかです。カラーのカメラなら一発でカラーの画像を得ることができますが、普通のデジカメと同じく撮像素子の直前に三原色のフィルターが配置されているため、感度や解像度でモノクロカメラに劣ります。一方、モノクロカメラはこれらの点で優れていますが、逆に、カラーの画像を得ようと思うと赤、青、緑のフィルターでそれぞれ撮像した後に合成するという手順を踏まねばならず、かなり大変です。特に、自転の早い木星の場合は、もたもたしていると模様が変化してしまうため、フィルター交換を含めた一連の撮影を数分以内にこなさなければなりません。

そこで最近では、解像度の情報はモノクロカメラで、色の情報はカラーカメラ(または一眼レフ)でそれぞれ取得し、これらをあとから合成するという「LRGB撮影」と呼ばれる手法が広まっています。カメラが2台必要という難点はありますが、非常に効率的な方法です。

LRGB撮影システムの例
フリップミラーを介してカラーカメラとモノクロカメラを望遠鏡に接続しています。こうすることで、カラーとモノクロを迅速に切り替えることが可能になります。

もっとも、この分野は機材の進化が速く、カラーカメラもどんどん高感度化、高画質化が進んでいます。最新機種であれば、現時点でもかなりきれいな画像が撮れるようになってきているのも事実です。いずれ、LRGB撮影など完全に不要になるかもしれません。

なお、当然ですがこれらのカメラを使うにはパソコンが必須です。特に動画カメラでLRGB撮影を行う場合、「内部的に独立した」USB端子が2つ必要なので、その点は要注意。PC内で分岐させてるだけの「なんちゃって2ポート」だと、2台のカメラを繋いだときに信号が干渉して通信帯域を食い合い、まともに動作しない場合があります。どうしても回避できなければ、都度、カメラを抜き差しするしかありません。

動画のキャプチャ

動画カメラで撮影した動画は、キャプチャソフトによってPCに取り込みます。カメラに付属している純正ソフトを用いる場合もありますが、機能が不足している場合は他のキャプチャソフトを用います。人気があるのは「FireCapture」「SharpCap」などで、いずれもフリーウェアです。

取り込んだ画像は無圧縮の動画ファイルとしてリアルタイムで保存されていきますが、カメラの高画素化もあってファイルサイズはかなり大きくなります。具体的には、例えば1280×960ピクセルのカメラで30fpsのモノクロ撮影(8bit)を行った場合、わずか1分間撮影しただけでファイルサイズは(1280×960)×(30fps×60秒)×8 = 約17.7Gbit = 約2.2GBにもなります。PCのディスク容量は十分あけておきましょう。

撮影の実際

惑星の撮影は、なるべく気流の落ち着いた時に行います。真冬のからっ風が吹いている日のように、星が激しく瞬いているようなときは不向きです。また、拡大率が極端に大きくなる分、地上の風や振動の影響も受けやすいので、その点も要注意です。

さらに、機材もしっかりと温度順応させます。特に反射系やカタディオプトリック系は筒内気流の影響を受けやすいので、できれば1時間以上前から機材を外に出しておきます。そして、機材を組んだら光軸調整です。惑星撮影では撮影後に強力な画像処理をかけることもあり、光軸のわずかなズレも強調されてしまう傾向があります。このとき、実際の星を用いて動画カメラのライブビューを見ながら調整すると、かなり精度よく光軸を合わせることができます。

ここまでの準備が済んだら、いよいよ撮影です。惑星を視野の中央に導入するのですが、視野が狭いため導入はなかなか大変なはず。このとき、フリップミラーの一方に、カメラと別に低倍率のアイピースを付けておくと、かなり導入しやすくなります。無事惑星が導入できたら、惑星像が飽和せず、かつ暗くなり過ぎないようカメラのゲインを調整します。シャッター速度については、大気の揺らぎの周期を考えると30fpsあたりが適当です。

ピントは惑星のエッジや表面の模様を見ながら追い込みます。拡大率が大きい分、かなり微妙な操作が必要になるので、できれば質のいいピント微動装置や電動フォーカサーが欲しいところです。

ここまでくれば、あとは撮影するだけ。キャプチャする時間は1回あたり1分~1分半くらいを目安にするといいでしょう。撮影時間をあまり長くしても、木星のような自転の早い惑星では模様が変化してきてしまいますし、ファイルサイズが大きくなりすぎて取り回しが悪くなります。

撮影後の画像処理

撮影後の動画は「Registax」「Autostakkert!2」といったフリーウェアでスタッキングし、強調処理を行います。これらについてはそれぞれのリンク先を参照してください。

↑ PAGE TOP