So-net無料ブログ作成
  • ブログをはじめる
  • ログイン

The reason why large lens mount is required [技術]

I reported the patent application of FUJIFILM about the optics for machine vision.
All embodiments in the application are good examples to understand the reason for the requirement of large inner diameter of lens mount.
embodiment1.PNG
If this optics scales to adapte for 35mm full-frame sensor, the focal length would be 65mm and back focus 18.5mm.

nice!(2)  コメント(0) 
共通テーマ:趣味・カルチャー

Why is a large inner diameter of lens mount necessary for an image quality? [技術]

Because the large inner diameter improves an image quality around peripheral.
mounts.PNG
A retrofocus design seems to be essential for FE lens optics.

周辺画質まで考慮すると、内径の大きなレンズマウントを選びたくなります。
FEレンズの光学系は、ミラーレスであってもレトロフォーカス・デザインにする必要がありそうです。
nice!(2)  コメント(0) 
共通テーマ:趣味・カルチャー

A 1/6 lines of X-TRANS CMOS4 sensor have not normal G pixel [技術]

On the X-TRANS CMOS4 sensor, a 1/6 lines have not normal green pixel.
All green pixels in these lines are for phase detection as shown in a following figure.
105_l.jpg
Original figure is HERE.
I wish not to be caused any problem by these lines without a normal green pixel.
nice!(2)  コメント(0) 
共通テーマ:趣味・カルチャー

Canon Engineer said that EF-M Mount was not adapted to 35 mm full-frame sensor [技術]

Nikkei Asian Review's article "Canon shifts focus from SLR to mirrorless cameras" seems to be the sigh for the production of 35 mm full-frame mirrorless from Canon. But Canon's engineer said that EF-M Mount was not adapted to 35 mm full-frame sensor at Aug. of 2012.

---Start quote 引用ここから---
EF-Mマウントは例えば35mmフルサイズセンサーなど、APS-Cサイズよりも大きなセンサーにも対応できますか?
Is the EF-M mount able to adapt a sensor larger than APS-C, such as a 35 mm full-frame sensor?

菊池:それはできないと思います。相当おかしなことをやれば物理的に入らないとは言いきれませんが……。周辺光量が相当落ちるとか、像がどうなるかわからないといったレベルですね。
Mr. Kikuchi: I think that is impossible without some strange tricks causing heavy vignetting and/or abnormal image.
(All translations are by hi-low.)
---End quote 引用ここまで---

Has Canon changed one's mind?
nice!(2)  コメント(2) 
共通テーマ:趣味・カルチャー

A prototype of light-field display from JAPAN DISPLAY (JDI) collaborating with NHK media technology [技術]

ジャパンディスプレイが、NHKメディアテクノロジーと共同開発中のライトフィールドディスプレイを公開しました。
リンク先の PC Watch の記事には、視線を振った動画が掲載されています。

Lytro のライトフィールドカメラLight の L16 の撮影データは3次元情報をもっていますが、現在のディスプレイではその情報は被写界深度の調節やリフォーカスぐらいにしか使えず、画像として見ることは出来ません。個人的に、とてももったいないと感じていました。

”ライトフィールドディスプレイ”は原理的に”ライトフィールドカメラ”と親和性が高そうなので、実用化を期待しています。

CMOS Image Sensors Overlaid with Crystalline Selenium-based Heterojunction Photodiode [技術]

明日から、NHK 技研公開2017 が始まります。
ここ数年間、アバランシェ増幅が可能なセレンを光電変換膜に使っている撮像素子に注目しているのですが、今年もポスター発表があります。
「光電変換膜を積層した固体撮像デバイス」
概要からは構造の詳細は分かりませんが、このデバイスに関連すると思われる特許が NHK から申請されています。
「結晶セレン膜を含む光電変換層を有する光電変換素子」
2015年の時点で見かけの量子効率が 100% を超えていましたが、結晶粒子を小さくするためにセレン膜を薄くする必要があり、長波長光の感度に問題があったようです。しかし、紹介した特許申請では、2層構造にすることで膜厚に依らず粒子径を小さくできるとしています。
実用的なサイズで高感度の8Kビデオカメラが、実現されそうです。

What is what you see? [技術]

多くのデジタルカメラで、画像の輝度ヒストグラムの表示が可能です。また、RAW 現像ソフトウェアでは、輝度ヒストグラムを参照しながら、現像条件を決定します。

この表示されている輝度はどのような値なのでしょうか?
RAW には、画素が吸収した光子の量をデジタル変換した結果が記録されていると考えられます。私は単純なので、このデジタル値を 10 進法に変換した値だと思っていました。

ところが、そうではないことに、最近ようやく気が付きました。
以下の画像をご覧ください。

DP3 Merrill の RAW を ImageJ という科学研究用画像処理ソフトウェアで現像した結果です。左はリニアスケールでの現像で、右はさらに対数変換した画像です。
IJ_linear_log_8bit.png

以下の画像は、Sigma Photo Pro 6.5.3 で現像した結果です。SPP_8bit.png
見た目は、ImageJ での対数変換画像とほぼ同じです。

SPP は現像時に輝度を対数圧縮するようです。DP3 Merrill は特殊な積層センサを積んでいますので、その特性に合わせた仕様かもしれません。

そこで、DP review で公開されている Leica M Monochrome (Typ 246) による撮影画像を使って、ACR と IJ による現像を比較しました。
KODAK グレースケール部の明部8段分を輝度でプロットしました。ACR_log_linear.png
左から Adobe Camera Raw (ACR)、IJ 対数変換、IJ リニアの現像です。
輝度の変化は、ACR と対数変換では一定ですが、リニアでは明部ほど大きくなります。KODAK グレースケールは印刷濃度が 1/3 EV 単位で変化しますので、リニア現像の数値が正しい結果です。

なぜ ACR や SPP は対数変換するのでしょうか?
現在の PC 用ディスプレイでは、入力値が 2.2 乗されて表示されます。したがって、RAW の輝度値を 2.2 を底とした対数値に変換してディスプレイに出力すれば、元の画像が表示されると期待できるためでしょう。

RAW 現像ソフトウェアが表示する輝度値は、対数変換だけでなく、デモザイク、色温度調整やノイズリダクションなどの様々な処理の結果です。そこに本当の値を期待することが、誤っているのでしょう。

Phase detection on an image sensor [技術]

最近は多くのカメラで撮像面位相差検出AFが採用されています。
”像面位相差AF”が一般的ですが、”像面”では結像面と撮像面の区別がつきませんので、以後は”撮像面位相差検出AF”とします。

これまでの位相差検出AFは、DSLRで採用されてきた専用ユニットを使う方法が一般的でした。
その原理をニコンが分かりやすい動画で紹介していますので、以下のリンクからご覧ください。
 高速で動く被写体も瞬時にピント合わせできる、最先端オートフォーカスシステム
簡単に説明すると、レンズの中心を通った光と周辺部を通った光の位置関係が、ジャストフォーカスを境に入れ替わることを利用しています。この方法は、ある一点のフォーカス状態を、光学系を組むことが出来れば様々な方向で同時に判定できます。
(注:ニコンの説明動画は、レンズの光軸側を通っている光をセパレータレンズで屈折させていませんが、これは明らかに誤りです。)

撮像面位相差検出AFでも、この位置関係の変化を利用してます。
私の理解を図にまとめました。
SensorPDAF.PNG
点線が結像レンズ、図の上方が物体側、下方が結像面側です。
三つの赤線が載っている黒の実線は撮像面を、赤線は図の左右に分割された光検出素子を表しています。図示していませんが、分割された素子にはセパレータレンズを兼ねたマクロマイクロレンズが載っているとします。
撮像面が移動すると、結像面を境にして、結像レンズの周辺部を通った光が光検出素子に入射する角度が逆転します。その結果、水色の棒グラフで示したように、分割された素子への入射光強度も逆転します。また、中央の素子は、合焦時に最も明るくなります。このような現象を利用して撮像面での位相差を検出していますので、2個以上の分割素子がフォーカスポイントを挟んで配置されている必要があります。
キヤノンのDual Pixelでは2個の素子で1画素とし、他のメーカーは異なる部分を遮光した画素2個をセットにしています。ソニーはキヤノンと同様な構造も作っているようですが、詳細は分かりません。

説明図では分かりやすくするために光束を限定して示しましたが、実際には結像レンズは左右に分割されるだけで、素子への光入射角度はずっと広くなり、セットの素子間の入射光強度差はわずかになります。また、イメージサークル周辺部は、レンズの光学設計によっては入射角度が偏るため、位相差検出は困難になります。さらに、撮像センサには画像も投影されますので、その明暗は入射光強度に影響を与えます。

特許文献を見ると、私の説明のように強度の単純な比較ではなく、左側素子の強度変化パターンと右側素子の強度変化パターンを比較し、そのズレを使って測距する方法も開発されているようです。キヤノンがDPRAWとDPP4の組み合わせで実現した”ボケシフト”は、このズレを使った測距の応用でしょうね。

【追記 2016.12.24】
元記事中の”マクロレンズ”は”マイクロレンズ”の誤りでしたので、修正いたしました。