EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
本帖最后由 邵教授专栏 于 2022-11-9 17:38 编辑 3 s* P! A& Y5 a! T- D& R* H r
' ~/ s' s# T) ~( N! C( { 如果说镜头是人眼的晶状体的话,那么探测器就是人眼的视网膜。可是,我们对比后却发现探测器这个“视网膜”有些不同:在平面的硬质固态材料构成的没有“黄斑”区的薄膜上,印刻着密密麻麻的格子,由读出电路输出一个矩阵。很显然,跟人眼大不同。 那么,我们要问:既然摄影是仿生,为什么不做成跟人眼更像的“视网膜”呢?半导体材料和工艺的发展越来越快,一会儿是硅,一会儿是石墨烯,一会儿又是钙钛矿,下一个是什么,我不知道,也不想知道。反正我知道硅还没有完全做好呢! 有人说,现在手机都上亿像素了,几万块的单反(微单)相机却舍不得换成亿像素的探测器,是不是脑子水比较大? - l2 t& U4 o7 y6 C+ _
手机摄影与相机
: G- N0 ^" v1 [* o3 W2 x8 v
有人说,真的不能做成曲面的吗?能不能也做一个“黄斑”区? 还有人说,鹰眼可以在万米高空发现一只兔子在奔跑,恶心的苍蝇有着可爱的复眼,蜘蛛那几个眼睛你会越看越害怕,蛇好像看到的是红外,虾蛄能识别偏振…… # T( r, J* B4 B' u# k9 C
生物的视觉探测 ; k$ p7 ?; i7 E! C7 ]4 [
对对对,你们说的都没错,都说到重点了。总结一下,探测器的几个要素:采样、量化、灵敏度、信噪比、面型、波段、像元类型和多物理量场。 我们就从人眼和动物的视觉开始,了解一下计算探测器吧。 , s" v3 Z- I3 q+ p' ~, k: q4 F+ Y
1.人眼、视觉与仿生 我们先来看一下人眼的结构和视觉是如何形成的。初中的时候,我们就学习了眼睛的生理结构,知道虹膜、巩膜、晶状体和视网膜。这里,我们进一步分析一下眼睛与视觉的形成,然后通过仿生与现代成像的比较,看看从中能发现点什么。 首先,晶状体相当于光学镜头,可是这个晶状体的结构看起来简单,却暗藏玄机。这个单片的“镜片”,折射率是可以改变的,依靠肌肉的拉伸就可以实现远近的对焦,而且,没有像差!这是发展了上百年的现代光学难以解决的问题。这是计算光学系统要解决的问题,本文不再赘述。
' @* n( t4 B8 k( [, a! J 人眼结构与CCD相机结构 + w, B+ v' U2 R1 u* m9 D4 I
然后,我们研究一下视网膜,这个由锥状细胞和杆状细胞组成、视神经以中间黄斑处密集分布、周围稀疏分布的网状散射铺开的结构,给人类生存提供了细致入微的保障。锥状细胞能够感受红绿蓝三个波段,而且感光面小,相当于采样频率高。当光线充足时,锥状细胞就发挥了作用,既起到了形成彩色视觉的作用,还能看得更精细,达到高分辨率成像的效果。杆状细胞则不同,感光面大,只能感受光强度的变化,而无法感知到色彩,它的工作条件是光线暗的夜晚和黑暗的环境,这时候,我们进入了一个黑白的世界,能够在微弱光线的环境下看清周围的环境。你看,人眼有两套工作模式。我们再进一步分析,视神经的分布不是均匀的,发散状辐射分布的结构,既能依靠在黄斑上聚焦看清楚近处的物体(指纹、文字等),又能依靠周围的视觉神经看远处的景观。在这里,我们又发现:原来并不是所有的视神经都同时工作,而是根据需要可以轮岗的——妙极!其实,人的两个鼻孔也是分时工作的,只是我们习惯了,感受不到而已。还有,人的视网膜是曲面的,不是平的。如果按照光路图的形式画出人眼的成像:倒立、弯曲,而我们却感受不到?为什么?这就是大脑的功劳!
- Y9 _3 z2 b" W0 Q& M) X3 g 视网膜结构示意图 $ Z9 F- W- L! t6 x( F2 L+ }
人眼的视神经感受到刺激后,马上会传导到大脑,在大脑中形成视觉,也就是你看到了什么。有人色弱,有人色盲,有人近视,有人远视,老人会老眼昏花,很多人远的看不清,近处也看不清!请善待他们吧,你也会有老的一天。 在前面我们还讲过,人眼视觉的暂留时间为0.1~0.4秒,于是我们可以用一秒24幅图像构成电影这样的东西去欺骗大脑;两只眼睛协同工作,不仅能进行双目定位,而且可以提升分辨率。
% R; b# I3 r! l- i( ] 人眼近视后,配的眼镜再好,都无法恢复到从前,因为,你的眼镜已经引入了像差,你需要一周左右的时间让眼睛适应这些像差,其实,你看到的视觉已经是复数光场(虚部不可忽略的那种)在视网膜中的实数投影,说到底,引入了让你难以忍受的相位。
: d6 g9 _2 |. \7 _$ \5 C3 ]. b' ` 而且,人眼遇到了强光刺激时,眼睑闭合再睁开,就会发现竟然能适应一定条件的强光,看到高动态的场景了!还有很多人在研究高频眼球颤动的问题,这种高频眼动能够迅速捕捉到运动的物体,然后引起眼睛的显著性关注,对运动物体的危险等级进行判别并做出避险行为。3 F c2 C1 D, j) {# }3 y5 [& ~
你看,这些都是我们现在的相机难以做到的,尤其是探测器,要做的事情太多了。我们再看看节肢动物门口足目的虾蛄(俗称皮皮虾却不是虾的家伙,因为虾属于甲壳(qiào)类,因被抓时腹部会射出无色液体,所以又被称为攋尿虾却常误写为濑尿虾或赖尿虾)吧,它的眼睛竟然有六瞳,并且还包含了16种用于感受颜色的视锥细胞!这就意味着它们最少可以看到16种颜色,除此之外,波段覆盖了紫外、可见和红外,而且它还能感受偏振光,而人类眼睛中却只有感受红、绿、蓝三种颜色的视锥细胞,这个从上古时代过来的低等动物竟然有如此强大的“视觉”系统,跟它比,人类的视觉简直就是小儿科!
5 B6 B6 I5 c3 E D+ s! R, x" { 六瞳可以增强对物体的运动速度和方向判断能力,在这信息获取能力超强的情况下具有预先发现事物变化规律的能力,这对预判太重要了!紫外能够判别真伪,而红外能感知温度,丰富多彩的可见波段能看到更丰富的世界。这个逆天的偏振,不仅能感受线偏振,而且可以感受圆偏振。由于皮皮虾的甲壳中含有大量糖分,因而它们的部分甲壳能反射圆偏振光,看上去就像闪闪发光的珠宝。皮皮虾利用圆偏振光与潜在配偶进行交流时不易被掠食者发现,因为其他动物可能看不见这种特殊光线。牛吧!
4 f3 P# x! d$ O% P2 f* \ S: F. ^+ y% g& q, P
; @/ }$ G- Q) N0 c: D6 [) M! Q
虾蛄
. C/ Y4 T4 A6 l那么,我们再看看比人眼“低劣”得多的光电成像探测器吧。; b* p0 u5 D" C7 ]: j) w
0 l8 V2 w! j' D/ h& g3 `2.从胶片到CCD和CMOS
$ v9 h- B! S) X, s' L2 W4 L1 v/ |9 j3 Z 照相这个玩意儿其实从出现到现在也不过百余年历史,尽管墨子在2000年前就提出了小孔成像,但照相技术的出现还是得益于光感材料的发展:先是有了氯化银做成的胶片,然后有了2009年获得诺奖的电荷藕合器件图像传感器CCD(Charge Coupled Device)的发明,随后有了更为普及、价格低廉的CMOS(Complementary Metal Oxide Semiconductor),便有了现在铺天盖地的摄像头。当然,还有越来越普及的红外焦平面阵列,从成本高、成像品质高的制冷型到低成本的非制冷型,从军用到民用,从航天到汽车,应用场景越来越广,技术越来越成熟。
7 i6 f4 c' X. Z# S2 w
. m: v( R0 G6 j0 ?
! Q8 t* B6 u% A+ U1 T
从感光胶片到光电探测器4 \. L9 i2 g! L+ N* _5 C6 @
3 ^/ p9 a1 `# r- q7 g
7 \8 f, K3 m4 }1 U. r. C 这么看,似乎探测器已经成熟得不得了了,更高的像素数、更高的灵敏度、更高的信噪比……似乎这些都成了材料和工艺的问题了。那么,这样的认识真的就对吗?
, W& o1 C/ z1 v1 |9 ]从第一节的分析来看,尽管现在的探测器工艺越来越成熟,靶面越来越大、排布越来越紧密;但是,我们来看看,这些性能更优良的探测器与最初的CCD/CMOS是否有本质的区别呢?很显然,没有!当然此处我们不讨论被CCD淘汰的胶片,只谈固态探测器。8 h! Y1 m/ \: @4 v% @
光电成像探测器的功能主要有:采样、量化和记录光的强度信息,其本质就是输出一个数字矩阵,这个矩阵的行和列代表的采样点位置,数字数值代表经过量化后强度信息。
0 W9 O' g" W7 b* F. p3 o6 m8 X 探测器阵列是由
个像元构成,每个像元相当于一个单元探测器,能够独立输出所在位置
的光响应信号,这也就是在图像处理中我们常用
所表示图像的像素值,这个值是经过量化后的整数值,量化深度一般有8位、10位、12位、14位和16位,对应的灰度级为
,n为量化深度。可见光成像器件多用8位和10位,更高质量的会用到16位,而红外焦平面阵列多用14位量化。其实,这些都不重要。
: t9 A3 H4 T( U. N: J# _) k! Y) t w* b. V( I
~$ [( V4 N1 P( \1 T
: {( o- L I& \: u! ~3 r 探测器焦平面阵列8 s0 z: r% }2 x
# G1 h' D) c0 T
2 ^/ J2 q. q% y" I( [) m! r
首先,阵列型探测器的形态是固态的平面分布,叫做焦平面阵列。很显然,这一点跟人眼有很大不同。
$ m% J" l: s. `4 P9 M 其次,目前的探测器采样都是按照奈奎斯特采样定理做的均匀采样,每个像元尺寸都是相同的,这与视网膜不同。
9 A4 b" x) A+ z. J& n; s 然后,再看探测器接收的是某个波段光的强度,可见光波段加上拜耳滤片可以解译出彩色信息,这也与人眼视网膜细胞不尽相同,与虾蛄威猛无比的眼睛相比,更是相差甚远。' m- m% I$ [# |; P
最后,我们再补充一点,由于制造工艺的问题,探测器里还有个填充系数这样的东西,明确告诉你,整个像元尺寸并不都是感光面的尺寸,还要继续缩水。1 B' R2 ]1 v& B% g
当然,这几年探测器的发展还是非常快的,但主要还是在提高响应灵敏度和信噪比方面,再进一步的有高动态范围探测器以及事件相机,后者实际上是在现有的探测器基础上做了后期的数据处理,谈不上对探测器的改进。
4 N. D/ p* u) u- @! K4 [- Q: Z& g" O3 v% `" J' g- P# o/ `
3.什么是计算探测器?1 D# m4 B) t6 c1 U; Y
首先,我们给出计算探测器的定义。计算探测器是根据计算光学成像思想设计的,具备空间、时间和物理多维度投影功能的探测器。简单一点:不同于现有探测器形态的都可以归类于计算探测器。但这样讲,太简单粗暴,我们还是从探测器的采样、量化、灵敏度、信噪比、面型、波段、像元类型和多物理量场这些要素来分析,简单分成几个类。- 非均匀采样探测器
: o/ T9 ~! `3 U# y8 |( V 既然奈奎斯特采样存在不分青红皂白地将目标与背景一视同仁均匀采样的特点,带来的问题是想看的看不清楚,不想要的却采了一大堆,怎么办?加长焦镜头,减小视场,那又带来了体积、重量和成本等问题。而且,单纯地靠增大口径、增长焦距是存在边界效应的、并不能带来线性的结果,代价越来越高。! F6 f) `3 K/ m4 u6 g3 E. ]- R
# @9 N1 h5 f! u* k6 g
! ]0 Q0 h2 F& f: W7 c1 {2 p9 B; e
焦距、口径与视场的大小
% j! S# _2 y/ W4 P! f
n ~% G, R# y; ~6 w& |& d6 W 那怎么办?压缩感知匆匆地来了,又匆匆地走了!我们看看压缩感知为啥行,为啥又不行。行,那是数学上,压缩感知理论告诉我们:当一维信号是稀疏的或者能稀疏表示的,采用欠采样的随机采样时仍能最大概率地恢复信号。多振奋人心啊!可是,你看看这里的约束条件可不少:稀疏、随机采样,而且非常严谨地告诉你:最大概率!OMG,这在工程上其实是很残酷的。
- N) d8 s; m& l4 G* G, Q- V, a 首先,图像一般不是稀疏的,但你硬是说经过小波变换可以稀疏表示,怀揣着工程师的不严谨(在数学家看来,物理都不那么严谨,何况是工程呢!)说:差不多的。好,那接着看“随机采样”这个东东,在工程上可没那么好玩,怎么办?于是古老的单像素成像技术化了一身压缩感知的妆之后粉墨登场了,可以用DMD等手段做随机采样,然后重建图像。这时候,可急坏了阵列探测器:老兄,明明是我先进,取代了你的扫描模式,可以凝视高速率成像,这么先进的玩意竟然被你批了一身压缩感知的皮给玩了,怎么能心甘?可是,在阵列探测器上做随机采样还真有些难搞,竟然还真的是“输”了。但我们再仔细琢磨:“最大概率”也是个新东东:“什么?不是100%恢复原信号?这不就是不靠谱的另一种表述吗?!”( P1 Z+ z [- ?% F
在应用中,面阵探测器当然是王道,毫无疑问!压缩感知的路不行,那就试试其他的路,可惜,走这条路的人很少,靠探测器吃饭的人不愿意去冒险,冒险的人想干,却没有条件。这就是现实。
: c/ j" R- v, `8 Y# M7 b" i 真的无路可走吗?当然不是,需要我们去探索,其实核心还是光场的映射问题。
% W( K. ~2 X) C: S' }' e我们大胆想象一下:未来,材料和加工工艺的发展有可能让我们能做出可编程的探测器:不仅可以对像素进行编程,而且可以对像元空间位置编程,这时候,当我们想看得更清楚的时候,就有可能出现“Floating”的聚集像元,达到人眼“黄斑”的效果。 : R, G7 ]) v, C- A) l+ o
, Q% ~1 ?( O# L; n: l1 R
- v1 R; h6 D, {2 C Z: E0 | 仿视网膜分布的非均匀CCD与CMOS芯片) v C6 L! @7 N( }. r; e
% |* U/ v0 {1 C9 C0 L( g超高动态范围探测器 & Q1 X0 B% g( H- v5 c4 N" B
人的眼睛在高亮背景下看不清东西的时候,眨眨眼、眯眯眼,好像就能适应环境了,而我们的相机却经常从暗到亮或从亮到暗,都是有一个看不清的过程,无法适应高动态范围的环境。如果说对着太阳成像,那几乎是痴人说梦。7 @9 @! a- h4 V" n9 [: Z
可是,我前面说过,大科学家都有“作死”的精神,于是,就有了高动态范围的探测器出现,当然这里还有很多问题。高动态实际上应对的是线性量化带来的问题。尽管,我们可以做14位甚至16位的量化,但是要应对120dB甚至更高的动态范围的场景,还是捉襟见肘。常见的办法就是在时间域上解决问题,也就是依靠多帧拍摄拓展动态范围,现在苹果、华为等各家智能手机的夜间拍摄功能都是采取了类似的解决方式。说到这里,你看,当在低维度无法解决问题的时候,我们就会高维度寻找答案,这个惯性一直存在,可是我们往往习以为常。今年有报道一款199dB的探测器,能在时间上动态地调控像元的光电增强与抑制能力,但是它的像元阵列为8×8,积分时间需要1分钟,仅仅是实验室验证而已。
% m: m2 L# |3 q* m9 i' q! _/ G' y. K) D6 q# [+ | [
超大动态范围探测器
0 V& \/ [+ Y1 G) c' @9 S6 V
极低信噪比探测器 ( d% W: `- ]7 u/ [& F& N
在成像探测中,我们目前的水平是在信噪比为3-5dB时能够较高概率地检测跟踪目标。这说明什么?当信噪比越高,意味着同等条件下的探测距离越近。要想看得更远,需要探测更低信噪比的信号。我们知道信噪比为1时,意味着信号和噪声强度相同,难以区分。那就意味着,信噪比降到0甚至是负数时,信号比噪声要弱很多,想要探测出信号,在现有的维度上是不可能的。那怎么办?计算成像的思想就是升维!哪些维度可以用呢?时间、光谱、偏振,似乎都可以,好像也都不行。那么,路在哪里?路当然有,其实又回归到了我第二篇讲的“光场:计算光学成像的灵魂”,我们需要找到映射的方法。如果我们有极低信噪比探测器的话,那么,目标探测距离就会大幅度提升。 自从150多年前麦克斯韦预言光是一种电磁波开始,人们就认识到了振幅、偏振、相位、频率是光波的基本参量,但如同我们的眼睛一样,目前的光电成像探测器只能探测强度信息,无法获取光谱、偏振、相位等其他多维物理量,造成成像过程中光场信息的丢失。为探测除强度外其他光场信息,人们大都需要在光探测器前增加一些分立元件,这种方式治标不治本,人们迫切渴求多维物理量探测器的出现。, A5 g, y( J" A6 b6 o
( H7 y \" o0 u! [* W/ R' |
. B3 ?1 ?2 }" X! K- _6 Q多物理量探测
. {% Q' f e6 i) Y1 K
; h( A; N7 E6 l* T7 R$ X8 V多维物理量探测器可以说道路曲折且漫长,问题主要有两个:6 c. A1 v( E/ U$ L
(一)手段不多,这是能力问题。目前,我们知道的偏振探测器就属于这一类,当然,还应该有光谱探测器。Sony公司是先行者,明知偏振探测器前景不明朗,依然推出了令人振奋的高性能偏振成像探测器。光谱方面也有多个研究单位在探索,尤其是结合微纳光学技术,出现了量子点多光谱探测器以及矢量量子点多光谱探测器,但,这些还都是在平面探测器的基础上做了一些类似镀膜等工作,没有本质上的改进。
- a: w2 w* p/ c' W8 O/ I* W2 z(二)不愿去做,这是态度问题。多少血淋淋的事实告诉我们:跟资本家谈情怀,那是你有病!没有巨大利润的事情,他们不会去干的,尤其是人家还看不清楚形势的时候。这时候,科学家要顶住,要坚持,哪怕一点点的进步都会推动事情的发展。- 曲面探测器
7 X- r1 O' H8 J8 j4 u* I4 Y/ v# x% X 曲面探测器在国内是典型的千呼万唤不愿做!0 d. X; H- f% u; |$ o1 o
从人眼的结构可以很容易看到,采用曲面的探测器结构(对应视网膜),光学系统将会变得简单很多,这一点,我们从光学系统设计就能体会到,当我们将像投到平面的探测器时,需要付出的代价就是要加镜片消除场曲,尤其是在设计大广角和鱼眼镜头时,这个代价会更高。我们举一个特殊情况的例子——球透镜。一个球透镜(其实就是一个玻璃球,当然我们可以设计成多层结构来优化像差)成的像是一个曲面的,如果有一个半球形的探测器,那么180°×180°视场将会很完美地呈现在你的眼前!可惜,这样的探测器我们没有。我们知道的是美国DARPA已经支持过多个曲面探测器的项目,其中FOCII支持两款分别是12.5°和75°曲率半径的红外曲面探测器。这个例子同时也告诉我们:曲面探测器存在一个缺点,那就是需要镜头与该曲率进行匹配。这其实也传递了另外一个信号:曲面探测器从来都是与光学系统关联在一起的,未来的曲面探测器很有可能与光学系统集成在一起,然后与外置光学系统联合一起工作,完成不同焦距、不同视场的成像。
9 s$ \ e+ z- m" L* t* D; a `+ j3 ?" y/ C. T0 w3 F2 {
5 @$ t8 H, {& \曲面探测器
( A0 O' E* C2 `% k3 S/ a7 n* X2 v6 B
目前,Sony和Canon等公司发布了多款曲面探测器和相应的曲面镜头专利,从专利上来看,曲面探测器起到的作用是:(1)很容易做更大的光圈;(2)简化光学系统,体积更小。这对于SWaP设计非常重要!为什么不愿意做?同样的,还是能力问题和态度问题。- 光场映射探测器
8 Z8 P6 d- |$ Y. O. a6 I: a h* { 光场映射探测器是一个很宽泛的概念,它不同于上述几个探测器模型,它是建立在光场感知与映射模型的基础上,也就是第二篇所说的:光场是计算成像的灵魂。传统成像都是建立在简单的空间、时间和光谱维的坐标映射关系上,非常像笛卡尔坐标系看立体空间,而光场映射则是建立在变换域上,不再是简单的时空和光谱维度映射,而是变换在其他域中,类似PCA(主成分分析)一样寻找最佳投影量,以达到“更高、更远、更小、更广和更强”的目标。& W" [' j% B, P3 M0 [. Q% ?" U
因为我们多习惯处于低维度空间,对变换域这样的东西更是难以理解,更不愿去探索,但伟大的事业从来都不是Follow别的工作,不会跟着别人的步伐,勇者,更愿意披荆斩棘,开拓一条新的道路,所以,不会被别人理解。我相信,这个工作很有创造性,空间很大,能做的事情很多,一定会开辟出一片新天地。- 感存算一体探测器
2 ^0 f) X/ v% V. h5 L, p 在绝大多数人的认知里,探测器就仅仅是一个获取信息的工具,现在传统的成像探测系统包括图像传感器、图像处理单元和存储单元,三者在物理空间上分离,各自为营。当日常小数据量的摄影应用中这种架构是没问题的,但当做数据量很大的运算时(例如光谱分析等)我们能发现,存储器和计算之间的数据瓶颈占了资源运算90%以上,而运算过程中传感器和芯片的数据通路占了其他90%以上的运算资源、运算时间、运算功耗。也就是说,在先进工艺的情况下,运算瓶颈不再是计算本身,而是在各个不同模块之间的数据搬运上,比如传感器到存储器到存储机到计算单元都有各种的数据瓶颈。这种情况下,对感存算一体架构的探测器需求尤为迫切,特别是在计算成像中如何去“计算”利用获得的信息是极为关键的,有的人也会称这种探测器是“软件定义”的探测器,我觉得这种说法还是存在片面性,更贴切的说法应该是“软件与硬件联合定义”的探测器。 g6 O4 a7 M) l( c/ U# w; \- t
3 p o& u1 ?$ `1 \
2 t0 E6 n- S. E2 r3 T1 s+ t
信息计算解译. N1 `' _6 a1 r6 H
- ^- | _0 S' B7 ~. n& K 虽然感存算一体探测器可以有效地降低能耗与时耗,实现高速并且复杂的视觉信号处理功能,然而目前它的发展还处于起步阶段,能拿得出手的成果可能仅有事件相机这一种,还只是具备简单的感知存储一体化,或感知存储一体化加简单处理的阶段,尚未形成真正意义的感存算一体化。未来需要从结合多维度信息获取、基础架构、算法系统等多个层面协同创新,才能开发高能效的新型计算成像探测系统,可能有一天我们的计算探测器再也不用背负一台计算机或者处理器才能工作了。
% D# l6 ~! Q; R) ~6 s+ g [: \% X. W0 z
: P# l0 Y0 w) n6 R
3 ]! y+ t% {/ M0 r' X9 d2 U7 U+ n. C事件相机探测效果
3 ~* c2 x" h p& K! e/ b6 B. H- p3 Z! D* f& w! b$ l. V
4.探测器的未来是什么?
2 S% X0 _1 \; T! N3 j 探测器的未来是什么?答案似乎很简单:更强大!但怎么定义“强大”?
! k7 S3 @( l, g+ o “强大”可以体系在以下几个方面:(1)更大像素规模的探测器;(2)更小尺寸的探测器;(3)探测灵敏度更高;(4)更灵活的工作机制;(5)更强的光场表示……6 n, h+ x) K. o
我们简单解释一下。美国NASA报道了全球最大的相机:大型综合巡天望远镜(Large Synoptic Survey Telescope),这个相机由189片探测器拼接组成,32亿像素。为什么不做更大的探测器呢?主要原因还是用量太少,制造和工艺难度都很大。如果我们有新的工艺和新的材料,也许,我们能做出更大尺寸的探测器,而不再受制于拼接的难度,要知道,这需要189片探测器的焦面必须控制nm量级。
m9 K9 t( P9 p: g7 @
4 i5 }' t1 J6 k3 B
5 _+ O* U# H. J$ D* V
大型综合巡天望远镜8 Z( R7 |' p4 M
4 O4 |3 W0 d- H4 _- n' z! A% Y
怎么看更小呢?尺寸小、像元小,这样的探测器更容易做成光学“粉尘”,布撒在山川、河流、森林和人体中,它们的威力是巨大的,你想象不到的那种!. M: w, k" v1 f2 f* a- \0 X, x; I
更高的探测器灵敏度无需再解释了。
2 e& H9 F7 T) q" @* h! Y7 x 我们来看更灵活的工作机制,正如前文所述,我们需要更强大的仿生学原理支持,做出“黄斑”、曲面、多物理量等的感知,典型如虾蛄;当然还有“永不失焦”的相位强大感知系统,轻松应付交会的宝贵几分钟甚至几秒,呈现清晰的图像。
6 E+ O) C& A/ I* |, e b6 R 更强的光场表示在前面已解释了很多,这是最有潜力的发展方向,能玩出的花样多不胜数,至少满足“石墨烯掺鸟屎”的灌水论文发到手软,但前提是确实对全光场到变换域的投影理解至深,这其实是门槛。我还是非常愿意去推动这方面工作的研究,我们不能指望做探测器的研究人员做这样的事情,他们“太聚焦”了!
' r, ]1 z1 d1 s8 \ H5 L2 L
+ ~. A! b7 W5 `' j% Q5.总结
2 |$ y0 t! E# W8 b8 x9 S! t- c 探测器其实是一个综合学科。从传统来看,属于电子科学与技术下属的物理电子学二级学科,但到了计算成像时代,它离不开材料、微电子、集成电路、数学和信息这些学科的支撑。现今世界,可以做探测器的材料越来越多,工艺越来越完备,微纳光学技术发展越来越快,集成光子技术也越来越近,但光有这些还不够,还需要计算成像非线性模型和光场映射方法,其实是要将物理问题描述成数学问题,这时候,才是计算探测器全面发展的时机。' l, s! i1 E7 x6 e( [! v
这条路很长,很难,但很刺激。
- F2 @* F" [2 B* F2 v* K% U- g7 N; \0 |
本文为作者原创,如需转载,请留言!
. }* O/ V3 q' D% \. K& b
! c3 E: e3 \) h/ V* v" y8 t
6 e: K7 t! o3 ^6 |1 p |