相机系统 是物理光学领域的一项应用,其基本原理是利用透镜将光线聚焦到传感器上,该过程遵循关联焦距、物距和像距的薄透镜方程。此类系统的最终分辨率受限于光的物理衍射和传感器的像素采样率,且需要通过组合多种透镜元件来校正色差和球差。通过调节光圈值、快门速度和焦距,可以在摄影中实现对曝光和视场的精确控制。
从记录家庭聚会到探索遥远星系,相机已成为我们观察和理解世界不可或缺的延伸。但在这个日常工具的背后,隐藏着一个由物理定律、精密工程和计算科学交织而成的迷人宇宙。我们每天都在使用它,却很少思考:光线是如何被驯服,在一个小小的传感器上重现宏大世界的?一张清晰的图像与一张模糊的图像,其物理本质区别何在?
本文旨在填补这一知识鸿沟。我们将带领读者进行一次智力上的拆解,从最基本的物理原理出发,逐步构建起一个完整的相机系统。在第一部分“原理与机制”中,我们将从古老的针孔成像开始,引入透镜的角色,并探讨焦距、光圈和快门如何共同编织光影。我们还将面对物理世界的基本限制——衍射,并了解镜头设计中与像差的永恒博弈。在第二部分“应用与跨学科连接”中,我们将看到这些原理如何转化为摄影师的创作技巧、工程师的巧妙设计,并如何连接到生物视觉和前沿计算成像等令人兴奋的领域。
这段旅程将揭示,一个看似简单的设备中凝聚了何等深厚的智慧。现在,让我们从第一章开始,深入探索相机的核心概念。
让我们进行一次思想上的漫步,从最根本的原理出发,亲手构建一台相机。这个过程会揭示出,我们日常生活中这个看似寻常的设备,其背后蕴含着何等精妙的物理学之美。
你能想象的最简单的相机是什么样的?或许不是你手机里那颗复杂的镜头,而是一个简单的暗箱。想象一个完全不透光的盒子,我们在它的一面用针扎一个小小的孔,另一面则是一块毛玻璃或一张白纸作为“屏幕”。这就是针孔相机,摄影术最古老的祖先。
它的原理简单得令人着迷。来自场景中某一点(比如太阳的顶端)的光,向四面八方传播。但只有极少数沿着直线穿过针孔的光线,才能到达另一侧的屏幕上。同样,来自太阳底端的光线,也只有一束能穿过针孔,投射到屏幕的另一个位置。于是,盒子里便呈现出一幅倒立的、几何上与实物完全相似的影像。这纯粹是光的直线传播定律在施展魔法。
如果你用一个长 厘米的盒子对准太阳,你会发现屏幕上出现一个大约 毫米直径的清晰光斑——那就是太阳的倒影。这背后没有复杂的透镜,只有纯粹的几何学和光的笔直路径。这种简单性是深刻的,它告诉我们,形成影像这一行为,本质上是对来自空间中无数方向的光线进行一次“筛选”,让它们在屏幕上重新有序地排列起来。
针孔相机虽然原理纯粹,但它有一个致命的弱点:太暗了。为了得到明亮的图像,唯一的办法是把孔开大一点,但这又会让图像变得模糊不清,因为来自同一点的光线会落在屏幕上的一片区域,而非一个点。我们似乎陷入了一个两难的境地。
那么,有没有一种方法,既能让大量的光线进入,又能让它们精准地汇聚于一点呢?答案是肯定的,这正是透镜被发明出来的理由。一个凸透镜就像一个光的“收集器”和“调度员”。它能将来自远处物体同一点的一大束平行光线,通过折射,全部引导到另一侧的一个共同点——焦点上。透镜的“力量”——物理学家称之为焦距——决定了它的汇聚能力有多强。焦距越短,折射能力越强。在眼镜行业,人们更喜欢用“屈光度”()来描述它。
现在,我们的相机升级了。我们用一个透镜代替了针孔。为了获得清晰的图像,我们需要将传感器(或者说底片)精确地放在光线汇聚的那个平面上。这个位置并非一成不变。对于无穷远处的物体,像会成在焦点上。但对于较近的物体,成像位置会向后移动。它们之间的关系由一个简洁优美的公式——薄透镜公式——所描述:
这里, 是焦距, 是物体到透镜的距离, 则是图像到透镜的距离。假设你用一块 屈光度(也就是焦距为 米或 厘米)的透镜,想要拍摄 米外的一个朋友,简单的计算就会告诉你,传感器必须被放置在离透镜大约 厘米的地方才能得到最清晰的影像。这个“对焦”的过程,本质上就是在物理上移动透镜或传感器,以满足这个几何光学的黄金法则。
拥有了透镜,我们就拥有了控制权。我们可以决定相机“看”得多宽,以及画面有多亮。
首先是视野(Field of View)。这取决于透镜的焦距。想象一下你通过一根长纸管看东西,你的视野会很窄;如果纸管很短,视野就很宽。焦距扮演的就是这个“纸管”的角色。长焦距的镜头(长焦镜头)能将远处的景象“拉近”,但代价是牺牲了广阔的视野。而短焦距的镜头(广角镜头)则能包揽更宽阔的风景。一位天文摄影师,如果想从拍摄广袤的星空切换到聚焦于一个遥远的星系细节,他会换上一支焦距更长的镜头。例如,将焦距从 毫米换成 毫米,他捕获的天空立体角(可以理解为视野的面积)会急剧缩小,大约只剩下原来的 。
其次是曝光(Exposure)。一张照片的明暗,取决于在快门打开的瞬间,有多少光子“撞击”到了传感器上。我们可以通过两个主要阀门来控制这个光通量:一个是快门打开的时间(快门速度),另一个是透镜的通光口径(光圈)。光圈的大小通常用一个相对值来表示,即 f-stop 或 f-数(),它等于镜头的焦距 除以光圈的有效直径 ()。
有趣的是,f-数的分级(如 f/2.8, f/4, f/5.6, f/8)被设计成每“一档”,光圈面积就减半,相应的进光量也减半。这是因为进光量正比于光圈面积 ,而 ,因此 。在焦距 不变的情况下,进光量与 f-数的平方成反比。所以,如果一位摄影师为了获得更大的景深(让前后景都清晰),将光圈从 f/2.2 调小到 f/8.0,镜头的进光能力会大大降低。为了保持总曝光量不变,他就必须相应地增加快门时间。计算表明,他需要将快门速度从 秒增加到大约 秒。这就像在用水桶接水,你可以用大管子接一小会儿,也可以用小管子接很长时间,只要最后水量一样就行。这个在光圈、快门速度和感光度之间的平衡游戏,是摄影艺术的核心技巧。
到目前为止,我们都假设光是沿着直线传播的“粒子”。这在大多数情况下是个非常好的近似。但别忘了,光也是一种波。而波动会带来一个奇特的现象:衍射。当一束波穿过一个有限大小的开口(比如镜头的光圈)时,它会在边缘发生弯曲,向周围扩散开来。
这意味着,即使我们拥有一个在几何上“完美”的透镜,一个来自无穷远的点光源(如一颗星星)所成的像,也永远不会是一个无限小的几何点。它会被衍射“模糊”成一个中心亮、周围环绕着明暗交替圆环的图案,被称为艾里斑(Airy disk)。
这个斑点的大小,决定了透镜分辨细节的物理极限。瑞利判据(Rayleigh criterion)为我们提供了一个实用的标准:如果两个点光源的艾里斑中心恰好落在对方的第一个暗环上,我们就认为它们“恰好可以被分辨”。这个最小分辨角 直接与光的波长 成正比,与光圈直径 成反比:
这个公式告诉我们一些深刻的事情:用更短波长的光(比如蓝光)能看到更精细的细节;更大的光圈(更小的 f-数)不仅能收集更多光线,还能提供更高的分辨率。一位天文学家使用一个口径为 毫米的镜头拍摄波长为 纳米(绿光)的双星,即使镜头完美无瑕,在传感器上所能分辨的两个星像的最小间距也是大约 微米。这是自然法则设下的不可逾越的屏障。
透镜在传感器上投下了精细的影像,现在轮到传感器来“捕捉”它了。数字传感器,如 CCD 或 CMOS,本质上是一个由数百万个微小的“光桶”(像素)组成的网格。每个像素负责测量落在它上面的光线强度。
这里出现了一个新的问题:如果像素本身不够小,无法分辨出镜头呈现的细节,那会怎样?就像你想用一支粗头的马克笔来复制一幅精细的素描,很多细节都会丢失。更糟糕的是,你可能还会画出一些原作中根本不存在的奇怪图案(一种称为“混叠”或“摩尔纹”的现象)。
为了忠实地记录镜头所传递的所有信息,传感器的“采样频率”必须足够高。奈奎斯特-香农采样定理告诉我们一个简单的规则:采样频率必须至少是信号最高频率的两倍。在图像中,“频率”对应于细节的精细程度,而采样频率则由像素的间距(pixel pitch)决定。因此,为了完美捕捉由衍射极限决定的最精细细节,像素间距 必须小于或等于镜头所能传递的最小细节尺寸的一半。对于一个衍射受限的镜头,这个最大允许的像素间距 最终可以简化为一个非常简洁的关系:
其中 是波长, 是镜头的 f-数。对于一个设计用于卫星成像的 f/4 镜头,在 纳米波长下,其传感器的像素间距不能超过 微米才能确保所有光学信息都被无损记录。这完美地体现了现代相机是一个精密的光电系统——光学设计的极限与电子传感器的能力必须精确匹配,才能发挥出最大的威力。
我们之前讨论的“完美透镜”只存在于理想化的物理模型中。现实世界中的透镜,尤其是由单片玻璃构成的简单透镜,会受到各种“像差”(aberration)的困扰。这些像差并非制造瑕疵,而是源于几何光学定律在应用于真实球面透镜时的必然结果。
最容易理解的一种是色差(Chromatic Aberration)。你一定见过阳光通过三棱镜后分解成一道彩虹。这是因为玻璃对不同颜色的光(即不同波长的光)的折射率有微小的差异,这种现象叫“色散”。一个简单的凸透镜,对于蓝光的折射能力会比红光更强,这意味着蓝光的焦点会比红光的焦点更靠近透镜。如果相机为绿光精确对焦,那么来自同一点的蓝光就会在传感器上形成一个模糊的弥散斑。这正是为何在高对比度边缘,廉价镜头拍出的照片常带有紫色或绿色的“光晕”。
聪明的工程师们找到了解决办法。他们将一片由冕牌玻璃(色散较低)制成的凸透镜和一片由火石玻璃(色散较高)制成的凹透镜胶合在一起,形成一个消色差透镜组(Achromatic Doublet)。通过精心计算两种玻璃的折射率和透镜的曲率,可以使两种不同颜色(比如红色和蓝色)的光聚焦到同一点。这就像用一种“错误”去抵消另一种“错误”,最终得到了一个正确得多的结果。
即使只考虑单色光,像差依然存在。偏离光轴的星点,在像场中可能会被拉伸成彗星一样的形状,拖着一条指向或背离图像中心的“尾巴”——这被称为彗形像差(Coma)。还有像散(Astigmatism),它会让一个点在不同方向上聚焦成线。场曲(Field Curvature)则意味着平面的物体无法在平面的传感器上完美成像。
然而,在所有这些“缺陷”中,有一种却催生了独特的审美价值。球面像差(Spherical Aberration)指的是,对于一个简单的球面透镜,来自透镜边缘的光线会比来自中心的光线聚焦得更近。当这种情况发生时,一个失焦的光斑(在摄影中被称为“焦外”,其美学质量被称为 Bokeh)的能量分布会变得不均匀。
令人惊叹的是,这种不均匀的特征与球面像差系数 的正负号直接相关。如果 (通常称为“矫正不足”),失焦光斑的边缘会形成一个明亮的“光环”,而内部相对较暗。这会产生一种视觉上较为“繁忙”或“锐利”的焦外效果。反之,如果 (“矫正过度”),光斑的能量会集中在中心,并向边缘平滑地、柔和地过渡,形成所谓的“奶油般”的焦外。许多传奇的人像镜头,其独特的魅力就源于对球面像差的特定控制,它们有意地保留了某种“缺陷”来实现一种艺术上的完美。
从一个简单的暗箱,到透镜的汇聚,再到对光与影的精妙控制,直至与物理极限和固有缺陷的博弈与共舞——这就是相机的原理与机制。它不仅是一个记录工具,更是一个浓缩了数百年光学智慧、展现了物理定律之威严与美感的微型宇宙。
我们在前面的章节中,已经深入探索了相机系统的核心原理与机制。现在,让我们开启一段更为激动人心的旅程。正如一位伟大的物理学家曾经教导我们的,理解了世界的运行法则之后,真正的乐趣在于观察这些法则在真实世界中如何编织出万千气象。本章中,我们将看到,那些关于焦点、光圈和传感器的抽象概念,是如何走出教科书,化身为摄影师手中的创作工具、工程师脑中的巧妙设计,甚至成为连接物理学、生物学、计算机科学乃至电影艺术的桥梁。这趟旅程将揭示,一个看似简单的相机,实则是一个凝聚了无数科学与工程智慧的奇迹。
对于我们大多数人来说,相机是记录生活、表达创造力的工具。光学原理在这里不再是冰冷的公式,而是服务于艺术直觉的温暖技艺。
你是否曾想过,摄影师如何精确地选择镜头,将远处的山峦或眼前的人像恰如其分地收入画框?这背后是几何光学最基础的应用。通过简单的相似三角形关系,我们可以精确地计算出,要在特定距离(比如 5 米)捕捉一个特定高度(比如 2 米)的主体,需要多长焦距的镜头才能使其影像刚好填满传感器的高度。这便是摄影师在选择“人像镜头”(如 85mm)或“广角镜头”(如 24mm)时,所做的直观或精确的计算。
然而,现代数码摄影的世界远比这更丰富。摄影师常常需要在不同尺寸的传感器系统之间切换,例如从“全画幅”相机换到更小巧的“APS-C”相机。这时,“等效焦距”的概念就变得至关重要。为了在较小的 APS-C 传感器上获得与全画幅相机上 50mm 镜头相同的视野,我们需要的并不仅仅是一个焦距更短的镜头。为了同时保持相同的总进光量(这关系到图像的噪点和曝光参数),镜头的f值(光圈大小)也必须相应调整。一个惊人而优雅的结果是,如果一个APS-C相机的“裁切系数”是 (通常约为 1.5),那么无论是焦距还是f值,都需要除以这个系数 ,才能完美复刻全画幅系统在视野和光线收集能力上的表现。这个简单的比例关系,深刻地影响着摄影器材的设计、选择和使用。
摄影师的工具箱里还有许多有趣的附件,比如“增距镜”。当一位野生动物摄影师希望在不惊扰远处珍禽的情况下获得更近的特写时,便会用到它。一个 的增距镜,顾名思义,会将镜头的有效焦距乘以 1.4。但天下没有免费的午餐。根据我们对f值的定义(),焦距 变长了,而镜头的光圈物理直径 保持不变,这意味着有效f值也增大了 倍。由于到达传感器的光强度与f值的平方成反比,为了维持相同的曝光,摄影师必须将快门时间延长 倍。这清晰地揭示了光学系统中放大率、光圈和曝光之间不可分割的内在联系。
这种曝光的平衡游戏,是摄影创作的核心。摄影师通过调整光圈(f值)和快门速度来控制图像的亮度和艺术效果。当一位风景摄影师将光圈从 f/4 调小到 f/11,以期获得从前景到背景都清晰的“大景深”时,光圈的孔径面积会显著减小。为了补偿进光量的损失并保持照片亮度不变,必须增加曝光时间。曝光总量正比于光圈面积(反比于f值的平方,)和快门时间的乘积。因此,要保持曝光恒定,新的快门时间 与旧的快门时间 之间必须满足 的关系。这正是摄影中“曝光互易律”的数学体现。
更进一步,这位追求极致清晰度的风景摄影师或许会使用一种名为“超焦距”对焦的技巧。通过将焦点设置在一个精确计算出的“超焦距”点上,而非无限远处,可以使得从某个较近的距离一直到无限远的天空都落在“可接受的清晰范围”(即景深)之内。这个特殊的对焦距离,可以通过镜头的焦距 、光圈值 以及传感器对“清晰”的定义(即“弥散圆”直径 )计算出来,其近似公式为 。这展现了如何运用波动光学的衍射和几何光学的像差理论,来最大化一张照片的信息承载能力。
最后,相机的光学原理不仅服务于静态照片,更在动态的电影语言中扮演着关键角色。希区柯克的电影《迷魂记》中著名的“伸缩变焦”(Dolly Zoom)镜头便是一个绝佳例子。摄影师一边将摄像机物理后移(Dolly),一边同时调长镜头焦距,使得画面中的主体(如演员)大小保持不变。然而,由于透视关系发生了改变,背景相对于主体的表观尺寸会发生剧烈变化,仿佛空间本身在被压缩或拉伸。这种手法能创造出一种强烈的眩晕感和心理压迫感,是利用基本光学成像比例关系来驱动叙事和情感的典范。
当我们从使用者的身份转变为设计者,便会发现相机内部蕴藏着更多精巧的构思。现代相机不仅仅是透镜的简单堆砌,它是一个集光学、精密机械、电子学和计算科学于一体的系统。
以单反(SLR)相机为例,其标志性的反光镜结构在快门打开前需要向上翻起,这就对镜头设计提出了一个严苛的机械约束:镜头的后组镜片必须与传感器保持足够的距离。对于广角镜头而言,这尤其困难,因为短焦距通常意味着短后焦距。工程师们为此发明了“逆焦”(Retrofocus)结构,其典型特征是在镜头前部放置一个强大的负透镜组,后面跟着一个正透镜组。这种设计能够在保持短有效焦距(从而获得广阔视野)的同时,极大地增长后焦距,为反光镜留出宝贵的运动空间。通过分析这样一个双透镜系统的等效焦距和后焦距,我们能深刻体会到镜头设计中充满创造性的权衡与妥协。
另一个工程挑战是克服使用者自身的生理局限——手部的微小颤动。尤其在使用长焦镜头时,轻微的视角晃动在传感器上都会造成巨大的图像位移,导致模糊。光学防抖(OIS)系统应运而生。它像一个内置的稳定器,通过陀螺仪传感器侦测相机的角运动,然后迅速驱动镜头内部的某个补偿镜组进行微小的横向平移,以抵消图像在传感器上的漂移。例如,对于一个 的长焦镜头,哪怕只有 的微小抖动,补偿镜组也需要精确地移动约 来保持图像稳定。这是一个将宏观运动转化为微米级精确补偿的闭环控制系统。
进入数码时代,传感器的特性也引入了新的现象。许多相机(特别是手机)采用“卷帘快门”(Rolling Shutter),它并非瞬间捕捉整个画面,而是像扫描仪一样逐行读取。当相机在平移(Panning)拍摄一个垂直的电线杆时,奇怪的事情发生了:直的电线杆在视频里会变成弯曲的。这是因为当传感器扫描到底部时,由于相机的转动,电线杆在视野中的位置已经发生了变化。每一行图像捕捉到的都是不同时刻的电线杆片段,最终拼凑成一个倾斜甚至弯曲的影像。通过建立相机转动角度与卷帘快门扫描时间的函数关系,我们可以精确地推导出这条看似诡异的曲线的方程,它通常是一个正切函数。
相机内部的“智能”同样依赖于深刻的物理和数学原理。自动对焦(AF)系统是如何判断画面是否清晰的?一种被称为“反差度检测”的方法,其本质是进行一次快速的信号处理计算。系统会微调焦点,并分析图像特定区域的对比度。对比度最高的地方,就是最清晰的焦点位置。从物理学角度看,不清晰的图像是理想图像与一个“模糊核”(即点扩散函数, PSF)进行卷积的结果。根据卷积定理,这个过程在频率域等效于理想图像的频谱与光学系统传递函数(OTF)的乘积。一个模糊的系统会压制高频分量,从而降低对比度。自动对焦算法正是通过寻找一个能让高频分量最大化的焦点位置来工作。通过建立一个包含贝塞尔函数的数学模型,我们可以描述对焦过程中的“清晰度分数”如何随离焦距离变化,从而揭示相机如何“思考”并找到最佳焦点。
相机的应用早已超越了传统的二维成像,它正演变为强大的科学测量仪器,为我们揭示世界更深层次的信息。
让我们再次回到“卷积”这个概念。成像过程,即“理想物体 * 点扩散函数 = 实际图像”,这个表述本身就蕴含着一种美妙的对称性。由于卷积运算满足交换律,我们也可以说“点扩散函数 * 理想物体 = 实际图像”。这两种数学上等价的表达,对应着两个截然不同的物理情景:前者是我们通常理解的,用一台有缺陷的相机(其模糊特性为点扩散函数)去拍摄一个理想的点光源(如遥远的恒星);而后者则可以解释为,用一台完美无瑕的理想相机,去拍摄一个本身就发光、且亮度分布形态恰好与之前那台相机点扩散函数完全相同的扩展天体。这种视角的切换,是信号处理理论赋予我们理解物理过程的深刻洞见。
现代相机技术正在努力捕捉比颜色和亮度更多的信息。飞行时间(Time-of-Flight, ToF)相机就是赋予相机“深度视觉”的革命性技术。它并非被动接收光线,而是主动发射经过高频调制的红外光。通过测量发射光和反射光之间的相位差,相机能精确计算出到物体表面每一点的距离,从而构建出三维点云图像。当然,这种测量方式存在“模糊范围”,因为相位差是周期性的(模 ),超过特定距离后会发生混淆。这个最大无歧义距离 与调制频率 成反比:,其中 是光速。同时,系统的距离分辨率则取决于它能分辨的最小相位差。ToF 相机已广泛应用于手机人脸识别、增强现实和机器人导航等领域。
另一项前沿技术是光场(Plenoptic)相机,它旨在捕捉来自场景中每一点的光线的“全部信息”——不仅包括光线的强度,还包括其方向。它在主镜头和传感器之间插入一个微透镜阵列,每个微透镜下方的像素群不再是记录一个点的颜色,而是记录了穿过该点、来自不同方向的光线。这相当于一次性捕捉了海量的、视角略有不同的图像。通过复杂的计算,我们可以在拍摄后实现“先拍照,后对焦”,甚至轻微改变观察的视角。这项技术在空间分辨率和角度分辨率之间存在一种基本的权衡关系,这体现了信息守恒的普遍原理。光场相机为计算成像、三维重建和虚拟现实开辟了全新的可能性。
最后,当我们把目光从人造的相机转向自然界,会发现最精密的光学系统或许早已存在——那就是生物的眼睛。令人惊奇的是,我们可以用分析相机性能的同一套工程语言来描述生物视觉系统。例如,人眼的整体性能同样可以用调制传递函数(MTF)来刻画。这个总MTF是眼睛光学部分(受限于衍射和像差)的MTF与后续神经系统(包括视网膜采样和侧抑制处理)的神经传递函数(NTF)的乘积。神经系统的处理甚至使人眼的总MTF呈现出一种带通滤波特性,能够增强特定空间频率的对比度。通过构建这样一个级联模型,我们得以从系统工程的角度量化地理解我们的视觉感知过程 [@problem_-id:2263993]。
更有趣的是,演化的力量在漫长的地质年代里“设计”出了不同的视觉方案以适应不同的生存需求。鹰隼等猛禽演化出了与我们类似的“相机眼”,它拥有高像素密度和强大的聚焦能力,擅长高分辨率的细节分辨。而苍蝇等昆虫则演化出了“复眼”,它由成千上万个称为“小眼”(ommatidia)的独立单元组成,虽然空间分辨率远低于相机眼,但其对运动的感知极为敏锐,拥有极高的时间刷新率。通过定义一个“视觉信息吞吐量”(单位时间处理的信号总数),我们可以定量比较这两种策略的优劣。这揭示了在生物演化中,高空间分辨率和高时间/运动分辨率之间存在着深刻的权衡。这不仅是比较动物学的话题,也为设计具有特定任务的仿生机器人视觉系统提供了宝贵的启示。
从摄影师手中的取景框,到工程师脑中的防抖模块,再到自然界亿万年的演化杰作,相机系统的故事,就是一部关于光、物质与信息相互作用的壮丽史诗。它告诉我们,只要我们足够深入地去观察和思考,最寻常的设备也能成为通往理解宇宙深刻统一性与和谐之美的一扇窗。
要在摄影中实现高倍率放大,例如在微距摄影中,通常需要将镜头移动到比其内置对焦系统所允许的更远离传感器的位置。本练习探讨了薄透镜方程如何决定这一关系,以及如何使用一个简单的附件——接圈——来解决这个问题。这是一个将基础镜头光学原理应用于实际摄影挑战的绝佳实践。
问题: 一位摄影师希望使用一个定焦镜头实现 1:1 等身大小的微距摄影,该镜头可被视为焦距为 mm 的单个薄透镜。镜头的内部对焦机构允许调节其光学中心到相机传感器之间的距离 。镜-传感器之间的最小可能距离等于焦距,即 ,这是在对焦于无穷远处的物体时达到的。使用镜头自身的对焦系统可实现的最大镜-传感器距离为 mm。
为实现 1:1 等身大小成像(对应于横向放大率 ),摄影师必须使用一个延长管。这是一个简单的空心圆筒,被插入到相机机身和镜头之间,作为垫片以增加镜-传感器距离。为了使用尽可能短的延长管,摄影师会将镜头自身的对焦设置到其最近对焦距离(实现 )。
计算能让摄影师实现所需 1:1 放大率的延长管的最小长度 。答案以毫米 (mm) 为单位,并四舍五入到三位有效数字。
景深(DoF)是摄影中一个至关重要的创作工具,它决定了图像中可接受的清晰区域范围。本练习通过比较两种截然不同但常见的相机系统——智能手机和数码单反相机——来探究影响景深的关键因素,特别是焦距。它定量地解释了一个普遍观察到的现象,并加深了对相机光学的直观理解。
问题: 两位摄影师,一位使用智能手机,另一位使用专业的数码单镜头反光(DSLR)相机,决定比较各自系统的景深。智能手机配备了焦距为 的镜头,而数码单反相机则安装了焦距为 的定焦镜头。他们都从完全相同的位置拍摄一个远处的被摄体,确保他们与被摄体的距离 相同。
为了进行此比较,假设满足以下理想化条件:
在这些条件下,计算智能手机的景深与数码单反相机景深之比,即 。将您的最终答案四舍五入到三位有效数字。
在掌握了镜头光学之后,我们将注意力转向传感器本身。具有极端亮度差异的场景对数字传感器构成了重大挑战,因为单个曝光无法同时捕捉最亮和最暗的细节。这项高级练习通过基于传感器的基本特性——如读出噪声 和满阱容量——来设计高动态范围(HDR)成像策略,从而解决了这个问题,将传感器物理学与前沿的成像解决方案联系起来。
问题: 一位成像科学家的任务是拍摄一个具有极高亮度变化范围的静态场景。为此,将通过合并在不同曝光水平下拍摄的多张照片来创建一张高动态范围(HDR)图像。经测定,该场景的总动态范围为20个曝光值(EV)。
为了使最终合并的HDR图像在科学上可用,要求场景色调范围的每个部分都以至少为10的信噪比(SNR)来表示。一个曝光值(EV)是一个以2为底的对数单位;+1 EV的变化对应于光强度的加倍。
相机传感器具有以下特性:
一个像素中的总噪声是读出噪声和光子散粒噪声的正交和。对于给定的信号 (以电子为单位),其光子散粒噪声等于 。
为了在满足信噪比约束的同时捕捉场景的整个动态范围,将拍摄一系列图像。这个过程被称为包围曝光。你的任务是确定满足这些要求所需的最少整数曝光次数 和最佳曝光间隔 。
你的答案应报告为整数 和 的值。将你计算出的 值四舍五入到三位有效数字。