基于深度学习的彩色全息显微镜的系统和方法

文档序号:1895003 发布日期:2021-11-26 浏览:22次 >En<

阅读说明:本技术 基于深度学习的彩色全息显微镜的系统和方法 (System and method for color holographic microscope based on deep learning ) 是由 阿伊多根·奥兹坎 亚伊尔·里文森 刘泰然 张一勃 魏赈嵩 于 2020-04-21 设计创作,主要内容包括:一种用于执行单个超分辨的全息样本图像的彩色图像重建的方法,包括通过在多个颜色通道同时照明,使用图像传感器获得样本的多个子像素移位的较低分辨率全息图像。基于较低分辨率全息图像,数字生成每个颜色通道的超分辨的全息强度图像。利用图像处理软件将每个颜色通道的超分辨的全息强度图像反向传播到物平面,以生成每个颜色通道的样本的真实和虚拟输入图像。提供经训练的深度神经网络,并由图像处理软件使用计算装置的一个或多个处理器来执行,并且被配置为接收每个颜色通道的样本的真实输入图像和虚拟输入图像,并生成样本的彩色输出图像。(A method for performing color image reconstruction of a single super-resolved holographic sample image, comprising obtaining a plurality of sub-pixel shifted lower resolution holographic images of the sample using an image sensor by simultaneous illumination at a plurality of color channels. A super-resolved holographic intensity image for each color channel is digitally generated based on the lower resolution holographic image. The super-resolved holographic intensity image of each color channel is backpropagated to the object plane using image processing software to generate real and virtual input images of the sample for each color channel. A trained deep neural network is provided and executed by image processing software using one or more processors of a computing device and configured to receive real and virtual input images of samples for each color channel and generate color output images of the samples.)

基于深度学习的彩色全息显微镜的系统和方法

相关申请

本申请要求2019年4月22日提交的美国临时专利申请号62/837,066的优先权,该申请的全部内容通过引用结合于此。根据美国法典第35编第119节和任何其他适用法规要求优先权。

关于联邦赞助的研究与开发的声明

本发明是在政府支持下由国家科学基金会授予的授予号EEC 1648451的资助下完成的。政府对这项发明有一定的权利。

技术领域

技术领域

通常涉及用于使用经训练的深度神经网络,使用单个超分辨的全息图来执行高保真彩色图像重建的方法和系统。具体而言,该系统和方法使用从样本获得的单个超分辨的全息图作为经训练的深度神经网络的输入,同时以多个不同的波长照明该样本,该深度神经网络输出样本的高保真彩色图像。

背景技术

安装在载玻片上的固定薄组织切片的组织学染色是诊断各种医学状况所需的一个基本步骤。组织学染色用于通过增强细胞和亚细胞成分的比色对比度来突出组织组成部分,以进行显微镜检查。因此,染色病理切片的准确颜色表示是做出可靠和一致诊断的重要前提。与明场显微镜不同,另一种用于使用相干成像系统从样本中获取颜色信息的方法需要在可见光谱的红色、绿色和蓝色部分采集至少三个全息图,从而形成用于重建合成彩色图像的红-绿-蓝(RGB)颜色通道。然而,在相干成像系统中使用的这种彩色化方法存在颜色不准确的问题,并且对于组织病理学和诊断应用来说可能被认为是不可接受的。

为了使用相干成像系统提高颜色精度,可以使用计算超光谱成像方法。然而,这种系统通常需要工程照明,例如,可调谐激光器,以有效地对可见光波段进行采样。先前的贡献已经证明,为了生成准确的彩色图像,成功地减少了可见光波段所需采样位置的数量。例如,Peercy等人演示了一种波长选择方法,该方法使用高斯求积或黎曼求和来重建在反射模式全息术中成像的样本的彩色图像,由此提出至少需要四个波长来生成自然物体的精确彩色图像。参见Peercy等人的“真彩色全息术的波长选择”,应用光学33,6811-6817(1994)。

后来,演示了一种基于维纳估计的方法来量化物体在四个固定波长下的光谱反射率分布,从而提高了自然物体的颜色精度。参见P.Xia等人的“使用光谱估计技术的数字全息术”,Display Technol.,JDT10,235-242(2014)。最近,Zhang等人提出了一种基于最小均方误差估计的吸收光谱估计方法,专门用于利用同轴全息术创建病理切片的精确彩色图像。参见Zhang等人的“利用组织化学染色的全息术和吸收光谱估计对病理切片进行精确的彩色成像”,Journal of Biophotonics e201800335(2018)。因为染色组织病理学载玻片内的颜色分布受到所用比色染料组合的限制,所以该方法成功地将所需的波长数减少到三个,同时仍然保持准确的颜色表示。然而,由于双像伪影引入的失真和单位放大率片上全息系统的有限分辨率,实现了多高度相位恢复和像素超分辨率(PSR)技术,以获得可接受的图像质量。在Zhang等人的方法中,在四个不同的样本至传感器(z)距离处收集四个(或更多)超分辨全息图。这需要一个可移动台,该可移动台不仅允许用于获取PSR图像的横向(x,y)运动,还需要在垂直或z方向上移动,以获取多高度图像。

发明内容

在一个实施例中,公开了一种基于深度学习的精确彩色全息显微系统和方法,其使用在波长复用照明(即,同时照明)下获取的单个超分辨的全息图像。与相干成像系统中使用的传统超光谱成像方法相比,基于深度神经网络的彩色显微系统和方法显著简化了数据采集程序、相关的数据处理和存储步骤以及成像硬件。首先,这种技术只需要在同时照明下获得一个超分辨的全息图。正因为如此,该系统和方法实现了与Zhang等人的最先进的吸收光谱估计方法相似的性能,该方法使用了在四个样本到传感器的距离上用顺序或多路复用的照明波长收集的四个超分辨的全息图,因此在数据吞吐量方面表现出超过四倍的增强。此外,不需要在z方向上移动的更复杂的可移动台,这增加了成本、设计的复杂性,并且花费额外的时间来获得彩色图像。

使用两种类型的病理学载玻片证明了该方法和系统的成功:用Masson三色染色的肺组织切片和用苏木精和伊红(H&E)染色的前列腺组织切片,尽管应该理解,也可以使用其他染色和染料。使用结构相似性指数(SSIM)和颜色距离,重建高保真度和颜色精确的图像,并与使用超光谱成像方法获得的黄金标准图像进行比较。还将所提出的框架的整体时间性能与传统的20×明场扫描显微镜进行了比较,从而证明了图像采集和处理的总时间是相同的。这种基于深度学习的彩色成像框架将有助于将相干显微技术用于组织病理学应用。

在一个实施例中,一种执行样本的单个超分辨的全息图像的彩色图像重建的方法包括通过在多个颜色通道同时照明,使用图像传感器获得样本的多个子像素移位的较低分辨率全息图像。然后,基于多个子像素移位的较低分辨率全息图像,数字生成多个颜色通道中的每一个的超分辨率的全息强度图像。利用图像处理软件将多个颜色通道中的每一个的超分辨的全息强度图像反向传播到物平面,以生成多个颜色通道中的每一个的样本的振幅输入图像和相位输入图像。提供经训练的深度神经网络,该深度神经网络由图像处理软件使用计算装置的一个或多个处理器来执行,并被配置为接收多个颜色通道中的每一个的样本的振幅输入图像和相位输入图像,并输出样本的彩色输出图像。

在另一实施例中,一种用于执行样本的超分辨全息图像的彩色图像重建的系统包括:计算装置,在计算装置上执行图像处理软件,该图像处理软件包括使用计算装置的一个或多个处理器执行的经训练的深度神经网络。利用来自样本图像的超分辨全息图的多个训练图像或图像块以及相应的基本事实或目标彩色图像或图像块来训练该经训练的深度神经网络。图像处理软件(即,经训练的深度神经网络)被配置为从通过以多个照明波长同时照明样本而获得的样本的多个低分辨率图像,接收由图像处理软件生成的样本的一个或多个超分辨的全息图像,并且输出样本的重建彩色图像。

在另一实施例中,一种用于对样本的一个或多个超分辨的全息图像执行彩色图像重建的系统包括:无透镜显微镜装置,包括用于保持样本的样本保持器、彩色图像传感器、以及耦合到相应不同颜色光源的一根或多根光纤或电缆,不同颜色光源被配置为同时发射多个波长的光。显微镜装置包括可移动台和光源阵列中的至少一个,可移动台或光源阵列被配置为获得样本的子像素移位的较低分辨率全息强度图像。该系统还包括计算装置,在计算装置上执行图像处理软件,该图像处理软件包括使用计算装置的一个或多个处理器执行的经训练的深度神经网络,其中,利用来自样本图像的超分辨的全息图的多个训练图像或图像块以及从超光谱成像或明场显微术生成的相应的基本事实或目标彩色图像或图像块来训练该经训练的深度神经网络,经训练的深度神经网络被配置为从通过同时照明样本而获得的样本的子像素移位的较低分辨率全息强度图像,接收由图像处理软件生成的样本的一个或多个超分辨的全息图像,并且输出样本的重建彩色图像。

附图说明

图1A示意性地示出了根据一个实施例的用于对样本的单个超分辨的全息图像执行彩色图像重建的系统;

图1B示出了使用照明阵列来照明样本的替代实施例,照明阵列是可移动台的替代物;

图1C示出了根据一个实施例的用于对样本的单个超分辨的全息图像执行彩色图像重建的过程或方法;

图2示意性地示出了图像(数据)采集的过程,该过程用于生成输入到经训练的深度神经网络中的输入振幅和相位图像(使用例如红色、绿色、蓝色通道),该深度神经网络然后输出样本的重建彩色图像(示出了病理组织样本的彩色振幅图像);

图3A至图3C示出了传统超光谱成像(图3B)和基于神经网络的方法(图3C)之间的比较,用于重建样本的精确彩色图像,NH是执行相位恢复所需的样本到传感器高度的数量,NW是照明波长的数量,NM是每个照明条件(多路复用或顺序)的测量数量,L是用于执行像素超分辨率的横向位置的数量;图3A示出了传统超光谱成像和基于神经网络的方法所需的原始全息图数量;图3B示意性地示出了超光谱成像方法的高保真彩色图像重建过程;图3C示意性地示出了本文描述的基于神经网络的方法的高保真彩色图像重建过程,该方法仅使用样本的单个超分辨的全息图像;

图4是经训练的深度神经网络的生成器部分的示意图,六通道输入由处于三个照明波长(根据一个

具体实施方式

,450nm、540nm和590nm)的三个自由空间传播全息图的真实通道和虚拟通道组成,导致六通道输入,每个下行块由两个卷积层组成,当一起使用时,卷积层使系统信道的数量加倍,下行块是相反的,由两个卷积层组成,当一起使用时,具有系统信道的数量的一半;

图5示意性地示出了经训练的深度神经网络的鉴别器部分,卷积层的每个下行块由两个卷积层组成;

图6A和图6B示出了使用无透镜全息片上显微镜,对于450nm、540nm和590nm的多路复用照明,用Masson三色染色的肺组织载玻片的基于深度学习的精确彩色成像;图6A是网络输出图像的大视场(具有两个ROI);图6B是ROI 1和2处的网络输入(振幅和相位图像)、网络输出和基本事实目标的放大比较;

图7A和图7B示出了使用无透镜全息片上显微镜,在450nm、540nm和590nm的多路复用照明下,用H&E染色的前列腺组织载玻片的基于深度学习的精确彩色成像;图7A是网络输出图像的大视场(具有两个ROI);图7B是在ROI 1和2处的网络输入(振幅和相位图像)、网络输出和基本事实目标的放大比较;

图8示出了用H&E染色的肺组织切片的深度神经网络输出的数字缝合图像,其对应于图像传感器的视野,在缝合图像的外围是较大图像的各种ROI,显示了来自经训练的深度神经网络的输出以及相同ROI的基本事实目标图像;

图9A至图9J示出了对于用Masson三色染色的肺组织样本,来自基于深度神经网络的方法的网络输出图像和利用像Zhang等人的光谱估计方法的多高度相位恢复之间的视觉比较;图9A至图9H示出了使用不同数量的高度和不同照明条件的光谱估计方法的重建结果;图9I示出了经训练的深度神经网络的输出图像(即,网络输出);图9J示出了使用超光谱成像方法获得的基本事实目标图像;

图10A至图10J示出了对于用H&E染色的前列腺组织样本,基于深度神经网络的方法和利用Zhang等人的光谱估计方法的多高度相位恢复之间的视觉比较;图10A至图10H示出了使用不同数量的高度和不同照明条件的光谱估计方法的重建结果;图10I示出了经训练的深度神经网络的输出图像(即,网络输出);图10J示出了使用超光谱成像方法获得的基本事实目标。

具体实施方式

图1A示意性地示出了用于生成样本4的重建彩色输出图像100的系统2。在一个实施例中,彩色输出图像100可以包括振幅(真实)彩色输出图像。振幅彩色图像通常用于例如组织病理学成像应用。输出彩色图像100在图1A中被示为以计算机监视器的形式显示在显示器10上,但是应当理解,彩色输出图像100可以在任何合适的显示器10上显示(例如,计算机监视器、平板计算机或PC、移动计算装置(例如,智能手机等))。系统2包括计算装置12和图像处理软件16,计算装置包含一个或多个处理器14,图像处理软件包含经训练的深度神经网络18(在一个实施例中,深度神经网络是生成对抗网络(GAN)训练的深度神经网络)。在GAN训练的深度神经网络18中,两个模型用于训练。使用生成模型(例如,图4),其捕捉数据分布并学习颜色校正和缺失相位相关伪像的消除,而第二鉴别器模型(图5)估计样本来自训练数据而不是来自生成模型的概率。

如本文所解释的,计算装置12可以包括个人计算机、远程服务器、平板电脑、移动计算装置等,尽管也可以使用其他计算装置(例如,包含一个或多个图形处理单元(GPU)或专用集成电路(ASIC)的装置)。图像处理软件16可以以任何数量的软件包和平台(例如,Python、TensorFlow、MATLAB、C++等)来实现。基于GAN的深度神经网络18的网络训练可以在相同或不同的计算装置12上执行。例如,在一个实施例中,个人计算机(PC)12可以用于训练深度神经网络18,尽管这种训练可能花费相当多的时间。为了加速该训练过程,使用一个或多个专用GPU的计算装置12可以用于训练。一旦训练了深度神经网络18,就可以使用相同或不同的计算装置12来执行深度神经网络18。例如,可以在位于远处的计算装置12上进行训练,经训练的深度神经网络18(或其参数)被传送到另一计算装置12,以供执行。可以通过广域网(WAN)进行传输,例如,互联网或局域网(LAN)。

计算装置12可以可选地包括一个或多个输入装置20,例如,如图1A所示的键盘和鼠标。例如,输入装置20可以用于与图像处理软件16交互。例如,可以向用户提供图形用户界面(GUI),他或她可以与彩色输出图像100交互。GUI可以向用户提供一系列工具或工具栏,这些工具或工具栏可以用于操纵样本4的彩色输出图像100的各个方面。这包括调整颜色、对比度、饱和度、放大率、图像剪切和复制等的能力。GUI可以允许快速选择和查看样本4的彩色图像100。GUI可以识别样本类型、染色剂或染料类型、样本ID等。

在一个实施例中,该系统还包括显微镜装置22,该显微镜装置22用于采集样本4的图像,该图像被深度神经网络18用于重建彩色输出图像100。显微镜装置22包括多个光源24,这些光源用于用相干光或部分相干光照明样本4。多个光源24可以包括LED、激光二极管等。如本文所解释的,在一个实施例中,至少一个光源24发射红色光,同时至少一个光源24发射绿色光,并且同时至少一个光源24发射蓝色光。如本文所解释的,光源24被同时供电,以使用适当的驱动电路或控制器来照明样本4。光源24可以连接到光纤电缆、光纤、波导26等,如图1A所示,用于将光发射到样本4上。样本4被支撑在样本保持器28上,样本保持器28可以包括光学透明的衬底等(例如,玻璃、聚合物、塑料)。样本4通常由光纤电缆、光纤、波导26照明,波导通常位于离样本4几厘米的地方。

可以使用显微镜装置22成像的样本4可以包括任何数量类型的样本4。样本4可以包括已经被化学染色或标记的哺乳动物或植物组织的一部分(例如,化学染色的细胞学载玻片)。样本可以是固定的,也可以是非固定的。示例性染色剂包括例如苏木精和伊红(H&E)染色剂、苏木精、伊红、琼斯银染色剂、Masson三色染色剂、高碘酸希夫氏(PAS)染色剂、刚果红染色剂、阿尔新蓝染色剂、蓝铁、硝酸银、三色染色剂、ZiehlNeelsen、高二氏乌洛托品银(GMS)染色剂、革兰氏染色剂、酸性染色剂、碱性染色剂、银染色剂、Nissl、Weigert染色剂、高尔基染色剂、Luxol快速蓝染色剂、甲苯胺蓝、Genta、Mallory三色染色剂、Gomori三色、范基林、Giemsa、苏丹黑、普鲁氏兰染色、贝斯特洋红染色、吖啶橙、免疫荧光染色、免疫组织化学染色、Kinyoun-冷染色、Albert染色、鞭毛染色、内皮孔染色、Nigrosin、或印度墨。样本4也可以包括非组织样本。这些包括无机或有机的小物体。这可以包括颗粒、灰尘、花粉、霉菌、孢子、纤维、毛发、螨虫、过敏原等。小生物也可以用彩色成像。这包括细菌、酵母、原生动物、浮游生物和多细胞生物。此外,在一些实施例中,样本4不需要被染色或标记,因为样本4的天然或天然颜色可以用于彩色成像。

仍然参考图1A,显微镜装置22获得多个低分辨率、子像素移位的图像,同时以不同波长照明(在本文描述的实验中使用三个)。如图1A和图2所示,三个不同的波长(λ1、λ2、λ3)同时照明样本4(例如,其上放置有病理样本的病理载玻片),并且用彩色图像传感器30捕捉图像。图像传感器30可以包括基于CMOS的彩色图像传感器30。彩色图像传感器30位于样本4的与光缆、光纤、波导26相对的一侧。图像传感器30通常位于样本保持器28附近或非常靠近样本保持器28,并且距离小于样本4和光纤电缆、光纤、波导26之间的距离(例如,小于一厘米,并且可以是几毫米或更小)。

提供平移台32,平移台32在样本保持器28和图像传感器30之间的x和y平面(图1A和图2)中赋予相对运动,以获得子像素移位的图像。平移台32可以在x和y方向上移动图像传感器30或样本保持器28。当然,图像传感器30和样本28都可以移动,但是这可能需要更复杂的平移台32。在单独的替代方案中,光纤电缆、光纤、波导26可以在x、y平面中移动,以产生子像素偏移。平移台32以小的慢跑(例如,通常小于1μm)移动,以获得在不同的x、y位置获得的图像34的阵列,在每个位置获得单个低分辨率全息图。例如,6×6的位置网格可用于获取总共三十六(36)个低分辨率图像34。虽然可以获得任意数量的低分辨率图像34,但是这通常可以小于40。

这些低分辨率图像34然后用于使用去马赛克像素超分辨率为三个颜色通道中的每一个数字地创建超分辨的全息图。使用移位加过程或算法来合成高分辨率图像。用于合成像素超分辨率全息图的移位加过程在例如Greenbaum,A等人的“使用无透镜芯片显微术对病理切片进行宽域计算成像”中有所描述,Science Translational Medicine 6,267ra175-267ra175(2014),该文献通过引用结合于此。在该过程中,无需来自平移台32的任何反馈或测量或者使用基于迭代梯度的技术的设置,就可以对用于高分辨率全息图的精确合成的偏移进行精确估计。

该超分辨的全息图的三个强度彩色全息图通道(红、蓝、绿)然后被数字反向传播到物平面,以生成用于经训练的深度神经网络18的六个输入(图2)。这包括三(3)个振幅图像通道(50R、50B、50G)和三(3)个相位图像通道(52R、52B、52G),它们被输入到经训练的深度神经网络18,以生成重建的彩色输出图像40。像素超分辨率算法可以使用与用于执行经训练的深度神经网络18相同的图像处理软件16或不同的图像处理软件来执行。彩色输出图像100是高保真图像,该图像与使用作为多个样本到传感器距离(z)收集的多个超分辨的全息图获得的图像相比较(即,超光谱成像方法)。与超光谱成像的“黄金标准”方法相比,系统2和方法的数据密集度较低,并提高了整体时间性能或吞吐量。

图1B示出了使用光源阵列40的系统2的替代实施例。在该替代实施例中,具有不同颜色的光源阵列40排列在样本4和样本保持器28的x、y平面上。在该替代实施例中,不需要平移台32,因为子像素“移动”是通过用来自位于样本4上方的不同空间位置的阵列40的不同光源组照明样本4来实现的。这产生了必须移动图像传感器30或样本保持器28的相同效果。阵列40中不同组的红色、蓝色和绿色光源被选择性地照明,以生成用于合成像素超分辨的全息图的子像素位移。阵列40可以由一端耦合到光源(例如,LED)的一束光纤形成,并且相对端包含在头部或歧管中,该头部或歧管以期望的阵列图案固定光纤的相对端。

图1C示出了用于执行样本4的单个超分辨的全息图像的彩色图像重建的过程或方法。参考操作200,显微镜装置22通过在多个颜色通道(例如,红色、蓝色、绿色)同时照明样本4,使用彩色图像传感器30获得样本4的多个子像素移位的较低分辨率全息强度图像。接下来,在操作210中,基于多个子像素移位的较低分辨率全息强度图像,数字生成多个颜色通道中的每一个的超分辨的全息强度图像(三个这样的超分辨的全息图,包括一个用于红色通道,一个用于绿色通道,一个用于蓝色通道)。接下来,在操作220中,用图像处理软件16将多个颜色通道中的每一个的超分辨的全息强度图像反向传播到样本4内的物平面,以生成多个颜色通道中的每一个的样本的振幅输入图像和相位输入图像,这导致总共六(6)个图像。由图像处理软件16使用计算装置12的一个或多个处理器14执行的经训练的深度神经网络18接收(操作230)多个颜色通道(例如,六个输入图像)中的每一个的样本4的振幅输入图像和相位输入图像,并输出(操作240)样本4的彩色输出图像100。彩色输出图像40是高保真图像,与使用作为多个样本至传感器距离收集的多个超分辨的全息图(即,超光谱成像方法)获得的图像相比较。该彩色输出图像100可以包括样本4的彩色振幅图像100。

与超光谱成像的“黄金标准”方法相比,系统2和方法的数据密集度较低,并提高了整体时间性能或吞吐量。系统2不需要获得在四个不同高度或样本到图像传感器距离收集的多个(即四个)超分辨的全息图。这意味着可以更快地获得彩色输出图像100(以及更高的吞吐量)。单个超分辨的全息图的使用也意味着成像过程的数据密集程度降低;需要更少的存储和数据处理资源。

实验性

材料和方法

基于超光谱和深度神经网络的重建方法的概述

深度神经网络18被训练,以执行从单个超分辨的全息图获得的复数域到黄金标准图像(用超光谱成像方法获得)的图像变换,从NH×NM超分辨的全息图获得黄金标准图像(NH是样本到传感器的距离的数量,NM是在一个特定照明条件下的测量数量)。为了使用超光谱成像方法生成黄金标准图像,使用了NH=8和NM=31的顺序照明波长(范围从400nm到700nm,步长为10nm)。下面详细介绍了用于生成黄金标准图像以及深度网络输入的过程。

超光谱成像方法

黄金标准超光谱成像方法通过首先使用PSR算法执行分辨率增强来重建高保真彩色图像(下面在使用顺序照明在全息像素超分辨率中详细讨论)。随后,使用多高度相位恢复来消除缺失的相位相关伪像(下面在多高度相位恢复中更详细地讨论)。最后,使用三刺激色投影生成高保真彩色图像(下面在彩色三刺激投影中更详细地讨论)。

使用顺序照明的全息像素超分辨率

使用PSR算法进行超光谱成像方法的分辨率增强,如Greenbaum,A.等人在“使用无透镜芯片显微术对病理切片进行宽域计算成像”,Science Translational Medicine 6,267ra175-267ra175(2014)中所述,该文献在此通过引用结合于此。该算法能够从由RGB图像传感器30(IMX081,索尼,像素大小为1.12μm,具有R、G1、G2和B颜色通道)收集的一组低分辨率图像34中数字合成高分辨率图像(像素大小约为0.37μm)。为了获取这些图像34,图像传感器30被编程为使用3D定位平台32(MAX606,Thorlabs公司)通过6×6横向栅格光栅化,子像素间距约为0.37μm(即,像素尺寸的1/3)。在每个横向位置,记录一个低分辨率全息强度。图像传感器30的位移/偏移使用Greenbaum等人的“使用基于多高度像素超分辨率的无透镜成像的致密样本的现场便携式宽视场显微术”,Lab Chip12,1242-1245(2012)中介绍的算法精确估计,该文献通过引用结合于此。然后使用基于移位加的算法来合成高分辨率图像,如上文Greenbaum等人(2014)所述。

因为这种超光谱成像方法使用顺序照明,所以PSR算法在任何给定的照明波长下仅使用来自RGB图像传感器的一个颜色通道(R、G1或B)。根据拜耳RGB图像传感器的透射光谱响应曲线,蓝色通道(B)用于400-470nm范围内的照明波长,绿色通道(G1)用于480-580nm范围内的照明波长,红色通道(R)用于590-700nm范围内的照明波长。

角谱传播

在超光谱成像方法中使用自由空间角谱传播来创建基本事实图像。为了在传播距离z处以数字方式获得光场U(x,y;z),傅立叶变换(FT)首先应用于给定的U(x,y;0),以获得角谱分布A(fx,fy;0)。光场U(x,y;z)的角谱A(fx,fy;z)可以使用以下公式计算:

A(fx,fy;z)=A(fx,fy;0)·H(fx,fy;z) (1)

其中,H(fx,fy;z)被定义为,

其中,λ是照明波长,n是介质的折射率。最后,对A(fx,fy;z)傅里叶逆变换,得到U(x,y;z)。

这种角谱传播方法首先用作自动聚焦算法的构建模块,该算法用于为每个获取的全息图估计样本到传感器的距离,如Zhang等人的“鲁棒全息自动聚焦的边缘稀疏性标准”,OpticsLetters42,3824(2017)和Tamamitsu等人的“基于复杂光学波前的边缘稀疏性的全息自动聚焦的Gini指数和Tamura系数的比较”,arXiv:1708.08055[physics.optics](2017)所述,这两个文献通过引用结合于此。在估计了精确的样本到传感器的距离之后,超光谱成像方法使用角谱传播作为迭代多高度相位恢复的额外构件。

多高度相位恢复

为了消除与缺失相位相关的空间图像伪影,超光谱成像方法应用了迭代相位检索算法。使用迭代相位恢复方法来恢复这种缺失的相位信息,其细节见Greenbaum等人的“使用基于像素超分辨率的多高度无透镜片上显微术对致密样本进行无掩模成像”,Opt.Express,OE20,3129-3143(2012),该文献通过引用结合于此。

在数据采集步骤中收集了8个样本至传感器距离的全息图。该算法最初将零相位分配给物体的强度测量。算法的每次迭代都是从将复数域从第一个高度传播到第八高度开始,然后将其反向传播到第一高度。在每个高度更新振幅,而相位保持不变。该算法通常在10-30次迭代后收敛。最后,复数域从任何一个测量平面反向传播到物平面,以检索振幅和相位图像。

彩色三刺激投影

通过以10nm步长在400nm至700nm范围内的三十一(31)个不同波长密集采样可见光波段,实现了更高的颜色精度。使用国际照明委员会(CIE)的颜色匹配函数,将该光谱信息投影到彩色三刺激值。XYZ颜色空间中的彩色三刺激值可以通过下式计算,

其中,λ为波长,为CIE配色函数,T(λ)为样本的透射光谱,E(λ)为CIE标准光源D65。XYZ值可以线性变换为标准的RGB值,以供显示。

经由深度神经网络的高保真全息颜色重建

以以下方式生成基于深度学习的颜色重建框架的输入复数域:通过去马赛克像素超分辨率算法(使用顺序照明描述的全息像素超分辨率)进行分辨率增强和串扰校正,随后经由角谱传播(角谱传播描述)进行物体的初始估计。

使用多路复用照明的全息去马赛克像素超分辨率(DPSR)

与超光谱成像方法类似,经训练的深度神经网络方法还使用了基于移位和加的算法,结合6×6低分辨率全息图,以提高全息图分辨率。使用三个多路复用波长,即同时用三个不同的波长照明样本4。为了校正RGB传感器中不同颜色通道之间的串扰误差,使用了DPSR算法,如Wu等人的“多路复用全息彩色成像的去马赛克像素超分辨率”,SciRep6,(2016)中所述,该文献通过引用结合于此。这种串扰校正可以通过以下等式来说明:

其中,UR-ori和UB-ori表示由图像传感器收集的原始干涉图案,W是通过给定RGB图像传感器30的实验校准获得的3×4串扰矩阵,并且UR、UG和UB是解复用的(R、G、B)干涉图案。在此处,选择三个照明波长为450nm、540nm和590nm。使用这些波长,特定的组织染色类型(即H&E染色的前列腺和Masson三色染色的肺,用于本研究)可以获得更好的颜色准确度。当然,应当理解,其他着色剂或染料类型可以使用不同的照明波长。

深度神经网络输入形成

按照去马赛克的像素超分辨率算法,三个强度全息图被数值反向传播到物平面,如本文“角谱传播”部分所述。在该反向传播步骤之后,三个彩色全息通道中的每一个将产生复波,表示为真实数据通道和虚拟数据通道(50R、50B、50G、52R、52B、52G)。这导致六通道张量用作深层网络的输入,如图2所示。与地面实况不同,在这种情况下,不执行相位恢复,因为只有单个测量可用。

深度神经网络架构

深度神经网络18是生成对抗网络(GAN),其被实现为学习颜色校正并消除缺失的相位相关伪像。这种GAN框架最近在超分辨率显微成像和组织病理学中得到应用,由鉴别器网络(D)和生成器网络(G)组成(图4和5)。D网络(图5)用于区分从超光谱成像获得的三通道RGB基本事实图像(z)和来自G的输出图像。因此,G(图4)用于学习从六通道全息图像(x)(即具有真实和虚拟分量的三个颜色通道)到相应的RGB基本事实图像的转换。

鉴别器和生成器损失定义为:

ldiscriminator=D(G(x))2+(1-D(z))2 (5)

lgenerator=L2{z,G(x)}+λ×TV{G(x)}+α×(1-D(G(x)))2 (6)

其中,

其中,Nchannels是图像中的通道数(例如,对于RGB图像,Nchannels=3),M和N是图像的每一侧的像素数,i和j是像素索引,n表示通道索引。TV表示适用于生成器输出的总变化正则化项,定义为:

将正则化参数(λ,α)设置为0.0025和0.002,使得总变化损失(λ×TV{G(xinput)})为L2的约2%,鉴别器损失(α×(1-D(G(xinput)))2)为lgenerator的约15%。理想情况下,在训练阶段结束时,D(zlabel)和D(G(xinput))都收敛到0.5。

生成器网络架构(图4)是U型网络的一种改编形式。此外,鉴别器网络(图5)使用了一个简单的分类器,该分类器由一系列卷积层组成,这些卷积层缓慢地降低了维数,同时增加了信道数量,然后是两个完全连接的层来输出分类。对于清除缺失的相位伪影和对重建图像执行颜色校正来说,U网络是理想的。卷积滤波器大小设置为3×3,除最后一层之外的每个卷积层后面都有一个泄漏-ReLu激活函数,定义如下:

深度神经网络训练过程

在网络训练过程中,超光谱方法生成的图像用作网络标签,反向传播到样本平面的去马赛克超分辨全息图用作网络输入。生成器和鉴别器网络都使用128×128像素的块大小进行训练。卷积层和全连接层中的权重使用Xavier初始化来初始化,而偏差被初始化为零。使用自适应矩估计(Adam)优化器更新所有参数,生成器网络的学习速率为1×10-4,鉴别器网络的相应速率为5×10-5。网络的培训、验证和测试是在配备四核3.60GHz CPU、16GBRAM和Nvidia GeForce GTX 1080Ti GPU的电脑上进行的。

明场成像

为了比较成像吞吐量,获得了明场显微图像。使用了配备电动载物台和一套超全色物镜(Olympus UPLSAPO 20×/0.75数值孔径(NA),工作距离(WD)0.65)的Olympus IX83显微镜。显微镜由MetaMorph高级数字成像软件(7.10.1.161版,)控制,自动聚焦算法设置为在z方向5μm范围内搜索,精度为1μm。启用了双像素装仓,并使用了扫描补片之间10%的重叠。

量化度量

选择量化度量并用于评估网络的性能:SSIM用于比较输出图像和目标图像之间组织结构信息的相似性;ΔE*94用于比较两幅图像的颜色距离。SSIM值的范围从0到1,其中,统一的值表示两幅图像相同,即,

其中,U和V分别表示一幅矢量化测试图像和一幅矢量化参考图像,μU和μV分别是U和V的平均值,分别是U和V的方差,σU,V是U和V的协方差,当分母接近零时,包含常数C1和C2,以稳定除法。

使用的第二度量ΔE*94输出介于0和100之间的数字。零值表示比较的像素共享完全相同的颜色,而值100表示两个图像具有相反的颜色(混合两种相反的颜色会相互抵消并产生灰度颜色)。该方法以逐像素的方式计算颜色距离,并且通过平均输出图像的每个像素中的ΔE*94值来计算最终结果。

样本制备

从UCLA Translational Pathology Core Laboratory获得去识别的H&E染色的人前列腺组织切片和Masson的三色染色人肺组织切片。使用现有的和匿名的样本。未链接或无法检索主题相关信息。

结果和讨论

定性评估

使用两种不同的组织染色组合来评估训练的深度神经网络18的性能:用H&E染色的前列腺组织切片和用Masson三色染色的肺组织切片。对于两种类型的样本,深度神经网络18在来自不同患者的三个组织切片上训练,并且在来自第四患者的另一组织切片上盲目测试。用于训练和测试的每个组织切片的视野(FOV)约为20mm2

分别在图6A至图6B、图7A和图7B中总结肺和前列腺样本的结果。训练的深度神经网络18的彩色输出的这些性能证明了从单个非相位检索和波长复用全息图重建高保真和颜色精确图像的能力。使用经训练的深度神经网络18,系统2能够在整个传感器的FOV(即,约20mm2)上重建样本4的图像,如图8所示。

为了进一步证明深度神经网络18的定性性能,图9A至图9J和图10A至图10J示出了深度神经网络18(图9I和图10I)对由吸收光谱估计方法根据所需测量次数创建的图像的重建结果。对于这种比较,光谱估计方法用于多高度相位恢复方法,并且经由在相同波长(即,450nm、540nm和590nm)的顺序(NH=8,NM=3)和多路复用(NH=8,NM=1)照明,从减少数量的波长重建彩色图像(图9A至图9H和图10A至图10H)。定性地,深度神经网络18的结果可与对于顺序和多路复用照明情况都用多于四个样本到传感器的距离获得的多高度结果相比较。下面描述的定量分析也证实了这一点。

量化性能评估

基于深度神经网络18的输出和由超光谱成像方法产生的黄金标准图像之间的SSIM和色差(ΔE*94)的计算来评估网络的定量性能。如表1所列,随着不同样本至传感器距离处全息图数量的减少,或者当照明改变为多路复用时,光谱估计方法的性能降低(即SSIM降低,ΔE*94增加)。这种定量比较表明,使用单个超分辨全息图的深度神经网络18的性能与使用≥4倍原始全息测量的最先进算法获得的结果相当。

表1

使用两个、四个、六个和八个样本到传感器的高度和三个顺序/多路复用波长照明条件对深度神经网络18和各种其他方法之间的SSIM和ΔE*94性能进行比较,用于两个组织样本(基于网络的方法和具有可比性能的其他方法用粗体突出显示)。

吞吐量评估

表2列出了使用不同方法测量的整个FOV(~20mm2)的重建时间。对于深度神经网络18,总重建时间包括获取36个全息图(在多路复用照明中的6×6横向位置)、执行DPSR、角谱传播、网络推断和图像拼接。对于超光谱成像方法,总重建时间包括8928个全息图的集合(在6×6的横向位置、8个样本到传感器的距离和31个波长)、PSR、多高度相位检索、彩色三刺激投影和图像拼接。对于常规明场显微镜(配备自动扫描台),总时间包括使用20×/0.75NA显微镜扫描明场图像,在每个扫描位置执行自动聚焦和图像拼接。此外,还显示了使用四个样本到传感器距离的多高度相位恢复方法的时间,并且与基于深度学习的神经网络方法具有最接近的性能。所有的相干成像相关算法都是用Nvidia GTX 1080Ti GPU和CUDAC++编程加速的。

表2

表2:与传统超光谱成像方法和标准明场显微样本扫描(其中,N/A代表“不适用”)相比,深度神经网络方法重建精确彩色图像的时间性能评估。

基于深度神经网络的方法需要约7分钟来获取和重建20mm2的组织面积,这大约等于通过标准、通用、明场扫描显微镜使用20×物镜对同一区域成像所需的时间。通常,该方法能够在10分钟内重建至少10mm2的FOV。当然,增加处理能力和样本4的类型可能会影响重建时间,但这通常在几分钟内完成。注意,这明显短于使用光谱估计方法时所需的约60分钟(具有四个高度和同时照明)。系统2和基于深度学习的方法也提高了数据效率。原始超分辨全息图数据大小从4.36GB减少到1.09GB,这与总共使用了577.13MB的明场扫描显微镜图像的数据大小更具可比性。

系统2用于生成样本4的重建彩色输出图像100,样本包括组织学染色的病理切片。本文描述的系统2和方法显著简化了数据采集过程,降低了数据存储要求,缩短了处理时间,并提高了全息重建图像的颜色精度。值得注意的是,其他技术(例如,病理学中使用的载玻片扫描显微镜)可以很容易地以更快的速度扫描组织载玻片,尽管它们在资源有限的环境中使用相当昂贵。因此,无透镜全息成像硬件的替代方案(例如,使用照明阵列40来执行像素超分辨率)可以改善整体重建时间。

虽然已经示出和描述了本发明的实施例,但是在不脱离本发明的范围的情况下,可以进行各种修改。例如,虽然本发明主要被描述为使用无透镜显微镜装置,但是本文描述的方法也可以用于基于透镜的显微镜装置。例如,要重建的输入图像可以包括从基于相干透镜的计算显微镜(例如,傅里叶层析显微镜)获得的图像。此外,虽然超光谱成像用于生成用于网络训练的黄金标准或目标彩色图像,但其他成像模式也可用于训练。这不仅包括计算显微镜(例如,相应的基本事实或目标彩色图像被数值模拟或计算),还包括明场显微镜图像。因此,除了所附权利要求及其等同物之外,本发明不应受到限制。

27页详细技术资料下载
上一篇:一种医用注射器针头装配设备
下一篇:用于制造计算机生成的全息图的方法和设备、全息图以及用于车辆的照明装置

网友询问留言

已有0条留言

还没有人留言评论。精彩留言会获得点赞!

精彩留言,会给你点赞!