根据微医养(杭州)集团有限公司(曾用名:微医(杭州)集团有限公司)与浙江大学签订的技术开发合同相关条款约定,拟对以下成果进行许可,现将相关信息予以公示。
[1] 成果名称:一种基于卷积神经网络的肺结节假阳性筛选方法
完成人:吴健; 林志文; 陆逸飞; 应兴德; 刘雪晨; 陈为; 叶德仕; 吕卫国; 郝鹏翼; 吴福理; 吴朝晖
权利人:浙江大学
成果类型:发明专利
成果号:ZL201810092249.8
成果简介:本发明公开了一种基于卷积神经网络的肺结节假阳性筛选方法,包括:(1)获得肺结节检测模型输出的肺结节检测结果;(2)对肺结节检测结果进行标记生成样本;(3)根据样本和原始肺部CT图像构建数据集合;(4)将数据集合中的每个数据对的坐标x进行8个方向的随机偏移,偏移尺度为0.5X;(5)对数据集合中的每个数据对,根据样本对原始肺部CT图像进行裁剪,获得不同尺寸的训练样本,并对训练样本进行增广处理;(6)构建卷积神经网络;(7)利用3中尺寸的训练样本对卷积神经网路进行训练,获得三个肺结节假阳性筛选模型;(8)利用肺结节假阳性筛选模型对待测样本进行预测,输出预测结果。
[2] 成果名称:一种基于3D卷积神经网络的肺结节检测装置的建立方法
完成人:吴健; 陆逸飞; 林志文; 应兴德; 余柏翰; 陈为; 叶德仕; 吴福理; 吕卫国; 郝鹏翼; 吴朝晖
权利人:浙江大学
成果类型:发明专利
成果号:ZL201810092248.3
成果简介:本发明公开了一种基于3D卷积神经网络的肺结节检测装置的建立方法,包括:建立训练样本;建立肺结节检测网络:所述肺结节分割网络包括依次连接的卷积单元、64*64*64(32)残差卷积单元A、32*32*32(64)残差卷积单元B、16*16*16(64)残差卷积单元C、8*8*8(64)残差卷积单元D、16*16*16(64)残差卷积单元E,残差卷积单元E的输出特征图与残差卷积单元C输出特征图按照通道拼接后输入至残差卷积单元F,残差卷积单元F输出特征图与残差卷积单元B输出特征图按照通道拼接后,输入至RPN网络以实现对输入图的肺结节检测;训练肺结节检测网络,获得肺结节检测装置。
[3] 成果名称:一种基于混合粗分割特征的3D U-Net网络的肺分割装置
完成人:吴健; 陆逸飞; 林志文; 应兴德; 刘雪晨; 郝鹏翼; 吴福理; 吕卫国; 陈为; 叶德仕; 吴朝晖
权利人:浙江大学
成果类型:发明专利
成果号:ZL201810092245.X
成果简介:本发明公开了一种基于混合粗分割特征的3D U‑Net网络的肺分割装置,包括:肺部3D二值图生成模块,对原始肺部CT切片依次进行高斯滤波、二值化、标记连通区域并筛选、尺寸匹配以及微调处理,生成肺部3D二值图;肺分割模块,采用训练完毕的3D U‑Net网络对原始肺部CT图像和肺部3D二值图进行计算,输出分割概率图;优化模块,采用条件随机场对分割概率图进行计算,输出最终肺部分割结果。该装置在产生更高分割精确度的同时,保证了较低的计算消耗和内存消耗。
[4] 成果名称:基于Mask-RCNN神经网络的肺结节分割装置的建立方法
完成人:吴健; 陆逸飞; 余柏翰; 吴边; 陈为; 吴福理; 吴朝晖
权利人:浙江大学
成果类型:发明专利
成果号:ZL201810091696.1
成果简介:本发明公开了一种基于Mask‑RCNN神经网络的肺结节分割装置的建立方法,包括:建立训练样本:对采集的三维肺部CT图像依次进行裁剪、数据增强以及难分负样本挖掘处理,获得训练样本集;建立肺结节分割网络:网络包括依次连接的输入层、第一最大池化层、64*64*64卷积层、第二最大池化层、32*32*32稠密块层、第三最大池化层、16*16*16稠密块层,16*16*16稠密块层输出的特征图经过上采样与32*32*32稠密块层输出的特征图进行特征融合,特征融合后的特征图经POL池化层后,输入到RPN网络;训练肺结节分割网络:利用训练样本对肺结节分割网络进行训练,获得肺结节分割装置。
[5] 成果名称:一种基于弱样本标记的眼底特征检测装置
完成人:吴健; 林志文; 郭若乾; 吴边; 陈为; 吴福理; 吴朝晖
权利人:浙江大学
成果类型:发明专利
成果号:ZL201810080532.9
成果简介:本发明公开一种基于弱样本标记的眼底特征检测装置,包括:特征提取模块,对输入的眼底图中的眼底特征进行提取,输出眼底特征图;判别特征学习模块,对输入的眼底特征图进行降维处理,计算每类眼底特征的中心位置,计算每个眼底特征到所属类别中心的距离,以该距离收敛作为目标,不断迭代,确定每类眼底特征中心;采样模块,计算降维眼底特征图中每一个与背景区域对应的特征向量到所属眼底特征类别中心的L2距离,若该L2距离小于阈值,将该背景区域对应的特征向量删掉,输出采样特征图;特征检测模块,对采样特征图进行特征检测分类,输出眼底特征的类别预测概率和眼底特征对应位置。
[6] 成果名称:眼底视网膜的血管动静脉交叉压迫特征提取方法
完成人:吴健; 林志文; 郭若乾; 吴边; 陈为; 吴福理; 吴朝晖
权利人:浙江大学
成果类型:发明专利
成果号:ZL201810077476.3
成果简介:本发明公开了一种眼底视网膜的血管动静脉交叉压迫特征提取方法,包括以下步骤:(1)提取眼底图像的血管信息,并采用模糊收敛方法对所述血管信息进行视盘定位后,确定视盘中心;(2)根据视盘中心,在采用k‑means聚类方法对视盘中心R半径范围内的所有血管聚类的基础上,统计确定每根血管的类别,然后对视盘中心R半径范围内的所有血管建立血管拓扑图;(3)根据血管拓扑图和血管类别确定动静脉交叉压迫节点。
[7] 成果名称:一种基于注意力机制及特征融合的眼底图中糖网特征分级装置
完成人:吴健; 林志文; 郭若乾; 吴边; 陈为; 吴福理; 吴朝晖
权利人:浙江大学
成果类型:发明专利
成果号:ZL201810078655.9
成果简介:本发明公开了一种基于注意力机制及特征融合的眼底图中糖网特征分级装置,包括:特征检测分类网络模块,用于对输入样本眼底图中1级糖网特征和2级糖网特征进行提取,输出对1级糖网特征和2级糖网特征提取的细分类特征图;原图分类网络模块,用于对输入样本眼底图中具有3级糖网特征和4级糖网特征进行提取,输出对3级糖网特征和4级糖网特征提取的粗分类特征图;注意力机制与特征融合模块,该模块采用注意力机制对特征检测网络模块输出的细分类特征图和原图分类网络模块输出的粗分类特征图进行特征融合,输出为输入样本图像的糖网特征级别的预测概率。该装置在保证较快速度的同时,分类评价指标Kappa达到81.33%。
[8] 成果名称:一种基于稠密的特征金字塔网络的宫颈图像处理方法及装置
完成人:吴健; 应兴德; 陈婷婷; 马鑫军; 吕卫国; 袁春女; 姚晔俪; 王新宇; 吴边; 陈为; 吴福理; 吴朝晖
权利人:浙江大学
成果类型:发明专利
成果号:ZL201810088302.7
成果简介:本发明公开了一种基于稠密的特征金字塔网络的宫颈图像处理装置,包括图像采集装置,用于采集经3%‑5%醋酸溶液处理后的宫颈图像;处理器,包括宫颈图像预处理模块和处理模块,所述处理模块包括由基于稠密连接的特征金字塔网络、区域提名网络和检测网络组成的模型网络,用于输出目标区域的分类信息以及位置信息;存储器,用于存储处理器中模型网络的参数;显示装置,用于显示处理器输出的目标区域的分类信息以及位置信息。还公开了基于稠密的特征金字塔网络的宫颈图像处理方法,包括:将图像采集装置采集的经3%‑5%醋酸溶液处理后的宫颈图像输入至处理器已训练模型网络中,输出目标区域的分类信息以及位置信息,并显示在显示装置上。
[9] 成果名称:一种基于区域提名的宫颈图像处理方法及装置
完成人:吴健; 应兴德; 陈婷婷; 马鑫军; 吕卫国; 袁春女; 姚晔俪; 王新宇; 吴边; 陈为; 吴福理; 吴朝晖
权利人:浙江大学
成果类型:发明专利
成果号:ZL201810088291.2
成果简介:本发明公开了一种基于区域提名的宫颈图像处理装置,包括:图像采集装置,用于采集经3%‑5%醋酸溶液处理后的宫颈图像;处理器,包括宫颈图像预处理模块和处理模块,所述处理模块包括由特征提取网络、区域检测网络和区域筛选分类网络组成的模型网络,用于输出目标区域的分类信息以及位置信息;存储器,用于存储处理器中模型网络的参数;显示装置,用于显示处理器输出的目标区域的分类信息以及位置信息。还公开了采用所述的基于区域提名的宫颈图像处理装置对宫颈图像进行处理的方法,实现区分宫颈图像中的正常“醋白”与病灶“醋白”。
[10] 成果名称:一种应用于手掌X光片的多尺度手掌骨骼分割方法
完成人:吴健; 张久成; 余柏翰; 陆逸飞; 应兴德; 林志文; 吴边; 陈为; 吴福理; 吴朝晖
权利人:浙江大学
成果类型:发明专利
成果号:ZL201810080537.1
成果简介:本发明公开了一种应用于手掌X光片的多尺度手掌骨骼分割方法,包括以下步骤:步骤1,收集不同年龄段的手掌X光片图像,标注每个像素点的类别;步骤2,对原始图像进行预处理,增加图片对比度;步骤3,对进行过预处理的图像进行尺度变换处理;步骤4,设计卷积神经网络结构;步骤5,将标注类别的图像和原始图像一起输入到卷积神经网络,对不同尺度的原始图像进行卷积特征提取,将提取的不同尺度的特征信息进行融合后进行卷积处理,进行模型训练直至模型收敛;步骤6,训练完成,进行分割应用。利用本发明,加强了对不同大小手掌骨骼的适应性,减弱了因灰度不均带来的不利影响,具有更好的适应性和鲁棒性。
[11] 成果名称:基于多特征深度神经网络的宫颈活检区域识别方法及装置
完成人:吴健; 应兴德; 陈婷婷; 马鑫军; 吕卫国; 袁春女; 姚晔俪; 王新宇; 吴边; 陈为; 吴福理; 吴朝晖
权利人:浙江大学
成果类型:发明专利
成果号:ZL201810092570.6
成果简介:本发明公开了基于多特征深度神经网络的宫颈活检区域识别方法及装置,装置包括:图像采集单元,采集宫颈的生理盐水图像、醋酸图像和碘图像;数据处理单元,包括已训练的宫颈活检区域识别模型,宫颈活检区域识别模型对生理盐水图像、醋酸图像和碘图像进行分析处理,输出宫颈存在活检区域的概率标签;宫颈活检区域识别模型包括:特征提取层,包括3个独立的特征提取子网络,分别用于提取生理盐水图像、醋酸图像和碘图像的特征;特征结合层,将3个特征拼接起来;顶层,对拼接后的特征进行识别,输出宫颈存在活检区域的概率标签;显示单元,获取所述的概率标签并显示。该宫颈活检区域识别装置可辅助医生对患者的宫颈是否存在活检区域做出准确判断。
[12] 成果名称:基于通道信息多模态网络的宫颈活检区域识别方法及装置
完成人:吴健; 应兴德; 陈婷婷; 马鑫军; 吕卫国; 袁春女; 姚晔俪; 王新宇; 吴边; 陈为; 吴福理; 吴朝晖
权利人:浙江大学
成果类型:发明专利
成果号:ZL201810092566.X
成果简介:本发明公开了一种基于通道信息多模态网络的宫颈活检区域识别方法及装置,装置包括:图像采集单元,采集宫颈的生理盐水图像、醋酸图像和碘图像;数据处理单元,包括已训练的宫颈活检区域识别模型,对生理盐水图像、醋酸图像和碘图像进行分析处理,输出宫颈存在活检区域的概率标签;宫颈活检区域识别模型包括:检测网络层,用于提取生理盐水图像、醋酸图像和碘图像中宫颈面区域的特征图和位置信息;特征结合预测网络层,将3个特征图和位置信息在通道维度上拼接起来,再通过特征融合和识别,输出宫颈存在活检区域的概率标签;显示单元,获取概率标签并显示。该宫颈活检区域识别装置可辅助医生对患者的宫颈是否需要做进一步的活检做出准确判断。
[13] 成果名称:基于多模态检测网络的宫颈活检区域辅助识别方法及装置
完成人:吴健; 应兴德; 陈婷婷; 马鑫军; 吕卫国; 袁春女; 姚晔俪; 王新宇; 吴边; 陈为; 吴福理; 吴朝晖
权利人:浙江大学
成果类型:发明专利
成果号:ZL201810092480.7
成果简介:本发明公开了一种基于多模态检测网络的宫颈活检区域辅助识别方法及装置,装置包括:非图像信息处理单元,获取患者的TCT、HPV检查信息、年龄及宫颈转换区类型,并进行One‑Hot编码,发送至数据处理单元;图像采集单元,采集患者宫颈的醋酸图像和碘图像,并发送至数据处理单元;数据处理单元,包括已训练的宫颈活检区域识别模型,所述的宫颈活检区域识别模型对醋酸图像、碘图像和非图像信息编码进行分析处理,输出宫颈存在活检区域的概率标签;显示单元,获取所述的概率标签并显示。本发明的宫颈活检区域辅助识别装置通过融合宫颈图像信息和TCT、HPV检查信息,得出宫颈存在活检区域的概率标签,辅助医生对患者的宫颈是否存在活检区域做出更准确的判断。
[14] 成果名称:一种基于伪标签迭代标注的胃癌病理切片标注补全方法
完成人:吴健; 王彦杰; 王文哲; 刘雪晨; 吴边; 陈为; 吴福理; 吴朝晖
权利人:浙江大学
成果类型:发明专利
成果号:ZL201810095649.4
成果简介:本发明公开了一种基于伪标签迭代标注的胃癌病理切片标注补全方法,包括:1)利用胃癌病理切片的原始阳性样本和原始阴性样本制作伪标签样本;2)对伪标签样本进行图像分割,作为训练图像,传入U‑Net训练;3)将原始阳性样本进行数据增广,传入2)中训练后的U‑Net进行测试,并依据增广方式进行还原,最后将全部图像进行加权平均,整合得到胃部病变概率图;4)筛选出胃癌病变概率高于阈值的部位,将其提取出来,拼接到原始阴性样本中,生成下一轮迭代的伪标签样本;将上述过程不断进行迭代,最终获取标注完全的胃癌病理切片。本发明方法大大减少切片标注需要消耗的人力资源,提高了训练数据集的数量与质量,为训练出更精确的深度学习模型提供了可能。
[15] 成果名称:一种病理切片中非常规细胞的识别方法
完成人:吴健; 王彦杰; 王文哲; 刘雪晨; 吴边; 陈为; 吴福理; 吴朝晖
权利人:浙江大学
成果类型:发明专利
成果号:ZL201810097641.1
成果简介:本发明公开了一种病理切片中非常规细胞的识别方法,包括:将电子扫描病理切片预处理得到有效判别区域,输入全卷积网络预训练,再使用全连接层代替全卷积网络头部微调网络,使全卷积网络具有提取非常规细胞特征的能力,进而确定非常规细胞位置,更加有效地对有效判别区域进行分类;通过结合多个普通分类网络的预测结果投票,输出更加稳定的分类结果。本发明的识别方法能够自动判别病理切片中每一个20×放大的视野中存在非常规细胞的概率,输出概率值在0.5以上的非常规细胞作为识别结果,大量减轻人工筛查病理切片中非常规细胞的工作量,快速准确的筛选出非常规细胞。
[16] 成果名称:一种基于多尺度混合分割模型的病理切片非常规细胞的分割方法
完成人:吴健; 王彦杰; 王文哲; 刘雪晨; 吴边; 陈为; 吴福理; 吴朝晖
权利人:浙江大学
成果类型:发明专利
成果号:ZL201810102847.9
成果简介:本发明公开一种基于多尺度混合分割模型的病理切片非常规细胞的分割方法,包括:正、负样本分别缩放至低分辨率,中分辨率和高分辨率图像后,采用全卷积网络算法进行训练,得到收敛的低分辨率分割模型、中分辨率分割模型和高分辨率模型;通过模型集成方法进行融合,得到多尺度混合分割模型;将新病理切片的有效判别区域,使用测试时数据增强方法处理后,输入上述多尺度混合分割模型,输出有效分割区域中每个像素的概率,将概率值大于阈值t的像素作为非正常细胞像素,记为1,其余的像素作为正常细胞像素,记为0,得到多尺度混合分割模型预测的二值图像,对该二值图像进行后处理,得到最终分割结果。该分割方法精度高,Dice值达0.869以上。
[17] 成果名称:一种基于多模态的胚胎妊娠结果预测装置
完成人:吴健; 刘雪晨; 马鑫军; 舒景东; 王文哲; 陆逸飞; 吴福理
权利人:浙江大学
成果类型:发明专利
成果号:ZL201811254848.1
成果简介:本发明公开了一种基于多模态的胚胎妊娠结果预测装置,属于医疗人工智能领域,首先获取体外受精后发育至囊胚期的胚胎图像以及对应的妊娠结果,获取胚胎的囊胚、内细胞团和滋养层细胞的三张图片,以妊娠结果为标签,标注数据,作为原始数据。然后使用高斯核函数对图像进行平滑处理,去除部分噪声,再对图像进行归一化操作。之后对图像进行数据增广,作为输入数据。使用多模态方法融合三张图像的图像,使输入图像包含三个评估方面的特征。将融合后的图像传入ResNet‑50中训练,根据目标标签优化网络,迭代至训练完成。有了模型后,在胚胎移植前,拍摄三张图像,即可传入模型预测妊娠结果,根据输出结果选择高成功率的胚胎,即可提高最终妊娠成功率。
[18] 成果名称:一种基于多损失的胃癌病理切片图像分割方法和装置
完成人:吴健; 叶志前; 胡荷萍; 王彦杰; 舒景东; 王文哲; 陆逸飞; 吴边; 吴福理
权利人:浙江大学
成果类型:发明专利
成果号:ZL201811285894.8
成果简介:本发明公开了一种基于多损失的胃癌病理切片图像分割方法和装置,属于医疗图像处理技术领域,首先由若干张全切片样本获得2048*2048大小的patch病理图和标记图,每张切片大概可以获得200个有效patch,集合成训练和测试样本,传入CLGCN网络进行训练,待模型收敛后,输入测试病理图,预测出对应的概率密度图,若某个像素点的概率值高于一定的水平,则预测为病变点,最后得到分割的patch图并进行全切片的拼接,由此得到一张完整的病理切片分割预测图。由于分割模型训练的过程中,增加了5个分类模块,以及最末端的多个损失的集合,训练的时候需要先对左侧4个分类模块做预训练,得到所有分类模块的初始参数,后在初始参数的基础之上,多个损失进行加权联合训练。
[19] 成果名称:基于多模态注意力模型的宫颈非典型病变诊断模型和装置
完成人:吴健; 刘雪晨; 马鑫军; 陈婷婷; 王文哲; 陆逸飞; 吕卫国; 袁春女; 姚晔俪; 王新宇; 吴福理
权利人:浙江大学
成果类型:发明专利
成果号:ZL201811276300.7
成果简介:本发明公开了一种基于多模态注意力模型的宫颈非典型病变诊断模型和装置,属于医疗人工智能领域,首先获取患者宫颈醋酸图和碘图,将该患者的病级别划分为正常、LSIL、HSIL三类,使用该类别作为对应醋酸图和碘图的标签,形成训练数据。进行数据预处理后,传入多模态融合模型,对模型中学习到的多层特征图分别进行融合,融合时,引入注意力机制,选择分类效果好的模态,从其特征图中产生辅助注意力信息,应用于效果较差的模态中的特征图,逐层进行融合操作,最终输出图像属于三种类别的概率,重复上述过程对模型迭代训练直至收敛。之后,将需要诊断病变类别的图像输入训练好的模型,使用上述特征融合方法,输出对应预测结果,辅助医生诊断。
[20] 成果名称:一种医学图像中小器官的分割方法
完成人:吴健; 冯芮苇; 王文哲; 宋庆宇; 雷璧闻; 陈晋泰; 陆逸飞; 吴福理
权利人:浙江大学
成果类型:发明专利
成果号:ZL201811359760.6
成果简介:一种医学图像中小器官的分割方法,包括以下步骤:(1)获取包含小器官的医学图像数据作为样本数据,经过预处理后标注标签,将标注后的样本数据分成训练集和测试集;(2)搭建分割模型,所述分割模型包括DRD模块和ESF模块,所述的DRD模块用于实现小器官的目标检测和动态区域选择,所述ESF模块用于实现对动态区域的精细分割和三维特征融合;(3)使用训练集对分割模型进行训练,根据模型预测结果与标签的重合度对网络的参数进行调节,直至模型收敛;(4)将需要分割的医学图像输入训练好的模型中,输出最终的分割结果。利用本发明的模型,可以准确分割出小器官,且该模型具有较高的计算效率。
[21] 成果名称:一种基于多模态分割网络的宫颈病变区域分割方法和装置
完成人:吴健; 陈婷婷; 马鑫军; 刘雪晨; 王文哲; 陆逸飞; 吕卫国; 袁春女; 姚晔俪; 王新宇; 吴福理
权利人:浙江大学
成果类型:发明专利
成果号:ZL201811469200.6
成果简介:本发明公开了一种基于多模态分割网络的宫颈病变区域分割方法和装置,属于医疗图像处理技术领域,在醋酸图像和碘图像的特征提取过程中采取交叉连接的方式来融合两种图像的特征。为了融合两种图像的特征,将前一个卷积块的醋酸图像特征与下一个卷积块的碘图像进行通道层次的拼接操作,然后碘图像分支再进行后续的特征学习;同理,将前一个卷积块的碘图像特征与下一个卷积块的醋酸图像特征进行拼接操作,然后醋酸图像分支在进行后续的特征学习。这样的交叉连接方式一直持续到第五卷积块,从第五卷积块输出的醋酸图像和碘图像特征基本保持了两种图像的特征。然后,将醋酸图像分支和碘图像分支学习到的特征分别进入FCN模型的分割部分,进行分割预测。
[22] 成果名称:一种基于分段采样视频特征的胚胎妊娠结果预测装置
完成人:吴健; 雷璧闻; 马鑫军; 陈晋泰; 宋庆宇; 冯芮苇; 王文哲; 陆逸飞; 吴福理
权利人:浙江大学
成果类型:发明专利
成果号:ZL201811319271.8
成果简介:本发明公开了一种基于分段采样的视频特征的胚胎妊娠结果预测装置,包括存储器、处理器以及计算机程序,存储器中存有包括n个特征提取模块和融合分类模块的胚胎妊娠结果预测模型,处理器执行所述计算机程序时实现以下步骤:接收胚胎发育视频,并对帧图像进行去噪剔除后,将剩余帧图像分成n段,并在每段中等时间间隔抽取m帧图像;以每个特征提取模块输入m帧图像的方式,将抽取的n*m帧图像分别输入到n个特征提取模块,经特征提取后,提取的n类特征图合并后输入到融合分类模块中,经计算输出胚胎妊娠结果预测概率;其中,n为大于等于4的自然数,m为小于20的自然数。该装置能够根据胚胎发育视频准确地输出胚胎妊娠结果的预测概率。
[23] 成果名称:一种基于深度学习的糖尿病与高血压概率计算系统
完成人:吴健; 胡汉一; 陆逸飞; 王文哲; 吴福理
权利人:浙江大学
成果类型:发明专利
成果号:ZL201910202701.6
成果简介:本发明公开了一种基于深度学习的糖尿病与高血压概率计算方法,包括:(1)采集用户体检数据后进行数据清洗和预处理,再对数据中的数字数据和文本数据分别进行编码操作,得到训练数据;(2)建立糖尿病与高血压多任务概率计算模型;(3)使用训练数据对上述多任务概率计算模型进行训练,根据模型计算的结果与糖尿病、高血压标签的重合情况对网络参数进行优化,直到模型收敛;(4)将需要计算糖尿病与高血压概率的体检数据进行清洗、预处理和编码操作后输入上述训练完的模型,计算得到糖尿病概率与高血压概率。利用本发明,可同时计算糖尿病与高血压疾病的概率,辅助医生进行更好的判断。
[24] 成果名称:一种基于深度学习的重叠染色体分割方法及装置
完成人:吴健; 余柏翰; 项阳; 彭凯; 王文哲
权利人:浙江大学
成果类型:发明专利
成果号:ZL201910538061.6
成果简介:本发明公开了一种基于深度学习的重叠染色体分割方法及装置,包括:(1)对待分割的重叠染色体图像进行预处理,获得重叠染色体输入图像;(2)将重叠染色体输入图像输入至染色体重叠区域分割模型中,得到染色体非重叠区域的mask以及重叠区域的mask;(3)对非重叠区域的mask进行处理,获取多个染色体联通区域的mask,对多个染色体联通区域的mask与重叠区域的mask进行组合,得到待判别的染色体候选样本;(4)将染色体候选样本输入至染色体判别模型中,获得置信度最高的染色体候选样本记为真实样本,并且与该染色体候选样对应的另一条染色体样本记为真实样本;(5)根据判别结果,获得重叠染色体分割结果。
[25] 成果名称:一种基于3D结合2D的脊椎骨检测方法
完成人:吴健; 陈晋泰; 余柏翰; 王彦杰; 郭若乾
权利人:浙江大学
成果类型:发明专利
成果号:ZL201910959396.5
成果简介:本发明公开了一种基于3D结合2D的脊椎骨检测方法,包括以下步骤:(1)获取CT脊椎影像样本并进行预处理,将预处理后的样本进行专家标注,标注出脊椎骨的中心位置和对应的脊椎骨名称,将标注后的样本分为训练集、验证集和测试集;(2)构建脊椎骨检测模型,所述的脊椎骨检测模型包括3D编码‑解码网络和2D编码‑解码网络;(3)将构建的脊椎骨检测模型在训练集和验证集上进行训练,直到模型收敛;(4)将训练完的模型在测试集下进行测试,通过测试后进行脊椎骨检测的应用。利用本发明,可以大大提高脊椎骨检测的速度和准确率,有助于医生做出更精确的判断。
[26] 成果名称:一种基于级联残差全卷积网络的胸腔多器官分割方法
完成人:吴健; 雷璧闻; 应豪超; 余柏翰
权利人:浙江大学
成果类型:发明专利
成果号:ZL201910959385.7
成果简介:本发明公开了一种基于级联残差全卷积网络的胸腔多器官分割方法,先用粗分割模型对各个器官进行一个粗略的分割,作用是定位各个器官的范围,然后,利用各个器官的单独细分割模型,对粗分割定位的区域,进行精细化的分割,得到各个器官的精细化分割结果,最后将结果合并,得到最终的多器官分割结果,分割结果保留了更多的细节。本发明在u‑net的基础上进行改进,将残差连接以及特征维度的注意力机制引入u‑net中的下采样模块,使得网络更易训练,且具有自动特征选择的能力。另外,我们引入了级联的策略,使用分阶段的分割网络,从而得到实现对胸腔CT多器官的快速,精准分割。
[27] 成果名称:一种基于机器学习的CRRT上机病人体温校正系统
完成人:吴健; 陈晋泰; 陈婷婷; 应豪超; 雷璧闻; 刘雪晨; 宋庆宇; 陈潇俊; 杨娜; 王晓玲
权利人:浙江大学
成果类型:发明专利
成果号:ZL201911342407.1
成果简介:本发明公开了一种基于机器学习的CRRT上机病人体温校正系统,包括计算机存储器、计算机处理器以及存储在计算机存储器中并可在计算机处理器上执行的计算机程序,还包括温度监测设备,用于对CRRT设备最靠近人体的采血端和输血端进行温度监测;所述计算机存储器中存有训练好的体温校正模型,所述的体温校正模型由若干种算法融合而成,所述的若干种算法包括但不限于Xgboost、LightGBM、SVM和LR算法;所述计算机处理器执行所述计算机程序时实现以下步骤:获取待测时间点的病人生理数据、CRRT面板数据、环境变量数据以及温度监测设备监测的温度数据,输入体温校正模型后得到病人的正确体温数据。利用本发明,可以准确、无创的评估病人在CRRT治疗时的真实体温。
[28] 成果名称:一种基于深度学习的泪膜破裂时间检测系统
完成人:吴健; 陈晋泰; 陈婷婷; 应豪超; 雷璧闻; 刘雪晨; 宋庆宇; 胡荷萍
权利人:浙江大学
成果类型:发明专利
成果号:ZL201911329175.6
成果简介:本发明公开了一种基于深度学习的泪膜破裂时间检测系统,包括计算机存储器、计算机处理器以及存储在计算机存储器中并可在计算机处理器上执行的计算机程序,计算机存储器中存有训练好的分类模型和干燥斑分割模型,计算机处理器执行计算机程序时实现以下步骤:将拍摄的泪膜破裂时间检查视频提取出所有帧后输入分类模型,输出每帧图像的分类标签,形成一个0/1序列;提取序列中3~5段睁眼段作为检测段;将每个检测段分别输入干燥斑分割模型进行分割预测,记录每个检查段中首次出现干燥斑的帧的位置,计算出每个检测段的泪膜破裂时间,最后取平均值作为待测者的整体泪膜破裂时间。利用本发明,可以提高计算机辅助诊断干眼症的适应性和准确率。
[29] 成果名称:一种基于机器学习的个性化超促排卵方案的预测装置
完成人:吴健; 陈晋泰; 陈婷婷; 冯芮苇; 应豪超; 雷璧闻; 刘雪晨; 宋庆宇; 曹燕
权利人:浙江大学
成果类型:发明专利
成果号:ZL201911337735.2
成果简介:本发明公开了一种基于机器学习的个性化超促排卵方案的预测装置,包括计算机存储器、计算机处理器,计算机存储器中存有超促排卵方案预测模型,所述的超促排卵方案预测模型包括训练好的初级学习器和次级学习器;其中,初级学习器由SVM模型、ExtraTrees模型、RandomForest模型、LightGBM模型和XGboost模型组成,次级学习器采用Catboost模型;所述计算机处理器执行所述计算机程序时实现以下步骤:将待测的临床特征数据进行特征工程处理,将处理后的特征数据输入初级学习器进行计算,获得五个模型的预测值;采用训练好的次级学习器对5个预测值进行计算,获得最终预测结果。利用本发明,可以提高了超促排卵方案的预测准确性。
[30] 成果名称:一种基于多维特征自适应融合的圆锥角膜识别方法和系统
完成人:吴健; 陈晋泰; 陈婷婷; 应豪超; 冯芮苇; 雷璧闻; 刘雪晨; 宋庆宇; 胡荷萍
权利人:浙江大学
成果类型:发明专利
成果号:ZL202010116463.X
成果简介:本发明公开了一种基于多维特征自适应融合的圆锥角膜识别方法和系统,其中方法包括:(1)利用Pentacam眼前节成像系统获得多个独立样本的原始角膜地形图数据;(2)对上述每个独立样本的5个维度进行圆锥角膜情况综合判断标注;(3)统计5个维度原始角膜地形图数据的正常尺寸、均值、方差、最值信息;(4)划分训练集和验证集;(5)对训练集和验证集中的地形图数据进行处理;(6)构造五维特征自适应融合的残差卷积神经网络并训练;(7)利用Grad‑CAM可视化方式,得到三类测试样本的平均可视化信息;(8)利用训练好的模型进行预测,再将最大预测分数进行反向传播得到可视化效果图。利用本发明,可以解决实际应用中圆锥角膜识别效果不佳的问题。
[31] 成果名称:一种病理切片中非常规细胞的分割方法
完成人:吴健; 王彦杰; 陈子仪; 黄晓园; 郝鹏翼; 吴福理; 吕卫国; 陈为; 叶德仕; 吴朝晖
权利人:浙江大学
成果类型:发明专利
成果号:ZL201810378996.8
成果简介:本发明公开一种病理切片中非常规细胞的分割方法,包括:将病理切片中的细胞处理为单独的透明背景的预分割细胞图像,给每张预分割图像的每个像素点分配像素标签;使用贴图方法,使这些预分割细胞图像随机分布在白色背景上,并以一定概率使细胞重合,形成伪输入图像,并获取对应的全图像素标签,记为真值标签;以伪输入图像与真值标签为训练数据训练Mask‑RCNN,使其具有检测非常规细胞边界方框与预测方框内像素标签的能力;将未经过标记的新病理切片输入收敛的Mask‑RCNN检测出未分割的病理切片中的非常规细胞,通过后处理得到最终分割结果。本发明提供的分割方法能有效降低标注时间与成本,并能短时间内产生大量训练数据,能够较好地的大量数据进行拟合。
[32] 成果名称:一种基于多维特征融合的圆锥角膜识别方法及装置
完成人:吴健; 胡荷萍; 陈婷婷; 冯芮苇; 许哲; 王文哲
权利人:浙江大学
成果类型:发明专利
成果号:ZL201911317629.8
成果简介:本发明公开了一种基于多维特征融合的圆锥角膜识别方法和装置,包括:1)利用了单例病人的多维度的数据,通过设计的标准化流程进行数据处理,并结合进行圆锥角膜的分级,分为正常、亚临床圆锥角膜和圆锥角膜;2)构建多维度模型,并进行多种方式的特征融合,并连接SE模块进行特征重组,再进行模型训练;3)利用梯度反向传播进行了类别判断的可解释性操作,并输出可视化图像;4)出于对圆锥角膜数据样式的特殊性考虑,对比了一维和二维卷积对其的影响;5)通过所设计的模型,选择三个分数中最大分数所在的类别为判别的类别,得到了很好的分类效果。本发明优化了实际应用中圆锥角膜识别效果不佳的问题。
[33] 成果名称:一种手部穴位自动定位方法
完成人:吴健; 姜晓红; 应豪超; 曹燕; 黄博
权利人:浙江大学
成果类型:发明专利
成果号:ZL202110734019.9
成果简介:本发明公开了一种手部穴位自动定位方法,包括以下步骤:(1)采集左右手的手掌、手背图像数据,形成原始样本;(2)计算手部关键点位置信息;(3)对手部图像进行标注,手掌记为0,手背记为1;(4)对原始样本进行数据预处理,并分类按比例进行训练集和验证集的划分,构成训练样本;(5)构建、训练手掌/手背分类模型;根据该模型输出值得到手掌/手背的判别结果;(6)根据关键点位置和分类结果,结合中医取穴位置描述,确定穴位在关键点之间的相对位置,利用空间几何原理计算该穴位的坐标值,并在图像中标出穴位位置和名称。利用本发明,可以解决人工取穴时存在的一定主观性从而导致的定位不够准确和速度不够快等问题。
[34] 成果名称:基于多组学数据融合的药物敏感性预测方法和装置
完成人:吴健; 冯芮苇; 谢雨峰; 赖泯汕; 郭越; 曹戟; 何俏军; 杨波
权利人:浙江大学
成果类型:发明专利
成果号:ZL202111349387.8
成果简介:本发明公开了一种基于多组学数据融合的药物敏感性预测方法和装置,属于药物敏感性检测领域,包括:通过细胞系图表征模块整合个体细胞系的基因组学数据、蛋白组学数据、代谢组学数据这三类多组学信息得到细胞系多边图,该细胞系多边图充分考虑细胞系的多组学信息,以及基因在多组学层面其表达的产物之间的潜在联系,然后通过细胞系图特征提取模块对细胞系多边图进行特征提取,以充分提取细胞系多边图中的节点特征和边特征作为细胞系特征,最后采用药物敏感性预测模块根据细胞系特征和基于药物特征提取模块提取的药物特征预测药物的半抑制浓度,这样在综合考虑基因组学数据、蛋白组学数据、代谢组学数据的基础上提高了药物敏感性的预测准确率。
[35] 成果名称:器官移植的免疫排斥预测及信号通路确定装置
完成人:吴健; 胡朝文; 谢雨峰; 冯芮苇; 郭越; 徐红霞; 盛凯翔
权利人:浙江大学
成果类型:发明专利
成果号:ZL202210587533.9
成果简介:本发明公开了一种器官移植的免疫排斥预测及信号通路确定装置,通过图表征模块来整合细胞转录组数据和基因信号通路数据以构建细胞系图;然后通过特征提取模块充分提取细胞系图中的节点特征和边特征作为细胞系特征后,采用自注意力层对细胞系特征进行自注意力计算,确定基因节点的注意力权重并得到注意力特征;最后,采用免疫排斥预测模块根据注意力特征预测细胞是否会产生免疫排斥;同时采用重要信号通路确定模块根据注意力权重值筛选的重要基因确定重要基因信号通路,这样在综合考虑细胞转录组数据和基因信号通路的基础上提高了细胞是否发生免疫排斥的预测准确率,同时也保证了寻找到正确的免疫排斥机制的重要基因信号通路。
[36] 成果名称:基于药物敏感性数据的多组学生物标志物筛选方法和装置
完成人:吴健; 刘伟泽; 徐红霞; 郑波; 胡朝文; 范逸群; 吴育连
权利人:浙江大学
成果类型:发明专利
成果号:ZL202310447492.8
成果简介:本发明公开了一种基于药物敏感性数据的多组学生物标志物筛选方法和装置,通过转录组生物标志物筛选模块和DNA甲基化组生物标志物筛选模块来筛选出对于影响患者药物敏感性预测的最重要的一组候选转录组生物标志物和候选DNA甲基化组生物标志物,然后通过多组学联合筛选模块对候选转录组生物标志物、候选DNA甲基化组生物标志物以及临床数据进行联合筛选以得到混合候选组,最后基于敏感性预测效果验证筛选模块对混合候选组中特征进行根据药物敏感性数据的验证筛选以确定最终筛选结果,这样在综合考虑患者的多组学数据和临床数据的基础上能够通过机器学习的可解释性来减少预测患者药物敏感性所需的生物标志物数量并提高了预测的性能和效率。
[37] 成果名称:一种甲状腺乳头状瘤BRAF基因突变检测装置
完成人:吴健; 林彦宏; 应豪超
权利人:浙江大学
成果类型:发明专利
成果号:ZL202311684302.0
成果简介:本发明公开了一种甲状腺乳头状瘤BRAF基因突变检测装置,包括:获取甲状腺乳头状瘤的染色病理切片图像并进行预处理得到预处理图像,利用医疗大模型从预处理图像中分割图像肿瘤区域作为分割掩码通道图;构建包括教师模型和学生模型的学习系统,在教师模型中,预处理图像和分割掩码通道图依次经过通道注意力模块、第一特征提取模块以及第一特征预测模块得到第一预测概率,在学生模型中,预处理图像依次经过第二特征提取模块和第二特征预测模块得到第二预测概率;基于学习系统对学生模型进行基于预训练后教师模型的蒸馏学习以优化学生模型参数;参数优化的学生模型作为BRAF基因突变检测模型用于检测甲状腺乳头状瘤BRAF基因突变情况。
[38] 成果名称:基于多源数据融合的肝移植受者预后预测装置
完成人:吴健; 欧阳振球; 徐红霞; 应豪超; 冯芮苇; 黄博; 程奕
权利人:浙江大学
成果类型:发明专利申请
成果号:CN202210636049.0
成果简介:本发明公开了一种基于多源数据融合的肝移植受者预后预测装置,多源数据融合能够充分整合肝移植受者的影像学、肿瘤标志物、肿瘤免疫组化和肿瘤多组学等多源数据信息,相比现有的肝移植受者表征方式,能够容纳更多数据域的生物信息,同时也充分考虑肝移植受者在多源数据层面其反应的信息之间的潜在联系;提出的基于多源数据融合的肝移植受者预后预测模型,在高效提取个体特异性的多源数据的同时,能够充分考虑不同数据源之间的一致性与互补性,以全方面地考虑肝移植受者的病情,从而实现更加精准的肝移植受者预后预测。
[39] 成果名称:基于特征分离重组的肝移植排异反应预测装置
完成人:吴健; 程奕; 应豪超; 徐红霞; 叶志前
权利人:浙江大学
成果类型:发明专利申请
成果号:CN202310358623.5
成果简介:本发明公开了一种基于特征分离重组的肝移植排异反应预测装置,属于医学图像处理技术领域,包括在提取肝组织CT影像特征、肝门静脉CT影像特征以及腹部平扫CT图像特征的基础上,使用多头注意力机制进行关键特征融合操作,将肝组织CT影像特征与腹部平扫CT图像特征融合得到肝组织关键特征,将肝门静脉CT影像与腹部平扫CT图像特征融合得到肝门静脉关键特征,再将肝组织关键特征以及肝门静脉关键特征进行降维、融合得到融合特征,利用该融合特征进行肝移植排异反应预测,提升了预测效率和精度,帮助医生更加精准高效地对肝移植受者的排异反应进行预测。
[40] 成果名称:基于深度学习和特征融合的胆管癌内镜影像分类方法及系统
完成人:徐红霞; 杜邦; 杨建锋; 刘强; 张筱凤; 吴健; 马子涵
权利人:浙江大学
成果类型:发明专利申请
成果号:CN202410328444.1
成果简介:本发明公开了一种基于深度学习和特征融合的胆管癌内镜影像分类方法及系统,包括:获取胆管内镜视频数据并处理为目标图像序列;利用基于深度学习构建的多个深度分类模型分别提取每张目标图像的特征向量,并基于特征向量得到多个分类结果,对多个深度分类模型得到的特征向量分别进行单独特征处理后输入至混合注意力融合分类模型,经过自注意力加权、跨模态注意力融合、以及门控融合得到融合特征,并基于融合特征得到分类结果;通过投票机制对多个深度分类模型输出的分类结果和混合注意力融合分类模型输出的分类结果进行投票确定胆管内镜视频数据的最终分类结果,这样可以实现高效且准确的胆管癌内镜影像分类。
[41] 成果名称:一种基于多模态特征级融合的宫颈病变预测系统
完成人:吴健; 陈婷婷; 马鑫军; 刘雪晨; 吕卫国
权利人:浙江大学
成果类型:发明专利
成果号:ZL201910959387.6
成果简介:本发明公开了一种基于多模态特征级融合的宫颈病变预测系统,包括计算机存储器、计算机处理器以及存储在计算机存储器中并可在计算机处理器上执行的计算机程序,计算机存储器中存有宫颈病变预测模型,包括醋酸图像特征提取网络、碘图像特征提取网络以及用于将提取的特征进行融合的辅助模块;计算机处理器执行计算机程序时实现以下步骤:接收阴道镜检查中的醋酸图像和碘图像,裁剪出包含宫颈的区域;将醋酸图像和碘图像分别输入到宫颈病变预测模型中的醋酸图像特征提取网络和碘图像特征提取网络,经特征提取后,分别输入各自的辅助模块中,进行特征融合,经计算输出预测结果。本发明可以使预测结果更准确,以协助医生做出正确的诊断和判断。
[42] 成果名称:一种用于构建超分辨率病理显微镜的迁移学习方法
完成人:吴健; 陈晋泰; 刘雪晨
权利人:浙江大学
成果类型:发明专利
成果号:ZL202010339386.4
成果简介:本发明提供了一种用于构建超分辨率病理显微镜的迁移学习方法,包括:(1)利用显微镜收集不同部位的病理图像对;(2)将超分辨病理显微镜的目标病理切片类型的病理图像对作为目标域,将非目标病理切片类型的病理图像对作为源域,对目标域和源域的数据进行归一化处理;(3)将每个病理图像对中的高、低分辨率病理切片照片按固定比例进行切分,得到小尺寸病理图像对,并将目标域中切分后的小尺寸病理图像对划分为训练集和测试集;(4)利用源域和目标域中由小尺寸病理图像对组成的数据集,生成中间域数据集;(5)构建超分辨模型并进行训练;(6)模型训练完毕后,进行超分辨模型的应用。利用本发明,可以达到更好的迁移学习效果。
[43] 成果名称:基于迁移学习和图神经网络的药物敏感性预测方法和装置
完成人:吴健; 曹戟; 杨波; 何俏军; 冯芮苇; 谢雨峰; 欧阳振球; 陈文博
权利人:浙江大学
成果类型:发明专利
成果号:ZL202110445564.6
成果简介:本发明公开了一种基于迁移学习和图神经网络的药物敏感性预测方法和装置,属于药物敏感性检测与评价技术领域,具体包括:采用包含药物对细胞系的半抑制浓度的第一样本数据对半抑制浓度预测模块进行参数优化,然后通过迁移学习将半抑制浓度预测模块的特征提取单元的网络参数迁移到药物敏感性预测模块的特征提取单元,在此基础上,利用包含药物敏感性类别数据的第二样本数据对药物敏感性预测模块进行参数调优,这样有效实现跨数据集特征迁移,弥补数据集样本量不足,利用多个差异较大的数据集来优化药物敏感性预测模块,使得药物敏感性预测模块能够有效提取个体的基因特征和药物特征,从而以较高的准确率预测药物敏感性。
[44] 成果名称:一种基于深度学习的圆锥角膜和亚临床圆锥角膜检测系统
完成人:吴健; 姚克; 冯芮苇; 许哲; 郑向上; 胡荷萍
权利人:浙江大学
成果类型:发明专利
成果号:ZL202110435935.2
成果简介:本发明公开了一种基于深度学习的圆锥角膜和亚临床圆锥角膜检测系统,包括计算机存储器、计算机处理器以及存储在所述计算机存储器中并可在所述计算机处理器上执行的计算机程序,所述计算机存储器中存有训练好的检测模型,所述的检测模型为一个多分支结构、多层次融合的端到端的深度学习模型KerNet;所述计算机处理器执行所述计算机程序时实现以下步骤:获取待检测的角膜原始三维数据,输入到检测模型后进行特征提取和分类,最终输出个体所属类别为圆锥角膜、亚临床圆锥角膜或者正常。利用本发明,能够直接对个体角膜原始三维数据进行特征提取,从而能够实现高精度的圆锥角膜、亚临床圆锥角膜检出。
[45] 成果名称:一种任意导联视角的心电数据的生成方法
完成人:吴健; 应豪超; 陈晋泰; 郑向上; 愈洪蕴
权利人:浙江大学
成果类型:发明专利
成果号:ZL202110538135.3
成果简介:本发明公开了一种任意导联视角的心电数据的生成方法,包括以下步骤:(1)在现有心电数据集中,提取长度为10秒钟的12导联心电数据,对每个心电数据进行波段标注后按照比例分别划分为训练集和测试集;(2)将所有的心电数据进行标准化操作;(3)建立基于一维卷积神经网络的AutoEncoder深度学习模型;(4)利用训练集和测试集对Auto‑Encoder深度学习模型进行训练,直至模型收敛;(5)根据训练好的模型,输入步骤(2)中任意导联数量的心电数据、每个导联在球坐标系下的角度信息以及任意目标导联视角的角度信息;生成目标导联的心电数据。利用本发明,能极大的扩充导联视角,能够做到生成任意导联的心电数据。
[46] 成果名称:一种心电数据生成方法
完成人:吴健; 叶志前; 应豪超; 陈晋泰; 愈洪蕴; 郑向上
权利人:浙江大学
成果类型:发明专利
成果号:ZL202110538105.2
成果简介:本发明公开了一种心电数据生成方法,包括:(1)在现有心电数据集中,提取带有心电分类标签的12导联心电数据,按照标签分成多个子数据集,进行波段标注后分别划分为训练集和测试集;(2)搭建Auto‑Encoder深度学习模型,并进行心电图的重构训练;(3)选择一个标签类别的子数据集,利用模型的Encoder对该子数据集进行特征提取,得到特征空间Z1和Z2并保存;(4)将获得的Z1和Z2进行随机的两两混合,得到特征空间和(5)利用模型的Decoder对和进行解码重构,获得全新心电图数据;(6)在不同标签的子数据集上重复步骤(3)~(5),生成大量全新的不同标签的心电图数据。本发明可以解决实际应用中心电图数据集的分布不平衡、长尾效应严重的问题。
[47] 成果名称:一种H&E染色切片图像中异常组织的分割方法和装置
完成人:吴健; 谢雨峰; 杨琦; 冯芮苇; 胡荷萍; 许晶虹; 应豪超
权利人:浙江大学
成果类型:发明专利
成果号:ZL202210170571.4
成果简介:本发明公开了一种H&E染色切片图像中异常组织的分割方法和装置,通过构建特征缓存模块来存储异常组织编码特征与正常组织编码特征,并结合域自适应对比损失来引导分割模型忽略样本间的染色域差异,专注正常组织样本和异常组织样本之间的特征差异,以解决切片间染色域不同导致的预测效果差的问题,从而能够提高分割模型的异常区域的预测准确率;同时还充分利用正常组织样本进行模型训练,降低模型对专家标注的过分依赖。
[48] 成果名称:基于多组学相似度引导的药物敏感性预测方法和装置
完成人:吴健; 冯芮苇; 谢雨峰; 郭越; 曹戟; 何俏军; 杨波
权利人:浙江大学
成果类型:发明专利
成果号:ZL202210184839.X
成果简介:本发明公开了一种基于多组学相似度引导的药物敏感性预测方法和装置,包括:基于细胞系的多组学数据构建的细胞系图能够充分整合个体细胞系的基因组学数据、转录组学数据、蛋白组学数据、代谢组学数据这四类多组学信息,相比现有的细胞系表征方式,能够容纳更多种类的组学信息,同时也充分考虑细胞系在多组学层面其表达的产物之间的潜在联系;在此基础上,基于细胞系图进行药物敏感性预测的药物敏感性预测模型,采用多组学相似度引导方式,在高效提取个体特异性的多组学信息的同时,能够充分考虑个体之间的多组学相似性,能够提供巨大的生物学先验知识,从而实现更加精准的药物敏感性预测。
[49] 成果名称:基于时序数据的血透病人风险预测装置
完成人:吴健; 陈江华; 徐红霞; 钱思忆; 楼晓伟; 陈晋泰; 姚曦
权利人:浙江大学
成果类型:发明专利
成果号:ZL202211486609.5
成果简介:本发明公开了一种基于时序数据的血透病人风险预测装置,采用双向GRU‑D网络以端到端的方式来处理临床检查时序数据,能够同时较好地处理不均匀采样、有较多缺失值的临床数据,更好地捕捉病人临床数据的动态变化,在此基础上,以临床检查时序数据、图像诊断文字信息、病人个体特征信息这三种多模态信息作为数据源,并采用深度学习依据数据源来提取临床检查表征、诊断表征以及个体特征表征,然后结合这三个特征预测血透病人的死亡率,这样提升死亡预测的准确率和效率,为医生诊疗提供辅助,对于预测出潜在死亡的病人,医生可以及时给与干预,从而优化医疗资源的干预。
[50] 成果名称:一种基于多模态融合网络的白内障术后视力预测系统
完成人:吴健; 王锦鸿; 应豪超; 陈婷婷
权利人:浙江大学
成果类型:发明专利申请
成果号:CN202210491704.8
成果简介:本发明公开了一种基于多模态融合网络的白内障术后视力预测系统,包括训练好的白内障术后视力预测模型,模型以卷积神经网络作为主干网络,用于接收输入数据中的图像数据,分别对横扫图像和纵扫图像进行特征提取;再将学习到的特征进行序列化后输入到多模态交叉注意力网络;输入了两种视图图像特征的多模态交叉注意力网络分别和术前视力编码后的视力块、随机生成的回归块和交叉块合并,通过Transformer层进行视图特征范围内的深层特征提取和信息融合;将两种视图的回归块拼接进入全连接层,输出预测的术后视力。本发明能够自动提取图像模态特征,并和术前视力模态特征融合,学习潜在的模态间关系,以较小的计算成本实现准确预测。
[51] 成果名称:一种基于大语言模型的糖尿病健康宣教和用药推荐系统
完成人:吴健; 张铠; 杜邦; 徐红霞; 刘伟泽; 陈启源; 邵谦; 王越; 廖杰远
权利人:浙江大学
成果类型:发明专利申请
成果号:CN202311680812.0
成果简介:本发明公开了一种基于大语言模型的糖尿病健康宣教和用药推荐系统,包括文本交互模块,咨询文本的输入和健康宣教文本和用药推荐文本的输出;意图识别模块,对咨询文本进行意图识别;健康宣教模块,启用健康宣教知识库以及提示模版并生成健康宣教提示后发送至模型调用模块;用药推荐模块,启用糖尿病用药推荐知识库和推荐提示模版并生成用药推荐提示后发送至模型调用模块;模型调用模块,基于健康宣教提示或用药推荐提示调用大语言模型生成健康宣教文本或药推荐文本并返回。该系统提高医疗服务的效率并节约宝贵的医疗资源;增强了健康宣教的互动性;提供更加精确和针对性的用药推荐,从而确保患者得到最适合其情况的药物建议。
转化方式:独占许可(许可年限:自合同签订之日起至专利失效)
定价方式:协议定价
转化价格:0元
关联情况:非关联
公示期自2024年10月16日至2024年10月30日。如有异议,请在公示期内向工业技术转化研究院提交异议书及有关证据。
电话:0571-88982817,邮箱:ott@zju.edu.cn。
工业技术转化研究院
2024年10月16日