浙江大学4件成果拟许可,现将相关信息予以公示。
[1] 成果名称:一种基于多层级高斯溅射的实时渲染方法及装置
完成人:周晓巍; 鲍虎军; 帅青; 彭思达
权利人:浙江大学
成果类型:发明专利申请
成果号:CN202410242767.9
成果简介:本发明公开了一种基于多层级高斯溅射的实时渲染方法及装置,通过优化多层级高斯来合成大场景的新视角图像,实现百万平方米级别大场景的实时渲染。本发明的实现包括:给定大场景图像以及相机位姿,通过树状表存储多层级高斯,使用渐进式策略进行优化,以此表示三维大场景;多层级高斯是一种树状的高斯存取方式,每个高斯存储一组场景参数;基于多层级高斯,构造三维大场景的高效表示。对于三维大场景中任意分辨率的任意视角,从多层级高斯中选择对应可见区域的高斯,根据其可见半径选择合适层级的高斯,用于渲染对应区域的图像。本发明通过多层级高斯,实现了三维大场景的高效建模,提高了三维大场景的渲染速度。
[2] 成果名称:一种基于SfM先验的场景重建方法及装置
完成人:彭思达; 周晓巍; 鲍虎军; 丁维力; 郭浩宇
权利人:浙江大学
成果类型:发明专利申请
成果号:CN202510034199.8
成果简介:本发明公开了一种基于SfM先验的场景重建方法,该方法基于无特征检测器的SfM,求解的相机内外参,获得稀疏点云;将稀疏点云根据可视关系投影到每个视角上,得到稀疏深度图,并进行稠密化;然后将每个视角的图像和稠密化的深度图作为条件运行隐式去噪模型,将预测的深度反归一化回SfM深度的原始尺度,使用RANSAC实现深度对齐,得到所有视角的高质量深度图;最后根据SfM求解的相机内外参通过TSDF融合得到面片重建结果。本发明深度估计过程中引入SfM先验,通过对SfM投影的depth做稠密化和编码,能够很好地作为扩散模型的条件输入,提升多视角深度的一致性,对于较稀疏视角的数据比较鲁棒且具有较高的重建效率。
[3] 成果名称:基于神经网络的动态场景全局光照绘制方法、装置、系统及存储介质
完成人:霍宇驰; 鲍虎军; 王锐
权利人:浙江大学
成果类型:发明专利
成果号:ZL202410549301.3
成果简介:本发明公开了一种基于神经网络的动态场景全局光照绘制方法、装置、系统及存储介质,包括:对三维场景分别从相机视角和光源两方面生成场景表示;根据光源对应的场景表示与相机视角对应的场景表示作为神经网络的输入,生成全局光照着色结果。这样利用光照编码,光照混合,以及光照解码来实现对动态场景实时全局光照预测,使得复杂光照、大量动态物体、动画等成为可能,能够对复杂光源下全动态场景进行实时的全局光照模拟。
[4] 成果名称:一种基于隐式光传输函数的动态绘制方法和装置
完成人:鲍虎军; 霍宇驰; 王锐; 郑传焜
权利人:浙江大学
成果类型:发明专利
成果号:ZL202210890607.6
成果简介:本发明公开了一种基于隐式光传输函数的动态绘制方法和装置,包括以下步骤:步骤1,在原三维场景插入物体形成新三维场景,以新三维场景、相机位置和观察方向作为输入样本,以原三维场景的绘制结果真值与新三维场景的绘制结果真值之差作为第一样本标签,以形成第一类样本数据;利用第一类样本数据对神经网络进行监督学习,以参数优化的神经网络作为隐式光传输函数;步骤2,将新三维场景、相机位置和观察方向作为隐式光传输函数的输入自变量,经过隐式光传输函数的计算得到新三维场景的光传输变化场,将该光传输变化场合并到原三维场景的绘制结果以得到新三维场景的绘制结果,适用于各类三维场景的动态绘制。
转化方式:普通许可(许可年限:自合同签订之日起10年)
定价方式:协议定价
转化价格:180万元
关联情况:非关联
公示期自2026年1月23日至2026年2月6日。如有异议,请在公示期内向工业技术转化研究院提交异议书及有关证据。
电话:0571-88982817,邮箱:ott@zju.edu.cn。
工业技术转化研究院
2026年1月23日