上海交大等团队构建OHF2024数据库并提出BLIP2模型评估与优化AI生成全景图像质量
AIGODIS的多维度质量度量、局部失真区域的精准定位,以及基于反馈的自动化图像优化
(映维网Nweon 2025年11月17日)随着生成式AI在图像创建领域的快速发展,AI生成全景图像因其在虚拟现实和增强现实应用中的潜力而备受关注。然而,这类图像存在的独特质量问题,如几何扭曲、语义不合理性以及文本-图像对应性差,严重影响了沉浸式用户体验。当前,缺乏专门用于系统评估和优化AI生成全景图像(AIGODIS)质量的数据集和计算方法。
为解决这一问题,海交通大学,天津大学,华东师范大学,法国南特大学团队构建了首个综合性人类反馈数据库OHF2024,并基于此提出了两个新型计算模型:BLIP2OIQA(用于图像质量评估)和BLIP2OISal(用于失真感知显著性预测)。这项研究首次实现了对AIGODIS的多维度质量度量、局部失真区域的精准定位,以及基于反馈的自动化图像优化。

研究团队系统地构建了OHF2024数据库,其流程如下:
......(全文 1693 字,剩余 1367 字)
请微信扫码通过小程序阅读完整文章或者登入网站阅读完整文章
映维网会员可直接登入网站阅读
PICO员工可联系映维网免费获取权限


