您当前的位置 :环球传媒网>热度 > 正文
上海发布人工智能通用视觉开源平台OpenGVLab
2022-02-25 15:27:47 来源:经济日报新闻客户端 编辑:

2月25日,上海人工智能实验室联合商汤科技发布通用视觉开源平台OpenGVLab,面向学术界和产业界开放其超高效预训练模型、超大规模公开数据集,以及业内首个针对通用视觉模型的评测基准。此举将为全球开发者提升各类下游视觉任务模型训练提供重要支持,推动AI技术的规模化应用落地,并促进人工智能基础研究及生态建设的快速发展。

继去年11月联合商汤科技、香港中文大学和上海交通大学发布通用视觉技术体系“书生”(INTERN),上海人工智能实验室在推动通用视觉智能技术的发展上持续发力。此次发布的通用视觉开源平台OpenGVLab不仅包含超高效预训练模型,同时包括千万级精标注、十万级标签量的公开数据集;同步公布的评测基准则将便于开发者对不同通用视觉模型的性能进行横向评估和持续调优。

当前,人工智能技术正快速发展,然而很多AI模型还局限于完成单一任务,如识别单一物体,或识别风格较为统一的照片。如果要对多种类型、风格进行识别,则需要具备足够的通用性和泛化能力。通用视觉技术体系“书生”(INTERN),很好地解决了这一问题。通用视觉开源平台OpenGVLab即是基于“书生”打造而成。依托“书生”在通用视觉技术上的支撑,OpenGVLab将大幅降低通用视觉模型的开发门槛,帮助开发者用更低的成本快速开发用于成百上千种视觉任务、视觉场景的算法模型,高效实现对长尾场景的覆盖,推动AI技术的规模化应用落地。

OpenGVLab充分继承了通用视觉技术体系“书生”的技术优势,其开源的预训练模型具备极高性能。相较于此前公认的最强开源模型(OpenAI于2021年发布的CLIP),OpenGVLab的模型可全面覆盖分类、目标检测、语义分割、深度估计四大视觉核心任务,在准确率和数据使用效率上均取得大幅提升。基于同样的下游场景数据,开源模型在分类、目标检测、语义分割及深度估计四大任务26个数据集上,平均错误率分别降低了40.2%、47.3%、34.8%和9.4%;同时,在分类、检测、分割和深度估计中,仅用10%的下游训练数据就超过了现有其他开源模型。使用此模型,研究人员可以大幅降低下游数据采集成本,用极低的数据量即可快速满足多场景、多任务的AI模型训练。

伴随OpenGVLab的发布,上海人工智能实验室还开放了业内首个针对通用视觉模型的评测基准。当前,行业中已有的评测基准主要针对单一任务、单一视觉维度而设,无法反映通用视觉模型的整体性能,难以用于横向比较。全新的通用视觉评测基准凭借在任务、数据等层面的创新设计,可提供权威的评测结果,推动统一标准上的公平和准确评测,加快通用视觉模型的产业化应用步伐。

关键词: 人工智能 视觉技术 通用视觉 视觉模型

相关阅读
分享到:
版权和免责申明

凡注有"环球传媒网"或电头为"环球传媒网"的稿件,均为环球传媒网独家版权所有,未经许可不得转载或镜像;授权转载必须注明来源为"环球传媒网",并保留"环球传媒网"的电头。