+8613426109659
webmaster@21cto.com

北京人形机器人创新中心开源 Pelican-VL 1.0 模型,号称“全球最强”

资讯 1 65 1天前
图片

11月14日,北京人形机器人创新中心宣布,将具身智能VLM模型——Pelican-VL 1.0全面开源。

该模型包括7B和72B两种参数规模,是迄今为止“最大规模的开源具身多模态大模型”,同时也是全球性能最强大的具身智能VLM模型。测试结果显示,其性能超越GPT-5同类模型15.79%,与Google Gemini系列模型相比提升19.25%,同时超越通义千问、书生万象等国内模型,成为目前最强的开源具身多模态大模型。

图片 

文章指出,该团队还提出了一套全新的DPPO(刻意训练)训练范式,这是全球首创的具身多模态大模型后训练自进化算法框架。凭借DPPO,Pelican-VL在实现“性能最强”这一目标时,使用的数据量仅为200K,仅为其他大模型的1/10甚至1/50,是名副其实的开源VLM性价比之王。

Pelican-VL 1.0的开源,将大幅提升具身智能在商业服务、工业泛工业、高危特种作业、家庭服务等多种真实场景中的视觉-语言感知辅助多步任务规划能力。而VLM作为实现机器人全自主的核心,Pelican的开源也将推动我国具身智能全自主发展。 图片

本次开源的Pelican-VL 1.0的核心优势在于深度整合海量数据与自适应学习机制,在由1000+ A800 GPU组成的集群上训练,单次检查点训练耗费超过50,000 A800 GPU-小时;团队从原始数据中蒸馏出的包含数亿token的高质量元数据以做训练基石。基于上述优势,Pelican-VL 1.0实现了在基线基础上性能提升20.3%,平均超过Qwen3-VL系列、InternVL3.5系列等同级别开源模型10.6%。

得益于“刻意练习”DPPO(Deliberate Practice Policy Optimization)训练范式,Pelican-VL就像一名刻苦钻研的学生:每次训练循环都会“看视频 — 自主练习 — 发现错误 — 纠正提升”。通过DPPO模仿人类元认知的学习方式,通过强化学习(RL)探索弱点、生成失败样本,再进行有针对性地监督微调(SFT),让模型不断自我纠错和迭代进步。 

就像学生做错题后总结经验一样,Pelican-VL能在训练中发现“薄弱知识点”并补齐,从而持续提高在视觉-语言和具身任务上的能力。通过这种机制,Pelican-VL能够更准确地理解图像内容、语言指令和物理常识,最终在决策和操作执行环节中,实现了具身智能在空间-时间推理和动作规划方面的大幅突破。

作者:洛逸

评论

我要赞赏作者

请扫描二维码,使用微信支付哦。