面壁小钢炮 MiniCPM 系列,再次推出最强端侧多模态模型 MiniCPM-Llama3-V 2.5,且支持 30+ 多种语言:
MiniCPM 是以「以小博大」著称的旗舰端侧模型,也不断推新端侧多模态能力天花板—— MiniCPM-Llama3-V 2.5 实现了「以最小参数,撬动最强性能」的最佳平衡点。
OpenCompass 榜单变化显示小参数、高性能模型成为趋势
随着大模型参数愈益降低、端侧算力愈益增强,高性能端侧模型势头强劲。而手机、PC等智能终端设备因其高频的影像视觉处理需求,对在端侧部署AI模型提出了更高的多模态识别与推理能力要求。
从面壁「小钢炮」三月三级跳的迅猛进化来看,推动推理成本大幅降低、大模型高效落地,胜利在望!
➤ MiniCPM-Llama3-V 2.5 开源地址:
https://github.com/OpenBMB/MiniCPM-V
➤ MiniCPM 系列开源地址:
https://github.com/OpenBMB/MiniCPM
➤ Hugging Face 下载地址:
https://huggingface.co/openbmb/MiniCPM-Llama3-V-2_5
1
OCR 能力SOTA+最强端侧多模态,8B端侧模型,超越GPT-4V,Gemini Pro
这一次,MiniCPM-Llama3-V 2.5 以 8B 端侧模型参数量级,贡献了惊艳的 OCR(光学字符识别)SOTA 成绩,以及端侧模型中的最佳多模态综合成绩与幻觉能力水平。
模型雷达图显示 MiniCPM-Llama3-V 2.5 综合能力水平全面优秀
在综合评测权威平台 OpenCompass 上,MiniCPM-Llama3-V 2.5 以小博大,综合性能超越多模态“巨无霸” GPT-4V 和 Gemini Pro。
OCR(光学字符识别)是多模态大模型最重要的能力之一,也是考察多模态识别与推理能力的硬核指标。新一代 MiniCPM-Llama3-V 2.5 在 OCR 综合能⼒权威榜单 OCRBench 上,越级超越了 GPT-4o、GPT-4V、Claude 3V Opus、Gemini Pro 等标杆模型,实现了性能 SOTA。
在评估多模态大模型性能可靠性的重要指标——幻觉能力上,MiniCPM-Llama3-V 2.5 在 Object HalBench 榜单上超越了 GPT-4V 等众多模型(注:目标幻觉率应为 0)。
在旨在评估多模态模型的基本现实世界空间理解能力的 RealWorldQA 榜单上,MiniCPM-Llama3-V 2.5 再次超越 GPT-4V 和 Gemini Pro,这对 8B 模型而言难能可贵。
榜单成绩
OpenCompass | OCRBench | Object HalBench | RealWorldQA
1
快150倍!首次端侧系统级多模态加速,支持 30+预言,拥抱开源社区
首次进行端侧系统加速,MiniCPM-Llama3-V 2.5 已高效部署手机。
在图像编码方面,面壁首次整合 NPU 和 CPU 加速框架,并结合显存管理、编译优化技术,在 MiniCPM-Llama3-V 2.5 图像编码方面实现了 150 倍加速提升。
在语言模型推理方面,目前开源社区的报告结果中,Llama 3 语言模型在手机端侧的解码速度在 0.5 token/s 上下,相比之下,多模态大模型的端侧运行面临着更大的效率挑战,经过 CPU、编译优化、显存管理等优化方式,我们将 MiniCPM-Llama3-V 2.5 在手机端的语言解码速度提升到 3-4 token/s。
目前,语言模型的图像编码加速也在进行中,更灵敏互动体验即将到来。
此处 GIF 为 2 倍速,我们正进一步加速优化中
有别于常见的中英双语模型,MiniCPM-Llama3-V2.5 可支持 30+ 多种语言,包括德语、法语、西班牙语、意大利语、俄语等主流语言,基本覆盖一带一路国家。
基于自研的跨语言泛化技术,仅通过少量翻译的多模态数据的指令微调,就可对多语言多模态对话性能高效泛化。
现在,上百个国家的几十亿人口,终于可以自如使用母语和端侧大模型交流,不再游离于前沿科技发展的主线,也因此享有更多AI应用落地、生活品质提升与参与科技角逐的可能性。真正让更多人享受大模型的乐趣!
多语言案例展示(语言加速工作正在进行,此处为2倍速)
多语言版本 LLaVABench 评测结果,MiniCPM-Llama3-V 2.5 对话能力更胜一筹
1
9倍像素更清晰,难图长图长文本精准识别
OCR 技术进一步打磨,复杂推理与多模态识别能力再进化,MiniCPM-Llama3-V 2.5 对于难图、长图、长文本的精准识别,再度带来出众表现!
面壁自研高清图像高效编码技术,我们可以高效编码及无损识别 180 万高清像素图片,并且支持任意长宽比、甚至「有点变态」的 1:9 极限比例图像,突破了传统技术仅能识别 20 万像素小图的瓶颈。
此前,MiniCPM-V 系列多模态模型就因对于街景、长图等困难场景的高效解析,赢得了良好口碑。
技术升级, MiniCPM-Llama3-V 2.5 在复杂推理能力上进一步突破。可更好地深入洞察图像,在更复杂、更接近人类的水平上进行思考和解决问题,堪称大模型中的“小福尔摩斯”。
复杂推理能力使得模型不仅能理解单一文本或图像等模态信息,还能跨越不同模态间的综合信息,做出更准确和深入的分析。
比如给定一张充满繁密字迹的建筑风景图,人眼难以辨别,但 MiniCPM-Llama3-V 2.5 能够一眼看懂其中的《三体》主题,还能正确推理出这些建筑是为了纪念《三体》及其对中国科幻文学的贡献而设计,令人会心一笑。
把同样的问题抛给GPT-4 V ,结果并不理想。
另外,识别包含复杂逻辑的流程图是多模态模型推理能力的直观体现,MiniCPM-Llama3-V 2.5 不仅能够轻松看懂流程图中不同模块的文字、箭头之间的空间位置和复杂逻辑关系 ,还能给出清晰易懂的解释说明。
给妈妈转发一张亚洲饮食金字塔图,但她读不懂英文?MiniCPM-Llama3-V 2.5 凭借出色的推理能力,不仅深入理解分析图像里的饮食类型和分布,还能洞察背后的营养均衡需求,进行智能化搭配组合,直接一次性用中文推荐出满满一周的三餐食谱。
全文OCR能力方面,结构化信息提取能力的提升,对于长图长文本的精准识别大有帮助。
例如输入一张包含稠密信息的长文长图,MiniCPM-Llama3-V 2.5 一字不差地识别出了全文。
再给一张要翻阅好几屏的图文复杂交错的长图难图长文本,MiniCPM-Llama3-V 2.5 也能精准给出正确的回答。
再输入一张手机拍摄的火车票,MiniCPM-Llama3-V 2.5 也能准确提取信息,给出无误的"json"格式输出。
最后,面壁是开源社区的热心贡献者,也是受益者。本次 MiniCPM-Llama3-V 2.5 的飞跃表现依托于面壁团队对多模态技术的创新打磨,更离不开 Llama3-8B-Instruct 作为基座模型的性能基础。
感谢世界优秀同行的卓越工作,令我们站在彼此的肩膀上,伸手摘星,指向更高、更璀璨的科学无垠之处。
我们也将持续回报社区,开源更多优秀模型、数据、infra 工具等,将开源开放的星火播撒世界协作创新之苍穹。
➤ MiniCPM-Llama3-V 2.5 开源地址:
https://github.com/OpenBMB/MiniCPM-V
➤ MiniCPM 系列开源地址:
https://github.com/OpenBMB/MiniCPM
➤ Hugging Face 下载地址:
https://huggingface.co/openbmb/MiniCPM-Llama3-V-2_5