详情介绍
面壁智能成立于2022年8月,核心团队源自清华大学自然语言处理实验室(THUNLP),是我国最早从事大模型研究的团队之一。公司的核心理念是“把大模型放到离用户最近的地方”,专注于端侧AI(On-Device AI)的研发,致力于解决大模型在资源受限设备上的高效部署问题。
面壁智能以“高效为第一性原理”,提出了“面壁定律”——模型能力密度随时间呈指数级增强,实现特定智能水平所需的参数量每3.3个月下降一半。这一理念指引着团队持续提升大模型的“制程”,用更小的参数实现更强的性能。
公司产品线围绕端侧场景构建:
-
MiniCPM系列:旗舰级端侧语言模型,以小博大,性能卓越。
-
MiniCPM-V系列:端侧多模态模型,支持图像、视频、语音的实时流式理解与交互。
-
AgentCPM系列:为智能体任务设计的模型,具备强大的长程规划和工具调用能力。
-
Eurux系列:面向复杂推理的大模型,支持超长上下文。
面壁智能已与华为、龙芯、知乎、小米等企业达成合作,模型在智能手机、智能座舱、具身机器人、法律AI等场景实现商业化落地。公司已完成数亿元融资,投资方包括华为哈勃、北京市人工智能产业投资基金、春华创投等顶级机构。
官网入口地址
面壁智能官方网站:https://modelbest.cn/
官方GitHub组织:https://github.com/OpenBMB(与清华OpenBMB社区共建)
Hugging Face组织:https://huggingface.co/openbmb
下载地址
面壁智能的所有模型均开源,可通过以下渠道获取:
-
GitHub:访问 https://github.com/OpenBMB ,选择对应模型仓库(如MiniCPM-o、AgentCPM等)克隆代码。
-
Hugging Face:访问 https://huggingface.co/openbmb ,直接下载模型权重文件。
-
ModelScope:访问 https://www.modelscope.cn/organization/OpenBMB ,适合国内用户快速下载。
详细部署教程可参考官方飞书文档库:https://modelbest.feishu.cn/wiki/D2tFw8Pcsi5CIzkaHNacLK64npg
功能介绍
面壁智能的产品线围绕“端侧高效”展开,覆盖语言、多模态、智能体等多个维度:
-
1. MiniCPM系列:端侧语言模型“小钢炮”
MiniCPM是面壁智能的旗舰语言模型系列,以极小参数量实现顶级性能。:-
MiniCPM 2.4B:仅2.4B参数量,在多项评测中超越Mistral-7B、Llama2-13B等更大规模模型。支持CPU推理,int4量化后仅占2GB空间,可在老款手机上流畅运行。
-
MiniCPM 3.0:引入LLMxMapReduce长文本分帧处理技术,实现无限长度文本处理,Function Calling能力增强,可调用端上工具。
-
MiniCPM 4.0:首个原生稀疏架构模型,5%稀疏度加持,实现高效深思考。
-
-
2. MiniCPM-V系列:全模态端侧理解
这是业界领先的端侧多模态模型系列,支持图像、视频、音频的实时流式输入与理解。-
MiniCPM-V 2.6 / 4.5 / o4.5:支持“持续看、实时听、自然说”。模型采用全双工多模态实时流机制,可一边接收视频/音频输入,一边同步生成输出,实现即时自由对话和主动交互。,手机放在厨房能一边聊天一边盯着灶台,听到空气炸锅“叮”一声后主动提醒。
-
MiniCPM-V 4.5:8B参数,在视频理解、OCR、文档解析等任务上超越GPT-4o-latest和Qwen2.5-VL-72B。
-
技术突破:通过统一的3D-Resampler架构、分块采样强化学习等技术,实现高密度视频压缩和高效推理。
-
-
3. AgentCPM系列:端侧智能体
-
AgentCPM-Explore:仅4B参数,在GAIA、HLE等智能体评测基准上达到同尺寸SOTA,性能超越8B级模型,比肩30B级以上闭源模型(如在Xbench-DeepResearch中超越OpenAI-o3、Claude-4.5-Sonnet)。支持长程任务规划和多工具调用,适合部署于端侧完成复杂任务。
-
-
4. Eurux系列:超长上下文推理
-
Eurux-8x22B:专注复杂推理任务,支持64k上下文长度,在推理性能上超越Llama3,适合科研、法律等需要深度分析的场景。
-
-
5. 高效部署工具链
-
ArkInfer:跨平台高效部署系统,突破硬件壁垒,实现“一次开发,处处运行”。
-
CPM.cu:基于CUDA的轻量端侧推理框架,集成稀疏注意力、投机采样、模型量化等加速策略。
-
松果派(Pinea Pi):AI原生端侧智能开发板,与MiniCPM-o4.5配套推出,开箱即用,支持开发者快速构建端侧智能硬件。
-
-
6. 专业领域解决方案
-
法律AI:与合作,将大模型部署于专网,实现全流程AI赋能,辅助司法办案。
-
智能座舱:与车企合作,将端侧模型植入汽车,实现车载助手、语音交互等功能。
-
具身机器人:将MiniCPM模型植入人形机器人,作为机器人的“大脑”,接收指令并执行动作。
-
-
7. 开源生态与社区
面壁智能与清华大学、OpenBMB社区深度合作,开源了包括MiniCPM、AgentCPM在内的多个明星项目,以及模型评测框架(UltraEval-Audio)、强化学习加速策略等技术组件,推动大模型科学化发展。
应用场景
面壁智能的端侧模型因高效、低成本、隐私安全的特点,广泛应用于以下场景:
-
智能手机与可穿戴设备:在手机上运行离线AI助手,实现实时翻译、图像识别、文档分析等功能,无需联网,保护隐私。老款手机也能流畅运行。
-
智能汽车与座舱:作为车载AI大脑,实现语音控制、驾驶辅助、实时路况分析等,响应迅速,数据不出车。
-
具身智能与机器人:植入人形机器人,提供实时环境感知、任务规划和人机交互能力。
-
智能家居与IoT:在智能音箱、智能摄像头、可穿戴设备上实现本地智能,如厨房看火、老人看护、儿童陪伴等。
-
法律与公共安全:在专网内部署,辅助法官进行案件分析、文书生成,提升办案效率。
-
教育与科研:作为教学工具,帮助学生理解大模型原理;提供基座模型供科研人员二次开发。
-
企业知识库与客服:结合RAG技术,在端侧部署企业知识库问答系统,数据不出域,安全可控。
必要信息补充
-
定价与免费开源:面壁智能的所有模型均免费开源,遵循开源许可证(如Apache 2.0)。企业可直接下载使用,无需支付授权费。对于商业化部署,用户需自行承担硬件和运维成本。公司通过为企业提供定制化解决方案、技术支持和算力服务获得收入。
-
极致性价比:MiniCPM系列以极低成本著称。,int4量化版MiniCPM在骁龙855芯片上运行,处理170万tokens的成本仅约1元,仅为云端模型的1%。一张1080Ti显卡即可完成微调,大大降低开发门槛。
-
公司实力与融资:面壁智能已完成多轮融资,一轮(2025年5月)为数亿元人民币战略融资,投资方包括洪泰基金、国中资本、茅台基金等。股东阵容包括华为哈勃、北京市人工智能产业投资基金、知乎等产业资本,彰显在端侧AI赛道的领先地位。
-
团队背景:核心团队来自清华大学自然语言处理实验室,联合创始人刘知远为清华大学计算机系副教授。公司CEO李大海兼任知乎CTO。团队拥有深厚的技术积累和开源社区运营经验(OpenBMB)。
-
技术荣誉:MiniCPM-V系列多次登顶Hugging Face趋势榜,相关研究成果发表于《Nature Communications》子刊,入选“端侧智能北京市重点实验室”。
面壁智能常见问题
面壁智能是由北京面壁智能科技有限责任公司开发的。这是一家清华系的人工智能大模型公司,核心团队来自清华大学自然语言处理实验室,专注于端侧AI和高能效大模型的研发。
面壁智能的官方网站是 https://modelbest.cn/ 如果你想下载开源模型或查看代码,可以访问GitHub组织(github.com/OpenBMB)或Hugging Face页面(huggingface.co/openbmb)。
“小钢炮”是面壁智能对MiniCPM系列模型的昵称。这个系列的特点是“参数量小、性能强”--用远小于主流模型的参数量(比如2.4B、4B、8B),实现比肩甚至超越数十亿甚至上百亿参数模型的性能。它们专门为手机、汽车、机器人等终端设备设计,可以在不联网、资源有限的情况下高效运行。
当然可以,而且这正是它们的强项。你可以通过几个步骤使用: 去Hugging Face或ModelScope搜索“openbmb/MiniCPM”,下载模型权重。 使用官方提供的推理框架(如CPM.cu、MLC-LLM)进行部署。 官方提供了详细的“喂饭级入门教程”,教你如何在Linux服务器、Mac甚至安卓手机上运行。 如果你不想自己动手,也可以直接使用基于这些模型开发的App(如某些集成MiniCPM的第三方应用)。
面壁智能的所有模型都是免费开源的,无论是个人研究还是商业使用,都可以直接下载,无需支付授权费。公司的商业模式主要是为企业提供技术解决方案、定制开发和算力服务。
面壁智能主攻端侧AI,这意味着模型是在你自己的设备上本地运行的,数据不需要上传到云端。这对于隐私敏感的场景(如医疗、法律、个人聊天)来说,安全性是的。同时,公司积极参与开源社区,模型代码和权重公开透明,便于安全审计。
有几点经验分享: 第一,如果你要在手机上部署,记得用int4量化版本,模型体积能压缩75%,性能几乎无损,老手机也能跑。 第二,如果你做多模态应用,可以试试MiniCPM-o4.5的全双工实时流功能,它支持边看边听边说,能做出很自然的交互。 第三,对于需要长文档处理的任务,用MiniCPM 3.0及以上版本,它的LLMxMapReduce技术可以实现无限长度文本理解。
它的特色主要集中在端侧多模态和智能体方面: MiniCPM-V系列支持“持续看、实时听、主动说”,比如你可以用手机对着厨房,AI就能一边聊天一边帮你看着火,听到“叮”一声主动提醒你。 AgentCPM-Explore虽然只有4B参数,但能做复杂的智能体任务(比如多步规划、调用工具),性能甚至超越了OpenAI的某些闭源模型。 法律AI已经在专网部署,辅助司法办案,这是非常落地的行业应用。
面壁智能的模型不直接生成PPT或视频文件,但你可以利用它们来辅助创作: 生成PPT内容:让MiniCPM帮你写一份PPT大纲、每一页的要点,甚至生成图表描述,你再复制到PowerPoint里。 生成视频素材:用MiniCPM-V的多模态能力,可以实时理解视频画面并生成解说词或字幕。 创意辅助:让它帮你构思视频脚本、分镜头描述。 如果需要生成最终的视频文件,可以结合他专门的视频生成工具。
不同版本支持的长度不同。早期的MiniCPM-2B支持常规的上下文长度。MiniCPM 3.0通过LLMxMapReduce技术,实现了无限长度的文本处理能力,可以一次性处理整本书籍或海量聊天记录。的一些多模态模型也支持长视频流输入。具体每个模型的上下文窗口,可以查阅技术报告或GitHub页面。
| 分享笔记 (共有 篇笔记) |