功能介绍
评论列表

详情介绍

面壁智能成立于2022年8月,核心团队源自清华大学自然语言处理实验室(THUNLP),是我国最早从事大模型研究的团队之一。公司的核心理念是“把大模型放到离用户最近的地方”,专注于端侧AI(On-Device AI)的研发,致力于解决大模型在资源受限设备上的高效部署问题。

面壁智能以“高效为第一性原理”,提出了“面壁定律”——模型能力密度随时间呈指数级增强,实现特定智能水平所需的参数量每3.3个月下降一半。这一理念指引着团队持续提升大模型的“制程”,用更小的参数实现更强的性能。

公司产品线围绕端侧场景构建:

  • MiniCPM系列:旗舰级端侧语言模型,以小博大,性能卓越。

  • MiniCPM-V系列:端侧多模态模型,支持图像、视频、语音的实时流式理解与交互。

  • AgentCPM系列:为智能体任务设计的模型,具备强大的长程规划和工具调用能力。

  • Eurux系列:面向复杂推理的大模型,支持超长上下文。

面壁智能已与华为、龙芯、知乎、小米等企业达成合作,模型在智能手机、智能座舱、具身机器人、法律AI等场景实现商业化落地。公司已完成数亿元融资,投资方包括华为哈勃、北京市人工智能产业投资基金、春华创投等顶级机构。

官网入口地址

面壁智能官方网站:https://modelbest.cn/
官方GitHub组织:https://github.com/OpenBMB(与清华OpenBMB社区共建)
Hugging Face组织:https://huggingface.co/openbmb

下载地址

面壁智能的所有模型均开源,可通过以下渠道获取:

  1. GitHub:访问 https://github.com/OpenBMB ,选择对应模型仓库(如MiniCPM-o、AgentCPM等)克隆代码。

  2. Hugging Face:访问 https://huggingface.co/openbmb ,直接下载模型权重文件。

  3. ModelScope:访问 https://www.modelscope.cn/organization/OpenBMB ,适合国内用户快速下载。

详细部署教程可参考官方飞书文档库:https://modelbest.feishu.cn/wiki/D2tFw8Pcsi5CIzkaHNacLK64npg 

功能介绍

面壁智能的产品线围绕“端侧高效”展开,覆盖语言、多模态、智能体等多个维度:

  • 1. MiniCPM系列:端侧语言模型“小钢炮”
    MiniCPM是面壁智能的旗舰语言模型系列,以极小参数量实现顶级性能。:

    • MiniCPM 2.4B:仅2.4B参数量,在多项评测中超越Mistral-7B、Llama2-13B等更大规模模型。支持CPU推理,int4量化后仅占2GB空间,可在老款手机上流畅运行。

    • MiniCPM 3.0:引入LLMxMapReduce长文本分帧处理技术,实现无限长度文本处理,Function Calling能力增强,可调用端上工具。

    • MiniCPM 4.0:首个原生稀疏架构模型,5%稀疏度加持,实现高效深思考。

  • 2. MiniCPM-V系列:全模态端侧理解
    这是业界领先的端侧多模态模型系列,支持图像、视频、音频的实时流式输入与理解。

    • MiniCPM-V 2.6 / 4.5 / o4.5:支持“持续看、实时听、自然说”。模型采用全双工多模态实时流机制,可一边接收视频/音频输入,一边同步生成输出,实现即时自由对话和主动交互。,手机放在厨房能一边聊天一边盯着灶台,听到空气炸锅“叮”一声后主动提醒。

    • MiniCPM-V 4.5:8B参数,在视频理解、OCR、文档解析等任务上超越GPT-4o-latest和Qwen2.5-VL-72B。

    • 技术突破:通过统一的3D-Resampler架构、分块采样强化学习等技术,实现高密度视频压缩和高效推理。

  • 3. AgentCPM系列:端侧智能体

    • AgentCPM-Explore:仅4B参数,在GAIA、HLE等智能体评测基准上达到同尺寸SOTA,性能超越8B级模型,比肩30B级以上闭源模型(如在Xbench-DeepResearch中超越OpenAI-o3、Claude-4.5-Sonnet)。支持长程任务规划和多工具调用,适合部署于端侧完成复杂任务。

  • 4. Eurux系列:超长上下文推理

    • Eurux-8x22B:专注复杂推理任务,支持64k上下文长度,在推理性能上超越Llama3,适合科研、法律等需要深度分析的场景。

  • 5. 高效部署工具链

    • ArkInfer:跨平台高效部署系统,突破硬件壁垒,实现“一次开发,处处运行”。

    • CPM.cu:基于CUDA的轻量端侧推理框架,集成稀疏注意力、投机采样、模型量化等加速策略。

    • 松果派(Pinea Pi):AI原生端侧智能开发板,与MiniCPM-o4.5配套推出,开箱即用,支持开发者快速构建端侧智能硬件。

  • 6. 专业领域解决方案

    • 法律AI:与合作,将大模型部署于专网,实现全流程AI赋能,辅助司法办案。

    • 智能座舱:与车企合作,将端侧模型植入汽车,实现车载助手、语音交互等功能。

    • 具身机器人:将MiniCPM模型植入人形机器人,作为机器人的“大脑”,接收指令并执行动作。

  • 7. 开源生态与社区
    面壁智能与清华大学、OpenBMB社区深度合作,开源了包括MiniCPM、AgentCPM在内的多个明星项目,以及模型评测框架(UltraEval-Audio)、强化学习加速策略等技术组件,推动大模型科学化发展。

应用场景

面壁智能的端侧模型因高效、低成本、隐私安全的特点,广泛应用于以下场景:

  • 智能手机与可穿戴设备:在手机上运行离线AI助手,实现实时翻译、图像识别、文档分析等功能,无需联网,保护隐私。老款手机也能流畅运行。

  • 智能汽车与座舱:作为车载AI大脑,实现语音控制、驾驶辅助、实时路况分析等,响应迅速,数据不出车。

  • 具身智能与机器人:植入人形机器人,提供实时环境感知、任务规划和人机交互能力。

  • 智能家居与IoT:在智能音箱、智能摄像头、可穿戴设备上实现本地智能,如厨房看火、老人看护、儿童陪伴等。

  • 法律与公共安全:在专网内部署,辅助法官进行案件分析、文书生成,提升办案效率。

  • 教育与科研:作为教学工具,帮助学生理解大模型原理;提供基座模型供科研人员二次开发。

  • 企业知识库与客服:结合RAG技术,在端侧部署企业知识库问答系统,数据不出域,安全可控。

必要信息补充

  • 定价与免费开源:面壁智能的所有模型均免费开源,遵循开源许可证(如Apache 2.0)。企业可直接下载使用,无需支付授权费。对于商业化部署,用户需自行承担硬件和运维成本。公司通过为企业提供定制化解决方案、技术支持和算力服务获得收入。

  • 极致性价比:MiniCPM系列以极低成本著称。,int4量化版MiniCPM在骁龙855芯片上运行,处理170万tokens的成本仅约1元,仅为云端模型的1%。一张1080Ti显卡即可完成微调,大大降低开发门槛。

  • 公司实力与融资:面壁智能已完成多轮融资,一轮(2025年5月)为数亿元人民币战略融资,投资方包括洪泰基金、国中资本、茅台基金等。股东阵容包括华为哈勃、北京市人工智能产业投资基金、知乎等产业资本,彰显在端侧AI赛道的领先地位。

  • 团队背景:核心团队来自清华大学自然语言处理实验室,联合创始人刘知远为清华大学计算机系副教授。公司CEO李大海兼任知乎CTO。团队拥有深厚的技术积累和开源社区运营经验(OpenBMB)。

  • 技术荣誉:MiniCPM-V系列多次登顶Hugging Face趋势榜,相关研究成果发表于《Nature Communications》子刊,入选“端侧智能北京市重点实验室”。

面壁智能常见问题

本文标签