范式智能

人工智能时代的领军软件企业

IP属地:北京
    • 范式智能范式智能
      ·03-30

      范式2025年财报|总营收人民币71.35亿元 同比增长35.6% 实现扭亏为盈

      今天(3月30日),范式发布2025年财报。财报显示,本期内(截至2025年12月31日),范式总营收人民币71.35亿元,较上年同期实现高速增长,增幅约为35.6%;经调整归母净利润为人民币1784万元,实现扭亏为盈,公司在经营效益、业务模式与发展韧性上得到三重提升。 值得一提的是,2025年也是公司发展极具里程碑意义的一年,这年,公司完成了从“第四范式”到“范式集团”的全面战略升级,实现了从企业级AI平台向全栈AI生态的全面跨越,AI Platform、API及Agentic AI三大核心业务板块协同发力,分别实现营收人民币65.52亿元、0.8亿元及5.03亿元,同比增幅分别为32%、129.2%及93.2%。此次业绩突破,体现出范式长期坚持的AI发展理念与战略判断的准确性,并表现出公司对行业发展的前瞻性视野与长期价值创造能力。 2025年,AI Platform、API及Agentic AI三大核心业务板块形成多轮驱动、相互赋能的全新增长格局,共同推动公司实现高质量发展。 AI Platform持续成为业务增长核心驱动力 受益于国产化替代需求持续旺盛及“AI+”行动的推动,AI Platform作为公司核心业务板块,凭借全栈式产品体系与领先的市场地位,实现算力业务与平台的深度协同,降低客户AI落地门槛;同时,依托完善的技术体系与核心客户资源,有效拉动公司业绩提升,为全年盈利突破提供有力支撑。 产品层面,公司持续推进技术迭代升级,重点聚焦ModelHub XC、HAMi vGPU、PhanthyCloud三大核心产品: • PhanthyCloud作为全栈式AI PaaS云服务的核心载体,致力于整合各类AI能力,为客户提供便捷、高效的云端AI服务。目前,PhanthyCloud已实现与ModelHub XC、HAMi vGPU的无缝对接,可输出模型适配、算力调度等核心
      2.53万评论
      举报
      范式2025年财报|总营收人民币71.35亿元 同比增长35.6% 实现扭亏为盈
    • 范式智能范式智能
      ·03-27

      范式推出OpenClaw MINI PC|本地运行大模型 开箱即用的AI智能体主机

      今日,范式推出全新硬件产品——范式OpenClaw MINI PC,为用户提供高性能、本地化的AI智能体运行解决方案,实现“开箱即用”,直击开发者搭建AI智能体时面临的硬件溢价缺货、环境配置复杂、云端隐私与成本高三大核心痛点,以预装就绪、本地推理、零Token消耗的技术优势,提供一站式本地部署方案。 普通OpenClaw(龙虾)vs 范式OpenClaw MINI PC 普通OpenClaw(龙虾)自身无足够算力,核心计算必须频繁调用云端大模型API,每一步推理、每一次工具调用都要消耗Token、产生持续费用;而范式OpenClaw MINI PC自带强劲本地算力,大模型全本地运行,绝大多数AI计算无需调用云端API,真正实现零Token消耗。 简单说:云端部署像“租房子”,按月付费、按需使用,但数据不在自己手里,缺乏自主控制权;本地部署像“买房子”,一次投入即可终身使用,数据完全自主可控,无需依赖外部网络。 核心突破:本地跑大模型,零Token成本 范式OpenClaw MINI PC是面向OpenClaw项目打造的桌面级迷你主机,核心优势在于预装就绪、本地推理、零Token消耗,支持最高32B参数规模大模型本地运行(如Qwen3.5-9B、Qwen3.5-27B等)。 产品采用先进的异构计算架构,将独立GPU与Intel Core Ultra处理器的多核心单元协同调度,构建统一计算资源池,让不同AI任务自动分配至最适合的硬件单元,在优化能效与推理速度的同时,轻松驾驭大参数量模型的实时推理与微调。 由于OpenClaw框架与主流模型权重已预装完成,用户无需代码调试与环境配置,开机即可使用;内置50余款技能插件,涵盖开发、办公、数据分析等场景,用户可根据需求灵活切换模型,无需额外硬件投入。产品还提供多种配置版本,可选配板载加密芯片,支持国密算法,满足金融、医疗、政务等敏感行
      2.66万评论
      举报
      范式推出OpenClaw MINI PC|本地运行大模型 开箱即用的AI智能体主机
    • 范式智能范式智能
      ·03-25

      信创模盒ModelHub XC|适配认证突破30000个 深度攻克大模型部署工程瓶颈

      近日,范式 $范式智能(06682)$ 宣布旗下信创模盒ModelHub XC累计完成的信创算力适配认证模型数量突破30000个。自2025年9月上线至今,6个月内实现从100到30000的规模化跨越,近14天新增适配5,000个,信创模盒在异构算力环境下的标准化适配与工程化能力不断提高,紧密联系起国产芯片与主流算法框架,为开发者提供开箱即用的国产算力部署方案。 算力覆盖:9家主流芯片厂商完成系统级适配 信创模盒已完成对国内9家核心加速芯片厂商的系统级优化,包括: ****(Ascend 910-B3/B4)、摩尔线程(MTT S4000)、海光(Hygon K100-AI)、沐曦(MetaX C-500)、天数智芯(Iluvatar BI/BI-150/MRV-100)、寒武纪(MLU370-X4/X8)、曦望(Sunrise PT-200)、昆仑芯(Kunlunxin R200-8F/P-800)、壁仞(Biren 166M)等。 上述芯片已支持从基础NLP任务到多模态大模型的稳定运行,算子库覆盖率达95%以上。 生态协作:3家新增厂商启动批量适配 近期,曦望(Sunrise)与壁仞(Biren)已启动批量适配流程,通过信创模盒标准化测试套件加速产品商业化部署。瀚博半导体(VastaiTech)已启动前期对接,双方围绕底层软硬件接口对齐与推理引擎优化展开合作。 "先导合作+批量加速"模式有助于持续引入前沿硬件算力,丰富用户选择。 技术攻坚:智谱GLM-5完成异构算力部署验证 在30000余项适配任务中,智谱大模型GLM-5在国产异构算力上的部署具有代表性。国产芯片驱动、固件版本与大模型软件栈(如PyTorch、vLLM)之间存在版本依赖,团队在环境解耦与内核调优上进行了系统性投入。 模型量
      2.67万评论
      举报
      信创模盒ModelHub XC|适配认证突破30000个 深度攻克大模型部署工程瓶颈
    • 范式智能范式智能
      ·03-25

      范式亮相KCD Beijing 2026:持续引领DRA技术演进,推动GPU调度从"可用"走向"好用"

      2026年3月21日,由CNCF云原生计算基金会发起的Kubernetes Community Days(KCD)北京站与vLLM社区年度盛会vLLM2026在北京圆满落幕。本次大会由KCD Beijing社区与vLLM社区联合主办,是云原生与AI基础设施领域的深度共创盛宴。 来自AWS、阿里巴巴、Red Hat、字节跳动、蚂蚁集团、月之暗面、Kong、DaoCloud等顶尖科技企业的技术专家齐聚一堂,围绕AI、vLLM与Cloud Native三大主题展开前沿分享。范式与蜜瓜智能联合带来的技术演讲《从Device Plugin到 DRA:GPU调度范式升级与HAMi DRA实践》成为Cloud Native分会场的焦点议题,系统展示了范式在Kubernetes动态资源分配(DRA)方向上的持续深耕与最新进展。 早在Kubernetes v1.35正式发布前,范式就已率先完成HAMi-Core与DRA的深度适配,推出GPU动态资源驱动(DRA Driver),成为国内最早将DRA推向生产实践的技术团队之一。这一成果解决了GPU虚拟化与DRA架构融合的关键难题,包括 libvgpu.so动态注入、环境变量配置、临时目录管理等,让"GPU像CPU一样灵活共享与调度"从概念走向现实。 近半年来,范式持续迭代该技术路线。此次KCD Beijing首次公开HAMi DRA Webhook自动化机制:用户只需沿用熟悉的nvidia.com/gpu、nvidia.com/gpumem等传统资源声明,系统即可自动转换为复杂的DRA ResourceClaim配置,将"写 50 行 YAML"简化为"写 3 行配置",实现从"专家可用"到"全员易用"的跨越。 未来,范式将持续完善HAMi DRA能力:近期对齐HAMi Device Plugin的 ConfigMap配置能力;中期增强 NUM
      7.89万评论
      举报
      范式亮相KCD Beijing 2026:持续引领DRA技术演进,推动GPU调度从"可用"走向"好用"
    • 范式智能范式智能
      ·03-23

      范式先知AIOS关键模块升级:以本体论重塑企业数据生产力

      近日,范式宣布对其核心产品——先知AIOS数据融合平台的关键模块Ontology完成架构升级。此次更新深度融合AI Agent(智能体)技术,旨在将企业中原本分散、异构的数据资源,转化为可直接运营的业务对象。这一变革推动数据在企业中的角色从传统的“静态分析素材”跃迁为“动态决策依据”。在范式的新架构下,数据不再仅仅是报表上冰冷的数字,而是能够自主执行、驱动业务增长的活跃生产力。 当前,全球企业的数智化转型已进入深水区,传统数据平台普遍面临三大挑战:各系统间数据无法互通,导致决策依据碎片化、不完整;同一概念在不同系统中定义不一,业务人员难以理解技术数据;分析结果需人工介入才能执行,极易错失关键业务时机。随着AI Agent技术的普及,市场对数据提出了更高要求:统一语义、实时可用、自主执行。这些问题的本质,是数据与业务之间的语义断裂——数据被存储、被分析,却无法直接驱动行动。作为企业自主决策中枢的关键支撑,本体论(Ontology)技术正成为破解行业痛点、加速数智化升级的核心路径。此次Ontology的架构升级,正是针对上述挑战提供的一套系统性解决方案。 Ontology数据融合平台全面落地本体论的三层架构,实现同源治理与业务对象化能力,将分散、异构、孤立的数据,统一转化为可理解、可关联、可运营的核心业务资产。在语义层,统一企业数据语言,消除跨系统术语差异,底层技术字段被精准映射为贴合业务场景的具象对象,使业务人员无需技术背景即可直接读懂并使用数据。在动力层,构建业务关系网络,确保数据实时同步,跨部门数据自动联动,大幅降低人工协调成本,持续保障数据的一致性与完整性。在动态层,叠加业务规则与AI模型,实现“数据触发行动”的闭环运营,从“分析后决策”转向“数据自动执行”,业务响应速度实现质的飞跃。三层架构的核心价值在于,真正让数据“能干活”。 立足国内重点行业的实际诉求,Ontol
      2.63万评论
      举报
      范式先知AIOS关键模块升级:以本体论重塑企业数据生产力
    • 范式智能范式智能
      ·03-11

      范式+瀚博|HAMi支持调度瀚博加速卡 助力国产AI算力落地

      近日,由范式主导并参与开源的异构算力管理项目HAMi迎来最新进展——正式实现对瀚博半导体旗下加速卡的全面支持。这意味着,用户在Kubernetes集群中部署瀚博AI加速卡时,可通过HAMi统一调度与管理算力资源,大幅提升国产异构芯片的使用效率与灵活性。 此次HAMi完成对瀚博加速卡的支持,实现了国产算力芯片与主流云原生开源工具的深度融合。通过在Kubernetes环境中部署HAMi Vastai Device Plugin,用户能够像管理GPU一样,轻松实现瀚博加速卡的资源上报、分配与管理。 关于HAMi vGPU 以前,企业想用国产AI加速卡,需要找专人配置管理。现在有了HAMi vGPU,就像多了一个"智能管家",它能: 自动管理:多少张卡、谁在用,一目了然 随取随用:像租共享单车一样,声明一下就能用 灵活分配:一台机器可以同时跑多个任务,互不干扰 像用GPU一样调度瀚博加速卡:在完成HAMi及相关插件的部署后,用户仅需在Pod中通过简单的资源声明,即可实现对瀚博加速卡的使用,以下是一个简单的使用示例:  本次更新不仅丰富了HAMi的硬件生态,也为广大开发者和企业用户提供了更多元的国产算力选择。未来,HAMi将持续优化对不同厂商加速卡的支持,推动云原生环境下的异构计算走向标准化与通用化。 详见:https://github.com/Project-HAMi/HAMi/blob/master/docs/vastai-support_cn.md 关于范式 范式集团( $06682(06682)$ )是全球领先的通用人工智能科技公司,以"AI for everyone"为使命。HAMi作为范式主导并参与开源的异构算力管理项目,已成为CNCF沙箱项目,致力于实现GPU/NPU等异构算力的
      2.68万评论
      举报
      范式+瀚博|HAMi支持调度瀚博加速卡 助力国产AI算力落地
    • 范式智能范式智能
      ·03-10

      消费电子|智能穿戴接入OpenClaw “云端-终端”AI闭环实现本地化任务自动执行

      今天(3月10日),范式旗下消费电子板块范式领航宣布,其智能穿戴设备(包括AI眼镜、AI耳机等)正式接入开源AI代理框架OpenClaw。用户仅需通过语音或文字指令,即可用搭载范式智能模组的智能穿戴设备,自动完成各类复杂任务——例如将桌面文件转换格式并发送指定邮箱,或调用AI生成一周日程安排后再截图回传至随身设备。 这一能力打破了空间限制,让用户可以轻松获取“离身”文件,解决临时远程办公中“设备在手、文件在家”的核心痛点;实现了复杂计算任务从随身设备转移至桌面端运行,既释放穿戴设备的算力负载,又充分利用桌面级计算资源,实现端云任务的智能分发与协同。AI助理由此真正实现“随身随行、所想即得”,在保障数据隐私安全的同时,显著优化使用成本,让高效办公与隐私保护兼得。 关于OpenClaw:是当前备受瞩目的开源AI代理框架,它能够理解复杂指令,通过调用大语言模型的推理能力,在本地自动执行电脑操作任务,如文件整理、邮件发送、浏览器控制等。自发布以来,OpenClaw凭借GitHub超24万星标及隐私安全优势,已成为开发者首选框架。 此次接入是范式"云端-终端"AI生态的关键一环。此前,范式PhanthyCloud平台已于3月2日接入OpenClaw,本次消费电子端落地,使用户无需依赖云端,即可在本地执行复杂任务(如隐私敏感的文件操作),真正实现“AI助理随身化+普惠体验”,解决隐私与成本双重痛点。 未来,范式将持续探索AI能力与终端硬件的深度融合,包括在硬件层面优化本地算力与本地大模型的应用,进一步降低用户使用成本,让前沿技术更自然地融入日常。 范式集团( $06682(06682)$ )是全球领先的通用人工智能科技公司,以“AI for everyone”为使命,致力于用“AI agent+世界模型”
      2.67万评论
      举报
      消费电子|智能穿戴接入OpenClaw “云端-终端”AI闭环实现本地化任务自动执行
    • 范式智能范式智能
      ·03-09

      范式+兴业银行|持续合作 深化智能风控共建

      日前,范式与兴业银行续签合作,标志着双方在金融风控领域的长期合作迈入新阶段。作为多年来的紧密合作伙伴,双方自早期即围绕反欺诈、信用评估等核心场景展开深度协作。此次续约,将进一步聚焦风控系统的智能化升级,依托范式前沿的“AI Agent + 世界模型”技术路线,共同打造更动态、可解释、高响应的风险决策体系。 范式长期深耕金融行业风控场景,已累计服务超300家金融机构,在反欺诈、信用评估、合规监控等环节落地逾千个AI应用。基于对银行业务逻辑的深刻理解,范式将结合兴业银行的实际需求,推动风险识别精度与处置效率的持续提升,助力其在复杂市场环境中筑牢安全防线。 兴业银行作为中国首批股份制商业银行之一,始终走在金融科技创新前列。近年来,兴业银行积极布局智能风控、绿色金融等战略方向,不断强化科技赋能业务的能力。此次与范式的再度携手,彰显其对AI驱动风险管理转型的高度关注。 作为通用人工智能领域的领先企业,范式集团( $06682(06682)$ )自2014年成立以来,始终致力于通过“AI for Everyone”的使命,推动AI技术与产业场景深度融合。2025年完成集团化升级后,公司已形成涵盖企业服务(第四范式)、大模型与AGI(万神殿)、智慧能源(范式方舟)等多元业务矩阵,累计在金融、零售、医疗等领域落地超10,000个AI应用。
      2.63万评论
      举报
      范式+兴业银行|持续合作 深化智能风控共建
    • 范式智能范式智能
      ·03-06

      信创模盒ModelHub XC适配模型25000+ 完成智谱GLM-5模型部署

      今天,范式旗下信创模盒ModelHub XC完成智谱GLM-5模型在天数智芯天垓150上的部署与验证,并将于近日上线。同时,平台上模型的适配认证数量已超过25000个。 GLM-5在国产硬件上的部署实践 本次部署以GLM-5-INT4-Pack8量化模型为核心,依托Docker容器化技术,采用vLLM推理框架,并启用pipeline-parallel与tensor-parallel分布式并行策略,最终对外提供标准OpenAI Chat Completions API服务。 部署过程中,通过INT4量化技术对模型权重压缩,降低显存占用,并用Pack8技术提升访存效率与计算吞吐。推理层面采用vLLM框架的显存管理技术与迭代级动态调度机制,减少显存碎片,实现请求级的持续批处理。同时结合张量并行与流水线并行,在多卡环境下进行计算与通信重叠。 此次部署验证了国产天数智芯硬件与大模型主流推理框架的深度适配性,实现从模型量化、容器化封装到高性能推理的全链路自主可控,为后续基于信创环境的AI应用开发提供可靠的技术范式。 平台生态协同突破:适配模型数量突破25000个 截至目前,信创模盒ModelHub XC已完成超过25000个大模型的适配认证,覆盖**、摩尔线程、天数智芯、海光等主流国产芯片。其中,**系列累计适配模型超过13000个,摩尔线程MTT S4000等芯片适配模型超过6000个,天数智芯系列适配模型突破3000个,海光AI加速卡适配模型超过1500个。 模型架构层面,平台已完成对Qwen2、GLM-4、DeepSeek-V2、Llama3、InternLM2等最新一代模型体系的适配,支持多模态、长文本、强化推理等能力。 未来,范式将持续进行模型推理性能的优化,推进信创硬件与AI框架的适配工作。 $范式智
      2.75万评论
      举报
      信创模盒ModelHub XC适配模型25000+ 完成智谱GLM-5模型部署
    • 范式智能范式智能
      ·03-04

      范式+江苏电力|共建异构算力云管理平台 赋能能源数字化转型新引擎

      日前,范式与江苏电力达成战略合作,启动“面向异构算力的一体化研发云管理平台”研发项目。此次合作是范式在智慧能源领域的又一重要落地,旨在通过深度融合前沿AI技术与电力业务场景,打造统一、高效的算力底座,为电力的数字化转型提供技术支撑。 随着电力数字化进程的加速,多样化的业务场景对算力资源提出了更高要求,CPU、GPU、NPU等不同架构的算力设备并存往往导致资源分散、调度困难及管理复杂。通过合作,双方将联合建设统一的云管理平台,打破硬件壁垒,将不同架构的算力资源统一纳入平台管理,实现资源的“一本账”调度,让算力像水电一样即取即用。平台将通过标准化模板与自动化流水线,实现研发环境的分钟级交付,彻底替代传统的人工手动配置,并覆盖从资源申请、开发测试、部署上线到回收释放的全流程闭环管理,确保每一份算力资源都物尽其用,将从效率、成本与创新三个维度带来显著的提质增效。 江苏电力是江苏省主要的电力供应与服务单位,负责全省电网的规划、建设、运营和能源服务。公司长期致力于电力系统的安全稳定运行、清洁能源消纳与数字化转型,为区域经济发展提供可靠的能源保障与技术支撑。 范式智能技术集团股份有限公司 $范式智能(06682)$ 是全球领先的通用人工智能科技公司,以“AI for everyone”为使命,致力于用“AI agent+世界模型”的技术路线赋能千行万业。公司成立于2014年,于2025年实现集团化,下设企业服务、消费电子、智慧能源、智慧体育等业务板块。截至目前,公司已在金融、零售、医疗等领域成功落地超 10000+个AI应用,始终致力于推动AI普惠,助力企业实现可持续增长。
      2.68万评论
      举报
      范式+江苏电力|共建异构算力云管理平台 赋能能源数字化转型新引擎
       
       
       
       

      热议股票