范式智能

范式智能(6682.HK),领先的全栈AI云服务平台。

IP属地:北京
    • 范式智能范式智能
      ·04-17

      范式华东总部迎国际投资人团 共探AI2.0产业机遇与跨境合作

      近日,范式华东总部迎来由国际科技投资平台Tech Buzz China组织的国际商务考察团到访。考察团成员来自新加坡、印度、美国、荷兰等国家,涵盖家族办公室、影响力投资机构及专业投资顾问,此行旨在深入了解范式全栈式AI2.0生态系统,并就AI技术驱动产业变革的跨境合作机遇展开交流。 图片 图片 考察团一行首先参观了范式上海展厅,对公司在AI技术研发与商业化落地方面的实践进行了实地了解。随后,考察团与范式管理层围绕AI大模型、AI Agent、世界模型等前沿技术议题进行座谈。双方重点探讨了人工智能如何赋能金融、医疗、零售等行业的智能化转型路径。 图片 图片 参与本次交流的机构包括新加坡ASIAMIN Capital Advisors、美国TenCore Partners及荷兰Fourstones Advisors FZE等,上述机构在亚洲跨境资产配置、全球市场深度基本面投资及中东家族办公室多元资产组合管理等领域拥有多年实践。 交流期间,双方聚焦AI技术如何服务于产业的长期价值创造交换了具体看法,并一致认为,AI2.0阶段的核心价值在于通过技术普惠推动各行业实现可持续增长,跨境协作是释放这一潜力的关键路径之一。 图片 图片 Tech Buzz China是国际科技投资平台,专注中国AI等前沿领域,由马睿创立。通过研究、活动及播客《TechBuzz China》连接全球资本与创新者,推动跨境合作。 范式智能( $06682(06682)$ )是领先的全栈AI云服务平台,提供包括先知AIOS、HAMi vGPU、信创模盒等高效AI基础设施,具备从底层异构算力纳管优化到智能体模型调用的全栈能力,赋能千行百业智能化转型,并致力于在AI 2.0时代打造高效规模化的“Token工厂”。 范式以“AI for
      2.47万评论
      举报
      范式华东总部迎国际投资人团 共探AI2.0产业机遇与跨境合作
    • 范式智能范式智能
      ·04-13

      信创模盒ModelHub XC|适配认证模型突破40000大关 基于自动化引擎的规模化增长与算力兼容实践

      信创模盒ModelHub XC今日数据显示,已完成适配与认证的AI模型数量超过40000个。距离上次突破30000个的节点仅过去不到一个月,实现日均新增约330个,适配效率较上线初期提升超百倍。这一数据更新了目前国内信创模型库的规模情况,也反映出在国产算力与AI应用之间,中间层适配技术的推进状态,标准化适配能力日渐成熟。 40000个适配模型的数据构成 在信创产业推进过程中,硬件性能逐步提升的同时,上层应用生态的丰富度成为当前阶段关注的重点。信创模盒社区目前累积的40000余个适配模型,覆盖自然语言处理、计算机视觉、语音识别、大语言模型及多模态模型等多个技术方向。这些模型已在社区完成对主流国产算力平台的验证,为不同行业的数字化场景提供能够调用的资源储备。   适配方式的转变:从人工调试到EngineX自动化处理 信创AI应用部署在早期面临的一个具体问题,是不同国产芯片架构与开源模型框架之间的指令集差异。传统做法中,需要技术人员针对特定硬件手动进行算子适配与调试,单个模型的部署周期较长。 信创模盒上线初期,适配模型数量在数百个级别。随着底层适配工具EngineX的应用,模型适配流程由人工操作转向自动化处理,适配效率发生变化。社区数据显示,适配模型数量在随后数月内先后达到千级、万级规模,直至目前的40000余个。   对信创算力平台的覆盖范围 目前,信创模盒社区已支持的主流信创算力平台包括天数智芯、**、寒武纪、海光、昆仑芯、沐曦、曦望等。对于近期发布的模型版本,如DeepSeek V3.1、OpenAI开源版本、智谱GLM-5等,社区已同步完成适配与基础验证,开发者可在社区内查看相关兼容性信息。   提供全生命周期支持的服务平台 在适配模型数量增长的同时,信创模盒社区也在同步构建面向开发者与企业的服务支撑体系。社区目前提供的能力覆盖从底层引擎到上
      2.43万评论
      举报
      信创模盒ModelHub XC|适配认证模型突破40000大关 基于自动化引擎的规模化增长与算力兼容实践
    • 范式智能范式智能
      ·04-08

      OpenClaw漏洞警告!?范式PhanClaw构建安全可审计的Agent基础设施

      近期,OpenClaw曝出的安全漏洞,如同一记警钟,为追求效率的个人与企业敲响了警报:当Agent频繁调用核心业务接口时,数据“裸奔”往往成为效率提升背后不得不付出的沉重代价。这时,用户亟需在生产力释放与防线加固之间,找到那个极其微妙的平衡点。 范式PhanClaw,正是这一平衡的解法之一。作为PhanthyCloud生态中深植安全基因的Agent平台,PhanClaw从构思之初便将“安全受控”置于效率之前。它不只是一个部署方案,更是一套成熟的全场景智能体治理体系。依托低成本、高安全的特性,PhanClaw让AI Agent真正成为个人与企业可掌控、可信赖的生产力工具。 针对个人:隐私无忧的本地堡垒 对于个人用户,PhanClaw提供本地安全运行环境。通过进程隔离与数据加密技术,确保个人设备中的Agent行为完全可控,让交互不留隐私隐患。 针对企业:架构级的安全重构 企业版的安全理念与个人版一脉相承,但在架构层面更为严苛。PhanClaw与市面上大多数Agent工具的核心区别在于——强制企业内网私有化部署。 我们将Agent关进“安全的笼子”,从物理结构层面彻底规避数据暴露风险。 内网隔离 降低外部渗透风险:PhanClaw采用容器化或Kubernetes(K8s)方式部署于企业内网,构建严密的网络边界。外部流量通常无法直接触达运行中的实例,有助于从源头减少远程指令注入与系统被控的风险。 终端脱敏 访问边界清晰可见:Agent生成的内容、工具调用记录及对话历史均存储于服务端,与个人设备实现有效隔离。Agent不直接读取用户本地文件,用户也难以绕过系统直接接触服务器原始敏感数据。 全量审计 过程透明,治理有据:数据可持久化存储于企业自有挂载卷,IT审计团队可随时追溯Agent的历史操作与生成内容。这种“黑匣子”式的记录机制,有助于满足内容溯源与合规核查的硬性需求。 流转受控
      2.65万评论
      举报
      OpenClaw漏洞警告!?范式PhanClaw构建安全可审计的Agent基础设施
    • 范式智能范式智能
      ·03-30

      范式2025年财报|总营收人民币71.35亿元 同比增长35.6% 实现扭亏为盈

      今天(3月30日),范式发布2025年财报。财报显示,本期内(截至2025年12月31日),范式总营收人民币71.35亿元,较上年同期实现高速增长,增幅约为35.6%;经调整归母净利润为人民币1784万元,实现扭亏为盈,公司在经营效益、业务模式与发展韧性上得到三重提升。 值得一提的是,2025年也是公司发展极具里程碑意义的一年,这年,公司完成了从“第四范式”到“范式集团”的全面战略升级,实现了从企业级AI平台向全栈AI生态的全面跨越,AI Platform、API及Agentic AI三大核心业务板块协同发力,分别实现营收人民币65.52亿元、0.8亿元及5.03亿元,同比增幅分别为32%、129.2%及93.2%。此次业绩突破,体现出范式长期坚持的AI发展理念与战略判断的准确性,并表现出公司对行业发展的前瞻性视野与长期价值创造能力。 2025年,AI Platform、API及Agentic AI三大核心业务板块形成多轮驱动、相互赋能的全新增长格局,共同推动公司实现高质量发展。 AI Platform持续成为业务增长核心驱动力 受益于国产化替代需求持续旺盛及“AI+”行动的推动,AI Platform作为公司核心业务板块,凭借全栈式产品体系与领先的市场地位,实现算力业务与平台的深度协同,降低客户AI落地门槛;同时,依托完善的技术体系与核心客户资源,有效拉动公司业绩提升,为全年盈利突破提供有力支撑。 产品层面,公司持续推进技术迭代升级,重点聚焦ModelHub XC、HAMi vGPU、PhanthyCloud三大核心产品: • PhanthyCloud作为全栈式AI PaaS云服务的核心载体,致力于整合各类AI能力,为客户提供便捷、高效的云端AI服务。目前,PhanthyCloud已实现与ModelHub XC、HAMi vGPU的无缝对接,可输出模型适配、算力调度等核心
      2.58万评论
      举报
      范式2025年财报|总营收人民币71.35亿元 同比增长35.6% 实现扭亏为盈
    • 范式智能范式智能
      ·03-27

      范式推出OpenClaw MINI PC|本地运行大模型 开箱即用的AI智能体主机

      今日,范式推出全新硬件产品——范式OpenClaw MINI PC,为用户提供高性能、本地化的AI智能体运行解决方案,实现“开箱即用”,直击开发者搭建AI智能体时面临的硬件溢价缺货、环境配置复杂、云端隐私与成本高三大核心痛点,以预装就绪、本地推理、零Token消耗的技术优势,提供一站式本地部署方案。 普通OpenClaw(龙虾)vs 范式OpenClaw MINI PC 普通OpenClaw(龙虾)自身无足够算力,核心计算必须频繁调用云端大模型API,每一步推理、每一次工具调用都要消耗Token、产生持续费用;而范式OpenClaw MINI PC自带强劲本地算力,大模型全本地运行,绝大多数AI计算无需调用云端API,真正实现零Token消耗。 简单说:云端部署像“租房子”,按月付费、按需使用,但数据不在自己手里,缺乏自主控制权;本地部署像“买房子”,一次投入即可终身使用,数据完全自主可控,无需依赖外部网络。 核心突破:本地跑大模型,零Token成本 范式OpenClaw MINI PC是面向OpenClaw项目打造的桌面级迷你主机,核心优势在于预装就绪、本地推理、零Token消耗,支持最高32B参数规模大模型本地运行(如Qwen3.5-9B、Qwen3.5-27B等)。 产品采用先进的异构计算架构,将独立GPU与Intel Core Ultra处理器的多核心单元协同调度,构建统一计算资源池,让不同AI任务自动分配至最适合的硬件单元,在优化能效与推理速度的同时,轻松驾驭大参数量模型的实时推理与微调。 由于OpenClaw框架与主流模型权重已预装完成,用户无需代码调试与环境配置,开机即可使用;内置50余款技能插件,涵盖开发、办公、数据分析等场景,用户可根据需求灵活切换模型,无需额外硬件投入。产品还提供多种配置版本,可选配板载加密芯片,支持国密算法,满足金融、医疗、政务等敏感行
      2.72万评论
      举报
      范式推出OpenClaw MINI PC|本地运行大模型 开箱即用的AI智能体主机
    • 范式智能范式智能
      ·03-25

      信创模盒ModelHub XC|适配认证突破30000个 深度攻克大模型部署工程瓶颈

      近日,范式 $范式智能(06682)$ 宣布旗下信创模盒ModelHub XC累计完成的信创算力适配认证模型数量突破30000个。自2025年9月上线至今,6个月内实现从100到30000的规模化跨越,近14天新增适配5,000个,信创模盒在异构算力环境下的标准化适配与工程化能力不断提高,紧密联系起国产芯片与主流算法框架,为开发者提供开箱即用的国产算力部署方案。 算力覆盖:9家主流芯片厂商完成系统级适配 信创模盒已完成对国内9家核心加速芯片厂商的系统级优化,包括: ****(Ascend 910-B3/B4)、摩尔线程(MTT S4000)、海光(Hygon K100-AI)、沐曦(MetaX C-500)、天数智芯(Iluvatar BI/BI-150/MRV-100)、寒武纪(MLU370-X4/X8)、曦望(Sunrise PT-200)、昆仑芯(Kunlunxin R200-8F/P-800)、壁仞(Biren 166M)等。 上述芯片已支持从基础NLP任务到多模态大模型的稳定运行,算子库覆盖率达95%以上。 生态协作:3家新增厂商启动批量适配 近期,曦望(Sunrise)与壁仞(Biren)已启动批量适配流程,通过信创模盒标准化测试套件加速产品商业化部署。瀚博半导体(VastaiTech)已启动前期对接,双方围绕底层软硬件接口对齐与推理引擎优化展开合作。 "先导合作+批量加速"模式有助于持续引入前沿硬件算力,丰富用户选择。 技术攻坚:智谱GLM-5完成异构算力部署验证 在30000余项适配任务中,智谱大模型GLM-5在国产异构算力上的部署具有代表性。国产芯片驱动、固件版本与大模型软件栈(如PyTorch、vLLM)之间存在版本依赖,团队在环境解耦与内核调优上进行了系统性投入。 模型量
      2.72万评论
      举报
      信创模盒ModelHub XC|适配认证突破30000个 深度攻克大模型部署工程瓶颈
    • 范式智能范式智能
      ·03-25

      范式亮相KCD Beijing 2026:持续引领DRA技术演进,推动GPU调度从"可用"走向"好用"

      2026年3月21日,由CNCF云原生计算基金会发起的Kubernetes Community Days(KCD)北京站与vLLM社区年度盛会vLLM2026在北京圆满落幕。本次大会由KCD Beijing社区与vLLM社区联合主办,是云原生与AI基础设施领域的深度共创盛宴。 来自AWS、阿里巴巴、Red Hat、字节跳动、蚂蚁集团、月之暗面、Kong、DaoCloud等顶尖科技企业的技术专家齐聚一堂,围绕AI、vLLM与Cloud Native三大主题展开前沿分享。范式与蜜瓜智能联合带来的技术演讲《从Device Plugin到 DRA:GPU调度范式升级与HAMi DRA实践》成为Cloud Native分会场的焦点议题,系统展示了范式在Kubernetes动态资源分配(DRA)方向上的持续深耕与最新进展。 早在Kubernetes v1.35正式发布前,范式就已率先完成HAMi-Core与DRA的深度适配,推出GPU动态资源驱动(DRA Driver),成为国内最早将DRA推向生产实践的技术团队之一。这一成果解决了GPU虚拟化与DRA架构融合的关键难题,包括 libvgpu.so动态注入、环境变量配置、临时目录管理等,让"GPU像CPU一样灵活共享与调度"从概念走向现实。 近半年来,范式持续迭代该技术路线。此次KCD Beijing首次公开HAMi DRA Webhook自动化机制:用户只需沿用熟悉的nvidia.com/gpu、nvidia.com/gpumem等传统资源声明,系统即可自动转换为复杂的DRA ResourceClaim配置,将"写 50 行 YAML"简化为"写 3 行配置",实现从"专家可用"到"全员易用"的跨越。 未来,范式将持续完善HAMi DRA能力:近期对齐HAMi Device Plugin的 ConfigMap配置能力;中期增强 NUM
      7.95万评论
      举报
      范式亮相KCD Beijing 2026:持续引领DRA技术演进,推动GPU调度从"可用"走向"好用"
    • 范式智能范式智能
      ·03-23

      范式先知AIOS关键模块升级:以本体论重塑企业数据生产力

      近日,范式宣布对其核心产品——先知AIOS数据融合平台的关键模块Ontology完成架构升级。此次更新深度融合AI Agent(智能体)技术,旨在将企业中原本分散、异构的数据资源,转化为可直接运营的业务对象。这一变革推动数据在企业中的角色从传统的“静态分析素材”跃迁为“动态决策依据”。在范式的新架构下,数据不再仅仅是报表上冰冷的数字,而是能够自主执行、驱动业务增长的活跃生产力。 当前,全球企业的数智化转型已进入深水区,传统数据平台普遍面临三大挑战:各系统间数据无法互通,导致决策依据碎片化、不完整;同一概念在不同系统中定义不一,业务人员难以理解技术数据;分析结果需人工介入才能执行,极易错失关键业务时机。随着AI Agent技术的普及,市场对数据提出了更高要求:统一语义、实时可用、自主执行。这些问题的本质,是数据与业务之间的语义断裂——数据被存储、被分析,却无法直接驱动行动。作为企业自主决策中枢的关键支撑,本体论(Ontology)技术正成为破解行业痛点、加速数智化升级的核心路径。此次Ontology的架构升级,正是针对上述挑战提供的一套系统性解决方案。 Ontology数据融合平台全面落地本体论的三层架构,实现同源治理与业务对象化能力,将分散、异构、孤立的数据,统一转化为可理解、可关联、可运营的核心业务资产。在语义层,统一企业数据语言,消除跨系统术语差异,底层技术字段被精准映射为贴合业务场景的具象对象,使业务人员无需技术背景即可直接读懂并使用数据。在动力层,构建业务关系网络,确保数据实时同步,跨部门数据自动联动,大幅降低人工协调成本,持续保障数据的一致性与完整性。在动态层,叠加业务规则与AI模型,实现“数据触发行动”的闭环运营,从“分析后决策”转向“数据自动执行”,业务响应速度实现质的飞跃。三层架构的核心价值在于,真正让数据“能干活”。 立足国内重点行业的实际诉求,Ontol
      2.65万评论
      举报
      范式先知AIOS关键模块升级:以本体论重塑企业数据生产力
    • 范式智能范式智能
      ·03-11

      范式+瀚博|HAMi支持调度瀚博加速卡 助力国产AI算力落地

      近日,由范式主导并参与开源的异构算力管理项目HAMi迎来最新进展——正式实现对瀚博半导体旗下加速卡的全面支持。这意味着,用户在Kubernetes集群中部署瀚博AI加速卡时,可通过HAMi统一调度与管理算力资源,大幅提升国产异构芯片的使用效率与灵活性。 此次HAMi完成对瀚博加速卡的支持,实现了国产算力芯片与主流云原生开源工具的深度融合。通过在Kubernetes环境中部署HAMi Vastai Device Plugin,用户能够像管理GPU一样,轻松实现瀚博加速卡的资源上报、分配与管理。 关于HAMi vGPU 以前,企业想用国产AI加速卡,需要找专人配置管理。现在有了HAMi vGPU,就像多了一个"智能管家",它能: 自动管理:多少张卡、谁在用,一目了然 随取随用:像租共享单车一样,声明一下就能用 灵活分配:一台机器可以同时跑多个任务,互不干扰 像用GPU一样调度瀚博加速卡:在完成HAMi及相关插件的部署后,用户仅需在Pod中通过简单的资源声明,即可实现对瀚博加速卡的使用,以下是一个简单的使用示例:  本次更新不仅丰富了HAMi的硬件生态,也为广大开发者和企业用户提供了更多元的国产算力选择。未来,HAMi将持续优化对不同厂商加速卡的支持,推动云原生环境下的异构计算走向标准化与通用化。 详见:https://github.com/Project-HAMi/HAMi/blob/master/docs/vastai-support_cn.md 关于范式 范式集团( $06682(06682)$ )是全球领先的通用人工智能科技公司,以"AI for everyone"为使命。HAMi作为范式主导并参与开源的异构算力管理项目,已成为CNCF沙箱项目,致力于实现GPU/NPU等异构算力的
      2.71万评论
      举报
      范式+瀚博|HAMi支持调度瀚博加速卡 助力国产AI算力落地
    • 范式智能范式智能
      ·03-10

      消费电子|智能穿戴接入OpenClaw “云端-终端”AI闭环实现本地化任务自动执行

      今天(3月10日),范式旗下消费电子板块范式领航宣布,其智能穿戴设备(包括AI眼镜、AI耳机等)正式接入开源AI代理框架OpenClaw。用户仅需通过语音或文字指令,即可用搭载范式智能模组的智能穿戴设备,自动完成各类复杂任务——例如将桌面文件转换格式并发送指定邮箱,或调用AI生成一周日程安排后再截图回传至随身设备。 这一能力打破了空间限制,让用户可以轻松获取“离身”文件,解决临时远程办公中“设备在手、文件在家”的核心痛点;实现了复杂计算任务从随身设备转移至桌面端运行,既释放穿戴设备的算力负载,又充分利用桌面级计算资源,实现端云任务的智能分发与协同。AI助理由此真正实现“随身随行、所想即得”,在保障数据隐私安全的同时,显著优化使用成本,让高效办公与隐私保护兼得。 关于OpenClaw:是当前备受瞩目的开源AI代理框架,它能够理解复杂指令,通过调用大语言模型的推理能力,在本地自动执行电脑操作任务,如文件整理、邮件发送、浏览器控制等。自发布以来,OpenClaw凭借GitHub超24万星标及隐私安全优势,已成为开发者首选框架。 此次接入是范式"云端-终端"AI生态的关键一环。此前,范式PhanthyCloud平台已于3月2日接入OpenClaw,本次消费电子端落地,使用户无需依赖云端,即可在本地执行复杂任务(如隐私敏感的文件操作),真正实现“AI助理随身化+普惠体验”,解决隐私与成本双重痛点。 未来,范式将持续探索AI能力与终端硬件的深度融合,包括在硬件层面优化本地算力与本地大模型的应用,进一步降低用户使用成本,让前沿技术更自然地融入日常。 范式集团( $06682(06682)$ )是全球领先的通用人工智能科技公司,以“AI for everyone”为使命,致力于用“AI agent+世界模型”
      2.69万评论
      举报
      消费电子|智能穿戴接入OpenClaw “云端-终端”AI闭环实现本地化任务自动执行
     
     
     
     

    热议股票