LocoreMind 以本地小模型破解 Agent 成本与隐私困局,寻求种子轮

LocoreMind·2026年04月21日 16:00
该内容由创业者结合大模型生成后自主发布
LocoreMind寻求融资500万,专注本地化AI Agent,解决成本与隐私问题。

当云端 AI Agent 的 API 账单每月动辄五到六位数,当 77% 的企业将数据隐私列为采用 AI 的首要障碍,一个此前被忽视的技术路径正在重新获得关注——本地化 Agent。专注这一方向的 LocoreMind 近日启动种子轮融资,计划出让 15% 股权募集 500 万元人民币,用于基座 Agent 模型训练、垂直领域产品化和开发者 API 基础设施建设。团队由澳门大学数据科学硕士、香港科技大学研究助理马诗剑创立,其研究成果曾发表于 ICRA 2026、ICLR 2026 Workshop,并入选 HuggingFace Daily Paper。

云端 Agent 的成本与隐私双重困境

AI Agent 的规模化落地正面临一个结构性矛盾。云端 Agent 的原型开发门槛很低,但一旦进入生产环境,成本会呈指数级上升。一次 Agent 编程任务消耗的 token 量是普通对话的 10 到 50 倍——每一次工具调用、文件读取、迭代执行都在累积成本。根据行业公开数据,成熟 Agent 工作流每月的 API 账单普遍在五到六位数美元区间。

成本之外,数据隐私已经成为企业 AI 采用的第一障碍。KPMG 2025 年 AI 调研显示,企业对数据隐私的顾虑从第一季度的 53% 攀升至第四季度的 77%。Nutanix 2026 年的调研则显示,57% 的 IT 负责人要求基础设施在单一国家内运行,67% 的企业已将部分工作负载从云端迁回本地。对于金融、医疗、政府等受监管行业而言,数据离开本地环境已经不是权衡取舍的问题,而是硬性红线。

市场上常见的替代方案是使用开源基座模型进行本地部署,但这种做法牺牲了 Agent 的核心能力——自主执行。LocoreMind 团队在基准测试中发现,Qwen3.5-9B 基座模型平均只能迭代 1.2 次便停止,最终输出结果为零,需要人工持续输入"继续"才能推进任务。基座模型理解工具调用的语法格式,但无法作为一个真正的工作角色自主规划和迭代。这意味着企业面临一个假选择:要么承担云端模型的高成本和隐私风险,要么使用本地模型但放弃自主执行能力。LocoreMind 判断,这一差距的本质不在于模型参数规模,而在于 Agent 专项训练的缺失。

领域专项 Agent 模型+配套框架的解法

LocoreMind 的产品形态是领域专项 Agent 模型与配套框架的打包交付,支持本地与云端双模式部署。其核心洞察是:一个专门针对 Agent 任务训练的 4B 参数模型,在该任务上的表现可以超越 70B 参数的通用基座模型。每一个 LocoreMind 产品由两部分组成——一个在完整领域环境中训练的 Agent 模型,以及针对该角色工作流量身定制的编排框架,包括工具定义、任务路由和输出规范。

目前已发布两款产品。LocoOperator-4B 是面向代码库探索的 Agent 模型,在基准测试中实现了 100% 的工具调用存在对齐率和 100% 的 JSON 有效率,可以在消费级硬件上通过 llama.cpp 以约 100 tokens/秒的速度运行,API 成本为零。该模型在 HuggingFace 平台累计下载量超过 3 万次,曾进入 Trending 榜前 6 位,GitHub 仓库获得 150 颗星。

另一款产品 CoPaw-Flash-9B-DataAnalyst-LoRA 是面向 CSV、Excel 和 JSON 数据集的自主数据分析 Agent。在 29 个真实 Kaggle 数据集的基准测试中,基座模型平均迭代 1.2 次即停止,生成图表数量为零,可用输出率为零;而 DataAnalyst-LoRA 的平均迭代次数达到 26 次,生成超过 290 个图表,可用输出率 90%,自主完成率 89.7%。这一对比在 Reddit 社区 r/LocalLLaMA 获得 5 万次阅读和 127 个赞,并在微信生态产生 1500 余次转发。 

在架构层面,LocoreMind 提出"Agent 蜂群"设计——由云端大模型担任规划者和决策中心,通过任务委派调用本地 LocoreMind 小模型作为执行者。这一架构已在生产环境获得验证,部分社区用户已通过 Ollama 将 LocoOperator-4B 接入 Claude Code 作为子 Agent 使用。当上下文长度超过 5 万 token 时,云端子 Agent 的费用会显著攀升,而本地子 Agent 成本为零。混合架构在代码探索和数据分析类任务上最多可削减 98% 的 API 支出。

商业化进展与融资计划

LocoreMind 的商业模式分为三层。第一层是面向高校、科研机构和企业的定制化 Agent 部署,按项目收费,客户数据永不离开本地环境;第二层是面向开发者的托管 API,按 token 消耗计费;第三层是面向终端用户的 Token 计划,与 OpenAI、Anthropic 等提供商的消费端模式一致。三层商业模式共享同一个结构性优势——由于 LocoreMind 的 Agent 模型参数规模远小于通用大模型,在同等 token 定价下其毛利率结构性更优。

目前第一层业务已有实质进展。LocoreMind 已有两个 ToB 项目在推进中:一个是国内某高校委托开发的生物信息学 Agent,另一个是美国某金融科技初创委托开发的量化分析 Agent。两个项目均为客户在发现 LocoreMind 发布的开源模型后主动联系达成,团队未进行任何付费推广。

本轮种子融资计划 500 万元人民币,出让 15% 股权,投后估值 3333 万元。资金将主要用于基座 Agent 模型训练的 GPU 算力投入、进行中垂直项目的交付、开发者 API 基础设施部署,以及核心团队扩充。本轮结束的里程碑包括:基座 Agent 模型训练完成并发布、两个 ToB 项目交付并完成付款、开发者 API 上线并接入首批付费用户,以及下一个垂直领域产品管线建立。

+1
39

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

Coding!Coding!

2026-04-21

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业