SynaData 是一个面向具身智能、机器人与多模态大模型训练的数据生成与交付平台。我们通过系统化的数据采集、结构化处理与标准化交付,将人类行为、机器人操作与第一视角感知转化为可直接用于模型训练的高质量数据产品。
SynaData 并非单一算法或单一数据集,而是一套可规模化运行的数据生产体系。
下载 SynaData 数据产品介绍手册与顶尖机器人厂商、产业基金和科研机构建立长期深度合作
针对单目视频深度信息丢失(人手抓取姿态误判率超40%)和物体自遮挡问题,系统结合海量先验知识库,实现数据升维真实性和轨迹复原的准确性。例如,在餐具分拣测试中,轨迹重建误差从传统方法的±5厘米降至±0.5厘米。
动态结构适配算法,实现跨形态高精度运动重定向,将模仿学习误差降低超50%,任务成功率提升40%,大幅降低human to humanoid迁移成本。
解决人体动作与机器人动力学代差(如机械臂震颤),通过虚拟环境补偿机制,实现动作跨本体迁移。在仿真验证中,迁移成功率高达98%,较基线提升40%。
解决在仿真环境中缺乏物理属性(摩擦力、惯性、重力加速度等)约束问题,确保机器人能够以真实世界的物理形态操作。
SynaData突破了传统具身智能数据采集局限于实验室受控环境的瓶颈,独创"分布式社会化点位+互联网视频"的双轨采集引擎。
相比于依赖高成本、低产量的传统遥操与动捕模式,SynaData通过复用物流、商超等真实场景的被动采集,以及对全球海量互联网视频的高效转化,将潜在数据年产量指数级提升至10亿+量级。
我们让真实世界发生的每一次交互都转化为机器人的学习养料,以极低成本构建覆盖长尾场景的具身数据护城河。目前,该模式已获多家人形机器人头部企业及高校的交付验证。
枢途科技与清华大学联合推出了RoboWheel——一种专为跨形态、多模态、高保真物理交互数据设计的新型机器人数据引擎。它不仅提供了从人类操作视频到机器人可用数据的完整链路,更重要的是,它开启了一条关键道路:让物理合理HOI(手物交互/人物交互)交互数据成为机器人基础模型的可扩展燃料。
Motion-X是一个大规模运动数据集,其中包括精确的3D全身运动和相应的序列级和帧级文本描述。此外,还精心设计了一个自动化的运动和文本注释管道,实现了高效捕获大规模高质量的人类文本-动作数据。
多模态具身智能数据集HORA是业界首个从真实场景人类视频中提取的具身多模态训练数据资源。数据集包含15万条高质量轨迹,覆盖多种实际应用场景,支持更多具身从业者进行模型验证及机器人技能训练。
Synadata 当前提供以下几类核心数据产品,覆盖从人类行为到机器人训练的关键场景。
枢途科技(SYNAPATH AI)成立于2024年,致力于构建以视频为核心的具身智能数据管线。公司依托高精度视频定向升维、跨域映射(Retargeting)等关键技术,将海量互联网视频转化为可学习、可迁移的高质量多模态数据,为具身智能模型的训练与落地提供核心支持。
枢途的使命是"Make Robots Work" —— 赋能机器人在复杂的真实非标场景中完成精准作业。
目前,枢途已汇聚行业核心技术团队,与多家人形机器人厂商、服务业头部企业及高校建立了深度合作并实现订单交付。公司同时获得前微软全球副总裁陆奇博士及多家知名机构的投资支持,持续领跑具身智能数据赛道。
十万级视频具身数据开源
面向行业开放规模化具身数据资源,加速具身智能研发与落地节奏。
完成天使+轮融资,发布顶会论文
获得数千万元融资,以视频具身数据研究成果推动行业标准制定。
完成天使轮融资
获多家知名机构认可,为产品化和规模化奠定资本基础。
发布 SynaData 数据管线
以视频为核心的数据管线正式上线,重构具身数据采集与生成范式。
核心产品交付头部客户
完成多家人形机器人及行业头部客户项目交付,验证商业闭环。
完成初版算法与系统
完成核心算法与数据管线原型开发,获得种子轮投资支持。
公司成立
枢途科技正式成立,确立以视频为核心的数据技术路线。
RECOGNITIONS
代表行业与资本市场对枢途科技在具身智能与视频数据赛道的长期认可。
行业展示
NVIDIA 创业企业展示
创新大奖
“创客中国” 大赛一等奖
国际舞台
澳门 BEYOND Expo 创新大奖
资本认可
机器人产业最具投资价值企业
行业机构
深圳机器人协会应用典型案例奖
产业价值
工业创新引领企业
JOIN US
与一线机器人和具身智能团队并肩,参与从 0 到 1 的关键产品与研究落地。
当前招聘信息
见文档详情招聘岗位 0120
我们欢迎算法、工程、产品与运营等多元背景的伙伴加入,一起推动具身智能走向真实世界。
HRBP 徐女士
邮箱:merryxu@synapath.com
微信:xmlhxf
添加请备注:毕业时间学历-应聘岗位-姓名