视触觉传感器的技术突围:从「看得见」到「摸得准」的具身智能进化
2019年深秋,香港科技大学机器人研究院的实验室里,一次看似简单的实验让整个团队陷入沉思:让机械臂折叠一件T恤。视觉系统精准识别衣物轮廓,运动规划生成合理轨迹,然而夹爪接触布料的那一刻——衣物滑落,任务失败。
视觉天花板的致命裂缝
这个场景至今仍刻在戴盟机器人CTO段江哗的记忆里。问题根源一目了然:夹爪触及衣物后,视觉被完全遮挡,机械臂失去对「接触状态」的感知,只能盲动。在随后的研究中,团队发现这并非个例——插针、对齐孔位、拧微型螺丝,几乎所有需要「力觉反馈」的精细操作,纯视觉方案都存在类似短板。
人类手指尖密布约2000个机械感受器,能同时获取12种触觉模态。机器人要实现真正的灵巧操作,视觉之外必须引入高密度触觉感知——这成为戴盟创立的核心理念。
视触觉传感的技术选型
创业初期,市面商用触觉传感器面临两难:传统压阻式或电容式方案受限于物理布线——在几平方厘米的手指面积内集成上千传感点,连线复杂易断裂,可靠性差且难以量产。戴盟选择回归第一性原理:何种物理机制能同时实现高分辨率、多模态、高耐用性、低成本?
答案是视触觉(vision-basedtactilesensing)。该方案通过光学成像捕捉接触面硅胶层形变图像,结合算法解算多维触觉信号。分辨率仅受限于相机像素,理论上可轻松超越人类指尖感知密度;无易损电路,寿命达数百万次循环。
在单色光与RGB三色光的技术路线抉择上,戴盟果断选择前者。MIT孵化的GelSight方案采用RGB光源,需精密标定三种光源一致性,长期使用LED光强漂移导致力估计失准。单色光系统用均匀照明承载信息,配合高对比度编码图案,规避了上述问题:黑白相机数据量低、处理速度达120Hz以上,远超RGB方案20-30Hz帧率,更满足实时控制需求。
硬核参数定义技术壁垒
戴盟传感器的核心性能指标极具说服力:力感知灵敏度达0.01牛,1克力的微小接触即可识别;空间分辨率0.01毫米(10微米),比人类指尖分辨率高出约300倍。这两项指标使其在精密装配、表面质量检测、材质辨识等场景建立明确优势。
以精密装配为例,插针、对准时即使出现几毫牛级阻力差异,系统也能立即捕捉并自主调整姿态,避免零件损坏。在高端制造质检环节,传感器能识别亚毫米级纹理变化、粗糙度差异,实现类似老师傅「手感验货」的自动化。
更关键的是寿命验证。戴盟视触觉传感器是全球首个通过500万次按压循环认证的产品。硅胶接触面设计为可快速拆卸的标准化模块,成本低廉,更换如同更换雨刮器胶条——不换电机,只换磨损件。
触觉底座的战略定位
戴盟未选择直接做灵巧手,而是定位「触觉底座」能力输出商。逻辑清晰:结构设计可不断优化,但缺乏高质量触觉反馈,精细操作难以稳定实现。触觉技术已被列入国家35项「卡脖子」核心技术清单。
技术杠杆效应明显:单款机械手覆盖场景有限,但为数十甚至上百家企业提供触觉解决方案,触觉能力可嵌入成千上万台设备。目前戴盟已完成多轮融资,累计金额数亿元人民币,刷新触觉传感领域天使轮融资纪录。
2025年被视为具身智能商业化元年。触觉感知正从「锦上添花」变为「智能标配」,真正的胜负已不在单一产品参数,而在于谁能率先跑通「物理世界数据感知—采集—学习—商业落地」完整闭环。

