跳转至

传感器

传感器是机器人感知世界的基础。本文从视觉、深度、LiDAR、惯性、力/力矩、触觉六大类梳理机器人常用传感器的原理、选型和技术指标。


传感器分类总览

类别 感知信息 典型频率 典型用途
RGB 相机 颜色纹理 30-120 Hz 目标检测、视觉伺服
深度相机 3D 深度图 30-90 Hz 避障、抓取
事件相机 像素级亮度变化 ~1 MHz 等效 高速运动、HDR
LiDAR 3D 点云 10-20 Hz SLAM、导航
IMU 加速度/角速度 200-1000 Hz 姿态估计、VIO
力/力矩传感器 6 轴力矩 100-8000 Hz 力控、装配
触觉传感器 接触力/形变 30-100 Hz 灵巧操作、滑动检测

视觉传感器

RGB 相机

工业/研究常用 RGB 相机:

相机 分辨率 帧率 接口 特点 价格范围
Intel RealSense D435i (RGB) 1920x1080 30fps USB3 自带 IMU ~$300
FLIR Blackfly S 最高 5MP 75fps (1.6MP) GigE/USB3 工业级,全局快门 ~$500-800
Basler ace 2 最高 24MP 可变 GigE/USB3 工业自动化标准 ~$300-1000
Orbbec Femto Bolt (RGB) 3840x2160 30fps USB3 4K RGB ~$500

选型要点:

  • 全局快门 vs 卷帘快门:机器人运动中全局快门避免图像畸变
  • 帧率:视觉伺服需要 >=60fps;物体检测 30fps 通常足够
  • 镜头:FOV 根据工作距离选择(近距离用广角,远距离用窄角)
  • 同步:多相机方案需要硬件触发同步

立体相机 (Stereo Camera)

立体相机通过双目视差计算深度,原理上属于被动深度测量。

产品 基线 深度范围 特点
Stereolabs ZED 2 120mm 0.3-20m 内置 VIO + AI
ZED Mini 63mm 0.1-15m 小巧,适合无人机
ZED X 120mm 0.3-20m IP67,工业级
Multisense S27 270mm 0.5-10m 长基线高精度

事件相机 (Event Camera)

事件相机(又称 DVS, Dynamic Vision Sensor)以异步方式输出像素级亮度变化事件。

特性
时间分辨率 微秒级(等效 >1000fps)
动态范围 >120dB(vs 普通相机 ~60dB)
功耗 极低(仅变化像素输出)
数据量 稀疏事件流
典型产品 iniVation DAVIS346, Prophesee EVK4

适用场景:高速抓取、无人机避障、极端光照(焊接、隧道)。


深度传感器

主流深度相机对比

产品 测量原理 深度范围 分辨率 帧率 室外 价格
Intel RealSense D435i 主动红外立体 0.1-10m 1280x720 90fps 一般 ~$300
Intel RealSense D455 主动红外立体 0.6-6m 1280x720 90fps 较好 ~$350
Intel RealSense L515 LiDAR (ToF) 0.25-9m 1024x768 30fps 已停产
Stereolabs ZED 2 被动立体 0.3-20m 2208x1242 15fps ~$450
Orbbec Femto Bolt ToF (iToF) 0.25-5.46m 640x576 30fps ~$500
Orbbec Gemini 2 主动红外立体 0.15-10m 1280x800 30fps 一般 ~$200
Azure Kinect DK ToF (iToF) 0.5-5.46m 640x576 30fps 已停产

深度测量原理

原理 说明 优势 劣势
结构光 投射已知图案,分析变形 室内精度高 室外受干扰
主动红外立体 投射红外纹理辅助匹配 平衡性好 远距精度下降
ToF (Time-of-Flight) 测量光飞行时间 帧率高、一致性好 多路径干扰、分辨率低
被动立体 纯双目匹配 室外可用 弱纹理区域失效

选型建议:

  • 室内桌面操作:RealSense D435i(经典选择)或 Orbbec Gemini 2(性价比)
  • 室内导航:RealSense D455(更宽基线)
  • 室外:ZED 2(被动立体不受阳光干扰)
  • 高精度短距:结构光方案

LiDAR

常见 LiDAR 对比

产品 线数 测距 精度 扫描方式 频率 价格
Velodyne VLP-16 16 100m +-3cm 机械旋转 5-20Hz ~$4,000
Ouster OS1-64 64 120m +-1.5cm 数字旋转 10-20Hz ~$6,000
Livox Mid-360 等效 N/A 40m +-2cm 非重复扫描 10Hz ~$500
Livox HAP 等效 N/A 150m +-3cm 非重复扫描 10Hz ~$500
RPLIDAR A1 1 (2D) 12m <1% 机械旋转 5.5Hz ~$100
RPLIDAR S2 1 (2D) 30m +-3cm 机械旋转 10Hz ~$200
Intel RealSense L515 9m 5mm@1m 固态 30Hz 已停产

扫描方式

方式 代表 优势 劣势
机械旋转 Velodyne, Ouster 360度 FOV,成熟 寿命有限、体积大
固态 (MEMS) Livox 无运动部件、可靠 FOV 有限
非重复扫描 Livox 时间积累覆盖率 需要积分时间
Flash 超快、紧凑 距离短

选型建议:

  • 2D 导航 (AGV/服务机器人):RPLIDAR 系列(低成本)
  • 3D 建图/自动驾驶:Ouster OS1 或 Velodyne VLP-16
  • 低成本 3D SLAM:Livox Mid-360(性价比极高)

更多 SLAM 相关内容请参阅 SLAM


IMU (惯性测量单元)

IMU 基础

IMU 包含 3 轴加速度计 + 3 轴陀螺仪(6 轴),高端 IMU 还包含 3 轴磁力计(9 轴)。

参数 说明 典型值 (MEMS)
陀螺仪偏置稳定性 零输入时的漂移 1-10 deg/hr
加速度计偏置 零输入时的偏移 0.1-1 mg
噪声密度 (ARW) 角速度随机游走 0.1-0.5 deg/sqrt(hr)
采样率 输出频率 200-8000 Hz
量程 测量范围 +-250~2000 deg/s

常用 IMU

产品 等级 接口 特点 价格
MPU-6050 消费级 I2C 低成本,Arduino 入门 ~$3
BMI270 消费级 SPI/I2C 低功耗,手机级别 ~$5
ICM-42688-P 中端 SPI 低噪声,无人机常用 ~$10
VN-100 工业级 UART/SPI 内置 AHRS 滤波 ~$500
ADIS16470 工业级 SPI 高精度、低漂移 ~$300
KVH 1775 战术级 UART 光纤陀螺,极低漂移 ~$10,000

VIO (Visual-Inertial Odometry)

IMU 与视觉传感器融合形成 VIO,是机器人定位的主流方案之一:

  • IMU 提供高频短期位姿(200-1000Hz),但长时间漂移
  • 视觉提供低频绝对位姿(30Hz),但短时无法跟踪
  • 互补融合实现高频、低漂移定位

常见 VIO 方案:VINS-Mono/Fusion, ORB-SLAM3, Basalt, cuVSLAM (NVIDIA)。


力/力矩传感器

6 轴力/力矩传感器

6 轴 F/T 传感器测量三个方向的力 (\(F_x, F_y, F_z\)) 和三个方向的力矩 (\(\tau_x, \tau_y, \tau_z\))。

产品 量程 (力) 量程 (力矩) 分辨率 频率 价格
ATI Gamma 65N 5Nm 1/64N 7kHz ~$5,000
ATI Mini45 145N 5Nm 1/16N 7kHz ~$4,000
ATI Nano17 12N 0.12Nm 1/160N 7kHz ~$6,000
OnRobot HEX-E 200N 6Nm 0.2N 1kHz ~$3,000
Robotiq FT 300 300N 30Nm 0.5N 100Hz ~$3,000
Bota SensONE 1500N 40Nm 0.3N 800Hz ~$2,000

安装位置:通常安装在机械臂末端法兰与夹爪之间。

典型应用:

  • 力控装配:插销、拧螺丝(力/力矩阈值检测)
  • 碰撞检测:超出预期力即触发停止
  • 阻抗控制:基于力反馈调整位置
  • 遥操作力反馈:将从端力信息回传给操作者

触觉传感器

触觉传感器是实现灵巧操作的关键,近年来因机器人学习的需求而快速发展。

主流触觉传感器

产品 原理 信息类型 分辨率 特点 价格
GelSight 弹性体 + 相机 高分辨率接触几何 ~25μm 学术经典 DIY ~$200
DIGIT (Meta) 弹性体 + 相机 接触几何 + 力估计 中等 紧凑,公开设计 ~$50 (DIY)
GelSight Mini 弹性体 + 相机 3D 接触形变 ~25μm 商业化版本 ~$500
BioTac 多模态 力 + 振动 + 温度 19 电极 仿生指尖 ~$5,000
ReSkin 磁性 3 轴力 中等 薄膜、可更换 ~$5
XELA uSkin 电容阵列 3 轴力分布 4x4 taxel 商业化 ~$1,000

视觉-触觉传感器 (GelSight 系列)

GelSight 类传感器的工作原理:

  1. 弹性体(透明硅胶)表面涂有反光涂层
  2. 内置 RGB LED 从不同角度照明
  3. 微型相机拍摄弹性体内表面
  4. 物体接触弹性体时产生形变
  5. 通过光度立体法 (Photometric Stereo) 重建 3D 接触几何

在机器人学习中的应用:

  • 滑动检测:检测物体是否将要从夹爪滑落
  • 材质识别:不同材料在触觉图像上有不同纹理
  • 接触位姿估计:推断被抓物体的精确位姿
  • 灵巧操作:结合视觉和触觉的多模态策略
# GelSight 数据处理示例
import cv2
import numpy as np

# 读取触觉图像
tactile_img = cv2.imread("gelsight_contact.png")

# 计算接触区域
diff = cv2.absdiff(tactile_img, reference_img)
gray = cv2.cvtColor(diff, cv2.COLOR_BGR2GRAY)
_, contact_mask = cv2.threshold(gray, 20, 255, cv2.THRESH_BINARY)

# 估计接触力(简化模型)
contact_area = np.sum(contact_mask > 0)
estimated_force = contact_area * force_per_pixel  # 需要标定

传感器融合

实际机器人系统中,需要融合多种传感器的信息:

融合方案 传感器组合 输出 典型框架
VIO Camera + IMU 6-DoF 位姿 VINS-Fusion, ORB-SLAM3
LiDAR-Inertial LiDAR + IMU 6-DoF 位姿 + 点云地图 LIO-SAM, FAST-LIO2
Visual-Tactile Camera + 触觉 抓取策略 自定义 (研究前沿)
多模态感知 RGB + Depth + F/T 操作策略输入 LeRobot, robomimic

更多标定与集成内容请参阅 标定与系统集成


相关链接


评论 #