📅 2026-04-16🤖 claude-opus-4
CV 视角与新颖方法调研
1. 能否建模为 CV 问题?
1.1 RSSI 图像化思路
原始数据:每个时刻有 N 个好心人的 RSSI 值
↓ 转换
2D 图像:横轴=时间,纵轴=好心人ID,像素值=RSSI
↓
CNN 处理图像 → 输出位置
图像化方式:
| 方式 | 怎么画 | 适合场景 |
|---|---|---|
| RSSI 热力图 | 好心人按空间位置排列在 2D 网格,RSSI 作像素强度 | 固定信标 |
| 时间-信标矩阵 | 横轴时间、纵轴信标 ID,像素=RSSI | 时序定位 |
| 空间插值图 | 离散 RSSI 插值成连续信号强度场图像 | 密集好心人 |
| 距离矩阵图 | N×N 矩阵,元素=好心人间距离或 RSSI 差异 | 拓扑关系 |
1.2 CNN 不适合本项目的原因
| 问题 | 原因 |
|---|---|
| 好心人数量不固定 | CNN 输入维度固定,每帧好心人数不同 → 图像大小变化 |
| 好心人无固定空间排列 | 不像像素有固定拓扑,好心人位置每次随机 |
| 缺乏训练数据 | 需要大量(RSSI 图像, 真实位置)标注对 |
| 空间关系丢失 | 把好心人排成行/列时,空间邻近关系被破坏 |
CNN 不适合的根本原因:卷积核假设输入有空间局部性和平移不变性,而好心人位置是随机的。
2. 更适合的"类 CV"方法
2.1 PointNet / Point Cloud 方法 ★★
关键洞察:好心人集合很像 3D 点云!
点云: {(x_i, y_i, z_i, feature_i)} — 无序点集,数量不固定
好心人: {(Ix_i, Iy_i, RSSI_i, ...)} — 无序点集,数量不固定
PointNet(Qi et al., 2017)专门处理无序、变长点集:
Input: {(好心人位置, RSSI, 精度)} × N(N 不固定)
↓ per-point MLP(逐点特征提取)
↓ symmetric aggregation(max pooling,对顺序不变)
↓ global MLP
Output: 目标位置 (x, y)
优势:天然处理变长输入、排列不变、能学习空间关系。 BLE 定位文献中很少有人用 PointNet,这是个潜在创新点。
适用性:✅✅ 高度适合众包场景。
2.2 Set Transformer ★★
用自注意力处理集合输入:
Input: {(I_i, RSSI_i, accuracy_i)} — 好心人集合
↓ Self-Attention(学习好心人间的相对重要性)
↓ Pooling(聚合为全局特征)
↓ MLP
Output: (x, y)
注意力权重 ≈ 学到的 w_i,天然可解释。
适用性:✅✅ 适合,且注意力权重提供可解释性。
2.3 NeRF 启发的信号场重建
类比:NeRF 从多视角图像重建 3D 场景,我们从多好心人 RSSI "观测"重建信号场。
NeRF: 多视角拍照 → 隐式 3D 场 → 渲染新视角
类比: 多好心人 RSSI → 隐式信号场 f(x,y) → 在任意位置预测 RSSI
训练好信号场后,目标位置 = 使预测 RSSI 与实际观测最匹配的位置。
适用性:⚠️ 新颖但实验性强,可作为远期探索方向。
3. 图结构方法
3.1 Graph Neural Network (GNN) ★
图构建:
节点: 好心人 {位置, RSSI} + 目标 {待估位置}
边: 好心人→目标(RSSI观测),好心人↔好心人(空间邻近)
GNN message passing:
1. 每个好心人节点编码自身信息
2. 消息传递:好心人 → 目标节点聚合信息
3. 目标节点解码出位置
优势:天然处理图结构、变长输入、能利用好心人间空间关系。
适用性:✅ 非常适合。
4. 时间建模新方法
4.1 Neural ODE / 连续时间模型 ★
不离散化时间,学习连续微分方程:
神经网络参数化 ,ODE solver 积分得到任意时刻位置。RSSI 观测作为离散"修正信号"。
优势:
- 天然处理不等间隔采样(好心人报告时间不均匀)
- 不需要假设匀速/匀加速
适用性:✅ 移动场景时间建模很优雅,但实现复杂。
4.2 Diffusion Model 生成轨迹
把轨迹生成建模为去噪扩散过程:
训练:真实轨迹 → 逐步加噪 → 学习去噪
推断:从噪声轨迹出发 → 在 RSSI 观测条件下逐步去噪 → 生成轨迹
条件生成模型——给定 RSSI 观测,生成最可能的轨迹。能输出多条候选轨迹(多模态),天然提供不确定性。
适用性:⚠️ 非常前沿(2023–2024),可作为提案远期展望。
4.3 Optimal Transport(最优传输)
将好心人 RSSI 分布与空间位置之间建立最优传输映射。好心人看作"质量分布"(RSSI 强度=质量),目标位置 ≈ Wasserstein 重心。
适用性:⚠️ 理论新颖,实际定位精度待验证。
5. 方法对比总表
| 方法 | 处理变长输入 | 需要数据量 | 新颖性 | 实用性 | 本项目适合 |
|---|---|---|---|---|---|
| CNN(图像化) | ❌ | 大 | 低 | 中 | ❌ |
| PointNet | ✅ | 中 | 中 | 高 | ✅✅ |
| Set Transformer | ✅ | 中 | 中高 | 高 | ✅✅ |
| NeRF 启发 | ✅ | 大 | 高 | 低 | ⚠️ |
| GNN | ✅ | 中 | 中高 | 中高 | ✅ |
| Neural ODE | ✅ | 中 | 高 | 中 | ✅ |
| Diffusion | ✅ | 大 | 很高 | 低 | ⚠️ 展望 |
| Optimal Transport | ✅ | 少 | 高 | 低 | ⚠️ 展望 |
6. 推荐策略:混搭使用
实用层(提案核心方法):
图优化 + 可学习 f(r) + 可学习 w_i
增强层(可行的 ML 增强):
PointNet / Set Transformer 预测 w_i
或替代手工设计的权重函数
展望层(提案未来工作):
Neural ODE 时间建模
Diffusion Model 轨迹生成
NeRF 启发的信号场重建
混搭示例:用 PointNet/Set Transformer 预测权重 w_i,然后喂入图优化框架——既有数据驱动的灵活性,又保留物理模型的可解释性。