📅 2026-04-16🤖 claude-opus-4cvpointnetset-transformergnnneural-odediffusionnovel-methods

CV 视角与新颖方法调研

1. 能否建模为 CV 问题?

1.1 RSSI 图像化思路

原始数据:每个时刻有 N 个好心人的 RSSI 值
  ↓ 转换
2D 图像:横轴=时间,纵轴=好心人ID,像素值=RSSI
  ↓
CNN 处理图像 → 输出位置

图像化方式:

方式 怎么画 适合场景
RSSI 热力图 好心人按空间位置排列在 2D 网格,RSSI 作像素强度 固定信标
时间-信标矩阵 横轴时间、纵轴信标 ID,像素=RSSI 时序定位
空间插值图 离散 RSSI 插值成连续信号强度场图像 密集好心人
距离矩阵图 N×N 矩阵,元素=好心人间距离或 RSSI 差异 拓扑关系

1.2 CNN 不适合本项目的原因

问题 原因
好心人数量不固定 CNN 输入维度固定,每帧好心人数不同 → 图像大小变化
好心人无固定空间排列 不像像素有固定拓扑,好心人位置每次随机
缺乏训练数据 需要大量(RSSI 图像, 真实位置)标注对
空间关系丢失 把好心人排成行/列时,空间邻近关系被破坏

CNN 不适合的根本原因:卷积核假设输入有空间局部性和平移不变性,而好心人位置是随机的。

2. 更适合的"类 CV"方法

2.1 PointNet / Point Cloud 方法 ★★

关键洞察:好心人集合很像 3D 点云!

点云:    {(x_i, y_i, z_i, feature_i)}  — 无序点集,数量不固定
好心人:  {(Ix_i, Iy_i, RSSI_i, ...)}   — 无序点集,数量不固定

PointNet(Qi et al., 2017)专门处理无序、变长点集:

Input: {(好心人位置, RSSI, 精度)} × N(N 不固定)
  ↓ per-point MLP(逐点特征提取)
  ↓ symmetric aggregation(max pooling,对顺序不变)
  ↓ global MLP
Output: 目标位置 (x, y)

优势:天然处理变长输入、排列不变、能学习空间关系。 BLE 定位文献中很少有人用 PointNet,这是个潜在创新点

适用性:✅✅ 高度适合众包场景。

2.2 Set Transformer ★★

用自注意力处理集合输入:

Input: {(I_i, RSSI_i, accuracy_i)} — 好心人集合
  ↓ Self-Attention(学习好心人间的相对重要性)
  ↓ Pooling(聚合为全局特征)
  ↓ MLP
Output: (x, y)

注意力权重 ≈ 学到的 w_i,天然可解释。

适用性:✅✅ 适合,且注意力权重提供可解释性。

2.3 NeRF 启发的信号场重建

类比:NeRF 从多视角图像重建 3D 场景,我们从多好心人 RSSI "观测"重建信号场。

NeRF:  多视角拍照 → 隐式 3D 场 → 渲染新视角
类比:  多好心人 RSSI → 隐式信号场 f(x,y) → 在任意位置预测 RSSI

训练好信号场后,目标位置 = 使预测 RSSI 与实际观测最匹配的位置。

适用性:⚠️ 新颖但实验性强,可作为远期探索方向。

3. 图结构方法

3.1 Graph Neural Network (GNN) ★

图构建:
  节点: 好心人 {位置, RSSI} + 目标 {待估位置}
  边:   好心人→目标(RSSI观测),好心人↔好心人(空间邻近)

GNN message passing:
  1. 每个好心人节点编码自身信息
  2. 消息传递:好心人 → 目标节点聚合信息
  3. 目标节点解码出位置

优势:天然处理图结构、变长输入、能利用好心人间空间关系。

适用性:✅ 非常适合。

4. 时间建模新方法

4.1 Neural ODE / 连续时间模型 ★

不离散化时间,学习连续微分方程:

dxdt=fθ(x(t),t)\frac{dx}{dt} = f_\theta(x(t), t)

神经网络参数化 fθf_\theta,ODE solver 积分得到任意时刻位置。RSSI 观测作为离散"修正信号"。

优势:

  • 天然处理不等间隔采样(好心人报告时间不均匀)
  • 不需要假设匀速/匀加速

适用性:✅ 移动场景时间建模很优雅,但实现复杂。

4.2 Diffusion Model 生成轨迹

把轨迹生成建模为去噪扩散过程:

训练:真实轨迹 → 逐步加噪 → 学习去噪
推断:从噪声轨迹出发 → 在 RSSI 观测条件下逐步去噪 → 生成轨迹

条件生成模型——给定 RSSI 观测,生成最可能的轨迹。能输出多条候选轨迹(多模态),天然提供不确定性。

适用性:⚠️ 非常前沿(2023–2024),可作为提案远期展望。

4.3 Optimal Transport(最优传输)

将好心人 RSSI 分布与空间位置之间建立最优传输映射。好心人看作"质量分布"(RSSI 强度=质量),目标位置 ≈ Wasserstein 重心。

适用性:⚠️ 理论新颖,实际定位精度待验证。

5. 方法对比总表

方法 处理变长输入 需要数据量 新颖性 实用性 本项目适合
CNN(图像化)
PointNet ✅✅
Set Transformer 中高 ✅✅
NeRF 启发 ⚠️
GNN 中高 中高
Neural ODE
Diffusion 很高 ⚠️ 展望
Optimal Transport ⚠️ 展望

6. 推荐策略:混搭使用

实用层(提案核心方法):
  图优化 + 可学习 f(r) + 可学习 w_i

增强层(可行的 ML 增强):
  PointNet / Set Transformer 预测 w_i
  或替代手工设计的权重函数

展望层(提案未来工作):
  Neural ODE 时间建模
  Diffusion Model 轨迹生成
  NeRF 启发的信号场重建

混搭示例:用 PointNet/Set Transformer 预测权重 w_i,然后喂入图优化框架——既有数据驱动的灵活性,又保留物理模型的可解释性。