基于深度可分离卷积的CSI指纹被动式定位方法技术

技术编号:26308430 阅读:47 留言:0更新日期:2020-11-10 20:11
基于深度可分离卷积的CSI指纹被动式定位方法,将CSI数据构造特征图像作为位置指纹,并通过卷积神经网络识别不同的位置,实现基于深度可分离卷积的CSI指纹被动式定位方法。所述方法包括:离线训练阶段,提取MIMO系统中CSI的幅度,然后构造类似于RGB三通道图像的CSI特征图作为不同位置的位置指纹,再利用深度可分离卷积设计卷积神经网络学习不同位置的CSI特征。在线定位阶段,采集目标位置的CSI数据构造目标位置特征图像,然后用训练好的卷积神经网络预测目标的位置。本发明专利技术基于融合了CSI时域、频域、空间域的位置指纹,并且采用了深度可分离卷积,可以获得较高的位置识别率和较低的定位时延。

【技术实现步骤摘要】
基于深度可分离卷积的CSI指纹被动式定位方法
本专利技术涉及到室内定位
,具体涉及到基于深度可分离卷积的CSI指纹被动式定位方法。
技术介绍
移动智能设备和无线网络已经渗透到人类生产生活的方方面面,基于位置的服务(LocationBasedService,LBS)逐渐成为人们生活的不可缺少的服务。尽管全球定位系统(GlobalPositioningSystem,GPS)已经在室外导航和定位领域一枝独秀,然而钢筋水泥导致GPS信号的严重衰落使其在室内导航和定位中难有用武之地。室内定位具有重要的研究意义和实用价值,吸引了国内外大量研究人员的研究热情,同时也涌现出大量的室内定位方案,目前应用于室内定位的主要有计算机视觉技术、红外线技术、超声波技术、超宽带技术、蓝牙、Zigbee、RFID等。但是,这些定位方案大多都需要大量的硬件设备,限制了定位方案的普适性。随着Wi-Fi基础设施和无线设备的广泛普及,基于Wi-Fi的室内定位方案逐渐成为主流。接收信号强度(ReceivedSignalStrength,RSS)作为无线信号的主要能量特性测量值,可以在大量无线终端上直接获取,被广泛应用于基于Wi-Fi的室内定位系统。但在室内环境中,由于墙壁、家具等障碍物的存在,无线信号在发射机和接收机之间通过多条路径传播。接收机接收到的信号是多个路径信号叠加的效果。RSS作为多路径信号的平均值,在室内环境中容易波动,稳定性差。这严重制约了基于RSS的室内定位方案的可靠性和定位精度。与RSS相比,信道状态信息(ChannelStateInformation,CSI)是一种更细粒度的物理层信息。每一组CSI刻画了正交频分复用(OrthogonalFrequencyDivisionMultiplexing,OFDM)子载波的幅度和相位,具有更好的静态稳定性和动态敏感性。在指纹定位中,不同物理位置的位置指纹一般都有一定差异。因此,指纹定位可以简单看作是一种分类任务。kNN和贝叶斯分类作为主流的分类算法,被广泛应用于指纹定位。然而这些传统的分类算法存在一定的缺点。kNN随着数据维度的增加,计算开销会变得很大。至于贝叶斯分类,需要条件独立性假设前提,而实际情况往往并非如此,这严重制约了贝叶斯分类的准确性。近年来,随着深度学习的发展,越来越多的研究人员将神经网络应用于指纹定位。与传统的分类方法相比,基于深度学习的分类方法往往具有更高的准确性。但是,大多数已有的基于深度学习的CSI指纹定位方案在模型离线训练阶段都需要花费大量时间,在线定位时延较高,不能满足人们对定位服务实时性的要求。
技术实现思路
本专利技术的目的是提供一种基于深度可分离卷积的CSI指纹被动式定位方法,本专利技术利用Wi-Fi的MIMO信息,提取CSI的幅度差构造CSI特征图像作为每个位置的位置指纹,并基于深度可分离卷积设计卷积神经网络实现定位。本专利技术有较低的定位时延和较高的定位精度。基于深度可分离卷积的CSI指纹被动式定位方法,包括如下步骤:步骤1:划分场景区域并选取参考点,通过发射机和接收机采集参考点坐标和CSI数据;步骤2:设定发射机和接收机的收发天线对,对每组收发天线对的CSI数据构造CSI特征图像;步骤3:基于深度可分离卷积设计卷积神经网络,用参考点的CSI特征图像训练神经网络,训练时,采用Adam算法进行优化;步骤4:采集目标位置CSI数据,按照步骤2构造目标位置的CSI特征图像;步骤5:将目标位置的CSI特征图像输入步骤3训练好的神经网络,神经网络将目标位置在每个参考点的概率作为权重,计算每个参考点坐标的加权平均,得到最终预测的目标位置坐标。进一步地,步骤2中,利用MIMO信息,对于每一组收发天线对的数据,采用大小为30的滑动窗口选取连续的30个CSI数据包,提取出每个数据包中30个子载波的幅度,并计算每个子载波与前一个子载波幅度差,第一个子载波和最后一个子载波的幅度差。将CSI子载波幅度差构造成30×30×3的三通道CSI特征图像,每一组天线对的数据对应CSI特征图像的一个通道;第j个数据包子载波i的幅度为相邻子载波的幅度差可以表示为:则CSI的一个特征图像可以表示为:其中N为子载波数量。进一步地,步骤3中,网络结构的第一层采用标准卷积,卷积核大小为3×3。然后采用3个深度可分离卷积,每个深度可分离卷积包含一个深度卷积和逐点卷积。标准卷积、逐点卷积和第一个深度卷积的步长设置为1,深度卷积核大小都为3×3。第二个和第三个深度卷积步长设置为2。每个深度卷积和逐点卷积之后都有一个归一化和ReLU操作。网络的最后是一个池化层和全连接层,全连接层的输出大小N,其中N为参考点的个数。进一步地,步骤5中,假设共有N个参考点,第i个参考点的位置是Li,目标位置在第i个参考点的概率是Pi,则预测的目标位置可以表示为:本专利技术达到的有益效果为:提出一种基于深度可分离卷积的CSI指纹被动式定位方法,利用Wi-Fi的MIMO信息,提取CSI的幅度差构造CSI特征图像作为每个位置的位置指纹,并基于深度可分离卷积设计卷积神经网络实现定位,具有较低的定位时延和较高的定位精度。附图说明图1是本专利技术实施例中基于深度可分离卷积的CSI指纹被动式定位方法示意图。图2是本专利技术实施例中的实验场景布局图。图3是本专利技术实施例中基于子载波幅度差的CSI特征图。具体实施方式下面结合说明书附图对本专利技术的技术方案做进一步的详细说明。本专利技术提供了一种基于深度可分离卷积的CSI指纹被动式定位方法,其过程如下所述:步骤1:如图2所示,划分室内场景区域并选取参考点,采集参考点坐标和CSI数据。步骤2:利用发射机和接收机不同天线对的CSI数据构造CSI特征图像。对于每个位置的数据,采集3000个数据包,使用大小为30的滑动窗口选取多组时间上连续的数据包,提取每个数据包中CSI子载波幅度。数据包j的第i个CSI子载波的幅度为计算相邻子载波的幅度差并构造不同位置的CSI特征图像,如图3所示。具体地,在平滑衰减的窄带信道中,OFDM系统可表示为:yi=Hxi+Ni其中yi和xi分别表示接收机端和发射机端的信号向量,H为信道状态信息矩阵,Ni表示噪声向量。为了估计信道状态信息矩阵,发射机端发送已知的导频序列x1,x2,...,xn,合并后的接收信号向量Y可以表示为:Y=[y1,y2,...,yn]=HX+N因此信道状态信息矩阵H可以近似估计为:对于有N个子载波的OFDM系统,H可以表示为:H=[H1,H2,...,HN]其中对于有m根发射天线,n根接收天线的MIMO系统,Hi是m×n维度的矩阵,可以表示为:其中hpq(p∈[1,m],q∈[1,n])对应了发射天线p和接收天线q天线流上的子载波幅度和相位的复数。因此,CS本文档来自技高网
...

【技术保护点】
1.基于深度可分离卷积的CSI指纹被动式定位方法,其特征在于:所述定位方法包括如下步骤:/n步骤1:划分场景区域并选取参考点,通过发射机和接收机采集参考点坐标和CSI数据;/n步骤2:设定发射机和接收机的收发天线对,对每组收发天线对的CSI数据构造CSI特征图像;/n步骤3:基于深度可分离卷积设计卷积神经网络,用参考点的CSI特征图像训练神经网络,训练时,采用Adam算法进行优化;/n步骤4:采集目标位置CSI数据,按照步骤2构造目标位置的CSI特征图像;/n步骤5:将目标位置的CSI特征图像输入步骤3训练好的神经网络,神经网络将目标位置在每个参考点的概率作为权重,计算每个参考点坐标的加权平均,得到最终预测的目标位置坐标。/n

【技术特征摘要】
1.基于深度可分离卷积的CSI指纹被动式定位方法,其特征在于:所述定位方法包括如下步骤:
步骤1:划分场景区域并选取参考点,通过发射机和接收机采集参考点坐标和CSI数据;
步骤2:设定发射机和接收机的收发天线对,对每组收发天线对的CSI数据构造CSI特征图像;
步骤3:基于深度可分离卷积设计卷积神经网络,用参考点的CSI特征图像训练神经网络,训练时,采用Adam算法进行优化;
步骤4:采集目标位置CSI数据,按照步骤2构造目标位置的CSI特征图像;
步骤5:将目标位置的CSI特征图像输入步骤3训练好的神经网络,神经网络将目标位置在每个参考点的概率作为权重,计算每个参考点坐标的加权平均,得到最终预测的目标位置坐标。


2.根据权利1要求所述基于深度可分离卷积的CSI指纹被动式定位方法,其特征在于:步骤2中,利用MIMO信息,对于每一组收发天线对的数据,采用大小为30的滑动窗口选取连续的30个CSI数据包,提取出每个数据包中30个子载波的幅度,并计算每个子载波与前一个子载波幅度差,第一个子载波和最后一个子载波的幅度差。将CSI子载...

【专利技术属性】
技术研发人员:孙力娟荀文婧韩崇郭剑肖甫王娟周剑
申请(专利权)人:南京邮电大学
类型:发明
国别省市:江苏;32

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1