论文部分内容阅读
全球导航卫星系统(Global Navigation Satellite System,GNSS)在军事和国民经济领域具有重要利用价值,在最近的20年取得了飞速发展的同时也暴露出了导航信号容易受到干扰的问题。目前关于GNSS空时抗干扰的研究文献众多,但是这些算法大多以最大化阵列输出端信干噪比为优化目标,而在GNSS当中以载波噪声比作为系统的性能评价指标。因此,研究以最大化载波噪声比为优化目标的空时抗干扰算法具有较强的实际意义。此外,GNSS应用中,还需要考虑算法实时性问题,GNSS天线相位中心变化等问题。针对以上这些问题,本文首先从导航定位基本原理出发,重点研究了基于最大载波噪声比准则的空时抗干扰算法,在此基础上,从提高算法实时性的角度考虑,仿真对比了两种降维自适应处理方法,并研究了阵列单元相位中心和阵列等效相位中心对GNSS系统的影响,最后完成算法的FPGA设计实现。具体内容如下:首先,介绍在GNSS系统中以载波噪声比作为性能评价指标的理论依据,推导基于最大载波噪声比准则空时抗干扰算法权值表达式,并结合几种传统的空时抗干扰算法进行分析和比较。其次,简单介绍降维自适应处理的基本原理,分析了基于FIR滤波器设计方法的降维自适应处理方法的基本原理,在此基础上结合压缩感知的基本原理,提出基于压缩感知理论的降维自适应处理方法。与基于FIR滤波器设计方法的降维自适应处理方法相比,此方法设计简单,在多个未知干扰源存在的情况下性能更加优异。再次,分析了天线单元相位中心不一致引起的幅相一致性问题对空时抗干扰算法性能的影响,并讨论了几种常见布阵方式对天线单元幅相一致性的影响。最后讨论了空时抗干扰算法造成阵列等效相位中心变化引起的延时误差问题。最后,完成了算法的FPGA实现。仿真得到的方向图与理论方向图零陷和主瓣所在位置相同,仿真结果与理论结果基本吻合。