基于改进模型的包络跟踪放大器数字预失真方法与流程

文档序号:11811870阅读:610来源:国知局
基于改进模型的包络跟踪放大器数字预失真方法与流程
本发明涉及无线通信领域,具体地,涉及一种基于改进型记忆多项式模型的包络跟踪放大器数字预失真方法。
背景技术
:随着无线系统的不断进步与发展,信号速率的提升带来了信号带宽及信号峰均比的增大,通常为了满足通信系统的线性度要求,需要将功率放大器工作在功率回退区域,严重降低了功放的效率。为了解决这个矛盾,研究者提出将包络跟踪技术与当前功放结合,包络跟踪放大器(Envelope-trackingPowerAmplifier,ETPA)可以根据功率放大器输入信号的“包络”动态调整直流电源电压,使功放在很宽的功率范围内工作在接近饱和区,提高了功放效率。包络跟踪功放的技术难点在于,其可变的偏置电压使功放更多的工作在饱和区域,导致功放的记忆效应显著增强,非线性失真严重。针对功放效率与线性度之间的矛盾,可以结合数字预失真技术,在提高终端功放效率的同时降低非线性失真。而传统的静态功放的数学模型不能很好地表达包络跟踪放大器的特性,使得预失真器对非线性的改善不理想。技术实现要素:针对现有技术中的缺陷,本发明的目的是提供一种基于改进模型的包络跟踪放大器数字预失真方法。根据本发明提供的基于改进模型的包络跟踪放大器数字预失真方法,包括如下步骤:步骤A:计算包络跟踪放大器的基带输入信号x(n)的对应包络信号Venv并将基带输入信号与调整过的包络信号作为预失真器的输入;步骤B:利用输入的包络信号Venv动态控制记忆多项式模型参数,输出预失真信号;步骤C:利用间接学习方法自适应得到预失真器参数,将预失真后信号送入包络跟踪放大器,实现包络跟踪放大器线性度的改善。优选地,所述步骤A包括:步骤A1:将包络跟踪放大器的基带输入信号x(n)以复数形式进行表示,并计算输入功率,令:Pin_W=0.5*real(Vin*conj(Vin/Rin))将功率信号转换为dBm单位:Pin_dBm=10*log(Pin_W)+30式中:Pin_W表示基带输入信号功率,Vin表示基带输入信号电压值,Rin表示功放输入链路阻值,real(.)表示取复信号实部运算,conj(.)表示复信号转置运算,Pin_dBm表示基带输入信号功率,单位:dBm;步骤A2:根据输入信号功率与包络调制器所控制的功率放大器偏置电压范围进行调整,得到预失真器所需的输入信号Venv:Venv=Pmin,Pin_dBm≤PminPin_dBm,Pmin<Pin_dBm<PmaxPmax,Pin_dBm≥Pmax]]>式中:Pmin表示最小偏置电压所对应的输入信号功率,Pmax表示最大偏置电压对应输入信号功率。优选地,所述步骤B包括:步骤B1:给出传统的记忆多项式模型的数学公式如下:y(n)=Σp=1PΣm=0Mcpmx(n-m)|x(n-m)|p-1]]>步骤B2:将步骤B1改进为以输入信号包络为变量的函数形式,即动态改变记忆多项式模型参数,具体数学公式如下:cpm=f(Venv)=Σn=0NbpmVenvn]]>式中:y(n)表示功放输出信号,cpm表示记忆多项式模型参数,n表示第n位数字信号,m表示当前记忆深度,p表示当前多项式阶数,x(n-m)表示功放输入信号,最大多项式阶数P取值范围为P≥1,最大记忆深度M的取值范围为M≥1;bpm表示输入信号包络计算记忆多项式模型参数使用的多项式模型参数,N表示该函数最大阶数。优选地,所述步骤C包括:步骤C1:以改进型记忆多项式数学模型为核心搭建数字预失真器,将基带输入信号x(n)进行预失真处理,并将得到的预失真后信号z(n)作为包络跟踪放大器的输入信号,具体数学表达如下:z(n)=Σp=1PΣm=0Mf(Venv)x(n-m)|x(n-m)|p-1]]>步骤C2:以间接学习结构自适应处理,以多项式模型拟合记忆多项式参数表达式f(Venv),并将f(Venv)代入记忆多项式数学模型,以RLS算法得到多项式拟合参数bpm。与现有技术相比,本发明具有如下的有益效果:通过大量的计算机仿真以及实际实验证实,本发明通过基于改进型记忆多项式模型的包络跟踪放大器数字预失真方法,能够更好的改进包络跟踪放大器的线性度。这种数字预失真方法在包络跟踪放大器的应用中可以有效提升信号线性度,从而达到提高能量效率的目的。附图说明通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:图1为基于改进型记忆多项式模型的包络跟踪放大器数字预失真系统结构图;图2为改进型记忆多项式模型原理示意图;图3为使用改进型预失真器的输出信号功率谱密度结果示意图。具体实施方式下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。根据本发明提供的基于改进模型的包络跟踪放大器数字预失真方法,包括如下步骤:步骤A:计算包络跟踪放大器的基带输入信号x(n)的对应包络信号Venv并将基带输入信号与调整过的包络信号作为预失真器的输入;步骤B:针对适用于固定偏置功率放大器的传统记忆多项式模型加以改进,利用输入的包络信号Venv动态控制记忆多项式模型参数,输出预失真信号;步骤C:利用简介学习方法自适应得到预失真参数,将预失真后信号送入包络跟踪放大器,以改善包络跟踪放大器的线性度。所述步骤A计算基带信号x(n)的对应包络信号Venv,并对包络信号加以处理后作为预失真器输入信号,具体如下:步骤A1:将包络跟踪放大器的基带输入信号x(n)以复数形式进行表达,并以此计算输入功率,令:Pin_W=0.5*real(Vin*conj(Vin/Rin))将功率信号转换为dBm单位:Pin_dBm=10*log(Pin_W)+30步骤A2:根据输入信号功率与包络调制器所控制的功率放大器偏置电压范围加以对应,得到预失真器所需的输入信号Venv:Venv=Pmin,Pin_dBm≤PminPin_dBm,Pmin<Pin_dBm<PmaxPmax,Pin_dBm≥Pmax]]>由于射频功放的偏置电压不可能为0,也不能超过包络调制器所能输出的最大电压值,所以包络跟踪放大器的可调偏置电压有固定范围,这里Pmin为最小偏置电压所对应的输入信号功率,Pmax为最大偏置电压对应输入信号功率。所述步骤B,将传统记忆多项式模型加以改进,具体如下:步骤B1:传统的记忆多项式模型适用于固定偏置电压功放,针对包络跟踪放大器可变偏置电压的特点,已经不能很好表达功放特性,其数学表达为:y(n)=Σp=1PΣm=0Mcpmx(n-m)|x(n-m)|p-1]]>步骤B2:将上述传统记忆多项式的参数改进为以输入信号包络为变量的函数形式,动态改变记忆多项式模型参数,这里采用多项式拟合,其数学表达为:cpm=f(Venv)=Σn=0NbpmVenvn]]>所述步骤C,以改进的记忆多项式模型为核心,以间接学习结构自适应调整预失真器,具体如下:步骤C1:以改进型记忆多项式数学模型为核心搭建数字预失真器,将基带信号x(n)进行预失真处理,并将得到的预失真后信号z(n)作为ETPA的输入信号,其数学表达为:z(n)=Σp=1PΣm=0Mf(Venv)x(n-m)|x(n-m)|p-1]]>步骤C2:以间接学习结构自适应处理,以多项式模型拟合记忆多项式参数表达式f(Venv),并将其代入记忆多项式数学模型,以RLS算法得到多项式拟合参数bpm。图1示意了基于改进型记忆多项式模型的包络跟踪放大器数字预失真系统结构,本发明所述的基于改进型记忆多项式模型的包络跟踪放大器数字预失真方法主要包含三个层面:首先,得到输入信号的包络信号作为预失真器的另一个输入参数,用以控制记忆多项式模型参数;其次,根据输入的包络信号大小构建基于改进型记忆多项式模型的预失真器;最后,利用间接学习结构RLS算法自适应得到预失真器参数并实现包络跟踪放大器的线性度优化。如图2所示为改进型记忆多项式模型的说明。改进型记忆多项式模型针对包络跟踪放大器特点,将输入信号包络经过处理作为数学模型的另一输入信号,结合传统记忆多项式模型,克服针对固定偏置电压功率放大器的传统记忆多项式模型预失真方法不适用于动态改变功放偏置电压的包络跟踪放大器的缺点。在实验过程中,利用基于ADS仿真电路案例来说明本发明中所示的包络跟踪放大器数字预失真方法,图3所示的是在不使用预失真器、使用传统记忆多项式模型预失真器、使用改进型记忆多项式预失真器三种情况下的输出信号功率谱密度图。根据本发明中提供的方法,实验中输入信号为10MHz带宽LTE信号,不同预失真器对输出信号的线性度的改善以NMSE与ACPR判断,结果如表1所示。从表1可以看出,在两种不同的预失真处理下,基于改进型记忆多项式模型的预失真系统对输出信号的非线性改善最好,具体体现在器输出信号边带功率泄漏比(ACPR)对比传统记忆多项式预失真器有5-6dB的改善。表1更为具体地,在本发明的一个优选例中,本发明是通过以下技术方案实现的,本发明包括以下步骤:第一步:将基带LTE输入信号x(n)的对应包络信号Venv作为预失真器的输入;第二步:在预失真器中构建改进型记忆多项式模型;第三步:利用间接学习结构RLS算法自适应得到预失真器参数并实现包络跟踪放大器的线性度优化。以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。当前第1页1 2 3 
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1