基于Bi-LSTM神经网络的摩尔斯电码自动识别方法与流程

文档序号:20580819发布日期:2020-04-29 01:27阅读:710来源:国知局
基于Bi-LSTM神经网络的摩尔斯电码自动识别方法与流程

本发明涉及通讯信号处理技术领域,具体涉及基于bi-lstm神经网络的摩尔斯电码自动识别方法。



背景技术:

世界范围内电报通信普遍采用摩尔斯电码方式,在抄收报文的过程中都采用人工抄报方式,尚没有一种机器或设备能够替代人工进行报文的抄收。摩尔斯电码作为国际通用的电报通信符号,它以长短不同的信号进行各种组合来代表一定的字母、数字和标点符号。在书写时,短信号一般以点“.”来代表,长信号以划“-”来代表。为了区别点与划以及分清各个字符,对点、划的长度及各类间隔都有严格的规定:1个划等于3个无间隔点的长度;一个字符中,点与点、划与划、点与划的间隔为1个点的长度;相邻字符的间隔为3个点的长度;相邻单词或相邻两个单词的间隔为5个点的长度。

报务员要想熟练地抄收摩尔斯电码,必须熟记每个电码符号。数字的电码符号比较容易掌握,字母和标点符号可按组合规律分类去记,当听到一个符号能不假思索地读出其代表的字符后,才可以开始摩尔斯电码的抄收训练。训练过程由慢到快地循序渐进,一般培训一个合格的报务员需要八个月左右的时间。由此可知,人工抄报工作方式存在三个大的缺陷:1、报务员工作时间短,一般人工报务员工作二小时就得休息,无法进行长时间持续不停的抄收工作;2、报务员劳动强度大,报务员要具备超强的脑工和手工,要十分的精准的接收和把握声音信号,并纠正机器发报过程中的极少错误,才得出一份文本文件作为报文结果;3、报务员训练周期长,不利于快速和大数量的进行复制。

近年来随着人工智能和深度学习的流行和普及,大量需要人工进行重复性劳动的工作都被人工智能和深度学习技术所替代,但是对摩尔斯电码的识别工作还是依赖于有经验的报务人员来完成,还没有一种可以利用人工智能和深度学习技术来完成摩尔斯电码自动识别的有效技术手段。



技术实现要素:

针对现有技术存在的不足,本发明提供了基于bi-lstm神经网络的摩尔斯电码自动识别方法,其应用时,可以利用基于bi-lstm的深度神经网络模型来高效、精准地完成摩尔斯电码的自动识别。

本发明所采用的技术方案为:

基于bi-lstm神经网络的摩尔斯电码自动识别方法,包括以下步骤:

s1、构建卷积神经网络和bi-lstm神经网络,并结合bi-lstm神经网络和卷积神经网络进行序列建模,生成多模lstm模型;

s2、采用联合训练的方式对多模lstm模型进行训练,对bi-lstm神经网络和卷积神经网络的参数进行联合优化;

s3、获取摩尔斯电码音频信号,并对摩尔斯电码音频信号进行预处理,获得预处理后的音频信号;

s4、对预处理后的音频信号进行解析和转化,生成音频信号的频谱图像;

s5、将频谱图像输入多模lstm模型,输出概率向量结果;

s6、利用概率向量结果判定摩尔斯电码的内容。

作为上述技术方案的优选,在步骤s1中,所构建的bi-lstm神经网络为双向多层bi-lstm神经网络,双向多层bi-lstm神经网络中每一层的输出数据作为下一层的输入数据。

作为上述技术方案的优选,在步骤s1中,所述bi-lstm神经网络可表示为:

st=f(uxt+wst-1)

st’=f(u’xt+w’st+1’)

ot=g(vst+v’st’)

其中,st表示t频谱点的隐藏层状态值,st’表示t频谱点的反向隐藏层状态值,ot表示t频谱点的输出层的值,st-1表示t-1频谱点的隐藏层状态值,st+1’表示t+1频谱点的反向隐藏层状态值,g、f表示不同的激活函数,xt表示输入向量,u表示输入层到隐藏层的权重矩阵,u’表示输入层到隐藏层的反向权重矩阵,w表示隐藏层之间的权重矩阵,就是隐藏层上一次的值作为这一次的输入的权重,w’表示隐藏层之间的反向权重矩阵,v表示隐藏层到输出层的权重矩阵,v’表示隐藏层到输出层的反向权重矩阵。

作为上述技术方案的优选,在步骤s1中,所构建的卷积神经网络包括conv1d层、pooling层和dropout层。

作为上述技术方案的优选,在步骤s3中,对摩尔斯电码音频信号进行预处理的过程包括音量标准化处理、信号放大处理、高通滤波处理和信号降噪处理。

作为上述技术方案的优选,在步骤s4中,在对预处理后的音频信号进行转化时,采用傅里叶变换将预处理后的音频信号转化成频谱图像。

作为上述技术方案的优选,在进行傅里叶变换过程前,先增强音频信号内关键频率信号的强度。

作为上述技术方案的优选,在步骤s5中,频谱图像输入多模lstm模型后,卷积神经网络先对频谱图像进行特征提取,提取后的特征再输入bi-lstm神经网络进行处理。

作为上述技术方案的优选,在多模lstm模型中,bi-lstm神经网络的输出端还对接有dense全连接层,dense全连接层采用sigmoid函数作为activation,dense全连接层对bi-lstm神经网络的输出数据进行维度转换处理,输出所需维度的概率向量结果。

作为上述技术方案的优选,在步骤s6中,利用概率向量结果判定摩尔斯电码内容的具体步骤包括:

s61、建立数据库,获取已有的包括图像卷积神经网络特征与对应描述单词的数据集,将已有的图像卷积神经网络特征与对应描述单词关联存储在数据库内;

s62、通过卷积神经网络先对摩尔斯电码对应频谱图像进行特征提取,多模lstm模型根据卷积神经网络提取的特征,从数据库中提取所有可能的对应描述单词;

s63、通过bi-lstm神经网络对提取的所有描述单词的概率进行判断,并输出其中概率最大的概率向量结果;

s64、根据概率向量结果从数据库中提取所对应的描述单词输出,输出的描述单词即判定为摩尔斯电码的内容。

本发明的有益效果为:

本发明通过将摩尔斯电码音频信号转换为频谱图像,再将频谱图像导入多模lstm模型中,通过卷积神经网络进行特征提取,根据提取的特征再通过bi-lstm神经网络进行深度学习判断处理,输出相应的结果,通过dense全连接层对bi-lstm神经网络的输出数据进行维度转换处理,输出所需维度的概率向量结果,就可以根据概率向量结果自动识别判断相应的摩尔斯电码内容,实现摩尔斯电报声音到文字自动转换的突破,同时多层bi-lstm有效地增加了模型的深度,使处理结果精准无误,采用卷积神经网络与双向bi-lstm神经网络的结合,对输入的图像数据先进行部分特征的提取,有效提高了多模lstm神经网络模型的处理效率。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为本发明的步骤示意框图;

图2为多模lstm模型的信号处理过程示意图。

具体实施方式

下面结合附图及具体实施例对本发明作进一步阐述。在此需要说明的是,对于这些实施例方式的说明用于帮助理解本发明,但并不构成对本发明的限定。本文公开的特定结构和功能细节仅用于描述本发明的示例实施例。然而,可用很多备选的形式来体现本发明,并且不应当理解为本发明限制在本文阐述的实施例中。

应当理解,术语第一、第二等仅用于区分描述,而不能理解为指示或暗示相对重要性。尽管本文可以使用术语第一、第二等等来描述各种单元,这些单元不应当受到这些术语的限制。这些术语仅用于区分一个单元和另一个单元。例如可以将第一单元称作第二单元,并且类似地可以将第二单元称作第一单元,同时不脱离本发明的示例实施例的范围。

应当理解,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b,可以表示:单独存在a,单独存在b,同时存在a和b三种情况,本文中术语“/和”是描述另一种关联对象关系,表示可以存在两种关系,例如,a/和b,可以表示:单独存在a,单独存在a和b两种情况,另外,本文中字符“/”,一般表示前后关联对象是一种“或”关系。

应当理解,在本发明的描述中,术语“上”、“竖直”、“内”、“外”等指示的方位或位置关系,是该发明产品使用时惯常摆放的方位或位置关系,或者是本领域技术人员惯常理解的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。

应当理解,当将单元称作与另一个单元“连接”、“相连”或“耦合”时,它可以与另一个单元直相连接或耦合,或中间单元可以存在。相対地,当将单元称作与另一个单元“直接相连”或“直接耦合”时,不存在中间单元。应当以类似方式来解释用于描述单元之间的关系的其他单词(例如,“在……之间”对“直接在……之间”,“相邻”对“直接相邻”等等)。

在本发明的描述中,还需要说明的是,除非另有明确的规定和限定,术语“设置”、“安装”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。

本文使用的术语仅用于描述特定实施例,并且不意在限制本发明的示例实施例。如本文所使用的,单数形式“一”、“一个”以及“该”意在包括复数形式,除非上下文明确指示相反意思。还应当理解术语“包括”、“包括了”、“包含”、和/或“包含了”当在本文中使用时,指定所声明的特征、整数、步骤、操作、单元和/或组件的存在性,并且不排除一个或多个其他特征、数量、步骤、操作、单元、组件和/或他们的组合存在性或增加。

还应当注意到在一些备选实施例中,所出现的功能/动作可能与附图出现的顺序不同。例如,取决于于所涉及的功能/动作,实际上可以实质上并发地执行,或者有时可以以相反的顺序来执行连续示出的两个图。

在下面的描述中提供了特定的细节,以便于对示例实施例的完全理解。然而,本领域普通技术人员应当理解可以在没有这些特定细节的情况下实现示例实施例。例如可以在框图中示出系统,以避免用不必要的细节来使得示例不清楚。在其他实施例中,可以不以非必要的细节来示出众所周知的过程、结构和技术,以避免使得示例实施例不清楚。

实施例1:

本实施例提供了基于bi-lstm神经网络的摩尔斯电码自动识别方法,如图1至图2所示,包括以下步骤:

s1、构建卷积神经网络和bi-lstm神经网络,并结合bi-lstm神经网络和卷积神经网络进行序列建模,生成多模lstm模型;

s2、采用联合训练的方式对多模lstm模型进行训练,对bi-lstm神经网络和卷积神经网络的参数进行联合优化;

s3、获取摩尔斯电码音频信号,并对摩尔斯电码音频信号进行预处理,获得预处理后的音频信号;

s4、对预处理后的音频信号进行解析和转化,生成音频信号的频谱图像;

s5、将频谱图像输入多模lstm模型,输出概率向量结果;

s6、利用概率向量结果判定摩尔斯电码的内容。

在步骤s5中,频谱图像输入多模lstm模型后,卷积神经网络先对频谱图像进行特征提取,提取后的特征再输入bi-lstm神经网络进行处理。在多模lstm模型中,bi-lstm神经网络的输出端还对接有dense全连接层,dense全连接层采用sigmoid函数作为activation,dense全连接层对bi-lstm神经网络的输出数据进行维度转换处理,输出所需维度的概率向量结果。

sigmoid函数是一个在生物学中常见的s型函数,也称为s型生长曲线。在信息科学中,由于其单增以及反函数单增等性质,sigmoid函数常被用作神经网络的激活函数,将变量映射到0-1之间。sigmoid函数也叫logistic函数,用于隐层神经元输出,取值范围为(0,1),它可以将一个实数映射到(0,1)的区间,可以用来做二分类。在特征相差比较复杂或是相差不是特别大时效果比较好。sigmoid作为激活函数有以下优点:平滑、易于求导。

卷积神经网络(convolutionalneuralnetworks,cnn)是一类包含卷积计算且具有深度结构的前馈神经网络(feedforwardneuralnetworks),是深度学习(deeplearning)的代表算法之一。卷积神经网络具有表征学习(representationlearning)能力,能够按其阶层结构对输入信息进行平移不变分类(shift-invariantclassification),因此也被称为“平移不变人工神经网络(shift-invariantartificialneuralnetworks,siann)。卷积神经网络仿造生物的视知觉(visualperception)机制构建,可以进行监督学习和非监督学习,其隐含层内的卷积核参数共享和层间连接的稀疏性使得卷积神经网络能够以较小的计算量对格点化(grid-liketopology)特征,例如像素和音频进行学习、有稳定的效果且对数据没有额外的特征工程(featureengineering)要求。卷积神经网络长期以来是图像识别领域的核心算法之一,并在学习数据充足时有稳定的表现。对于一般的大规模图像分类问题,卷积神经网络可用于构建阶层分类器(hierarchicalclassifier),也可以在精细分类识别(fine-grainedrecognition)中用于提取图像的判别特征以供其它分类器进行学习。对于后者,特征提取可以人为地将图像的不同部分分别输入卷积神经网络,也可以由卷积神经网络通过非监督学习自行提取。

在步骤s6中,利用概率向量结果判定摩尔斯电码内容的具体步骤包括:

s61、建立数据库,获取已有的包括图像卷积神经网络特征与对应描述单词的数据集,将已有的图像卷积神经网络特征与对应描述单词关联存储在数据库内;

s62、通过卷积神经网络先对摩尔斯电码对应频谱图像进行特征提取,多模lstm模型根据卷积神经网络提取的特征,从数据库中提取所有可能的对应描述单词;

s63、通过bi-lstm神经网络对提取的所有描述单词的概率进行判断,并输出其中概率最大的概率向量结果;

s64、根据概率向量结果从数据库中提取所对应的描述单词输出,输出的描述单词即判定为摩尔斯电码的内容。

具体实施时,通过将摩尔斯电码音频信号转换为频谱图像,再将频谱图像导入多模lstm模型中,通过卷积神经网络进行特征提取,根据提取的特征再通过bi-lstm神经网络进行深度学习判断处理,输出相应的结果,通过dense全连接层对bi-lstm神经网络的输出数据进行维度转换处理,输出所需维度的概率向量结果,就可以根据概率向量结果自动识别判断相应的摩尔斯电码内容,实现摩尔斯电报声音到文字自动转换的突破,同时多层bi-lstm有效地增加了模型的深度,使处理结果精准无误,采用卷积神经网络与双向bi-lstm神经网络的结合,对输入的图像数据先进行部分特征的提取,有效提高了多模lstm神经网络模型的处理效率。

实施例2:

作为对上述实施例的优化,在步骤s1中,所构建的bi-lstm神经网络为双向多层bi-lstm神经网络,双向多层bi-lstm神经网络中每一层的输出数据作为下一层的输入数据。

所述bi-lstm神经网络可表示为:

st=f(uxt+wst-1)

st’=f(u’xt+w’st+1’)

ot=g(vst+v’st’)

其中,st表示t频谱点的隐藏层状态值,st’表示t频谱点的反向隐藏层状态值,ot表示t频谱点的输出层的值,st-1表示t-1频谱点的隐藏层状态值,st+1’表示t+1频谱点的反向隐藏层状态值,g、f表示不同的激活函数,xt表示输入向量,u表示输入层到隐藏层的权重矩阵,u’表示输入层到隐藏层的反向权重矩阵,w表示隐藏层之间的权重矩阵,就是隐藏层上一次的值作为这一次的输入的权重,w’表示隐藏层之间的反向权重矩阵,v表示隐藏层到输出层的权重矩阵,v’表示隐藏层到输出层的反向权重矩阵。

所构建的卷积神经网络包括conv1d层、pooling层和dropout层。为防止神经网络模型层数过多而导致模型过拟合,在卷积神经网络中加入dropout层,减少了过拟合现象。

实施例3:

作为对上述实施例的优化,在步骤s3中,对摩尔斯电码音频信号进行预处理的过程包括音量标准化处理、信号放大处理、高通滤波处理和信号降噪处理,音量标准化处理让音频片段的音量区域平均,高通滤波处理过滤掉频率低于300hz的低频环境噪音。

在步骤s4中,在对预处理后的音频信号进行转化时,采用傅里叶变换将预处理后的音频信号转化成频谱图像,采样频率8000hz。在进行傅里叶变换过程前,先增强音频信号内关键频率信号的强度(线性增强,系数1.2),关键频率范围为1000hz±100hz。

本发明不局限于上述可选的实施方式,任何人在本发明的启示下都可得出其他各种形式的产品。上述具体实施方式不应理解成对本发明的保护范围的限制,本发明的保护范围应当以权利要求书中界定的为准,并且说明书可以用于解释权利要求书。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1