一种对称唐卡修复后图像的无参考质量评价方法与流程

文档序号:17363227发布日期:2019-04-09 22:14阅读:364来源:国知局
一种对称唐卡修复后图像的无参考质量评价方法与流程

本发明属于图像处理技术领域,涉及一种对称唐卡修复后图像的无参考质量评价方法。



背景技术:

所谓对称唐卡修复后图像的无参考质量评价方法,就是利用计算机的特征提取技术对图像实现自动对称特征和角点特征的提取,并利用唐卡图像的构图对称特征将左右两半图像角点的距离方差进行对比,差值的大小可以有效的显示图像质量的变化,通过分析提取出来的差值评价修复图像的质量情况。在文物保护或修复过程中,修复后的图像质量状况往往影响着后期的研究工作,虽然大量的数字修复算法能够有效的完成图像修复工作,但对于修复后的图像质量能否达到预定的期望,也就是对于修复效果的定性和定量描述则很少有报道,因而采用数字化方式对受损唐卡图像进行修复后的质量评价,具有很大的文化价值与社会意义。

唐卡图像的绘制与一般的自然图像不同,其遵循着一定的构图与绘画技巧。主要使用中心构图且四周图案对称、中心构图且四周图案不对称、叙事构图法、坛城图四种方法来进行唐卡图像的绘制。而这四种构图手法又以中心构图为主,例如佛像图、宗教人物图、历史人物图等,大约占据现存唐卡图像的80%以上。由于唐卡图像本身具有鲜明的色彩与线条特点,因此它的特征分布具有一定规律。

本发明主要解决中心构图且四周图案对称的唐卡图像的修复质量评价问题。虽然唐卡修复算法较多,但很少有算法涉及到对其修复质量进行评价。此外,国内外仍然具有较多针对类似唐卡图像的无参考修复质量评价方法,例如基于实例统计的方法、基于阈值分割以及基于pde的方法等,但这些方法都或多或少需要有原始图像或者存在大部分原始图像的信息,很少有算法能够有效的实现无参考修复图像的质量评价。在无参考图像质量评价算法中,大部分算法首先要通过残破的图像构建尽可能完整的原始图像,比较原始图像与残破图像之间的差距并数值化,但修复图像本与原始图像相差无几导致评价的过程更加艰难,通过单一的特征很难实现这一目标。



技术实现要素:

本发明的目的在于提供一种对称唐卡修复后图像的无参考质量评价方法,该方法可以将破损修复后的唐卡图像在缺少原始图像的情况下,实现原始图像重构并将原始图像与修复后图像进行差距量化,实现图像修复质量评价,指标准确率高,速度快。

为此,本发明采用如下技术方案:

一种对称唐卡修复后图像的无参考质量评价方法,首先对大量破损待修复图像进行边缘特征、亮度、颜色、纹理等底层特征的提取,同时利用提取出的特征值进行对称参数的多次调整,找到最合适参数以便获取自动对称轴;然后由对称轴一边的未受损区域来预测出受损区域的初始图像,获得完整原始图像;再采用harris角点特征分布来量化原始图像与修复图像之间的差异,从而获得评价指标。为了将评价指标进一步精确化,利用生成模型实现图片不同程度的变形,得到更多尺度与种类的实验图像,将得到的评价指标求取平均值,最终获得精细化的评价指标。具体过程如下:

a样本分类

首先从唐卡图像数据库中人工筛选出中心构图且四周对称的图像作为目标样本,并记为f(f1,f2…fm),然后将筛选出的目标样本实现样本分类,分为训练样本和测试样本,具体地:

a.1训练样本

在目标样本f(f1,f2…fm)中随机地选取一半样本作为训练样本,记为a(a1,a2…an),将另一半样本作为测试样本,记为b(b1,b2…bn);将训练样本的图像分辨率统一归一化为u*v,再转化为jpeg、png、jpeg2000三种图像格式;

a.2测试样本

将所有测试样本的图像分辨率统一归一化为u*v,再转化为jpeg、png、jpeg2000三种图像格式;

b对称轴自动检测

将步骤a中得到的训练样本a(a1,a2…an)取出,并进行边缘特征以及亮度、色彩、纹理特征的融合提取,在多实例学习框架下进行对称轴检测,实现图像对称轴的自动检测,从而构建出破损前的原始图像,具体地:

b.1边缘特征提取

第一步:在训练样本图像上随机选择一个像素点o(x,y),取过o(x,y)点的一条线段nm,其中n、m点是与o点距离相等的两点,线段no的距离记为当前的尺度s,s可取值2、4、6、8,线段nm的方向为当前nm连线与水平方向的夹角θ,θ可取值15°、30°、45°、60°;

第二步:在线段nm所在的直线上取两个线段l1和l2,l1和l2分别是以n和m为中心的两条线段,l1和l2的长度为当前尺度s长度的0.2-0.3倍;

第三步:在线段l1上取边缘强度最大的点a,在线段l2上取边缘强度最大的点b,将a、b点的边缘强度分别记为pa和pb.;

第四步:将前三步得到的参数利用下述公式计算出像素点o(x,y)的边缘强度特征:

通过在规定参数内改变尺度s和角度θ,实现多尺度多角度的边缘强度特征提取;

b.2亮度、颜色、纹理特征的提取

b.2.1亮度特征提取

像素点o(x,y)的亮度特征l(x,y)的计算公式如下:

式中,r表示像素点o(x,y)处的亮度与图像背景亮度的差值,μx、μy分别为像素点o(x,y)水平和垂直方向的像素灰度值,c1为常数并根据经验取1;

式中,n为图像中所有像素点个数,xi和yi分别为像素点o(x,y)的水平和垂直方向上第i个像素点的灰度值;

b.2.2颜色特征提取

像素点o(x,y)的颜色特征c(x,y)的计算公式如下:

其中:

σx、σy作为像素点o(x,y)的颜色参数,c2为常数并根据经验取1;

b.2.3纹理特征提取

像素点o(x,y)的纹理特征t(x,y)的计算公式如下:

c3为常数并根据经验取1;

b.3对称特征值计算

b.3.1设置对称模板

针对高为u、宽为v的样本图像,在提取像素点o(x,y)的亮度、颜色、纹理特征时,以这个像素点为中心点得到长为3h宽为w的矩形并记为afhc,作为对称模板,其中3h≤u且w≤v;

b.3.2改变模板尺度

将矩形afhc分为长为h、宽为w的三个小的矩形,分别记为abdc、begd和efhg,将矩形afhc的两长边af和ch的中点记为i1、i2,线段i1i2与水平方向的夹角为θ′;

b.3.3标记对称像素

将矩形abdc、begd和efhg底层描述算子χ2(g,h)的直方图记为r1、r2、r3,其中,直方图r1、r2、r3的横坐标均为矩形中像素点的坐标值,纵坐标分别表示像素点的亮度、颜色和纹理特征值;

底层描述算子χ2(g,h)采用χ2-distance函数进行计算,且:

式中,k表示矩形中的像素点,g(k)和h(k)分别交替调用式(3)、(6)、(9)中的亮度、颜色、纹理函数;

计算出矩形abdc、begd和efhg的底层描述算子的直方图之间的距离,即像素点o(x,y)的差分特征值hi,j(x,y,θ,s),具体计算如下:

其中:i,j分别表示直方图标号,θ为角度并取0°和45°,s为尺度,ri(k)表示直方图ri中第k个像素点的纵坐标值;

当上述方法得到的像素点差分特征值超过阈值3时(3为经验值),则这一点的差分特征值被视为具有对称特性的特征值,人工标记为正标签,记为m=1,如此点的特征值为非对称性特征值,则人工标记为负标签,记为m=0;

b.4多实例学习框架的建立

多实例学习可以被形容为将每一个样本图像的像素点看为一个集合,每个集合有很多实例学习,将不同尺度和角度组合下计算得到的该像素点的差分特征值作为集合中的实例,每个实例学习都有自己的标签m,如m=1则为正,人工标记为对称轴标签;m=0则为负,则人工标记为非对称轴标签,一个像素点的集合当中如果正标签较多则集合为正,负标签较多则集合为负,正负标签一样多则随机选择为正或负;

b.4.1人工标记实例图像

当一个像素点的集合为正,则将该像素点标记为对称轴像素,且标签值为1,若集合为负则标记为非对称轴像素,且标签值为0;

b.4.2训练参数

将训练样本中的像素点与标签值输入到如下公式中,经过大量样本带入计算可以训练出βd、βe两个参数,计算公式如下:

s(x,y,θ,s)=∑ijβdhij(x,y,θ,s)+βee(x,y,θ,s)(12)

式中,hij(x,y,θ,s)为像素点的差分特征值,e(x,y,θ,s)为像素点的边缘强度特征,s(x,y,θ,s)为像素点的标签值;

b.4.3测试参数

随机选取13个角度以及八邻域方向,则每个像素点的集合有104个实例进行学习,最后将测试样本图像输入到公式(12)中得出每个像素点集合的标签,进而判断得出测试样本图像中的对称轴像素点;

b.5对称轴检测

b.5.1对称轴拟合

然而初步分割的点阵比较粗糙不符合对称轴直线的要求,为此,进一步采用最小二乘函数即下式得到测试样本图像对称点的拟合直线:

b=y-ax(14)

yj=axi+b(15)

式中:x、y代表待拟合像素点o(x,y)的坐标值,n代表测试图像中像素点的个数,a为拟合直线的斜率,b为拟合直线的斜矩,xi是拟合后像素点的横坐标,yj是拟合后像素点的纵坐标;

b.5.2坐标轴平移

将拟合直线转化为坐标轴的形式以便后面的计算,具体过程如下:

(1)设拟合后对称轴上像素点的坐标为m(xi,yi);

(2)将拟合后得到的对称轴设为坐标系中的y轴,x轴保持不动,并将原有的所有图像像素点坐标o(x,y)更新为基于新坐标轴的坐标点m(xu,yv),将每个像素点坐标左移xi个单位,y坐标不变,公式定义为:

xu=xr-x1(16)

yv=yj(17)

从而将所有像素点坐标更新为以图像对称轴为y轴的对称坐标系;

b.6原始图像构建

由于对称轴分割步骤的完成,可将唐卡图像分割为左右两幅无论色彩、构图或纹理特征都相似的图片,所以可以将修复区域的对称图像通过镜面翻转的方式来构建无损原始图像,由于经过唐卡破损修复后很小概率出现图像左右对称区域损坏完全相同,可忽略不计对称区域完全相同破损的情况;

c量化评价指标

c.1harries角点特征提取

c.1.1自动赋予权值

引入harris算子,并使用高斯窗口w(x,y)代替二值窗口函数,对离中心点越近的像素赋予越大的权重,以减少噪声影响,计算公式为:

式中,σ为高斯窗口概率的期望,x、y为更新后像素点坐标值;

c.1.2特征向量计算

设ix与iy分别为图像窗口矩阵在x轴方向与y轴方向的特征向量,其中,窗口矩阵为在检测harris算子时使用一个像素值为8*8大小的矩形移动窗口,该窗口中包含的每个像素点的差分特征值组成了一个8*8的窗口矩阵,即:

首先计算水平方向的特征矩阵a并给其赋予权值w,为矩阵叉乘符号:

计算垂直方向的特征矩阵b并给其赋予权值w:

同时计算ix向量和iy向量相对于水平方向的夹角方向上的特征矩阵c、d并赋予权值w:

综合得到特征矩阵m

c.1.3角点判断

计算每个像素的harris角点响应值r:

r=(ab-cd)2p(a+b)2(23)

式中,p为搜索权值,调节p值可调整角点的搜索精密度,p值太大可能将不是角点的像素识别为角点,p值太小可能将是角点的像素忽略,通过大量计算,p值一般取0.1,并在局部范围内寻找r的极大值点rmax,若harris角点响应值r大于阈值3,3为经验值,则视为角点;

c.2初步量化评价指标

c.2.1构建参考图像

将通过不同算法修复得到的图像利用步骤b.3中底层描述算子差分法进行图像对称分割,并将提取出的对称点转化为坐标轴形式;

c.2.2针对修复图像进行角点提取

使用8*8的高斯滑动窗口矩阵对图像进行角点识别,利用ix向量和iy向量的特征向量来表征变化最快和最慢的两个方向,即若两个特征向量值都大于阈值3则为角点区域,一大一小则为边缘区域,两个都小于阈值3则目标点处于灰度值变化缓慢的图像区域,同时获取角点坐标位置j(xj,yh);将角点坐标同样放置于对称坐标系中,更新后坐标为j(xj,yh),获取对称坐标轴原点c(xc,0);在实验中,图像扫描时只针对每个像素的八邻域范围进行检测;

c.2.3计算预测图像与实际图像的差值

坐标转换后,计算更新后角点j(xj,yh)到原点c(xc,0)的距离,w1为预测图像的角点距离值,w2为实际图像的角点距离值,定义为:

式中,k值为角点像素j(xj,yh)中xj的最大值;利用预测图像与实际图像距离的差值得到图像修复评价指标h,即:

h=|w1-w2|(26)

修复评价指标h的值越高,说明图像修复质量越高。

进一步地,对图像修复评价指标进行进一步精细化,具体是在步骤c基础上通过下述步骤进行:

d精细化评价指标模型构建

d.1初始化模型

首先针对现存的唐卡图像数据库中的图片进行预处理,由于图像库中图片较少,所以利用gan对抗生成网络中的生成对抗网络技术,针对现存唐卡数据库中的图像进行不同程度的扭曲、翻转等基本操作,形成大量能够以假乱真的实验图像数据,具体过程如下:

d.2建立模型框架

初始设定生成模型g、判别模型d,生成模型用来对唐卡数据库中的图像进行翻转、大下改变或变形操作生成大量不同但相似的图像;判别模型用来对这些图片进行判断,是否为对实验数据有用的图片,且利用下面的判别公式来计算生成出的图片与原始图像的差别程度,损失大于0.5就丢弃,小于或等于0.5就留到数据库中使用:

(1)随机产生一组向量成为生成模型的输入向量,并记为d(x);

(2)选取样本

从现有唐卡数据库中选取图像作为输入x;

(3)判别网络的建立

将d(x)或者x作为判别模型的输入,经过判别模型后输出值为一个0到1之间的数,判别模型具体采用损失函数z(x),其公式如下:

z(x)=-((1-y)log(1-d(g(z)))+ylogd(x))(27)

式中,g(z)代表通过翻转、大下改变或变形操作生成的图像,x代表原始唐卡数据库中的图像,y表示想要扩大的数据库比例即生成的新图像与原始图像的数量比例;

d.6指标均衡化

设数据库中有u幅图像,每幅图像通过生成模型的变形生成了v个损失值小于或等于0.5的有用样本,每个样本利用步骤c得到图像修复评价指标hv,那么样本图像修复评价指标均值m为:

将该均值指标作为图像修复质量的最终评价指标,指标愈高,修复质量愈高。

本发明提出的一种针对已修复图像的无参考图像质量评价方法,通过唐卡独有的对称构图特性,将图像分割为对称的两部分进行参考图像的构建,同时结合人眼识别系统(hvs)针对人眼的兴趣点也就是角点进行提取,计算已分割出的对称图像角点与对称点的距离,其相差越大则表明图像的质量越差,反之则越好。实验表明,该方法与人类视觉系统较为一致,与全参考质量评价方法相比效率有所提升,且克服了当前主流无参考评价方法速率慢、准确率低的缺点。

附图说明

图1为本发明对称模板的选取示意图。

具体实施方式

下面通过具体实施例对本发明方法进行进一步的说明。

一种对称唐卡修复后图像的无参考质量评价方法,包括如下步骤:

a样本分类

首先从唐卡图像数据库中人工筛选出中心构图且四周对称的图像作为目标样本,并记为f(f1,f2…fm),然后将筛选出的目标样本实现样本分类,分为训练样本和测试样本,具体地:

a.1训练样本

在目标样本f(f1,f2…fm)中随机地选取一半样本作为训练样本,记为a(a1,a2…an),将另一半样本作为测试样本,记为b(b1,b2…bn);将训练样本的图像分辨率统一归一化为u*v,再转化为jpeg、png、jpeg2000三种图像格式;

a.2测试样本

将所有测试样本的图像分辨率统一归一化为u*v,再转化为jpeg、png、jpeg2000三种图像格式;

b对称轴自动检测

将步骤a中得到的训练样本a(a1,a2…an)取出,并进行边缘特征以及亮度、色彩、纹理特征的融合提取,在多实例学习框架下进行对称轴检测,实现图像对称轴的自动检测,从而构建出破损前的原始图像,具体地:

b.1边缘特征提取

第一步:在训练样本图像上随机选择一个像素点o(x,y),取过o(x,y)点的一条线段nm,其中n、m点是与o点距离相等的两点,线段no的距离记为当前的尺度s,s可取值2、4、6、8,线段nm的方向为当前nm连线与水平线的夹角θ,θ可取值15°、30°、45°、60°;

第二步:在线段nm所在的直线上取两个线段l1和l2,l1和l2分别是以n和m为中心的两条线段,l1和l2的长度为当前尺度s长度的0.2-0.3倍;

第三步:在线段l1上取边缘强度最大的点a,在线段l2上取边缘强度最大的点b,将a、b点的边缘强度分别记为pa和pb.;

第四步:将前三步得到的参数利用下述公式计算出像素点o(x,y)的边缘强度特征:

通过在规定参数内改变尺度s和角度θ,实现多尺度多角度的边缘强度特征提取;

b.2亮度、颜色、纹理特征的提取

b.2.1亮度特征提取

像素点o(x,y)的亮度特征l(x,y)的计算公式如下:

式中,r表示像素点o(x,y)处亮度与图像背景亮度的差值(图像背景指唐卡图像中佛像或人像身后的背景图),μx、μy分别为像素点o(x,y)水平和垂直方向的像素灰度值,c1为常数并根据经验取1;且

式中,n为图像中所有像素点个数,xi和yi分别为像素点o(x,y)的水平和垂直方向上第i个像素点的灰度值;

b.2.2颜色特征提取

像素点o(x,y)的颜色特征c(x,y)的计算公式如下:

其中:

σx、σy作为像素点o(x,y)的颜色参数,c2为常数并根据经验取1;

b.2.3纹理特征提取

像素点o(x,y)的纹理特征t(x,y)的计算公式如下:

c3为常数并根据经验取1;

b.3对称特征值计算

b.3.1设置对称模板

针对高为u、宽为v的样本图像,在提取像素点o(x,y)的亮度、颜色、纹理特征时,如图1所示,以这个像素点为中心点得到长为3h、宽为w的矩形并记为afhc,作为对称模板,其中3h≤u且w≤v;

b.3.2改变模板尺度

将矩形afhc分为长为h、宽为w的三个小的矩形,分别记为abdc、begd和efhg,将矩形afhc的两长边af和ch的中点记为i1、i2,线段i1i2与水平方向的夹角为θ′;

b.3.3标记对称像素

将矩形abdc、begd和efhg底层描述算子χ2(g,h)的直方图记为r1、r2、r3,其中,直方图r1、r2、r3的横坐标均为矩形中像素点的坐标值,纵坐标分别表示像素点的亮度、颜色和纹理特征值;

底层描述算子χ2(g,h)采用χ2-distance函数进行计算,且:

式中,k表示矩形中的像素点,g(k)和h(k)可交替调用式(3)、(6)、(9)中的亮度、颜色、纹理函数,即g(k)和h(k)分别依次取式(3)、(6)、(9)中的亮度、颜色、纹理函数,共有3*3=9种取值方式;

计算出矩形abdc、begd和efhg的底层描述算子的直方图之间的距离,即像素点o(x,y)的差分特征值hi,j(x,y,θ,s),具体计算如下:

其中:i,j分别表示直方图标号,θ为角度并取0°和45°,s为尺度,ri(k)表示直方图ri中第k个像素点的纵坐标值;

当上述方法得到的像素点差分特征值超过阈值3时(3为经验值),则这一点的差分特征值被视为具有对称特性的特征值,人工标记为正标签,记为m=1,如此点的特征值为非对称性特征值,则人工标记为负标签,记为m=0;

b.4多实例学习框架的建立

多实例学习可以被形容为将每一个样本图像的像素点看为一个集合,每个集合有很多实例学习,将不同尺度和角度组合下计算得到的该像素点的差分特征值作为集合中的实例,每个实例学习都有自己的标签m,如m=1则为正,人工标记为对称轴标签;m=0则为负,则人工标记为非对称轴标签,一个像素点的集合当中如果正标签较多则集合为正,负标签较多则集合为负,正负标签一样多则随机选择为正或负;

b.4.1人工标记实例图像

当一个像素点的集合为正,则将该像素点标记为对称轴像素,且标签值为1,若集合为负则标记为非对称轴像素,且标签值为0;

b.4.2训练参数

将训练样本中的像素点与标签值输入到如下公式中,经过大量样本带入计算可以训练出βd、βe两个参数,计算公式如下:

s(x,y,θ,s)=∑ijβdhij(x,y,θ,s)+βee(x,y,θ,s)(12)

式中,hij(x,y,θ,s)为像素点的差分特征值,e(x,y,θ,s)为像素点的边缘强度特征,s(x,y,θ,s)为像素点的标签值;

b.4.3测试参数

随机选取13个角度以及八邻域方向,则每个像素点的集合有13*8=104个实例进行学习,最后将测试样本图像输入到公式(12)中得出每个像素点集合的标签,进而判断得出测试样本图像中的对称轴像素点;

b.5对称轴检测

b.5.1对称轴拟合

然而初步分割的点阵比较粗糙不符合对称轴直线的要求,为此,进一步采用最小二乘函数即下式得到测试样本图像对称点的拟合直线:

b=y-ax(14)

yj=axi+b(15)

式中:x、y代表待拟合像素点o(x,y)的坐标值,n代表测试图像中像素点的个数,a为拟合直线的斜率,b为拟合直线的斜矩,xi是拟合后像素点的横坐标,yj是拟合后像素点的纵坐标;

b.5.2坐标轴平移

将拟合直线转化为坐标轴的形式以便后面的计算,具体过程如下:

(1)设拟合后对称轴上像素点的坐标为m(xi,yi);

(2)将拟合后得到的对称轴设为坐标系中的y轴,x轴保持不动,并将原有的所有图像像素点坐标o(x,y)更新为基于新坐标轴的坐标点m(xu,yv),将每个像素点坐标左移xi个单位,y坐标不变,公式定义为:

xu=xr-x1(16)

yv=yj(17)

从而将所有像素点坐标更新为以图像对称轴为y轴的对称坐标系;

b.6原始图像构建

由于对称轴分割步骤的完成,可将唐卡图像分割为左右两幅无论色彩、构图或纹理特征都相似的图片,所以可以将修复区域的对称图像通过镜面翻转的方式来构建无损原始图像,由于经过唐卡破损修复后很小概率出现图像左右对称区域损坏完全相同,可忽略不计对称区域完全相同破损的情况;

c量化评价指标

c.1harris角点特征提取

c.1.1自动赋予权值

引入harris算子,并使用高斯窗口w(x,y)代替二值窗口函数,对离中心点越近的像素赋予越大的权重,以减少噪声影响,计算公式为:

式中,σ为高斯窗口概率的期望,x、y为更新后像素点坐标值;

c.1.2特征向量计算

设ix与iy分别为图像窗口矩阵在x轴方向与y轴方向的特征向量,其中,窗口矩阵为在检测harris算子时使用一个像素值为8*8大小的矩形移动窗口,该窗口中包含的每个像素点的差分特征值组成了一个8*8的窗口矩阵,即:

首先计算水平方向的特征矩阵a并给其赋予权值w,为矩阵叉乘符号:

计算垂直方向的特征矩阵b并给其赋予权值w:

同时计算ix向量和iy向量相对于水平方向的夹角方向上的特征矩阵c、d并赋予权值w:

综合得到特征矩阵m

c.1.3角点判断

计算每个像素的harris角点响应值r:

r=(ab-cd)2p(a+b)2(23)

式中,p为搜索权值,调节p值可调整角点的搜索精密度,p值太大可能将不是角点的像素识别为角点,p值太小可能将是角点的像素忽略,通过大量计算,p值一般取0.1,并在局部范围内寻找r的极大值点rmax,若harris角点响应值r大于阈值3(3为经验值),则视为角点;

c.2初步量化评价指标

c.2.1构建参考图像

将通过不同算法修复得到的图像利用步骤b.3中底层描述算子差分法进行图像对称分割,并将提取出的对称点转化为坐标轴形式;

c.2.2针对修复图像进行角点提取

使用8*8的高斯滑动窗口矩阵对图像进行角点识别,利用ix向量和iy向量的特征向量来表征变化最快和最慢的两个方向,即若两个特征向量值都大于阈值3则为角点区域,一大一小则为边缘区域,两个都小于阈值3则目标点处于灰度值变化缓慢的图像区域,同时获取角点坐标位置j(xj,yh);将角点坐标同样放置于对称坐标系中,更新后坐标为j(xj,yh),获取对称坐标轴原点c(xc,0);在实验中,图像扫描时只针对每个像素的八邻域范围进行检测;

c.2.3计算预测图像与实际图像的差值

坐标转换后,计算更新后角点j(xj,yh)到原点c(xc,0)的距离,w1为预测图像的角点距离值,w2为实际图像的角点距离值,定义为:

式中,k值为角点像素j(xj,yh)中xj的最大值;利用预测图像与实际图像距离的差值得到图像修复评价指标h,即:

h=|w1-w2|(26)

修复评价指标h的值越高,说明图像修复质量越高;

d精细化评价指标模型构建

d.1初始化模型

首先针对现存的唐卡图像数据库中的图片进行预处理,由于图像库中图片较少,所以利用gan对抗生成网络中的生成对抗网络技术针对现存唐卡数据库中的图像进行不同程度的扭曲、翻转等基本操作,形成大量能够以假乱真的实验图像数据,具体过程如下:

d.2建立模型框架

初始设定生成模型g、判别模型d,生成模型用来对唐卡数据库中的图像进行翻转、大下改变或变形操作生成大量不同但相似的图像;判别模型用来对这些图片进行判断,是否为对实验数据有用的图片,且利用下面的判别公式来计算生成出的图片与原始图像的差别程度,损失大于0.5就丢弃,小于或等于0.5就留到数据库中使用:

(1)随机产生一组向量成为生成模型的输入向量,并记为d(x);

(2)选取样本

从现有唐卡数据库中选取图像作为输入x;

(3)判别网络的建立

将d(x)或者x作为判别模型的输入,经过判别模型后输出值为一个0到1之间的数,判别模型具体采用损失函数z(x),其公式如下:

z(x)=-((1-y)log(1-d(g(z)))+ylogd(x))(27)

式中,g(z)代表通过翻转、大下改变或变形操作生成的图像,x代表原始唐卡数据库中的图像,y表示想要扩大的数据库比例即生成的新图像与原始图像的数量比例;

d.6指标均衡化

设数据库中有u幅图像,每幅图像通过生成模型的变形生成了v个损失值小于或等于0.5的有用样本,每个样本利用步骤c得到图像修复评价指标hv,那么样本图像修复评价指标均值m为:

将该均值指标作为图像修复质量的最终评价指标,指标愈高,修复质量愈高。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1