互补色小波彩色图像处理方法与流程

文档序号:12126542阅读:686来源:国知局
互补色小波彩色图像处理方法与流程
本发明属于彩色图像信号处理
技术领域
,具体涉及彩色图像处理方法。
背景技术
:过去的几十年间,主流图像处理方法都是针对灰度图像的。人们处理彩色图像时通常将图像三个颜色通道分别当做灰度图像处理,并把各通道的处理结果相加作为彩色图像处理的结果。灰度图的处理方法用来处理各个颜色通道的这类方法忽略了各个颜色通道之间的关系[1][2],容易造成边缘扭曲、颜色畸变等问题[3][4][5]。现代图像处理领域,小波方法因其时频多尺度分析、低计算复杂度、灵活的后处理等优势有着不可替代的地位。然而,大多数小波图像处理方法也是基于灰度图像的。当其应用于彩色图像处理时,不同的彩色通道往往采用完全相同的小波滤波器。在这种情况下,由于不同通道的高频小波系数具有强的相关性,局部的颜色信息将很难提取[6]。不同通道采用相同小波滤波器的其他缺点同样不可忽视。诸如缺少相位信息、方向选择性和移不变特性,导致了颜色通道间系数关系的随机性[7],该随机性可能导致色调扭曲[2]和颜色失真[5]。当要进行一些通道间的彩色处理,比如统计建模时,为了抵消强相关和系数随机性需要有大量复杂的采样计[8]。为了充分利用颜色关系,人们尝试了一些方法。其中两个例子是基于四元数(Quaternionalgebra)[9][10]和单演(Monogenic)[5][11][12][13]的方法。它们将一个像素点的三个颜色分量作为一个整体的纯四元数向量。也就是将图像的RGB通道作为一个三维(3D)向量映射到彩色立方体互相垂直的三个轴上。图像处理领域已经广泛接受这种互相垂直的颜色轴定义[2][9][14][15]。文献中可查到的第一个也是唯一一个“彩色小波”就是基于这样的彩色像素垂直的定义[5]。虽然将颜色投射到相互垂直的轴上填补了色彩关系的空白,但是这并没有视觉理论的支持。更有问题的是,这样的色彩描述可能让人更加疑惑。比如说,在彩色立方体中,蓝色的定义是同时垂直红色、绿色和黄色的。这意味着蓝色和红色、蓝色和绿色、蓝色和黄色之间的“距离”是一样的。也就是说,人们无法通过和蓝色的距离来区分红色、绿色、黄色。显然这样的颜色表示对某些彩色图像处理并不方便。并且,在这样的三维直角坐标系统中,四元数向量轴i,j,k满足众所周知的矢量积关系i×j=k[9][14]。如果人们将这样的关系投射到三维彩色立方体中,将会产生红色×绿色=蓝色的误解。正是因为将颜色轴定义为互相垂直,用彩色立方体所处理的一些简单的应用,如彩色边缘提取[14],变得十分复杂。因此,三维彩色立方体并不是颜色表示的最佳方法,只是许多彩色图像处理找不到工具时的一种权宜之计。而彩色图像处理领域十分缺乏在颜色通道间建立联系的新的处理方法[5]。众所周知人眼的视觉系统是一套能用RGB色环和互补色关系来描述的三色系统[16],互补色是最早定义的颜色关系,可以追溯到牛顿色环的定义。混合两种颜色如果能得到白色,这样的一对颜色就是互补色。国际照明委员会(InternationalCommissiononIllumination,CIE)在1931年提出的RGB三色系统和相应的色环是最广泛应用的彩色系统之一。在RGB色环上,混合任意两种π相位差的颜色可以得到白色。因此RGB系统特别适合互补色应用。近期的研究表明互补色在色彩混合、色彩恒常、色彩感知等领域具有不可替代的地位[16][17]。一方面,彩色图像处理领域十分缺乏建立颜色通道联系的新的处理方法。另一方面,互补色这样在人眼视觉中具有重要地位的色彩关系却尚未应用到诸如小波分析的彩色图像处理工具中去。因此,本发明希望将其互补色关系引入小波彩色图像处理中,来设计一种新的彩色图像处理方法以填补彩色图像处理领域的空白。技术实现要素:本发明的目的在于提供一种基于人眼视觉系统互补色理论的彩色图像处理小波分析方法,以克服现有彩色图像处理方法的不足。本发明提出的彩色图像处理小波分析方法,即互补色小波彩色图像处理方法。采用符合人眼视觉生理机制的互补色理论设计具有相应相位关系的小波,并应用于彩色图像的RGB通道,从而提高彩色图像小波处理的效果,具体步骤为:(1)设计一维互补色小波。根据互补色理论的定义,R、G、B三色在色环上对应于相位0、2π/3、4π/3,故采用Thiran全通滤波器结合共同因子的小波设计方法,设计一组相对相位分别为0、2π/3、4π/3的一维小波滤波器组ψ0,ψ2π/3和ψ4π/3,称为一维互补色小波。具体流程详述如下:在三色系统色环中,R、G、B三轴分别位于色环上的0,2π/3,4π/3方向。任意π相位差的两种颜色形成一对互补色。其中,四对互补色,也就是红-青,绿-品红,蓝-黄和黑-白,在人眼视觉和颜色感知方面具有重要作用[16]。而RGB基位于的0,2π/3,4π/3方向,在直角坐标系中可以分别表示为1,ej2π/3,ej4π/3。任意色彩值为[r,g,b]的RGB颜色,其色调(色环上的方向)可以通过其在色环上的相位∠(r+g·ej2π/3+b·ej4π/3)来得到。而其强度值可以通过其绝对值之和来得到,也就是r+g+b=|r|+|g·ej2π/3|+|b·ej4π/3|。为了将这样优良的性质复制到小波这个彩色图像处理工具中,本发明将仿照直角坐标系中ej2π/3的相位关系来构造一族相位差2π/3的小波。为此,本发明采用共同因子(commonfactor)的算法来近似这样的相位延时[19]。考虑如下的Thiran全通滤波器[19][21]:其中,并且,其中,(x)n代表了升序因子:(x)n:=(x)(x+1)…(x+n-1);通过Dτ(z),可得到如下近似:Aτ(z)≈z-τ,在z=1附近。当τ=2/3时,有:则能得到有着2π/3和4π/3相位差的全通滤波器,基于这样的全通滤波器,就能构造如下三个低通滤波器:在z=1附近,有:这三个低通滤波器,和有着近似2π/3的相位差。其中的共同因子F(z)可通过谱因式分解方法来确定[19]。所设计的2π/3相位小波,也就是ψ0,ψ2π/3和ψ4π/3,它们的和,以及它们的平方和如图1所示。从中我们可以看出所设计的小波结合了直角坐标系下1,ej2π/3和ej4π/3关系良好的性质。在小波框架下它们的能量集中。它们的和为0,也就是ψ0+ψ2π/3+ψ4π/3=0(1)(2)将一维互补色小波拓展设计为二维单通道互补色小波。即在水平与垂直二个维度上分别进行一维互补色小波分解并将所得的各个相位分量排列组合成二维分量,筛选非0二维分量得到近似八个方向n=kπ/8,k=1,2…,8和三种相位θ=0,2π/3,4π/3的二维小波组。具体流程详述如下:为了让二维互补色小波具有2π/3相位差,从(1)式中我们知道一维互补色小波的三种相位小波ψ0、ψ2π/3、ψ4π/3满足ψ0+ψ2π/3+ψ4π/3=0。通过在两个维度上分别采用低通和/或高通滤波器组,可以构造如下三个等式:其中,下标h和v分别代表了水平和垂直的维度。上标代表了相应维度所使用的相对相位。注意到不需要关心φ0+φ2π/3+φ4π/3的值,因为在(2)至(4)的左边都有ψ0+ψ2π/3+ψ4π/3=0。展开(2)式至(4)式,有:重写(5)式至(7)式为以下统一形式:其中,whwv=φhψv,ψhφv,orψhψv(9)且(8)式可以进一步化简为:w1+w2+w3+w4+w5+w6+w7+w8+w9=0,(10)其中,为了得到二维互补色小波2π/3相位关系,将(10)式的左边分解为三项,其中三项之和为0,并且项之间的相位差为2π/3。总共分别有四组分法:(一)w1+w5+w9,w2+w6+w7,w3+w4+w8;(二)w1+w6+w8,w2+w4+w9,w3+w5+w7;(三)w1+w2+w3,w4+w5+w6,w7+w8+w9;(四)w1+w4+w7,w2+w5+w8,w3+w6+w9。(12)从(10)式可知,上述每组之和为0。因此,(12)式中每组的两项就能决定剩下的一项。不失一般性,选择(12)式中每组的头两项并将其顺序标记为u1,…,u8。考虑到(10)式的总体约束,我们可以定义如下的划分变换:u=Tw,(13)其中u=(u1u2u3u4u5u6u7u80)T,w=(w1w2w3w4w5w6w7w8w9)T,其中,T表示转置。因此,可以通过(13)式将(10)式中的元素wi,i=1,2,…,9组合为三项,其中每项相对相位为2π/3。(13)式中的T代表了总共四种组合方式,可以得到(12)式中的四个划分组,其中每组都可以表示为:u2i-1,u2i,-u2i-1-u2i(14)其中i=1,2,3,4如(9)式所描述,三个子带分别为φhψv(LH),ψhφv(HL)和ψhψv(HH)。当划分变换(13)式分别应用于三个子带时,我们得到:uφψ=Twφψ,(LH)(15)uψφ=Twψφ,(HL)(16)uψψ=Twψψ,(HH)(17)其中:wφψ=(w1φψ,…,w9φψ)T,(18)wψφ=(w1ψφ,…,w9ψφ)T,(19)wψψ=(w1ψψ,…,w9ψψ)T。(20)实际应用中,如(9)式所示在横轴和纵轴应用不同相位的滤波器时,可用九组离散小波(discretewavelettransforms,DWTs)分解,分别得到w1…w9,其中每个wn有三个子带wnφψ、wnψφ和wnψψ。之后分别归整九组离散小波DWT相同子带的分解系数来构成(18)式至(20)式。最终uφψ、uψφ和uψψ可以通过变化(15)式至(17)式来完成。其中每项都包含了(14)式的四个划分组。但是有些组是零值的无用的。因此我们只考虑非零值的那些组。在LH子带,因为ψ0+ψ2π/3+ψ4π/3=0,有:类似的,有u6φψ=0和u9φψ=0。结果LH子带中只有六项(对应三个分组)是非零的,它们分别是u1φψ、…、u4φψ、u7φψ和u8φψ。在HL子带,同样有u7ψφ=u8ψφ=u9φψ=0。这意味着HL子带只有六项(三组),u1ψφ、…、u6ψφ是非零的。在HH子带,同样可以验证:u5ψψ=u6ψψ=u7ψψ=u8ψψ=0。也就是说,HH子带中的四项(二组),u1ψψ、…、u4ψψ是非零的。总共有十六个非零项(八个子带组)分别是:u1φψ…u4φψ、u7φψ、u8φψ、u1ψφ…u6ψφ、u1ψψ…u4ψψ。(21)因此,我们可以定义(21)式为二维互补色小波子带。图2显示了对应于二维互补色小波的八个小波子带。相应于划分变换(13)式,头两行直接来自于(21)式中的十六个互补色小波子带,而第三行由(10)式推导得出。(3)将二维单通道互补色小波拓展设计为二维多通道互补色小波。即将互补色小波层级j方向n的2π/3相位差小波和分别表示为和对彩色图像各个彩色通道进行小波分解得到层级j方向n的互补色小波系数矢量和其中r、g和b是彩色图像的通道矢量而*代表卷积。而后通过定义的强度算子OI(d)=|dR|+|dG|+|dB|,黑-白互补色算子OC(d)=dR+dG+dB,红-青互补色算子OR(d)=dR-dG-dB,绿-品红互补色算子OG(d)=dG-dR-dB,蓝-黄互补色算子OB(d)=dB-dR-dG求得各个方向的红-青、绿-品红、蓝-黄、黑-白等特征系数。具体流程详述如下:二维单通道互补色小波将灰度图分解为八个方向的子带。每个方向子带包含二个直接计算得到的互补色小波子带和一个从(10)推导得到的2π/3相位差子带。重新将这些子带的小波编号为其中j是分解层级而θ,n分别对应于图2中行和列相位,也就是近似方向n=kπ/8,k=1,2…,8和相对相位θ=0,2π/3,4π/3的小波组。将互补色小波层级j方向n的2π/3相位差小波和分别表示为和彩色图像j层级n方向的互补色小波系数矢量可以表示为和其中r、g和b是彩色图像的通道矢量而*代表卷积。我们可以如下定义二维互补色算子:(1)强度算子:OI(d)=|dR|+|dG|+|dB|,(22)(2)色度或黑-白互补色算子:OC(d)=dR+dG+dB(23)(3)红-青互补色算子:OR(d)=dR-dG-dB(24)(4)绿-品红互补色算子:OG(d)=dG-dR-dB(25)(5)蓝-黄互补色算子:OB(d)=dB-dR-dG(26)这些算子由互补色关系发展而来,我们可以用它来有效描述彩色图像RGB三个通道之间的相互关系,从而将彩色图像RGB通道作为一个统一整体取得更好的处理效果,特别是应用于互补色相关的彩色图像处理中[16]。本发明通过这些特征系数的空域分析,可应用于彩色图像的方向性颜色滤波与增强,并取得较现有同类方法更好的结果。通过这些特征系数的统计建模,应用于彩色图像通道统计建模与纹理检索,可取得较现有同类方法更好的结果。互补色小波基于传统小波,但比传统小波相比有更强的方向性,并且其颜色通道相互关系符合人眼视觉机制,因而不仅可以实现传统小波所能实现的所有功能,还能方便实现传统小波所欠缺的彩色图像处理能力如彩色图像的方向性颜色滤波。基于互补色小波的算子,(22)至(26),可以进行传统小波无法或难以实现的多尺度彩色检测、滤波和增强。(22)中的强度算子OI将所有小波系数绝对值相加,因此其对所有图像通道中的变化敏感。这个算子的作用和将不同通道系数绝对值相加的传统小波类似。因此(22)中的算子OI可以在很大程度上提取大部分经典小波所能提取的特征。色度算子如(23)中的OC所示。当彩色信号的色度发生变化,色度算子OC也会相应发生变化。(24)至(26)给出的算子OR、OG、OB是三对互补色红-青、绿-品红、蓝-黄所对应的互补色算子。它们可以很方便提取彩色图像中颜色变化偏离互补色轴的信息。通过互补色小波的分解并求取算子(22)至(26),各个方向的颜色变化均能得到快速检测。互补色小波可在彩色图像通道间建立良好统计模型,因而非常适合于彩色图像统计应用如彩色图像纹理检索。彩色图像纹理检索是根据一幅已知图像在数据库中搜索检索最相似图像的一个流行的图像研究领域。最常用的一种图像纹理检索方法是由生理学研究所支持的小波统计类的方法[8][27]。研究表明如果两种纹理的小波子带系数具有相同边缘密度则人眼难以区分[24]。基于小波的纹理检索通常采用的灰度离散小波缺乏平移不变性和方向选择性,因此缺乏特征提取所需的色彩关系信息和许多方向信息。我们的互补色小波同时关注于方向性、平移不变性的颜色相关的特征,因而替代离散小波后可以大大提高检索成功率。在检索任务中,通常采用广义高斯分布(GeneralizedGaussiandistribution,GGD)+KL散度(Kullback–Leiblerdistance,KLD)的框架来分类小波系数。其中的广义高斯分布用来建模小波系数而KL散度用来度量相似性。这个框架在纹理检索领域公认在低开销、高精度下有良好的表现[8][27]。但该框架所分类的传统小波系数缺乏方向性和颜色信息,因而极大影响其分类效果。我们用具有良好方向与颜色区分度的互补色小波系数替换GGD+KLD的框架中的传统小波系数进行彩色纹理检索,实验证明取得分类成功率的大幅提高。附图说明图1是互补色小波基、它们的和以及它们的平方和。图2是互补色小波不同的子带。图3是互补色小波的分析(a)和综合(b)滤波器组。图4是应用互补色小波的彩色图像处理。其中:(a)原始图像。(b)采用层级2垂直色度算子滤波的结果。(c)采用层级2水平色度算子滤波的结果。(d)采用层级3对角线(3π/4)色度算子滤波的结果。(e)采用层级2所有方向的红-青互补色算子滤波系数之和的结果。(f)原始图像。(g)采用层级1所有方向的色度算子滤波系数之和的结果。(h)采用层级4对角线(3π/4)色度算子滤波的结果。(i)采用层级4对角线(π/4)色度算子滤波的结果。(j)采用层级2所有方向的红-青互补色算子滤波系数之和的结果。图5是10种彩色纹理样本。从左到右,上排:Brick.01,Buildings.09,Fabric.04,Fabric.09,Flowers.05。下排:Leaves.10,Metal.00,Misc.02,Sand.00,Wood.02。具体实施方式1、一维互补色小波的设计、构造为了有效应用一维互补色小波,通常采用三组实数的离散小波来生成三个相位分量。每组离散小波采用一套满足共轭正交滤波器(conjugatequadraturefilter,CQF)和完全重构(perfectlyreconstruct,PR)条件的低通、高通滤波器和相应的重构滤波器组[23]。在
发明内容中所取得低通分解滤波器后通过CQF条件取得相应的分解高通滤波器以及通过小波的PR条件得到相应重构低通滤波器和高通滤波器:而后通过金字塔型的快速分解来取得各个小波子带系数。一维互补色小波分析和综合滤波器组及流程如图3所示。2、二维单通道互补色小波的设计、构造在取得一维互补色小波的低通、高通滤波器组和相应的重构滤波器组后,根据
发明内容中二维单通道互补色小波的原理,二维单通道互补色小波的分析与综合的步骤可以用如下流程实现:小波分析:(1)读入互补色小波的分解低通和高通滤波器组和(2)水平方向和垂直方向分别用三组滤波器组之一来做离散小波分解。总共有九组离散小波分解,对应于(13)式中的九种组合。(3)对于每个离散小波DWT层级(除了低通残留层级)(a)根据(18)式从九组离散小波中取出九个LH子带构成wφψ,根据(19)式取出九个HL子带构成wψφ,根据(20)式取出九个HH子带构成wψψ。(b)进行划分变换(15)式至(17)式来取得uφψ、uψφ和uψψ。(c)根据(21)从uφψ、uψφ和uψψ中提取十六个互补色小波子带.小波综合:(1)对于每个互补色小波子带(除了低通残留层级)(a)将十六个互补色小波子带载回uφψ、uψφ和uψψ。将子带u5φψ、u6φψ、u7ψφ、u8ψφ、u5ψψ、u6ψψ、u7ψψ和u8ψψ设为0。(b)进行逆划分变换w=T-1u,通过uφψ、uψφ和uψψ取得相应的wφψ、wψφ和wψψ,其中T-1是(13)式中T的逆矩阵。(c)从wφψ、wψφ和wψψ中取出LH、HL和HH子带中相同序号的项来得到九组离散小波DWT。(2)分别根据(11)式中的顺序,沿着横轴和纵轴分别采用三组重构滤波器和中的一组来重构小波。3、二维多通道互补色小波的设计、构造与应用
发明内容中所定义的互补色算子(23)至(26)式,对于每个层级和方向,这些算子可以写为如下的矩阵形式:(27)式也被称为二维互补色变换/算子。其相应的逆变换可以表示为如下的伪逆形式:因为逆变换(28)式可以完全恢复原始子带系数,(27)和(28)式是一个完全的互补色变换/算子对。将待处理彩色图像做互补色小波分解并求解变换算子,即可滤波与增强不同层级、方向、互补色算子的分量。图4展示了本发明互补色算子用于彩色图像方向性颜色滤波。图4(a)是原始图像。图4(b)和(c)分别是层级2的垂直和水平色度算子和图4(d)是层级3的对角线色度算子图4(e)是所有层级2的红-青互补色算子之和,也就是从图4(b)到(d),可以看出色度算子可以很好地压制黑-白变化,只突出彩色变化。比较图4(b)和(c),可以看出我们的滤波器有很好的方向性。它们只对感兴趣的方向上的颜色变化起反应,也就是图4(b)中的垂直色度变化和图4(c)中的水平色度变化。将图4(b)(c)的层级2结果与图4(e)的层级3结果比较,可以看出层级2滤波对较为细小的变化(在小波层级中,层级2对应4-8像素)反应较强而层级3对较粗的变化(层级3对应8-16像素)较敏感。从不同层级的反应可以提取变化的近似宽度。图4(e)我们选取红-青互补色算子来压制沿着红-青轴的变化。这时黑-白轴的变化也就是亮度的变化超过了红色的变化而凸显出来。从这些结果我们可以看出互补色小波可以很方便提取沿着感兴趣方向的感兴趣颜色的变化。图4(f)到(j)是另个一例子。图4(f)是原始图像。图4(g)是所有层级1的色度算子之和,也就是,图4(h)和(i)分别是层级4色度算子,和图4(j)是所有层级2红-青互补色算子之和,也就是图4(g)通过将最细层级所有方向的色度算子将颜色变化的边缘提取出来。图4(j)压制红-青轴上所有的变化来突出黑-白变化。图4所示的这两个例子同样也用在文献[2]。通过比较可以看出我们的方法不但能反映颜色的变化,而且可以明确指明变化的种类、方向及尺度大小。利用互补色小波可在彩色图像通道间建立良好统计模型,因而非常适合于彩色图像统计应用如彩色图像纹理检索。基于统计方法的图像纹理检索通常采用基于离散小波的广义高斯分布GGD和KL散度度量[27]。在检索任务中,我们同样采用广义高斯分布GGD+KL散度的框架来分类小波系数。其中的广义高斯分布GGD用来建模小波系数而KL散度用来度量相似性。采用这个框架的原因是其在纹理检索领域公认的低开销高精度和良好的表现[8][27]。为了在纹理检索中比较本发明的互补色小波和离散小波、双树复小波(dual-treecomplexwavelettransform,DT-CWT[7]),我们采用与[27]一样的广义高斯分布GGD+KL散度设置。我们完全保持广义高斯分布GGD+KL散度部分不变,仅将输入的灰度离散小波子带系数分别替换为灰度双树复小波、RGB通道双树复小波和我们的互补色小波。MITVisionTexture(Vis-TeX)数据库[28]的40幅纹理图像进行了检索。我们的互补色小波采用(27)式所给出的互补色变换。表1显示了不同小波的平均检索率(%)。当保持所有条件不变,仅替换离散小波为本发明的互补色小波时,检索率显著地从75.63%提升至86.35%。相比而言,有着更好方向性的双树复小波及其RGB通道版本仅能微量增加检索率,从75.63%分别提升至77.14%和78.96%。表1:不同小波的平均检索率(%)离散小波双树复小波RGB双树复小波互补色小波75.6377.1478.9686.35为了更进一步探究提升检索率的具体原因,选取了10幅具有代表性的纹理图像,其纹理图像如图5所示,检索率(%)如表2所示。表2:10种特定纹理的检索率(%)离散小波双树复小波RGB双树复小波互补色小波Brick.0176.1785.5589.06100Buildings.0990.2374.6167.9793.75Fabric.0462.8965.2371.8880.86Fabric.0983.5984.3883.2096.88Flowers.0554.6959.3864.0691.41Leaves.1033.9841.8051.5684.77Metal.0073.8380.4781.6498.44Misc.0276.9588.2891.0299.61Sand.0077.3472.2778.5299.22Wood.0281.6478.1372.6694.92诸如Buildings.09和Wood.02的纹理包含了许多水平和垂直纹理。由于离散小波和互补色小波有着水平和垂直的分量,而双树复小波没有。因此离散小波和互补色小波应该比双树复小波表现更好。对于除了水平与垂直以外的方向纹理,如Fabric.04和Misc.02,双树复小波和互补色小波应该比离散小波表现要好。从表2可以看出,这些观点都得到了证实。对于具有多方向性的纹理,如Fabric.09、Flowers.05、Metal.00和Sand.00,互补色小波的子带因为有更丰富的方向性和更集中的方向性子带能量而更加适合捕捉到这些方向性特征。这从表II中也可以证实。当纹理更多由彩色变化而不是方向样式来表征时,如Brick.01、Fabric.04和Wood.02,本发明的互补色小波CCWTs由于有好的颜色特性可以精确检索它们。当颜色和纹理特征都很明显时,如Leaves.10,本发明的互补色小波充分发挥其方向性颜色滤波的优势,可以极大提升检索准确率。参考文献[1]C.E.Moxey,S.J.Sangwine,andT.A.Ell,“Hypercomplexcorrelationtechniquesforvectorimages,”SignalProcessing,IEEETransactionson,vol.51,no.7,pp.1941-1953,2003.[2]Y.Xu,L.Yu,H.Xu,H.Zhang,andT.Nguyen,“Vectorsparserepresentationofcolorimageusingquaternionmatrixanalysis,”ImageProcessing,IEEETransactionson,vol.24,no.4,pp.1315–1329,2015.[3]J.VanDeWeijer,T.Gevers,andJ.-M.Geusebroek,“Edgeandcornerdetectionbyphotometricquasi-invariants,”PatternAnalysisandMachineIntelligence,IEEETransactionson,vol.27,no.4,pp.625–630,2005.[4]J.VandeWeijer,T.Gevers,andA.D.Bagdanov,“Boostingcolorsaliencyinimagefeaturedetection,”PatternAnalysisandMachineIntelligence,IEEETransactionson,vol.28,no.1,pp.150–156,2006.[5]R.Soulard,P.Carr′e,andC.Fernandez-Maloigne,“Vectorextensionofmonogenicwaveletsforgeometricrepresentationofcolorimages,”ImageProcessing,IEEETransactionson,vol.22,no.3,pp.1070–1083,2013.[6]N.-X.Lian,V.Zagorodnov,andY.-P.Tan,“Edge-preservingimagedenoisingviaoptimalcolorspaceprojection,”ImageProcessing,IEEETransactionson,vol.15,no.9,pp.2575–2587,2006.[7]I.W.Selesnick,R.G.Baraniuk,andN.G.Kingsbury,“Thedualtreecomplexwavelettransform,”SignalProcessingMagazine,IEEE,vol.22,no.6,pp.123–151,2005.[8]R.Kwitt,P.Meerwald,andA.Uhl,“Efficienttextureimageretrievalusingcopulasinabayesianframework,”ImageProcessing,IEEETransactionson,vol.20,no.7,pp.2063–2077,2011.[9]T.A.EllandS.J.Sangwine,“Hypercomplexfouriertransformsofcolorimages,”ImageProcessing,IEEETransactionson,vol.16,no.1,pp.22–35,2007.[10]W.L.Chan,H.Choi,andR.G.Baraniuk,“Coherentmultiscaleimageprocessingusingdual-treequaternionwavelets,”ImageProcessing,IEEETransactionson,vol.17,no.7,pp.1069–1082,2008.[11]R.SoulardandP.Carr′e,“Colormonogenicwaveletsforimageanalysis,”inImageProcessing(ICIP),201118thIEEEInternationalConferenceon.IEEE,2011,pp.273–276.[12]M.FelsbergandG.Sommer,“Themonogenicsignal,”SignalProcessing,IEEETransactionson,vol.49,no.12,pp.3136–3144,2001.[13]G.Demarcq,L.Mascarilla,andP.Courtellemont,“Thecolormonogenicsignal:Anewframeworkforcolorimageprocessing.applicationtocoloropticalflow,”inImageProcessing(ICIP),200916thIEEEInternationalConferenceon.IEEE,2009,pp.481–484.[14]S.J.Sangwine,“Colourimageedgedetectorbasedonquaternionconvolution,”ElectronicsLetters,vol.34,no.10,pp.969–971,1998.[15]Q.Barth′elemy,A.Larue,andJ.I.Mars,“Colorsparserepresentationsforimageprocessing:Review,models,andprospects,”ImageProcessing,IEEETransactionson,vol.24,no.11,pp.3978–3989,2015.[16]R.W.Pridmore,“Complementarycolorstheoryofcolorvision:Physiology,colormixture,colorconstancyandcolorperception,”ColorResearch&Application,vol.36,no.6,pp.394–412,2011.[17]R.W.Pridmore,“Complementarycolors:thestructureofwavelengthdiscrimination,uniformhue,spectralsensitivity,saturation,chromaticadaptation,andchromaticinduction,”ColorResearch&Application,vol.34,no.3,pp.233–252,2009.[18]N.Kingsbury,“Complexwaveletsforshiftinvariantanalysisandfilteringofsignals,”Appliedandcomputationalharmonicanalysis,vol.10,no.3,pp.234–253,2001.[19]I.W.Selesnick,“Thedesignofapproximatehilberttransformpairsofwaveletbases,”SignalProcessing,IEEETransactionson,vol.50,no.5,pp.1144–1152,2002.[20]R.YuandH.Ozkaramanli,“Hilberttransformpairsoforthogonalwaveletbases:Necessaryandsufficientconditions,”SignalProcessing,IEEETransactionson,vol.53,no.12,pp.4723–4725,2005.[21]J.-P.Thiran,“Recursivedigitalfilterswithmaximallyflatgroupdelay,”CircuitTheory,IEEETransactionson,vol.18,no.6,pp.659–664,1971.[22]R.A.Gopinath,“Thephaselettransform-anintegralredundancynearlyshift-invariantwavelettransform,”SignalProcessing,IEEETransactionson,vol.51,no.7,pp.1792–1805,2003.[23]I.Daubechiesetal.,Tenlecturesonwavelets.SIAM,1992,vol.61.[24]D.J.HeegerandJ.R.Bergen,“Pyramid-basedtextureanalysis/synthesis,”inProceedingsofthe22ndannualconferenceonComputergraphicsandinteractivetechniques.ACM,1995,pp.229–238.[25]L.R.WilliamsandK.K.Thornber,“Acomparisonofmeasuresfordetectingnaturalshapesinclutteredbackgrounds,”InternationalJournalofComputerVision,vol.34,no.2-3,pp.81–96,1999.[26]L.Itti,C.Koch,andE.Niebur,“Amodelofsaliency-basedvisualattentionforrapidsceneanalysis,”IEEETransactionsonPatternAnalysis&MachineIntelligence,no.11,pp.1254–1259,1998.[27]M.N.DoandM.Vetterli,“Wavelet-basedtextureretrievalusinggeneralizedgaussiandensityandkullback-leiblerdistance,”ImageProcessing,IEEETransactionson,vol.11,no.2,pp.146–158,2002.[28]M.VisionandM.Group,“Visiontexture,”onlineathttp://vismod.media.mit.edu/vismod/imagery/VisionTexture/.。当前第1页1 2 3 
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1