视频处理方法、装置、电子设备和存储介质与流程

文档序号:33247617发布日期:2023-02-17 23:47阅读:50来源:国知局
1.本技术涉及视频拍摄
技术领域
:,特别涉及一种视频处理方法、装置、电子设备和存储介质。
背景技术
::2.随着技术的发展,用户对通过手机等终端所拍摄的视频效果和风格的要求越来越高,然而,目前的手机中拍摄视频所使用的滤镜通常沿用拍照模式下的滤镜原理,经过滤镜处理的视频无法满足较高的调色要求。技术实现要素:3.一种视频处理方法、装置、电子设备和存储介质,可以基于lut的特性使电子设备所拍摄的视频具有不同的风格效果,以满足更高的调色要求。4.第一方面,提供一种视频处理方法,包括:获取通过摄像头拍摄的视频;检测当前通过摄像头拍摄的画面是否有运动物体,若是,则控制摄像头减少曝光时间并增加摄像头的iso,摄像头的曝光时间的减少量和iso的增加量正相关,若否,则控制摄像头保持当前的曝光时间和当前的iso;响应于抓拍指令,抓取视频中对应的图像作为抓拍图像;对抓拍图像进行降噪处理,若当前通过摄像头拍摄的画面有运动物体,则降噪处理的降噪程度和摄像头的iso增加量正相关。5.在一种可能的实施方式中,检测当前通过摄像头拍摄的画面是否有运动物体,若是,则控制摄像头减少曝光时间并增加摄像头的iso,摄像头的曝光时间的减少量和iso的增加量正相关,若否,则控制摄像头保持当前的曝光时间和当前的iso的过程包括:检测当前通过摄像头拍摄的画面是否有运动物体且确定摄像头当前的iso是否超过预设值;若当前通过摄像头拍摄的画面有运动物体且摄像头当前的iso未超过预设值,则控制摄像头减少曝光时间并增加摄像头的iso,摄像头的曝光时间的减少量和iso的增加量正相关;若当前通过摄像头拍摄的画面无运动物体或摄像头当前的iso超过预设值,则控制摄像头保持当前的曝光时间和当前的iso。以避免iso的调整超过对应场景适应的范围。6.在一种可能的实施方式中,在获取通过摄像头拍摄的视频之前,还包括:在多个视频风格模板中确定一个视频风格模板,每个视频风格模板对应一个预设的颜色查找表lut;在获取通过摄像头拍摄的视频之后,还包括:通过摄像头当前的感光度iso所对应的对数log曲线对视频进行处理,得到log视频;对log视频进行降噪处理;基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频。在视频录制过程中,利用电影行业的lut技术,基于所确定的视频风格模板对应的lut对log视频进行处理,使所录制的视频具有所确定的视频风格模板对应的风格效果,以满足较高的调色要求,使所录制的视频具有电影感。7.在一种可能的实施方式中,在对抓拍图像进行降噪处理之前,还包括:通过摄像头当前的iso所对应的log曲线对抓拍图像进行处理,得到log抓拍图像;对抓拍图像进行降噪处理包括:对log抓拍图像进行降噪处理;在对log抓拍图像进行降噪处理之后,还包括:基于所确定的视频风格模板对应的lut对log抓拍图像进行处理,得到与所确定的视频风格模板对应的抓拍图像。将抓取到的抓拍图像基于log曲线和lut进行处理,以得到保留有细节且与视频风格模板对应的色调接近的抓拍图像8.在一种可能的实施方式中,获取通过摄像头拍摄的视频包括:交替获取第一曝光帧视频图像和第二曝光帧视频图像,第一曝光帧视频图像的曝光时长大于第二曝光帧视频图像的曝光时长;响应于抓拍指令,抓取视频中对应的图像作为抓拍图像的过程包括:若当前通过摄像头拍摄的画面有运动物体,则将第二曝光帧视频图像作为参考帧;若当前通过摄像头拍摄的画面无有运动物体,则将第一曝光帧视频图像作为参考帧;基于参考帧将多帧视频图像融合为抓拍图像。对于运动的场景,第二曝光帧视频图像的曝光时长较短,作为参考帧进行融合,可以降低拖影现象,对于静止的场景,第一曝光帧视频图像的曝光时长较长,作为参考帧进行融合,可以使静态画面的成像质量更好。9.第二方面,提供一种视频处理装置,包括:处理器和存储器,存储器用于存储至少一条指令,指令由处理器加载并执行时以实现上述的视频处理方法。10.第三方面,提供一种电子设备,包括:摄像头;上述的视频处理装置。11.第四方面,提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,使得计算机执行上述的视频处理方法。12.本技术实施例中的视频处理方法、装置、电子设备和存储介质,在视频拍摄的过程中,判断当前拍摄画面中是否有运动物体,如果有的则减少摄像头的曝光时间并增加iso,以此来减弱运动物体的拖影现象,以及,在获取到抓拍图像后,对抓拍图像进行降噪处理,降噪程度和iso正相关,以降低由于iso的增加而产生的噪点,从而改善视频录制过程中抓拍图像的质量,可以在抓拍运动的图像时,得到清晰的图片。附图说明13.图1为本技术实施例中一种电子设备的结构框图;14.图2为本技术实施例中一种视频处理方法的流程图;15.图3为本技术实施例中一种手机视频录制界面的示意图;16.图4为本技术实施例中另一种视频处理方法的流程图;17.图5为本技术实施例中另一种视频处理方法的流程图;18.图6为本技术实施例中一种电影模式下用户界面的示意图;19.图7为本技术实施例中一种log曲线的示意图;20.图8为本技术实施例中一种立方体插值空间中立方体和四面体关系的示意图;21.图9为uv平面示意图;22.图10为本技术实施例中一种电子设备的另一种结构框图;23.图11为本技术实施例中一种电子设备的软件结构框图;24.图12为本技术实施例中一种专业模式下用户界面的示意图。具体实施方式25.本技术的实施方式部分使用的术语仅用于对本技术的具体实施例进行解释,而非旨在限定本技术。26.在介绍本技术实施例之前,首先对本技术实施例所涉及的电子设备进行介绍,如图1所示,电子设备100可以包括处理器110,摄像头193,显示屏194等。可以理解的是,本发明实施例示意的结构并不构成对电子设备100的具体限定。在本技术另一些实施例中,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。27.处理器110可以包括一个或多个处理单元,例如:处理器110可以包括图形处理器(graphicsprocessingunit,gpu),图像信号处理器(imagesignalprocessor,isp),控制器,视频编解码器,数字信号处理器(digitalsignalprocessor,dsp)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。处理器110中还可以设置存储器,用于存储指令和数据。28.电子设备100通过gpu,显示屏194,以及应用处理器等实现显示功能。gpu为图像处理的微处理器,连接显示屏194和应用处理器。gpu用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个gpu,其执行程序指令以生成或改变显示信息。29.电子设备100可以通过isp,摄像头193,视频编解码器,gpu,显示屏194以及应用处理器等实现拍摄功能。30.isp用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给isp处理,转化为肉眼可见的图像。isp还可以对图像的噪点,亮度,肤色进行算法优化。isp还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,isp可以设置在摄像头193中。31.摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(chargecoupleddevice,ccd)或互补金属氧化物半导体(complementarymetal-oxide-semiconductor,cmos)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给isp转换成数字图像信号。isp将数字图像信号输出到dsp加工处理。dsp将数字图像信号转换成标准的rgb,yuv等格式的图像信号。在一些实施例中,电子设备100可以包括1个或n个摄像头193,n为大于1的正整数。32.数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。33.视频编解码器用于对数字视频压缩或解压缩。电子设备100可以支持一种或多种视频编解码器。这样,电子设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(movingpictureexpertsgroup,mpeg)1,mpeg2,mpeg3,mpeg4等。34.如图2所示,本技术实施例提供一种视频处理方法,该视频处理方法的执行主体可以为处理器110,具体可以为isp或者isp与其他处理器的组合,该视频处理方法包括:35.步骤101、获取通过摄像头拍摄的视频;36.步骤102、检测当前通过摄像头拍摄的画面是否有运动物体,若是,则进入步骤103,若否,则进入步骤104;37.其中,步骤102中所检测的画面可以为在视频录制过程中的视频画面,也可以为在视频录制之前,通过摄像头所捕获的画面,在视频录制之前通过摄像头所捕获的画面不会保存为视频文件,仅会进行预览,但是,不论是视频录制过程中还是视频录制之前的画面,均可以基于当前画面中是否存在运动物体来对摄像头的拍摄参数进行调节。38.步骤103、控制摄像头减少曝光时间并增加摄像头的iso,摄像头的曝光时间的减少量和iso的增加量正相关;39.步骤104、控制摄像头保持当前的曝光时间和当前的iso;40.步骤105、响应于抓拍指令,抓取视频中对应的图像作为抓拍图像,例如,如图3所示,在视频录制界面中设置有抓拍图像的按钮,在视频录制的过程中,当用户点击抓拍图像的按钮时,会产生抓拍指令,以执行步骤105;41.步骤106、对抓拍图像进行降噪处理,若当前通过摄像头拍摄的画面有运动物体,则降噪处理的降噪程度和摄像头的iso增加量正相关。42.具体地,曝光时间和感光度iso是摄像头捕获画面的属性参数,曝光时间是指从快门打开到关闭的时间间隔,iso是指摄像头感光元件的感光速度,是一种类似于胶卷感光度的一种指标,实际上,手机等电子设备的iso是通过调整感光器件的灵敏度或者合并感光点来实现的。其中,曝光时间和iso之间具有相关性,曝光时间越大,则iso越小,反之,曝光时间越小,则iso越大。对于摄像头来说,如果快门从打开到关闭时画面中物体的位置已经发生较大的变化,得到的图像会产生拖影、不清晰,所以,对运动运动的拍摄,快门的速度要保证在曝光时间内物体没有太大的位移,这样,运动速度越高,就要求使用较快的快门速度越快,即使用越短的曝光时间,以便于得到较为清晰的动态画面。而对于静态物体的拍摄,使用较长的曝光时间可以得到更多的进光量,可以在光线条件较差的环境提高拍摄效果。因此,本技术实施例中,基于画面中是否有运动物体来确定当前画面场景所适合使用的曝光时间,在运动场景下使用较短的曝光时间、同时设置较大的iso,在静止场景下使用较长的曝光时间、同时设置较小的iso。在运动场景下,减少曝光时间的同时需要增加iso,然而,增加iso会导致噪点的增加,因此,在视频录制过程中进行图像抓拍时,在对抓拍图像进行降噪处理过程中,控制降噪程度和iso正相关,例如,在拍摄静态画面的视频场景下,摄像头保持默认或者预先确定的曝光时间和iso,基于默认或预先确定过的iso所对应的降噪程度对抓拍图像进行降噪处理;又例如,在拍摄动态画面的视频场景下,控制摄像头减少曝光时间并增加iso,此时,所获取到的抓拍图像虽然拖影感被削弱,但是由于iso的增加而产生更多的噪点,因此,在步骤106中,由于iso的增加,基于较高的降噪程度对抓拍图像进行降噪处理,以降低由于iso增加而产生的噪点。例如,摄像头默认的曝光时间为30ms,在步骤102中确定当前通过摄像头拍摄的画面有运动物体,将摄像头的曝光时间由30ms降低至例如10ms,曝光时间的减少量为20ms,iso的增加量为a,摄像头的曝光时间的减少量和iso的增加量正相关,也就是说,曝光时间的减少量越大,则iso的增加量越大,降噪程度也越大,例如此时的降噪程度等级为高。又例如,摄像头默认的曝光时间为20ms,在步骤102中确定当前通过摄像头拍摄的画面有运动物体,将摄像头的曝光时间由20ms降低至例如10ms,曝光时间的减少量为10ms,iso的增加量为b,b<a,此时,由于iso的增加量b较小,此时,例如可以设置降噪程度等级为中。又例如,在步骤102中确定当前通过摄像头拍摄的画面无运动物体,摄像头保持默认的曝光时间,在步骤106中,保持默认的降噪程度,或者也可以根据其他参数来调节降噪程度。43.本技术实施例中的视频处理方法,在视频拍摄的过程中,判断当前拍摄画面中是否有运动物体,如果有的则减少摄像头的曝光时间并增加iso,以此来减弱运动物体的拖影现象,以及,在获取到抓拍图像后,对抓拍图像进行降噪处理,降噪程度和iso正相关,以降低由于iso的增加而产生的噪点,从而改善视频录制过程中抓拍图像的质量,可以在抓拍运动的图像时,得到清晰的图片。44.在一种可能的实施方式中,如图4所示,上述步骤102、检测当前通过摄像头拍摄的画面是否有运动物体,若是,则进入步骤103、控制摄像头减少曝光时间并增加摄像头的iso,摄像头的曝光时间的减少量和iso的增加量正相关,若否,则进入步骤104、控制摄像头保持当前的曝光时间和当前的iso的过程包括:45.步骤102、检测当前通过摄像头拍摄的画面是否有运动物体且确定摄像头当前的iso是否超过预设值;若当前通过摄像头拍摄的画面有运动物体且摄像头当前的iso未超过预设值,则进入步骤103,若当前通过摄像头拍摄的画面无运动物体或摄像头当前的iso超过预设值,则进入步骤104;46.步骤103、控制摄像头减少曝光时间并增加摄像头的iso,摄像头的曝光时间的减少量和iso的增加量正相关;47.步骤104、控制摄像头保持当前的曝光时间和当前的iso。48.具体地,某些场景下并不适合增加摄像头的iso,例如在夜景场景下,摄像头的默认iso比较高,无法继续升高iso,那么也就无法减少曝光时间,因此,在步骤102中,除了检测画面是否有运动物体之外,还判断摄像头当前的iso是否超过预设值,如果超过预设值,则说明摄像头当前的iso比较高,无法再进一步增加,因此,即便判断画面有运动物体,也不再进行曝光时间的调节。49.在一种可能的实施方式中,如图5所示,在步骤101、获取通过摄像头拍摄的视频之前,还包括:50.步骤100、在多个视频风格模板中确定一个视频风格模板,每个视频风格模板对应一个预设的颜色查找表(lookuptable,lut);51.其中,lut的本质为数学转换模型,利用例如3d-lut可以将一组rgb值输出为另一组rgb值,从而改变画面的曝光与色彩。因此,可以预先生成对应不同视频风格的lut,在电子设备录制视频之前,首先确定出一个视频风格模板,例如可以基于用户的选择来确定视频风格模板,或者基于人工智能(artificialintelligence,ai),根据当前摄像头获取的图像所对应的场景自动确定视频风格模板。例如,假设电子设备为手机,在一种可能的实施方式中,如图6所示,用户操作手机进入拍摄界面,拍摄界面包括电影模式选项,当用户进一步选择电影模式选项进入电影模式,在对应的电影模式界面中,包括多个视频风格模板选项,例如包括《a》电影风格模板、《b》电影风格模板和《c》电影风格模板,图6所示的用户界面中仅显示了一个《a》电影风格模板,可以理解地,用户界面中可以并排显示多个不同的电影风格模板,不同的电影风格模板所对应的lut可以是预先基于对应电影配色风格所生成的,lut的颜色转换具有对应电影所具有的风格特点,例如《a》电影的配色风格为互补色,互补色是指两种对应的颜色形成对比效果,以暖色系与冷色系的两种颜色来强调对比度以提升鲜艳、突出的效果,通常两种对比的色彩象征冲突行为,透过外在的互补色彩的呈现来表达角色内心正处于矛盾或是身心交瘁的状态,《a》电影风格模板所对应的lut即用于将颜色映射转换之后,更明显地呈现互补色,以模拟《a》电影的配色风格。在一种可能的实施方式中,如图6所示,用户操作手机进入电影模式,手机会通过获取当前摄像头所拍摄的画面,并基于ai算法确定画面所对应的场景并确定与该场景对应的推荐的视频风格模板,例如若识别到当前所拍摄的画面主体为年轻女性人物,根据算法确定对应的推荐的视频风格模板为《c》电影风格模板,《c》电影为以年轻女性人物为主题的电影,其对应的lut可以模拟《c》电影的配色风格;例如若识别到当前所拍摄的画面为城市街道,根据算法确定对应的视频风格模板为《b》电影风格模板,《b》电影为以城市街道为主要场景的电影,其对应的lut可以模拟《b》电影的配色风格。这样,可以自动为用户推荐符合当前场景的视频风格模板。可以预先从电影风格中提取,产生适合移动电子设备的lut。52.在步骤101、获取通过摄像头拍摄的视频之后,还包括:53.步骤107、通过摄像头当前的感光度iso所对应的对数(logarithm,log)曲线对视频进行处理,得到log视频;54.其中,log曲线是基于场景的曲线,不同iso下log曲线略有不同。随着iso的增加,log曲线最大值也在增加。当iso提高到一定程度,高光处有肩部形状,保持高光不过曝。如图7所示,图7示意了一种log曲线,其中横坐标为线性信号,以16比特bit编码值codevalue表示,纵坐标为经过log曲线处理后的log信号,以10bit编码值表示。通过log曲线处理,可以利用摄像头的信号输入,将暗部区间的信息编码到中间调(如图5中曲线陡峭的部分),形成10bit的信号输出,符合人眼对光线log感应规则,最大化的保留了暗部信息,log视频可以利用有限的bit深度最大化的保留阴影和高光的细节。图7中的asa即为感光度,不同的asa即对应不同的iso,两者属于不同制式。55.在步骤101、获取通过摄像头拍摄的视频之后,还包括:56.步骤108、对log视频进行降噪处理,在对视频进行log处理的过程中,会引入噪声,因此,可以对log视频进行降噪处理,需要说明的是,如果检测到当前通过摄像头拍摄的画面是否有运动物体,执行了步骤103中增加摄像头iso的过程,也可以基于摄像头iso的增加量对步骤108中降噪处理的降噪程度进行调节,即降噪处理的降噪程度和摄像头的iso增加量正相关;57.步骤109、基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频。58.具体地,在得到log视频之后,以log视频作为输入,应用在步骤100中所确定的视频风格模板对应的lut,对log视频图像进行映射转换处理,在处理之后,既可以得到与所确定的视频风格模板对应的视频。基于lut对log视频进行处理后输出的可以是rec.709色彩标准的视频,也可以是高动态范围图像(high-dynamicrange,hdr)10标准的视频,即可以通过lut对log视频的处理,将视频转换为hdr10标准。59.不同的lut应用在电子设备上,可以对电子设备中相关的模块进行适配,以适应不同风格的lut,例如,如果在步骤100中所确定的视频风格模板为灰色调视频风格模板,灰色调画面的特点为使画面中纹理感较强、饱和度较低、除了人物皮肤的颜色,没有更多的颜色干扰、暗部较冷,基于这些特点,电子设备在录制视频的过程中,可以对相关的模块参数进行调整,保持画面中的纹理,不做很强的去噪和锐化,适当降低画面的饱和度,保持画面中的皮肤颜色真实还原,使画面的暗部向冷色调整。60.在步骤106、对抓拍图像进行降噪处理之前,还包括:61.步骤1010、通过摄像头当前的iso所对应的log曲线对抓拍图像进行处理,得到log抓拍图像;62.步骤106、对抓拍图像进行降噪处理包括:对log抓拍图像进行降噪处理;63.在步骤106、对log抓拍图像进行降噪处理之后,还包括:64.步骤1011、基于所确定的视频风格模板对应的lut对log抓拍图像进行处理,得到与所确定的视频风格模板对应的抓拍图像。65.具体的,在视频录制的过程中,除了基于log曲线和lut对视频进行处理,得到与所确定的视频风格模板对应的视频的过程之外,还会通过相同的log曲线和lut对抓拍图像进行处理,对于抓拍图像来说,会在log处理过程中保留细节,在lut处理过程中产生色调倾向,得到与所确定的视频风格模板对应的抓拍图像,即得到与视频调色效果接近的抓拍图像。66.本技术实施例中的视频处理方法,在视频录制过程中,利用电影行业的lut技术,基于所确定的视频风格模板对应的lut对log视频进行处理,使所录制的视频具有所确定的视频风格模板对应的风格效果,以满足较高的调色要求,使所录制的视频具有电影感。且将抓取到的抓拍图像基于log曲线和lut进行处理,以得到保留有细节且与视频风格模板对应的色调接近的抓拍图像。67.在一种可能的实施方式中,上述步骤109、基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频的过程包括:68.基于lut建立立方体插值空间,lut为三维3d-lut;69.其中,3d-lut的实现是在rgb域进行的,3d-lut为电影工业中常用的调色映射关系,可以将任意输入的rgb像素值转换为对应的其他rgb像素值,例如输入12bit的rgb视频图像,经过lut处理映射之后输出12bit的rgb视频图像。将整个rgb色彩空间均匀地分为例如33×33×33的立方体,对应lut,每个立方体的边长step_size例如为2(12-5)=27。70.确定log视频中每个像素点在立方体插值空间中所属的立方体,立方体中被划分为6个四面体;71.其中,log视频作为lut处理过程中的输入,对log视频画面中每个像素点得到通过lut处理映射后的像素点,既可以实现通过lut对log视频进行处理的过程,在需要确定每个作为输入的log视频中每个像素点在上述立方体插值空间中所属的立方体,立方体被划分为6个四面体。72.确定log视频中每个像素点所属的四面体;73.对于对应立方体顶点的像素点,将像素值转换为经过lut处理后的像素值,对于不对应立方体顶点的像素点,根据每个像素点所属的四面体进行插值,将像素值转换为经过lut处理后的像素值。74.具体地,对于输入的像素点来说,如果像素点位于立方体的顶点,根据顶点的索引以及3d-lut,可以直接获取映射后的rgb像素值,即可以直接通过lut将其像素值映射转换为对应的像素值,而如果像素点位于立方体的顶点之间,则根据像素点所属的四面体进行插值。另外,在步骤1011中,也可以通过相同方法对log抓拍图像进行lut处理,具体过程不再赘述。75.在一种可能的实施方式中,如图8所示,立方体中具有第0至第7顶点,在图8中分别以数字0~7表示,第0顶点至第1顶点的方向为蓝色b通道的坐标轴方向,第0顶点至第4顶点的方向为红色r通道的坐标轴方向,第0顶点至第2顶点的方向为绿色g通道的坐标轴方向,第0顶点、第1顶点、第2顶点和第3顶点位于同一平面,第1顶点、第3顶点、第5顶点和第7顶点位于同一平面,第4顶点、第5顶点、第6顶点和第7顶点位于同一平面,第0顶点、第2顶点、第4顶点和第6顶点位于同一平面;第0顶点、第1顶点、第5顶点和第7顶点形成第一个四面体,第0顶点、第1顶点、第3顶点和第7顶点形成第二个四面体,第0顶点、第2顶点、第3顶点和第7顶点形成第三个四面体,第0顶点、第4顶点、第5顶点和第7顶点形成第四个四面体,第0顶点、第4顶点、第6顶点和第7顶点形成第五个四面体,第0顶点、第2顶点、第6顶点和第7顶点形成第六个四面体;其中,第i顶点的坐标为(ri,gi,bi),i的取值为0、1、2、3、…、7,第i顶点经过lut处理后的像素值为ve(ri,gi,bi),其中e取r、g和b;76.上述对于不对应立方体顶点的像素点,根据每个像素点所属的四面体进行插值,将像素值转换为经过lut处理后的像素值的过程包括:77.根据当前像素点(r,g,b)生成经过lut处理后的e通道像素值ve(r,g,b),e取r、g和b,当前像素点是指输入的log视频中的当前待进行插值计算的像素点;78.ve(r,g,b)=ve(r0,g0,b0)+(delta_valuer_e×deltar+delta_valueg_e×deltag+delta_valueb_e×deltab+(step_size》》1))/(step_size);79.ve(r0,g0,b0)为第0顶点(r0,g0,b0)经过lut处理后的e通道像素值,e取r、g和b;80.delta_valuer_e为当前像素点所属四面体对应r通道的坐标轴方向上的两个顶点经过lut处理后的e通道像素值之差,delta_valueg_e为当前像素点所属四面体对应g通道的坐标轴方向上的两个顶点经过lut处理后的e通道像素值之差,delta_valueb_e为当前像素点所属四面体对应b通道的坐标轴方向上的两个顶点经过lut处理后的e通道像素值之差;81.deltar为当前像素点(r,g,b)中的r值与第0顶点(r0,g0,b0)中的r0值之差,deltag为当前像素点(r,g,b)中的g值与第0顶点(r0,g0,b0)中的g0值之差,deltab为当前像素点(r,g,b)中的b值与第0顶点(r0,g0,b0)中的b0值之差;82.step_size为立方体的边长。83.其中,》》表示右移运算,(step_size》》1)即step_size右移一位。84.具体地,例如,对于输入的当前像素点(r,g,b),计算deltar、deltag和deltab,deltar、deltag和deltab表示当前像素点(r,g,b)与第0顶点的距离,deltar=r-r0,deltag=g-g0,deltab=b-b0,可以根据deltar、deltag以及deltab之间的关系判断当前像素点属于哪个四面体。如果deltab≥deltar且deltar≥deltag,则确定当前像素点属于第一个四面体;如果deltab≥deltag且deltag≥deltar,则确定当前像素点属于第二个四面体;如果deltag≥deltab且deltab≥deltar,则确定当前像素点属于第三个四面体;如果deltar≥deltab且deltab≥deltag,则确定当前像素点属于第四个四面体;如果deltar≥deltag且deltag≥deltab,则确定当前像素点属于第五个四面体;如果deltar、deltag以及deltab之间的关系不属于上述第一~第五个四面体的条件,则确定当前像素点属于第六个四面体。假设当前像素点(r,g,b)属于第一个四面体,该像素点经过lut处理后的r通道像素值vr(r,g,b)的计算过程中,delta_valuer_e为当前像素点所属四面体对应r通道的坐标轴方向上的两个顶点经过lut处理后的e通道像素值之差,即delta_valuer_r=vr(r5,g5,b5)-vr(r1,g1,b1),delta_valueg_r=vr(r7,g7,b7)-vr(r5,g5,b5),delta_valueb_r=vr(r1,g1,b1)-vr(r0,g0,b0),vr(r,g,b)=vr(r0,g0,b0)+(delta_valuer_r×deltar+delta_valueg_r×deltag+delta_valueb_r×deltab+(step_size》》1))/(step_size);该像素点经过lut处理后的g通道像素值vg(r,g,b)的计算过程中,delta_valueg_e为当前像素点所属四面体对应g通道的坐标轴方向上的两个顶点经过lut处理后的e通道像素值之差,即delta_valuer_g=vr(r5,g5,b5)-vr(r1,g1,b1),delta_valueg_g=vg(r7,g7,b7)-vg(r5,g5,b5),delta_valueb_g=vg(r1,g1,b1)-vg(r0,g0,b0),vg(r,g,b)=vg(r0,g0,b0)+(delta_valuer_g×deltar+delta_valueg_g×deltag+delta_valueb_g×deltab+(step_size》》1))/(step_size);该像素点经过lut处理后的b通道像素值vg(r,g,b)的计算过程中,delta_valueb_e为当前像素点所属四面体对应b通道的坐标轴方向上的两个顶点经过lut处理后的e通道像素值之差,即delta_valuer_b=vb(r5,g5,b5)-vb(r1,g1,b1),delta_valueg_b=vb(r7,g7,b7)-vb(r5,g5,b5),delta_valueb_b=vb(r1,g1,b1)-vb(r0,g0,b0),vb(r,g,b)=vb(r0,g0,b0)+(delta_valuer_b×deltar+delta_valueg_b×deltag+delta_valueb_b×deltab+(step_size》》1))/(step_size)。对于当前像素点(r,g,b)属于其他四面体的情况,计算过程类似,区别在于delta_valuer_e的计算,例如对于第二个四面体,delta_valuer_r=vr(r7,g7,b7)-vr(r3,g3,b3),delta_valueg_r=vr(r3,g3,b3)-vr(r1,g1,b1),delta_valueb_r=vr(r1,g1,b1)-vr(r0,g0,b0),基于其他四面体的具体计算过程在此不再赘述。85.在一种可能的实施方式中,在上述步骤108、对log视频进行降噪处理的过程之前,还包括:将log视频由rgb色彩空间的log视频转换为yuv色彩空间的log视频;上述步骤108、对log视频进行降噪处理的过程具体为对yuv色彩空间的log视频进行yuv降噪处理,得到降噪后的log视频,在步骤109中应用lut的log视频即为经过yuv降噪后的log视频。由于步骤107中得到的log视频,能够体现暗部细节,但是同时会将暗部噪声放大,即会引入噪声,因此可以将log视频转换为yuv色彩空间之后,进行yuv降噪处理,通过算法降噪,以改善视频图像质量。类似的,对于抓拍图像,同样可以先将log抓拍图像由rgb色彩空间的log视频转换为yuv色彩空间的log抓拍图像,然后对yuv色彩空间的log抓拍图像进行yuv降噪处理,即在步骤106中对log抓拍图像进行yuv降噪处理,得到降噪后的log抓拍图像,再执行步骤1011进行lut处理。86.在一种可能的实施方式中,在上述步骤109、基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频的过程之前,还包括:将降噪后的log视频由yuv色彩空间的log视频转换为rgb色彩空间的log视频;在上述步骤109、基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频的过程之后,还包括:将rgb色彩空间的与所确定的视频风格模板对应的视频转换为yuv色彩空间的视频。由于步骤109中基于lut对log视频进行处理的过程是基于rgb色彩空间实现的,因此,因此,在步骤109之前先将yuv色彩空间的视频转换为rgb色彩空间的视频,在步骤109之后,再将rgb色彩空间的视频重新转换为yuv色彩空间的视频。87.yuv(亦称ycbcr)是欧洲电视系统采用的一种颜色编码方法。在现代彩色电视系统中,通常采用三管彩色摄像机或彩色ccd摄影机进行取像,然后把取得的彩色图像信号经分色、分别放大校正后得到rgb信号,再经过矩阵变换电路得到亮度信号y和两个色差信号b-y(即u)、r-y(即v),最后发送端将三个信号分别进行编码后用同一信道发送出去。这种色彩表示方法就是yuv颜色空间。ycbcr是yuv模型的具体实现,其实是yuv经过缩放和偏移的翻版。其中y与yuv中的y含义一致,cb和cr同样都指色彩,只是在表示方法上不同而已。在yuv家族中,ycbcr是在计算机系统中应用最多的成员,其应用领域很广泛,jpeg、mpeg均采用此格式。一般人们所讲的yuv大多是指ycbcr。uv平面如图9所示。88.rgb和yuv颜色空间的相互转换可以通过3x3的矩阵实现:[0089][0090]yuv主要有4种采样格式:ycbcr4:2:0、ycbcr4:2:2、ycbcr4:1:1和ycbcr4:4:4。[0091]在一种可能的实施方式中,如图10所示,电子设备具体可以包括摄像头193、反马赛克demosaic模块21、变形模块22、融合模块23、噪声处理模块24、色彩校正矩阵(colorcorrectionmatrix,ccm)模块25、全局色调映射(globaltonemapping,gtm)模块26、缩放scaler模块27、yuv去噪模块28、lut处理模块29、抓拍模块31、抓拍lut处理模块32和运动检测模块4,例如,在视频录制的过程中,摄像头193拍摄得到第一曝光帧视频图像和第二曝光帧视频图像,第一曝光帧视频图像所对应的曝光时间大于第二曝光帧视频图像所对应的曝光时间,第一曝光帧视频图像和第二曝光帧视频图像分别通过反马赛克模块21的处理,使图像从raw域转换为rgb域,之后两路视频图像分别通过变形warp模块22的处理,通过对视频图像的变形实现对齐、防抖的效果,之后两路视频图像通过融合模块23处理,将两种视频图像融合为同一个,融合之后的数据再分流为两路,视频处理方法包括第一视频处理流程s1和第二视频处理流程s2,通过融合模块23处理之后的其中一路进入第一视频处理流程s1,另外一路进入第二视频处理流程s2。[0092]例如,第一视频处理流程s1包括,将来自于融合模块23的通过摄像头193拍摄的视频通过噪声处理模块24进行去噪处理,然后通过ccm模块25处理,将视频转换为rgb广色域的色彩空间,然后通过gtm模块26执行通过log曲线对视频进行处理,得到log视频的过程,然后通过缩放模块27对视频进行缩放处理,然后通过yuv降噪模块28对视频进行yuv降噪,然后通过lut处理模块29执行通过lut对视频进行处理,得到与所确定的视频风格模块对应的视频的过程。在第一视频处理流程s1之后,将第一视频处理流程s1中与所确定的视频风格模板对应的视频进行保存,保存为录像,即可以得到具有风格的视频。[0093]第二视频处理流程s2包括:将来自于融合模块23的通过摄像头193拍摄的视频通过噪声处理模块24进行去噪处理,然后通过ccm模块25处理,将视频转换为rgb广色域的色彩空间,然后通过gtm模块26执行上述通过log曲线对视频进行处理,得到log视频的过程,然后通过缩放模块27对视频进行缩放处理,然后通过yuv降噪模块28对视频进行yuv降噪,然后通过lut处理模块29执行通过lut对视频进行处理,得到与所确定的视频风格模块对应的视频的过程。基于第二视频处理流程s2中与所确定的视频风格模板对应的视频进行预览。[0094]也就是说,在视频录制过程中,会基于两路视频流分别在第一视频处理流程s1和第二视频处理流程s2中进行处理,两路视频流分别挂在两套相同的算法。[0095]另外,在摄像头193拍摄视频的过程中,会将图像存在缓存中,响应于抓拍指令,抓拍模块31会从缓存中抓取对应的图像作为抓拍图像,将抓拍图像回灌至噪声处理模块24进行噪声处理,噪声处理后的抓拍图像通过ccm模块25转换为rgb广色域的色彩空间,然后通过gtm模块26执行步骤1010、通过摄像头当前的iso所对应的log曲线对抓拍图像进行处理,得到log抓拍图像,log抓拍图像通过缩放模块27进行缩放处理,然后通过yuv降噪模块进行yuv降噪,然后通过抓拍lut处理模块32执行步骤1011、基于所确定的视频风格模板对应的lut对log抓拍图像进行处理,得到与所确定的视频风格模板对应的抓拍图像,将抓拍图像保存为图片。[0096]在视频录制的过程中或视频录制之前,运动检测模块4执行步骤102、检测当前通过摄像头拍摄的画面是否有运动物体,若是,则执行步骤103、控制摄像头减少曝光时间并增加摄像头的iso,若否,则执行步骤104、控制摄像头保持当前的曝光时间和当前的iso,[0097]以下对raw和yuv的相关内容进行说明:[0098]拜耳域:数码相机上的每个镜头都带有一个光传感器,用以测量光线的明亮程度,但若要获得一幅全彩图像,一般需要有三个光传感器分别获得红、绿、蓝三基色信息,而为了降低数码相机的成本与体积,生产厂商通常会采用ccd或cmos图像传感器,通常的,cmos图像传感器输出的原始图像为拜尔域rgb格式,单个像素点只包含一种颜色值,要得到图像的灰度值,需要先插补完整各像素点的颜色信息,再计算各像素点的灰度值。也就是说拜耳域是指数码相机内部的一种原始图片格式。[0099]raw域或称raw格式,是指未经加工图像。进一步地,所述raw图像可以理解为,就是相机的感光元件比如互补金属氧化物半导体(complementarymetaloxidesemiconductor,cmos)或者电荷耦合器件(charge-coupleddevice,ccd)将捕捉到的光源信号转化为数字信号的原始数据。raw文件是一种记录了数码相机传感器的原始信息,同时记录了由相机拍摄所产生的一些元数据(metadata,如感光度iso(internationalorganizationforstandardization,国际标准化组织)的设置、快门速度、光圈值、白平衡等)的文件。raw域是未经isp非线性处理、也未经压缩的格式。raw格式的全称是rawimageformat。[0100]yuv是一种颜色编码方法,常使用在各个视频处理组件中。yuv在对照片或视频编码时,考虑到人类的感知能力,允许降低色度的带宽。yuv是编译true-color颜色空间(colorspace)的种类,y'uv、yuv、ycbcr、ypbpr等专有名词都可以称为yuv,彼此有重叠。其中“y”表示明亮度(luminance或luma),也就是灰阶值,“u”和“v”表示色度(chrominance或chroma),作用是描述影像色彩及饱和度,用于指定像素的颜色。一般yuv分成两种格式,一种是:紧缩格式(packedformats),将y、u、v值存储成macropixels数组,和rgb的存放方式类似。另一种是:平面格式(planarformats),将y、u、v的三个分量分别存放在不同的矩阵中。平面格式(planarformats)是指每y分量,u分量和v分量都是以独立的平面组织的,也就是说所有的u分量都在y分量后面,而v分量在所有的u分量后面。[0101]在一种可能的实施方式中,上述步骤101、获取通过摄像头拍摄的视频包括:交替获取第一曝光帧视频图像和第二曝光帧视频图像,第一曝光帧视频图像的曝光时长大于第二曝光帧视频图像的曝光时长;步骤105、响应于抓拍指令,抓取视频中对应的图像作为抓拍图像的过程包括:若当前通过摄像头拍摄的画面有运动物体,则将第二曝光帧视频图像作为参考帧;若当前通过摄像头拍摄的画面无有运动物体,则将第一曝光帧视频图像作为参考帧;基于参考帧将多帧视频图像融合为抓拍图像。[0102]具体地,例如,摄像头193会基于不同的曝光时间交替拍摄图像,最新拍摄的图像会存储在缓存中,当用户进行抓拍时,会产生抓拍指令,根据抓拍指令,从缓存中获取抓拍时刻所对应的连续10帧图像,其中包括5帧第一曝光帧视频图像和5帧第二曝光帧视频图像,然后抓拍模块31会将这10帧图像进行融合,融合的过程中,会主要以参考帧作为融合图像的主体,其他帧的图像用于辅助提供融合时所需要的信息,因此,可以根据视频中是否检测到运动物体来确定参考帧,当检测到运动物体时,将其中曝光时长较短的第二曝光帧视频图像作为参考帧,当未检测到运动物体时,将其中曝光时长较长的第一曝光帧视频图像作为参考帧,以提高抓拍图像的画面效果,对于运动的场景,第二曝光帧视频图像的曝光时长较短,作为参考帧进行融合,可以降低拖影现象,对于静止的场景,第一曝光帧视频图像的曝光时长较长,作为参考帧进行融合,可以使静态画面的成像质量更好。在视频拍摄的过程中,当用户进行抓拍时,从缓存中抓取对应的图像,即引用零延迟(zeroshutterlag,zsl)技术,可以降低抓拍时的延迟,尽量保证延迟在0±50ms内。需要说明的是,在一种实施方式中,在步骤103中控制摄像头减少的曝光时间可以是指第一曝光帧视频图像对应的曝光时间,也就是说,若当前通过摄像头拍摄的画面有运动物体,可以仅改变摄像头捕获第一曝光帧视频图像时所对应的曝光时间,不改变摄像头捕获第二曝光帧视频图像时所对应的曝光时间;另一种实施方式中,在步骤103中控制摄像头减少的曝光时间也可以是指第二曝光帧视频图像对应的曝光时间,也就是说,若当前通过摄像头拍摄的画面有运动物体,可以仅改变摄像头捕获第二曝光帧视频图像时所对应的曝光时间,不改变摄像头捕获第一曝光帧视频图像时所对应的曝光时间;再一种实施方式中,在步骤103中控制摄像头减少的曝光时间也可以是指第一曝光帧视频图像和第二曝光帧视频图像对应的曝光时间,也就是说,若当前通过摄像头拍摄的画面有运动物体,会改变摄像头捕获第一曝光帧视频图像时所对应的曝光时间,且改变摄像头捕获第二曝光帧视频图像时所对应的曝光时间。[0103]以下结合软件架构对本技术实施例进行说明,本技术实施例以分层架构的android系统为例,示例性说明电子设备100的软件结构。图11是本技术实施例的电子设备100的软件结构框图。[0104]分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将android系统分为五层,从上至下分别为应用程序application层、应用程序框架framework层、系统库library、硬件抽象层(hardwareabstractionlayer,hal)以及内核层。[0105]应用程序层可以包括相机等应用程序。[0106]应用程序框架层可以包括相机应用程序编程接口(applicationprogramminginterface,api)、媒体录制mediarecorder和表面视图surfaceview等。媒体录制用来录制视频或图片数据,并使这些数据可以被应用程序访问。表面视图用来显示预览画面。[0107]系统库可以包括多个功能模块。例如:相机服务camerasevice等。[0108]硬件抽象层用于提供接口支持,例如包括相机流程camerapipeline以供相机服务调用call。[0109]内核层是硬件和软件之间的层。内核层包含显示驱动,摄像头驱动等。[0110]结合捕获视频的一种具体场景,应用程序层下发捕获请求capturerequest,请求对应一个录像的流、一个抓拍图像的流和一个预览流。hal按照上述的数据流dataflow,回调三路流。其中,预览流送显示,录像的流和抓拍图像的流分别送mediacodec。[0111]本技术实施例提供的录像视频处理方法可以表现为两种拍摄模式下的多个功能,其中这两种拍摄模式可以是指:电影模式、专业模式。[0112]电影模式是一种与电影主题相关的拍摄模式,在该模式下,电子设备100显示的图像能够从感官上给用户一种观看电影的效果,电子设备100还提供多个与电影主题相关的视频风格模板,用户可以利用这些视频风格模板获得色调调整后的图像或视频,这些图像或视频的色调与电影的色调类似或相同。在本技术以下实施例中,电影模式至少可提供用户触发lut功能、hdr10功能的接口。具体关于lut功能、hdr10功能的描述可以参见以下实施例。[0113]例如,假设电子设备100为手机,在一种可能的实施方式中,如图6所示,电子设备可以响应用户的操作进入电影模式。例如,电子设备100可以检测到用户作用于相机应用程序的触控操作,响应于该操作,电子设备100显示相机应用程序的默认拍照界面。默认拍照界面可包括:预览框、拍摄模式列表、图库快捷键、快门控件等。其中:[0114]预览框可用于显示摄像头193实时采集的图像。电子设备100可以实时刷新其中的显示内容,以便于用户预览摄像头193当前采集的图像。[0115]拍摄模式列表中可以显示有一个或多个拍摄模式选项。这一个或多个拍摄模式选项可以包括:人像模式选项、录像模式选项、拍照模式选项、电影模式选项、专业选项。这一个或多个拍摄模式选项在界面上可以表现为文字信息,例如“人像”、“录像”、“拍照”、“电影”、“专业”。不限于此,这一个或多个拍摄模式选项在界面上还可以表现为图标或者其他形式的交互元素(interactiveelement,ie)。[0116]图库快捷键可用于开启图库应用程序。图库应用程序是智能手机、平板电脑等电子设备上的一款图片管理的应用程序,又可以称为“相册”,本实施例对该应用程序的名称不做限制。图库应用程序可以支持用户对存储于电子设备100上的图片进行各种操作,例如浏览、编辑、删除、选择等操作。[0117]快门控件可用于监听触发拍照的用户操作。电子设备100可以检测到作用于快门控件的用户操作,响应于该操作,电子设备100可以将预览框中的图像保存为图库应用程序中的图片。另外,电子设备100还可以在图库快捷键中显示所保存的图像的缩略图。也即是说,用户可以点击快门控件来触发拍照。其中,快门控件可以是按钮或者其他形式的控件。[0118]电子设备100可以检测到用户作用于电影模式选项的触控操作,响应于该操作,电子设备显示如图6所示的用户界面。[0119]在一些实施例中,电子设备100可以在启动相机应用程序后默认开启电影模式。不限于此,电子设备100还可以通过其他方式开启电影模式,例如电子设备100还可以根据用户的语音指令开启电影模式,本技术实施例对此不作限制。[0120]电子设备100可以检测到用户作用于电影模式选项的触控操作,响应于该操作,电子设备显示如图6所示的用户界面。[0121]如图6示出的用户界面中包括功能选项,功能选项包括hdr10选项、闪光灯选项、lut选项、设置选项。这多个功能选项都可以检测到用户的触控操作,并响应于该操作,开启或关闭对应的拍摄功能,例如,hdr10功能、闪光灯功能、lut功能、设置功能。[0122]电子设备可以开启lut功能,该lut功能可以改变预览图像的显示效果。实质上,lut功能引入了颜色查找表,颜色查找表相当于一个颜色转换模型,该颜色转换模型能够根据输入的色彩值,输出调整后的色彩值。摄像头采集的图像的色彩值相当于输入值,不同的色彩值经过颜色转换模型后,都可以对应得到一个输出值。最终,显示在预览框中的图像即为经过颜色转换模型调整后的图像。电子设备100利用该lut功能,显示经过颜色转换模型调整后的色彩值组成的图像,达到调整图像色调的效果。开启lut功能之后,电子设备100可以提供多个视频风格模板,一个视频风格模板对应一个颜色转换模型,不同的视频风格模板可以给预览图像带来不同的显示效果。并且,这些视频风格模板可以与电影主题相关联,视频风格模板给预览图像带来的色调调整效果可以和电影中的色调接近或相同,为用户营造拍摄电影的氛围感。[0123]另外,在电子设备100开启lut功能之后,电子设备100可以根据当前预览视频画面,在多个视频风格模板中确定一个视频风格模板,所确定的视频风格模板可以显示在界面中,以便于用户了解当前所确定的视频风格模板,例如多个视频风格模板包括《a》电影风格模板、《b》电影风格模板和《c》电影风格模板,不同的电影风格模板所对应的lut可以是预先基于对应电影配色风格所生成的,lut的颜色转换具有对应电影所具有的风格特点。可以预先从电影风格中提取,产生适合移动电子设备的lut。lut功能的开启会改变预览视频画面的色调。如图6中示意的,电子设备100确定《a》电影风格模板并进行显示。[0124]在一些实施例中,电子设备100可以根据用户的滑动操作来选择视频风格模板。具体地,当电子设备100检测到用户开启lut功能的用户操作,显示lut预览窗口之后,电子设备100可以默认选择位于lut预览窗口中的第一个视频风格模板,作为电子设备100选中的视频风格模板。之后,电子设备100可以检测到用户作用于lut预览窗口的左右滑动操作,移动lut预览窗口中各视频风格模板的位置,当电子设备100不再检测到用户的滑动操作时,电子设备100将lut预览窗口中显示的第一个视频风格模板作为电子设备100选中的视频风格模板。[0125]在一些实施例中,电子设备100除了可以使用视频风格模板改变预览图像的显示效果,还可以在添加视频风格模板之后,检测到开始录制视频的用户操作,响应于该操作,电子设备100开始录制视频,从而获得使用视频风格模板调整显示效果后的视频。另外,在录制视频的过程中,电子设备100还可以检测到拍摄照片的用户操作,响应于该操作,电子设备100将预览框中添加了视频风格模板的预览图像保存成图片,从而获得使用视频风格模板调整显示效果后的图像。[0126]电子设备可以开启hdr10功能,hdr10模式中,hdr即为高动态范围图像(high-dynamicrange,hdr),相比于普通的图像,hdr可以提供更多的动态范围和图像细节,能够更好地反映出真实环境中的视觉效果,hdr10中的10即为10比特,hdr10可以以10位高动态范围录制视频。[0127]电子设备100可以检测到用户作用于专业模式选项的触控操作,进入专业模式。如图12所示,电子设备处于专业模式时,用户界面中可以包括的功能选项例如为:log选项、闪光灯选项、lut选项、设置选项,另外,用户界面还包括参数调节选项,例如为:测光m选项、iso选项、快门s选项、曝光补偿ev选项、对焦方式af选项和白平衡wb选项。[0128]在一些实施例中,电子设备100可以在启动相机应用程序后默认开启专业模式。不限于此,电子设备100还可以通过其他方式开启专业模式,例如电子设备100还可以根据用户的语音指令开启专业模式,本技术实施例对此不作限制。[0129]电子设备100可以检测到用户作用于log选项的用户操作,响应于该操作,电子设备100开启log功能。其中,log功能能够将对数函数应用到曝光曲线上,最大限度地保留摄像头采集的图像中,高光和阴影部分的细节,使最终呈现出来的预览图像的饱和度较低。其中,使用log功能录制的视频称为log视频。[0130]电子设备100通过专业模式除了可以录制添加了视频风格模板的视频,还可以在录制未添加视频风格模板的视频后,为该视频添加视频风格模板,或者,在开启log功能后,录制log视频,之后再为该log视频添加视频风格模板。这样,电子设备100不仅可以在录制视频的之前调整画面的显示效果,还可以在视频录制完成之后,调整录制的视频的显示效果,增加了图像调整的灵活性和自由度。[0131]本技术实施例还提供一种视频处理装置,包括:视频获取模块,用于获取通过摄像头拍摄的视频;运动检测模块,用于检测当前通过摄像头拍摄的画面是否有运动物体,若是,则控制摄像头减少曝光时间并增加摄像头的iso,摄像头的曝光时间的减少量和iso的增加量正相关,若否,则控制摄像头保持当前的曝光时间和当前的iso;抓拍模块,用于响应于抓拍指令,抓取视频中对应的图像作为抓拍图像;降噪模块,用于对抓拍图像进行降噪处理,若当前通过摄像头拍摄的画面有运动物体,则降噪处理的降噪程度和摄像头的iso增加量正相关。[0132]应理解以上视频处理装置的各个模块的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且这些模块可以全部以软件通过处理元件调用的形式实现;也可以全部以硬件的形式实现;还可以部分模块以软件通过处理元件调用的形式实现,部分模块通过硬件的形式实现。例如,视频获取模块、运动检测模块、抓拍模块和降噪模块中的任意一者可以为单独设立的处理元件,也可以集成在视频处理装置中,例如集成在视频处理装置的某一个芯片中实现,此外,也可以以程序的形式存储于视频处理装置的存储器中,由视频处理装置的某一个处理元件调用并执行以上各个模块的功能。其它模块的实现与之类似。此外这些模块全部或部分可以集成在一起,也可以独立实现。这里所述的处理元件可以是一种集成电路,具有信号的处理能力。在实现过程中,上述方法的各步骤或以上各个模块可以通过处理器元件中的硬件的集成逻辑电路或者软件形式的指令完成。[0133]例如,视频获取模块、运动检测模块、抓拍模块和降噪模块这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(applicationspecificintegratedcircuit,asic),或,一个或多个微处理器(digitalsingnalprocessor,dsp),或,一个或者多个现场可编程门阵列(fieldprogrammablegatearray,fpga)等。再如,当以上某个模块通过处理元件调度程序的形式实现时,该处理元件可以是通用处理器,例如中央处理器(centralprocessingunit,cpu)或其它可以调用程序的处理器。再如,这些模块可以集成在一起,以片上系统(system-on-a-chip,soc)的形式实现。[0134]本技术实施例还提供一种视频处理装置,包括:处理器和存储器,存储器用于存储至少一条指令,指令由处理器加载并执行时以实现上述任意实施例中的视频处理方法。[0135]该视频处理装置可以应用上述的视频处理方法,具体过程和原理在此不再赘述。[0136]处理器的数量可以为一个或多个,处理器和存储器可以通过总线或者其他方式连接。存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态计算机可执行程序以及模块,如本技术实施例中的视频处理装置对应的程序指令/模块。处理器通过运行存储在存储器中的非暂态软件程序、指令以及模块,从而执行各种功能应用以及数据处理,即实现上述任意方法实施例中的方法。存储器可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;以及必要数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。[0137]如图1所示,本技术实施例还提供一种电子设备,包括:摄像头193和上述的视频处理装置,视频处理装置包括处理器110。[0138]视频处理装置的具体原理和工作过程与上述实施例相同,在此不再赘述。该电子设备可以是例如手机、电视、平板电脑、手表、手环等任何具有视频拍摄功能的产品或部件。[0139]本技术实施例还提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,使得计算机执行上述任意实施例中的视频处理方法。[0140]在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本技术所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,dvd)、或者半导体介质(例如固态硬盘solidstatedisk)等。[0141]本技术实施例中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b,可以表示单独存在a、同时存在a和b、单独存在b的情况。其中a,b可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项”及其类似表达,是指的这些项中的任意组合,包括单项或复数项的任意组合。例如,a,b和c中的至少一项可以表示:a,b,c,a-b,a-c,b-c,或a-b-c,其中a,b,c可以是单个,也可以是多个。[0142]以上仅为本技术的优选实施例而已,并不用于限制本技术,对于本领域的技术人员来说,本技术可以有各种更改和变化。凡在本技术的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本技术的保护范围之内。当前第1页12当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1