久久精品无码视频|精产国品色情一二三区在线观看|国产性爱自拍视频|亚洲av韩国av|日韩美女一级AAA大片|少妇无码激情诱惑|日韩AV在线播放有码|一级黄片一级黄片|av上一页亲亲久草av|aaa在线观看国产做爱

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能 正文
發(fā)私信給宗仁
發(fā)送

1

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

本文作者: 宗仁 2016-12-07 20:20
導語:根據(jù)你提供的圖片內(nèi)容和想要的風格重新“生成”一張新的圖片,是今年很多濾鏡粉玩過的一個爆火游戲,但如何把這個“游戲”遷移到視頻上?

根據(jù)你提供的圖片內(nèi)容和想要的風格重新“生成”一張新的圖片,是今年很多濾鏡粉玩過的一個爆火游戲,但如何把這個“游戲”遷移到視頻上,并實現(xiàn)高質(zhì)量的視頻風格“生成”對于很多人來說并不熟悉,因為市面上這個功能大規(guī)模推向濾鏡粉的廠商還并不多,粉絲們對這個技術背后的算法也不甚了解。不過在今年Siggraph Asia 2016上的參展商演講中,騰訊AI Lab聯(lián)合清華大學實驗室的團隊,就為我們現(xiàn)場講解了關于視頻風格變換的相關內(nèi)容。

演講者,黃浩智,騰訊AI Lab。

演講提綱

  • 迭代圖像風格轉換

  • 前向圖像風格轉換

  • 迭代視頻風格轉換

  • 前向視頻風格轉換

  • 小結

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

在這之前,圖片風格轉換的問題,傳統(tǒng)的方法:是基于手工提取特征來生成一張新的圖片。而目前比較流行的使用深度學習的方法:是基于深度網(wǎng)絡學習的特征來生成一張新的圖片。

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

一. 關于迭代的圖像風格轉換

今年的CVPR有一篇 oral文章 “Image Style Transfer Using Convolutional Neural Networks”,當時引起了學術界的廣泛關注,講的就是關于迭代的圖像風格變換問題。

然后我們具體去做的時候,一般是這樣的:

  • 先輸入一張隨機(噪聲)圖,經(jīng)過VGG—19網(wǎng)絡,可以提取出我們預先定義好的content和style特征。

  • 我們將content特征跟用戶提供的輸入圖像(content image)去比對,將style特征跟另外一張預先設定好的風格圖像(譬如某位大師的一幅油畫)去比對,有了內(nèi)容的差異和風格的差異后。

  • 我們一步步通過一個叫back  propagation(反向傳播)的過程,從網(wǎng)絡的高層往回傳, 一直傳到我們輸入的那張隨機噪聲圖, 我們就可以去修改這張隨機噪聲圖,使得它跟我們指定的content特征和style特征越來越像。

  • 所以它最后在content 特征上接近于用戶輸入的那張,在style特征上接近于另一張預先設定好的油畫作品等。

如下圖所示,先用一個VGG—19圖形識別和卷積網(wǎng)絡提取輸入圖片的content和style特征。(這些提取的特征主要用于后面重構隨機輸入得到的結果)

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

當然,實際執(zhí)行圖片風格轉換的時候,還要考慮產(chǎn)生內(nèi)容損失和風格損失  

關于內(nèi)容表示(CNN特征圖像): 深度神經(jīng)網(wǎng)絡已經(jīng)可以抽取高層次(抽象)的信息表征了。

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

下面是內(nèi)容損失函數(shù)

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

關于風格表示

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

下面是風格損失函數(shù)

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

下圖是流程的展示。 

——一開始輸入的隨機噪聲圖,經(jīng)過中間的(VGG 19)網(wǎng)絡,在不同的層次分別提取的內(nèi)容和風格特征,跟用戶輸入原圖的內(nèi)容進行比較,跟預先設定的另一張圖(比如大師的某張油畫圖)的風格進行比較,然后計算出損失函數(shù)Ltotal。

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

具體的風格變換算法中產(chǎn)生的總的損失=α*內(nèi)容損失+ β*風格損失。

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

但迭代圖像風格變換自有它的缺陷之處。

  • 沒有訓練和自學習的過程;

  • 對每一張新的輸入圖都要重復它迭代更新的過程;

  • 速度慢。

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

二. 關于前向圖片風格轉換

斯坦福大學的 Justin Johnson曾經(jīng)提出一種使用前向網(wǎng)絡完成圖像風格變換的方法,發(fā)表于ECCV 2016。

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

在其實踐時,采用的圖片轉換網(wǎng)絡層具體見下:

  • 2個卷積網(wǎng)絡層進行下采樣;

  • 中間5個殘差網(wǎng)絡層;

  • 2個反卷積網(wǎng)絡層進行上采樣。

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

損失函數(shù)包下面三部分

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

最后的實踐結果如下,質(zhì)量非常不錯。

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

總的來說,使用前向圖片風格轉換

  • 不僅可以保證實時性;

  • 還可以使得(前向式)生成和迭代式在視覺上近似的結果。

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

三. 關于迭代視頻風格轉換

將風格變換技術由圖像向視頻拓展最為直接的方式就是使用圖像風格變換的技術逐幀完成視頻的變換,但是這樣很難保證視頻幀間風格的一致性。為此 Ruder 等人提出了一種迭代式的做法 [Ruder, Manuel, Alexey Dosovitskiy, and Thomas Brox. "Artistic style transfer for videos." arXiv preprint arXiv:1604.08610 (2016)],通過兩幀像素之間的對應關系信息來約束視頻的風格變換。

不過,迭代式(Ruder et al.)的方法來處理視頻的風格變換考慮了時間域的一致性,但是處理速度非常慢,處理一幀視頻大約需要 3 分鐘。

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)


騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

那不考慮時空一致性又是什么結果呢?以靜態(tài)圖片轉換為例。

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

實驗結果是這樣的

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

總的來說,迭代式(Ruder et. al)的方法來處理視頻的風格變換

  • 考慮了時間的一致性,但處理速度非常慢,處理一幀視頻大約需要3分鐘;

  • 另外其品質(zhì)還高度依賴光流的精確性。

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

四. 關于前向迭代視頻風格轉換

所以AI Lab嘗試了前向視頻風格遷移

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

我們的方法:

  • 通過大量視頻數(shù)據(jù)進行訓練;

  • 自動辨別學習效果,并自我優(yōu)化;

  • 在訓練過程中我們保持了輸出結果的時間一致性。

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

最終,騰訊AI Lab

  • 設計了獨特的深度神經(jīng)網(wǎng)絡;

  • 將風格變換的前向網(wǎng)絡與視頻時空一致性結合起來;

  • 高效地完成高質(zhì)量的視頻風格變換。 

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

五.  小結

  • 深度神經(jīng)網(wǎng)絡已經(jīng)可以抽取高層次(抽象)的信息表征了。

  • 不同網(wǎng)絡層的格拉姆矩陣可以用來表述風格(紋理,筆觸等)。

  • 從圖片進階到視頻(風格的轉換),要注意時空的一致性。

  • 前向神經(jīng)網(wǎng)絡可以同時抓取風格和時空一致性。

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知

騰訊AI Lab現(xiàn)場揭秘:實時視頻風格轉換是如何生成的|SIGGRAPH Asia 2016 (附PPT)

分享:
相關文章

專注AIR(人工智能+機器人)

專注人工智能+機器人報道,經(jīng)驗分享請加微信keatslee8(請注明原因)。 科學的本質(zhì)是:問一個不恰當?shù)膯栴},于是走上了通往恰當答案的路。
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說