一種基于單視頻攝像機的面部特征點跟蹤和人臉動畫方法
【專利摘要】本發(fā)明公開了一種基于單視頻攝像機的面部特征點跟蹤和人臉動畫方法,包括以下步驟:基于已公布的人臉圖像數(shù)據(jù)庫,創(chuàng)建回歸器訓(xùn)練集,以此作為輸入訓(xùn)練得到一個DDE模型回歸器;利用該回歸器,對于輸入的圖像回歸計算得到相應(yīng)的形狀矢量,并依此計算圖像中面部特征點的二維位置;對形狀矢量進(jìn)行后處理,使得其中表情系數(shù)滿足一定約束;結(jié)合特征點二維位置和后處理的形狀矢量更新全局參數(shù);將得到的三維動態(tài)表情參數(shù)映射到虛擬替身上,驅(qū)動動畫角色進(jìn)行人臉動畫。本發(fā)明面向通用用戶,不需要對特定用戶進(jìn)行任何預(yù)處理工作,新用戶可以直接使用系統(tǒng);本發(fā)明可以更好的處理快速運動、大幅度平移和旋轉(zhuǎn),可以更好的應(yīng)對劇烈的光照變化。
【專利說明】一種基于單視頻攝像機的面部特征點跟蹤和人臉動畫方法
【技術(shù)領(lǐng)域】
[0001]本發(fā)明涉及圖像中人臉特征點跟蹤、人臉動作捕獲和實時動畫技術(shù),尤其涉及一種基于單視頻攝像機的面部特征點跟蹤和人臉動畫方法。
【背景技術(shù)】
[0002]本發(fā)明相關(guān)的研究背景簡述如下:
[0003]人臉動作捕獲和人臉特征點跟蹤在計算機圖形學(xué)和視覺研究領(lǐng)域被廣泛研究。在這些研究中,已經(jīng)有很多方法被使用,用于從一個主體中捕獲表情并將其轉(zhuǎn)移到另一個目標(biāo)模型。在商業(yè)應(yīng)用(如電影和游戲)中,一些特殊的設(shè)備,比如面部標(biāo)記點(Huang, H., Chai, J., Tong, X., and ffu, H., T., 2011.Leveraging motion captureand3d scanning for high-field facial performance acquisition.ACM Trans.Graph.30, 4, 74:1-74:10.),攝像機陣列(Bradley,D.,Heidrich,W.,Popa,Τ.,and Shefferj A.2010.High resolution passive facial performance capture.ACM Trans.Graph.29,4,41:1-41:10; Beeler,T.,Hahn, F.,Bradley, D.,Bickelj B.,Beardsley, P.,Gotsman, C.,Sumner, R.W.,and Gross, M.2011.High-quality passivie facial performancecapture using anchor frames.ACM Trans.Graph.30,4,75:1-75:10)和投影結(jié)構(gòu)光圖譜(Zhang,L.,Snavelyj N.,Curless,B.,and Seitz, S.M.2004.Space time faces:highresolution capture for modeling and animation.ACM Trans.Graph.23,3,548—558;Weisej T.,Li,H.,Goolj L.V.,and Pauly, M.2009.Face/off: Live facial puppetry.1nEurographics/Siggraph Symposium on Computer Animation.)被廣泛使用,可以獲取高精度的人臉幾何形狀。但這些技術(shù)由于設(shè)備的復(fù)雜性,并不適合于普通用戶。
[0004]對于普通用戶來說,基于視頻的面部特征點跟蹤和人臉動畫方法無疑更加適合。這一類技術(shù)利用攝像機拍攝到的人臉圖像,定位圖像中人臉相關(guān)的語義特征點,如眼睛、嘴角、鼻子的二維位置,然后利用這些特征點的位置來驅(qū)動人臉動畫。之前跟蹤定位這些特征點往往使用光流的方法,但對于快速運動或者噪聲的情況,光流的方法往往不夠穩(wěn)定。之后有一些方法在此基礎(chǔ)上加入了一些幾何約束信息,如表情變化過程中的特征偏移信息(Chai,J.X.,Xiao, J.,and Hodginsj J.2003.Vision-basedcontrol of 3d facial animation.1n Symp.Comp.Anim.,193-206),基于物理的可變形網(wǎng)格模PENTLAND, A.1996.Modeling, trackingand interactive animation of faces andheads: using input from vide0.1n Computer Animation, 68 - 79.;DECARLO, D., AND METAXAS, D.2000.0ptical flowconstraints on deformable models with applications to face tracking.1nt.Journal of Computer Vision38,2,99 - 127.)和數(shù)據(jù)驅(qū)動的人臉模型(BLANZ,V.,ANDVETTER, T.1999.A morphable model for the synthesis of3d faces.1n Proceedingsof SIGGRAPH, 187 - 194.; VLASICj D.,BRAND, M.,PFISTER,H.,AND POPOVI ! C758,J.2005.Face transfer with multilinear models.ACM Trans.Graph.24,3,426 - 433.)。最近的一些跟蹤方法通常使用CPR (Cascaded Pose Regression,級聯(lián)形態(tài)回歸)或者CLM(Constrained Local Model,約束的局部模型)來定位圖像中的特征點位置。使用CPR的典型方法有 DOLLAR, P.,WELINDER, P.,AND PERONA, P.2010.Cascaded pose regression.1nProceedings of IEEE CVPR, 1078 - 1085.;CA0, X.,WEI, Y.,WEN, F.,AND SUN, J.2012.Facealignment by explicit shape regression.Proceedings of IEEE CVPR, 2887 - 2894.而使用 CLM 的典型方法則包括:SARAGIH, J.,LUCEY, S.,AND COHN, J.2011.Deformable modelfitting by regularized landmark mean-shift.1nternational Journal of ComputerVision91, 2,200 - 215.;BALTRUSAITIS, T.,ROBINSON, P.,AND M0RENCY, L.-P.2012.3Dconstrained local model for rigid and non-rigid facial tracking.1n Proceedingsof IEEE CVPR, 2610 - 2617.;ASTHANA, A.,ZAFEIR10U, S.,CHENG, S.,AND PANTIC, M.2013.Robust discriminative response map fitting with constrained local models.1nIEEE CVPR,3444 - 3451。這些方法的結(jié)果在精度和穩(wěn)定性方面較差,如無法處理人臉的大幅度旋轉(zhuǎn),或快速移動等情況,無法提供較好的用戶體驗。
[0005]近幾年,隨著深度攝像機的推廣,促進(jìn)了 一系列基于深度攝像機的人臉動畫方法,包括 WEISE,T.,B0UAZIZ,S.,LI,H.,AND PAULY,M.2011.Realtimeperformance-based facial animation.ACM Trans.Graph.30, 4 (July), 77:1 - 77:10 ;BOUAZIZ, S., WANG, Y., AND PAULY1M.2013.0nline modeling for realtime facialanimation.ACM Trans.Graph.32,4 (July),40: 1- 40: 10 ;LI, H.,YU, J.,YE, Y.,ANDBREGLER, C.2013.Realtime facial animation with on-the-fIy correctives.ACMTrans.Graph.32, 4 (July), 42:1 - 42:10。這些方法都基于對一個特定用戶的 DEM(DynamicExpression Model動態(tài)表情模型),通過深度攝像機得到的幾何信息,實時捕獲人臉的剛性和非剛性變化。相比于之前只利用顏色信息的人臉動畫,基于深度攝像機的人臉動畫技術(shù)更加的穩(wěn)定和準(zhǔn)確。
[0006]2013年,Cao等人針對特定用戶開發(fā)了基于單個視頻攝像機的人臉動畫技術(shù)(CA0, C., WENG, Y., LIN, S., AND ZH0U, K.2013.3d shape regression forreal-time facialanimation.ACM Trans.Graph.32, 4 (July),41:1 - 41:10)。對于每個特定用戶,該技術(shù)要求用戶預(yù)先采集一系列規(guī)定表情和姿勢的圖像,并在每張圖像上進(jìn)行半自動標(biāo)定,標(biāo)記圖像中人臉特征點的二維位置。這些標(biāo)定的圖像之后用于訓(xùn)練生成針對該用戶的三維形狀回歸器。該回歸器可以實時計算視頻序列中該用戶面部特征點的三維位置,這些三維位置之后用于計算相應(yīng)的人臉姿勢參數(shù)和表情系數(shù),用于驅(qū)動替身進(jìn)行虛擬動畫。該方法可以得到與基于深度攝像機方法類似精度和穩(wěn)定的結(jié)果。之后Weng等人在此基礎(chǔ)上進(jìn)一步改進(jìn)了該技術(shù),可以從二維圖像中直接獲取用戶的人臉姿勢參數(shù)和表情系數(shù)。(WENG, Y., CA0, C., H0U, Q., AND ZH0U, K.2013.Realtime facial animation on mobiledevices.Graphical Models, PrePrints.)但這些方法都是針對特定用戶,對于任意一個新用戶,都需要花費大量時間采集數(shù)據(jù)、標(biāo)定,以及回歸器的訓(xùn)練,對于該技術(shù)在普通用戶中的推廣仍存在大量問題。
[0007]在表達(dá)人臉的相關(guān)研究中,大量的表達(dá)模型被應(yīng)用。如ASM (Active ShapeModel,主動形狀模型)(C00TES,T.F.,TAYLOR, C.J.,COOPER, D.Η.,AND GRAHAM, J.1995.Active shape models—their training and application.Computer Vision and ImageUnderstanding61, 38 - 59.), AAM (Active Appearance Model,主動外觀模型)(COOTES, T.F., EDWARDS, G.J., AND TAYLOR, C.J.1998.Active appearance models.1n Proceedings ofECCV, 484 - 498.)等。這些表達(dá)在過去被大量研究,都無法提供通用的,準(zhǔn)確、魯棒的人臉動畫方法。
【發(fā)明內(nèi)容】
[0008]本發(fā)明的目的在于針對現(xiàn)有技術(shù)的不足,提供一種基于單視頻攝像機的面部特征點跟蹤和人臉動畫方法,該方法通過單個視頻攝像機獲取人臉的視頻序列,準(zhǔn)確、魯棒的實時獲取圖像中面部特征點的二維位置,同時獲取人臉的三維動態(tài)表情參數(shù),并用于驅(qū)動動畫角色進(jìn)行人臉動畫。
[0009]本發(fā)明的目的是通過以下技術(shù)方案來實現(xiàn)的,一種基于單視頻攝像機的面部特征點跟蹤和人臉動畫方法,包括如下步驟:
[0010](I)通用回歸器的訓(xùn)練:基于網(wǎng)絡(luò)上已經(jīng)公布的人臉圖像數(shù)據(jù)庫,對每張圖片進(jìn)行手工標(biāo)定二維特征點,然后結(jié)合三維人臉表情模型數(shù)據(jù)庫得到相應(yīng)的形狀矢量;基于圖像和對應(yīng)的形狀矢量,構(gòu)造相應(yīng)的訓(xùn)練數(shù)據(jù)集,訓(xùn)練得到一個DDE模型的回歸器;
[0011](2)形狀矢量的回歸:利用步驟I中得到的DDE模型回歸器,對于輸入的人臉圖像回歸計算得到相應(yīng)的形狀矢量,包括三維動態(tài)表情參數(shù)和二維特征點偏移量,并以此計算圖像中人臉面部特征點的二維位置;
[0012](3)形狀矢量的后處理:對步驟2中得到的形狀矢量進(jìn)行后處理,使得三維動態(tài)表情參數(shù)滿足一定的條件約束;
[0013](4)全局參數(shù)更新:結(jié)合步驟2中得到的特征點二維位置和步驟3中后處理的形狀矢量,更新系統(tǒng)的全局參數(shù),包括用戶表情融合模型和攝像機參數(shù);
[0014](5)虛擬替身驅(qū)動:將步驟3中得到的三維動態(tài)表情參數(shù)映射到虛擬替身上,驅(qū)動動畫角色進(jìn)行人臉動畫。
[0015]本發(fā)明的有益效果是,易于使用,對任意新用戶,不需要進(jìn)行任何預(yù)處理過程,可以直接使用。特別適用于普通用戶,用戶在任何環(huán)境中使用單個視頻攝像機和普通桌面電腦,即可實時獲取視頻圖像中二維特征點位置和人臉的三維表情參數(shù),并用其驅(qū)動虛擬角色進(jìn)行人臉動畫。相比于之前的方法,本方法更加通用,可以提供更好的用戶體驗,且能夠更好的處理頭部的快速運動、大幅度平移和旋轉(zhuǎn)。此外,本發(fā)明對于劇烈的光照變化可以達(dá)到更魯棒的處理效果。本發(fā)明的方法可以直接從二維圖像中回歸得到三維動態(tài)表情參數(shù),因此非常高效,在普通電腦上只需要20ms左右即可完成對一幀的處理,經(jīng)過優(yōu)化甚至可以將本方法移植到移動平臺上。
【專利附圖】
【附圖說明】
[0016]圖1是本發(fā)明形狀矢量的回歸步驟中攝像機獲取的一張人臉圖像;
[0017]圖2是本發(fā)明形狀矢量的回歸步驟中回歸計算得到的人臉面部特征點的二維位置;
[0018]圖3是本發(fā)明形狀矢量的回歸步驟中回歸計算得到的三維人臉形狀;
[0019]圖4是本發(fā)明形狀矢量的后處理步驟中后處理后得到的三維人臉形狀;[0020]圖5是本發(fā)明虛擬替身驅(qū)動步驟中將圖4中三維人臉形狀的參數(shù)映射到替身上,驅(qū)動動畫角色人臉動畫截圖。
【具體實施方式】
[0021]本發(fā)明的核心在于從實時輸入的人臉視頻序列中,計算得到相應(yīng)的二維特征點位置,同時得到三維動態(tài)表情參數(shù),用于驅(qū)動虛擬替身進(jìn)行人臉動畫。此外,從實時獲取的視頻序列中,選擇有代表性的圖像,結(jié)合相應(yīng)的二維特征點和三維動態(tài)表情參數(shù),更新全局參數(shù)。
[0022]本發(fā)明公布了一種全新的二維人臉形狀表示方式,即DDE (Displaced DynamicExpression,帶偏移量的動態(tài)表情)模型。其結(jié)合了用戶的三維人臉形狀和圖像中二維面部特征點。其中,三維人臉形狀的表達(dá)是表情融合模型。表情融合模型包含用戶的自然表情形狀1?和46個FACS表情形狀I(lǐng)b1, b2,...,b46},用戶的三維人臉形狀可以表示為表情融合模型B=Lbtl, bp...,b46]的線性組合加上一個旋轉(zhuǎn)R和一個平移t:[0023]F=R (Be1) +t
[0024]其中F是用戶的三維人臉形狀,e=[e(l,ei,...,e46]是表情融合模型的表情系數(shù),每一個系數(shù)ei的值都被限制在O到I之間。
[0025]其中用戶的表情融合模型是通過FaceWarehouse中的三維人臉表情模型數(shù)據(jù)庫中得到的,該三維人臉表情模型數(shù)據(jù)庫包括150個不同的個體,每個個體包括47個不同表情形狀,組成了一個三維人臉模型張量C (11K形狀頂點X150個體X47表情),利用這一張量表達(dá),給定張量中的用戶的個體系數(shù),即可計算得到該用戶的表情融合模型:
[0026]B=CX2Ut
[0027]其中B是用戶的表情融合模型,C是FaceWarehouse數(shù)據(jù)庫中的三維人臉模型張量,u是用戶的個體系數(shù)。
[0028]在表達(dá)圖像中用戶的二維人臉形狀,即面部特征點位置時,首先將上述得到的三維人臉形狀投影到圖像空間中,然后對于投影后的人臉形狀中,選取對應(yīng)的頂點位置的二維位置,再加上一定的二維偏移量,最終得到二維面部特征點位置,即
[0029]= Hq (F0i') + ^
[0030]其中Sk是二維特征點位置,F(xiàn)是用戶的三維人臉形狀,1^是透視投影算子,利用投影矩陣Q將三維點投影到圖像空間中,Vk是三維人臉形狀上相應(yīng)特征點的頂點序號,dk是二維特征點的偏移量。用戶的二維人臉形狀即可表達(dá)為所有的二維特征點位置S={sk},而二維偏移量向量則可以表達(dá)為D= {dk}。
[0031]綜上所述,使用DDE表示人臉二維形狀可以總結(jié)為下述函數(shù):
[0032]DDE (Q, u; e, R, t, D) =S
[0033]其中Q是攝像機的透視投影矩陣,U是用戶的個體系數(shù),這二者在之后的視頻序列中都是不變量,因此被稱為全局變量。e是表情融合模型的表情系數(shù),R是旋轉(zhuǎn)矩陣,t是平移向量,D是二維偏移量向量,這些變量在視頻序列中的每一幀都不一樣,將其定義為形狀矢量:P=(e, R, t, D) ο
[0034]基于DDE的表達(dá),本發(fā)明提出了一種基于單個視頻攝像機的面部特征點跟蹤和人臉動畫方法,該方法包括以下幾個步驟:通用回歸器的訓(xùn)練,形狀矢量的回歸,形狀矢量的后處理,全局參數(shù)更新以及虛擬替身驅(qū)動。具體來說,包括以下步驟:
[0035]1.通用回歸器的訓(xùn)練:基于網(wǎng)絡(luò)上已經(jīng)公布的人臉圖像數(shù)據(jù)庫,對每張圖片進(jìn)行手工標(biāo)定二維特征點,然后結(jié)合三維人臉表情模型數(shù)據(jù)庫得到相應(yīng)的形狀矢量;基于圖像和對應(yīng)的形狀矢量,構(gòu)造相應(yīng)的訓(xùn)練數(shù)據(jù)集,訓(xùn)練得到一個DDE模型的回歸器。
[0036]首先選取網(wǎng)絡(luò)上已經(jīng)公布的三套人臉圖像數(shù)據(jù)庫:
[0037]I) Faceffarehouse (CAO, C., WENG, Y., ZHOU, S., T0NG, Y., AND ZH0U, K.2013.Facewarehouse:a3D facial expression database for visual computing.1EEETVCGj PrePrints.)
[0038]2) LFW (HUANG, G.B.,RAMESHj M.,BERG, T.,AND LEARNEDMILLER, E.2007.Labeledfaces in the wild:A database for studying face recognition in unconstrainedenvironments.Tech.Rep.07-49, University of Massachusetts, Amherst, October.)
[0039]3)GTAV (TARRES,F(xiàn).,AND RAMA, A.GTAV Face Database, http://gps-tsc.upc.es/GTAV/ResearchAreas/UPCFaceDatabase/GTAVFaceDatabase.ht m.)
[0040]1.1訓(xùn)練圖像的選取和標(biāo)定
[0041]從FaceWarehouse,LFff和GTAV三套數(shù)據(jù)庫中共選擇14,460張不同的人臉圖像,下表列出了分別從三套數(shù)據(jù)庫中選取的不同個體數(shù)量和圖像數(shù)量:
[0042]
【權(quán)利要求】
1.一種基于單視頻攝像機的面部特征點跟蹤和人臉動畫方法,其特征在于,包括以下步驟: (1)通用回歸器的訓(xùn)練:基于網(wǎng)絡(luò)上已經(jīng)公布的人臉圖像數(shù)據(jù)庫,對每張圖片進(jìn)行手工標(biāo)定二維特征點,然后結(jié)合三維人臉表情模型數(shù)據(jù)庫得到相應(yīng)的形狀矢量;基于圖像和對應(yīng)的形狀矢量,構(gòu)造相應(yīng)的訓(xùn)練數(shù)據(jù)集,訓(xùn)練得到DDE模型回歸器; (2)形狀矢量的回歸:利用步驟I中得到的DDE模型回歸器,對于輸入的人臉圖像回歸計算得到相應(yīng)的形狀矢量,包括三維動態(tài)表情參數(shù)和二維特征點偏移量,并以此計算圖像中人臉面部特征點的二維 位置; (3)形狀矢量的后處理:對步驟2中得到的形狀矢量進(jìn)行后處理,使得三維動態(tài)表情參數(shù)滿足一定的條件約束; (4)全局參數(shù)更新:結(jié)合步驟2中得到的特征點二維位置和步驟3中后處理的形狀矢量,更新系統(tǒng)的全局參數(shù),包括用戶表情融合模型和攝像機參數(shù); (5)虛擬替身驅(qū)動:將步驟3中得到的三維動態(tài)表情參數(shù)映射到虛擬替身上,驅(qū)動動畫角色進(jìn)行人臉動畫。
2.根據(jù)權(quán)利要求1所述基于單視頻攝像機的面部特征點跟蹤和人臉動畫方法,其特征在于,所述步驟I包括以下子步驟: (1.0收集網(wǎng)絡(luò)上公開的人臉圖像數(shù)據(jù)庫,包括FaCeWareh0uSe,LFW和GTAV三個數(shù)據(jù)庫; (1.2)利用二維特征點回歸器對每張圖像進(jìn)行自動的二維特征點標(biāo)定,對自動標(biāo)定結(jié)果中不滿意的部分,對其進(jìn)行簡單的人工拖拽操作以修復(fù); (1.3)結(jié)合FaceWarehouse數(shù)據(jù)庫中的三維人臉表情模型,對每張標(biāo)定后的圖像進(jìn)行擬合,計算相應(yīng)的剛性參數(shù)、個體參數(shù)、表情系數(shù)和二維特征偏移量,組成相應(yīng)的形狀矢量,作為原始訓(xùn)練形狀矢量集; (1.4)基于步驟1.3得到的原始訓(xùn)練形狀矢量集,構(gòu)造相應(yīng)的訓(xùn)練數(shù)據(jù)集; (1.5)基于步驟1.4得到的訓(xùn)練數(shù)據(jù)集,訓(xùn)練得到一個DDE模型回歸器。
3.根據(jù)權(quán)利要求2所述基于單視頻攝像機的面部特征點跟蹤和人臉動畫方法,其特征在于,所述步驟2包括以下子步驟: (2.1)固定系統(tǒng)全局參數(shù),包括用戶的表情融合模型和攝像機參數(shù); (2.2)運行時,對于第一幀圖像,使用人臉檢測算法檢測人臉位置,然后利用通用的二維特征點回歸器得到該幀圖像的二維特征點,結(jié)合固定的全局參數(shù),擬合形狀矢量作為猜測矢量;對于其他幀的圖像,則選取上一幀的形狀矢量作為猜測矢量; (2.3)基于步驟2.2中得到的猜測矢量,從原始訓(xùn)練形狀矢量集找到若干個近似的形狀矢量,作為初始化矢量; (2.4)基于步驟2.3中選取的每個初始化矢量和當(dāng)前幀圖像,利用權(quán)利要求2中得到的DDE模型回歸器,回歸計算得到相應(yīng)的形狀矢量; (2.5)對步驟2.4中得到的不同形狀矢量,取均值操作,作為最終的形狀矢量; (2.6)基于步驟2.5中得到的形狀矢量,包括三維動態(tài)表情參數(shù)和二維特征點偏移量,計算圖像中人臉面部特征的二維位置。
4.根據(jù)權(quán)利要求3所述基于單視頻攝像機的面部特征點跟蹤和人臉動畫方法,其特征在于,所述步驟3包括以下子步驟: (3.1)基于權(quán)利要求3中得到的形狀矢量和面部二維特征點位置,建立能量方程; (3.2)利用梯度下降算法最小化步驟3.1中建立的能量方程,將三維動態(tài)表情參數(shù)中的表情系數(shù)限制在O到I之間,得到后處理的形狀矢量。
5.根據(jù)權(quán)利要求4所述基于單視頻攝像機的面部特征點跟蹤和人臉動畫方法,其特征在于,所述步驟4包括以下子步驟: (4.1)運行時,經(jīng)過權(quán)利要求3和4中描述的處理過程,得到每一幀圖像對應(yīng)的形狀矢量,有選擇性的從拍攝到的視頻序列中選擇有代表性的幀及其相應(yīng)的形狀矢量,加入代表中貞集合中; (4.2)基于步驟4.1中選擇的幀和其對應(yīng)的形狀矢量,構(gòu)造能量方程,聯(lián)合優(yōu)化全局參數(shù),包括用戶的表情融合模型和攝像機參數(shù); (4.3)基于優(yōu)化后的全局參數(shù),更新代表幀集合中的每一幀的形狀矢量; (4.4)在步驟4.1中,每當(dāng)一個新的幀被加入代表幀集合,執(zhí)行步驟4.2和步驟4.3,更新全局參數(shù)。
6.根據(jù)權(quán)利要求5所述基于單視頻攝像機的面部特征點跟蹤和人臉動畫方法,其特征在于,所述步驟5包括以下子步驟: (5.1)基于權(quán)利要求4中后處 理后的形狀矢量,將其中三維動態(tài)表情參數(shù)中的表情系數(shù)映射到虛擬替身中,得到動畫角色的相應(yīng)表情; (5.2)基于權(quán)利要求4中后處理后的形狀矢量,將其中三維動態(tài)表情參數(shù)中的剛性參數(shù)映射到虛擬替身上,得到相應(yīng)的姿勢。
【文檔編號】G06T7/00GK103942822SQ201410146194
【公開日】2014年7月23日 申請日期:2014年4月11日 優(yōu)先權(quán)日:2014年4月11日
【發(fā)明者】周昆, 曹晨, 侯啟明 申請人:浙江大學(xué)