本發(fā)明涉及3d試衣領(lǐng)域,尤其涉及一種三維虛擬服裝模型制作方法及裝置。
背景技術(shù):
隨著網(wǎng)絡(luò)的普及以及電子商務(wù)的發(fā)展,線上購物已經(jīng)成為受大眾所喜愛的一種潮流。為了解決目前線上購衣無法讓用戶直觀地感受到衣服是否合身,相當(dāng)數(shù)量的國內(nèi)外企業(yè)以及科研單位都就虛擬試衣技術(shù)進行了研究與開發(fā)工作。在虛擬試衣技術(shù)中,衣服模型的制作是其中重要的一環(huán)。衣服模型依據(jù)數(shù)據(jù)的形式可以分為二維的衣服和三維的衣服:二維的衣服指的是一張或多張衣服圖片,通常為彩色圖像;三維的衣服指的是在三維空間中能夠全方位展示衣服的表面信息的模型,通常為彩色三維網(wǎng)格模型。三維的衣服相比于二維的衣服所涵蓋的信息量更大,尤其體現(xiàn)在能呈現(xiàn)衣服的空間結(jié)構(gòu)。三維的衣服的制作技術(shù)主要包含以下幾種方式:1.利用三維建模仿真軟件設(shè)計衣服的樣板圖案,在衣服的多個樣板片上定義重要點、縫合線、固定線,然后經(jīng)縫合操作建立起三維衣服模型;2.利用攝像機拍攝真實衣服的多個角度的圖片,利用圖像處理方法合成三維衣服模型;3.利用攝像機拍攝真實衣服的多個角度的圖片,對多個角度的衣服圖片進行拆片處理,然后定義重要點、縫合線、固定線,之后經(jīng)縫合操作建立起三維衣服模型;4.利用3d傳感器從多個角度對真實衣服進行拍攝,獲取到真實衣服各個角度所對應(yīng)的點云數(shù)據(jù),然后經(jīng)過點云數(shù)據(jù)的融合形成360°的真實衣服點云,再經(jīng)過表面重建形成三維衣服模型。方式3的三維衣服模型是基于真實拍攝的衣服圖片,經(jīng)手動拆片、定義重要點、縫合線、再縫合操作制成,相比于方式1提升了衣服的真實效果,相比于方式2利用圖像處理的方法建立的三維衣服模型,則在衣服的空間結(jié)構(gòu)和展示效果上更好。但目前方式3采用的是攝像機,而攝像機通常只能拍攝得到二維的圖片,這些圖片通常又包含背景物體,從背景中分割出衣服通常只能采用手動分割或基于顏色分割的方法。另外基于顏色分割的方法,通常要求衣服的顏色和背景的顏色差異較大,進而利用顏色的差異以及空間位置上的差異分割出衣服。目前這種方式通常采用的拍攝方法是,將衣服置于一平面背景下,平面背景通常都為單色的背景,具體可為單色的幕布,依據(jù)所要拍攝的衣服的顏色,從多塊單色的幕布中選擇與衣服的顏色差異較大的一塊幕布作為背景,進行拍攝。這種利用多塊幕布的方式雖然可以使得可拍攝和建立的衣服的顏色種類增多,但更換幕布的過程是一個耗時可觀的過程。另外,方式1和方式3在進行拆片處理、定義重要點、縫合線時,都需要人工的介入,進行手動處理,過程較繁瑣。通過方式4的方法,各個方向的點云數(shù)據(jù)量通常比較大,在對各個方向的點云數(shù)據(jù)進行配準(zhǔn)和融合時,耗時較長。除此之外,當(dāng)利用多個3d傳感器從各個相應(yīng)角度對真實衣服進行拍攝時,需要對不同角度的3d傳感器進行標(biāo)定,獲取它們之間的相應(yīng)位置關(guān)系,此標(biāo)定過程較為繁瑣。
技術(shù)實現(xiàn)要素:
為解決上述問題,本發(fā)明提出一種三維虛擬服裝模型制作方法及裝置,其可自動、快速、高效建立三維虛擬服裝的模型。
本發(fā)明提供的三維虛擬服裝模型制作方法,包括:a1.從不同角度,獲取包含背景的著裝人體模特的深度信息和彩色信息;a2.利用深度信息,將著裝人體模特從背景中分割出來;a3.利用彩色信息,將服裝從人體模特上分割出來;a4.利用人體模特的深度信息查找出服裝的關(guān)鍵點,由所述關(guān)鍵點定義出縫合線,根據(jù)所述縫合線縫合制作成三維虛擬服裝模型。
本發(fā)明還提供一種包含計算機程序的計算機可讀存儲介質(zhì),該計算機程序可使計算機執(zhí)行如上所述的方法。
本發(fā)明還提供一種三維虛擬服裝模型制作裝置,包括:至少一個3d傳感器、人體模特和處理器;所述3d傳感器向目標(biāo)空間中進行投影,并采集深度圖像和彩色圖像,所述處理器包含如上所述的計算機可讀存儲介質(zhì)。
本發(fā)明的有益效果:首先,利用3d傳感器的深度信息可快速提取出著裝人體模特,有效避免了現(xiàn)有技術(shù)中由于服裝和背景顏色相近而難以提取的缺陷,脫離了拍攝環(huán)境背景的限制。其次,利用彩色信息,可一步到位將服裝從已分割出來的人體模特上再次分割出來。最后,利用人體模特的深度信息,自動查找出服裝的關(guān)鍵點,不需要手動標(biāo)定;根據(jù)該關(guān)鍵點可進一步自動定義出縫合線,根據(jù)獲得的縫合線,將不同方向上服裝的片段直接進行縫合生成三維服裝模型,避免了手動標(biāo)定縫合線造成的過程繁瑣、速度慢,也不需要多個3d傳感器之間進行標(biāo)定,同時避免了對各個方向上點云數(shù)據(jù)進行配準(zhǔn)和融合,有效縮短了形成模型的時間,且使獲得的服裝模型效果更加真實。
附圖說明
圖1為本發(fā)明具體實施方式中三維虛擬服裝模型制作場景示意圖。
圖2為本發(fā)明具體實施方式中3d傳感器的側(cè)面結(jié)構(gòu)示意圖。
圖3為本發(fā)明具體實施方式中三維虛擬服裝模型制作方法流程圖。
圖4為本發(fā)明具體實施方式中骨架及關(guān)節(jié)點示意圖。
圖5為本發(fā)明具體實施方式中骨架及關(guān)節(jié)點投影至服裝上的示意圖。
圖6a為本發(fā)明具體實施方式中服裝的正面示意圖。
圖6b為本發(fā)明具體實施方式中服裝的背面示意圖。
圖7為本發(fā)明具體實施方式中關(guān)節(jié)模型庫中左臂的示意圖。
圖8a為本發(fā)明具體實施方式中服裝的正面示意圖。
圖8b為本發(fā)明具體實施方式中服裝的背面示意圖。
具體實施方式
下面結(jié)合具體實施方式并對照附圖對本發(fā)明作進一步詳細(xì)說明,應(yīng)該強調(diào)的是,下述說明僅僅是示例性的,而不是為了限制本發(fā)明的范圍及其應(yīng)用。
在本發(fā)明的描述中,需要理解的是,術(shù)語“中心”、“縱向”、“橫向”、“上”、“下”、“豎直”、“水平”、“內(nèi)”、“外”等指示的方位或位置關(guān)系為基于附圖所示的方位或位置關(guān)系,僅是為了便于描述本發(fā)明和簡化描述,而不是指示或暗示所指的裝置或元件必須具有特定的方位、以特定的方位構(gòu)造和操作,因此不能理解為對本發(fā)明的限制。此外,術(shù)語“第一”、“第二”、“第三”僅用于描述目的,而不能理解為指示或暗示相對重要性或者隱含指明所指示的技術(shù)特征的數(shù)量。由此,限定有“第一”、“第二”、“第三”的特征可以明示或者隱含地包括一個或者更多個該特征。在本發(fā)明的描述中,“多個”的含義是兩個或兩個以上,除非另有明確具體的限定。
三維虛擬服裝模型制作場景如圖1所示,整個拍攝過程是在一個相對獨立的拍攝間操作,包括:一個3d傳感器和人體模特。在拍攝之前,給人體模特穿上真實的服裝。
拍攝間的頂部安裝有照明設(shè)備,四個照明設(shè)備均勻分布在圓形頂棚的四個點上,優(yōu)選的位置為:照明設(shè)備設(shè)置在人體模特的正上前方、正后上方、左上角和右上角,所有的照明設(shè)備均朝向中間的人體模特,使得光源均勻照射在人體模特上,為3d傳感器提供良好的光照條件,并且不會存在明顯的光照不均勻的狀況。除了在人體模特的上方安裝照明設(shè)備,同樣的,在底部同樣也可以安裝照明設(shè)備,也可以增加照明設(shè)備的數(shù)量,進一步使得拍攝件的光照環(huán)境良好。
拍攝間的正中央,放置的是穿戴真實服裝的人體模特。人體模特的左右臂需與上衣身體部分清楚分離,雙臂和上衣身體部分自肩部以下無貼合處。人體模特的雙腳分開,左右腿不交叉,也不會分開太寬。具體的,人體模特具有這樣一種姿態(tài):筆直站立,雙腳張開距離略小于肩寬,雙手自然下垂與身體不接觸,留有一定距離。人體模特的此種姿態(tài),確保了在穿戴真實衣服之后,能夠利用所述3d傳感器拍攝到衣服足夠多的有效信息,而不會因為人體姿態(tài)的問題,比如手臂交叉、雙腿并攏等,造成拍攝衣服全方位數(shù)據(jù)難,或所拍攝的衣服數(shù)據(jù)存在大范圍缺失的問題。
3d傳感器固定在可調(diào)節(jié)高度的三腳架上,在拍攝上衣時,3d傳感器所處的高度為胸部的位置,其可以獲取到上衣的有效數(shù)據(jù);在拍攝褲子時,3d傳感器處于膝關(guān)節(jié)與臀部的中間位置,有利于獲取到褲子的有效數(shù)據(jù);當(dāng)拍攝裙裝等一體式服裝時,3d傳感器處于肚臍與胸部的中間位置,有利于獲取一體式服裝的有效數(shù)據(jù)。
圖1的場景中,只利用一個3d傳感器對著裝人體模特從多個角度進行拍攝,在其中一個情形下,將3d傳感器所在的支撐架放于一圓形導(dǎo)軌上,導(dǎo)軌有導(dǎo)輪和電機,電機運行可推動導(dǎo)輪滾動,從而帶動所述支撐架上的所述3d傳感器繞著以所述穿戴服裝的人體模特為圓心進行拍攝。另外一個情形為:3d傳感器保持不動,將著裝人體模特放置于可360°可旋轉(zhuǎn)的轉(zhuǎn)盤上;拍攝時由電機帶動轉(zhuǎn)盤進行轉(zhuǎn)動,每轉(zhuǎn)動一個角度停留一段時間用于3d傳感器進行拍攝。在另一實施例中,利用多個3d傳感器對著裝人體模特從多個角度進行拍攝,具體地,利用四個3d傳感器進行拍攝,四個所述3d傳感器放置在穿戴服裝的人體模特的四個方向,正前方,正后方,正左側(cè),正右側(cè);拍攝時,四個述3d傳感器保持不動。
3d傳感器主要包括深度相機和彩色相機,用于向目標(biāo)空間中投影或獲取目標(biāo)空間的深度信息和彩色信息。深度相機按種類主要分為結(jié)構(gòu)光深度相機、tof深度相機以及雙目視覺深度相機。
基于結(jié)構(gòu)光三角法的深度相機利用激光投影裝置向空間中投射經(jīng)編碼的標(biāo)準(zhǔn)結(jié)構(gòu)光圖案,空間中目標(biāo)深度的不同將標(biāo)準(zhǔn)結(jié)構(gòu)光圖案進行了調(diào)制,通過圖像相關(guān)等算法獲取調(diào)制后的結(jié)構(gòu)光圖像與標(biāo)準(zhǔn)結(jié)構(gòu)光圖案的差別,根據(jù)結(jié)構(gòu)光三角法建立該差別與目標(biāo)深度之間的關(guān)系就可求解出整個目標(biāo)空間的深度圖像。
基于時間飛行法的深度相機利用激光投影裝置向目標(biāo)發(fā)射激光脈沖,由光接收裝置獲取脈沖并記錄下發(fā)射到接收的光飛行時間,根據(jù)飛行時間可以計算出目標(biāo)的深度圖像。
基于雙目視覺原理的深度相機,本質(zhì)上與結(jié)構(gòu)光三角法原理相似,區(qū)別在于結(jié)構(gòu)光三角法是主動測量,而雙目視覺則是被動測量。利用左右相機獲取的圖像在視差上的差別,并由視覺算法獲取該視差后進一步利用三角法測量原理計算出目標(biāo)的深度值。
一般地,前兩種深度相機中都需要借助于激光投影裝置來向空間中投射光學(xué)信號,而對于雙目視覺深度相機而言,目前也會常常利用激光投影裝置來增加空間中物體的紋理信息以提高測量精度。因為,激光投影裝置對于深度相機而言異常重要,往往激光投影裝置的性能、體積、功耗將直接影響深度相機的精度、體積等。在后續(xù)的說明中,3d傳感器中的深度相機以基于激光投影裝置的深度相機為例進行說明。
圖2所示的為3d傳感器的側(cè)面結(jié)構(gòu)示意圖,3d傳感器101主要組成部件有激光投影模組104、采集模組105、主板103、處理器102、rgb相機107。激光投影模組104、采集模組105以及rgb相機107一般被安裝在同一個深度相機平面上,且處于同一條基線,每個模組或相機都對應(yīng)一個進光窗口108。一般地,處理器102被集成在主板103上,而激光投影模組104與采集模組105通過接口106與主板連接,在一種實施例中所述的接口為fpc接口。其中,激光投影模組用于向目標(biāo)空間中投射經(jīng)編碼的結(jié)構(gòu)光圖案,采集模組105采集到該結(jié)構(gòu)光圖像后通過處理器102的處理從而得到目標(biāo)空間的深度圖像。在一個實施例中,結(jié)構(gòu)光圖像為紅外激光散斑圖案,圖案具有顆粒分布相對均勻但具有很高的局部不相關(guān)性,這里的局部不相關(guān)性指的是圖案中各個子區(qū)域都具有較高的唯一性。對應(yīng)的采集模組105為與激光投影模組104對應(yīng)的紅外相機。利用處理器獲取深度圖像具體地指接收到由采集模組采集到的散斑圖案后,通過計算散斑圖案與參考散斑圖案之間的偏離值來進一步得到深度圖像。
在對著裝人體模特進行拍攝前,需要對3d傳感器內(nèi)置的彩色相機和深度相機進行標(biāo)定,獲取到彩色相機的內(nèi)部參數(shù)、深度相機的內(nèi)部參數(shù)、彩色相機與深度相機的外部參數(shù)。根據(jù)所述標(biāo)定數(shù)據(jù),可建立起彩色圖像和深度圖像的映射關(guān)系。具體公式如下:
zdepth=depth(x,y)(3)
prgb(xrgb,yrgb,zrgb)=r.pdepth+t(4)
其中,xdepth、ydepth及zdepth為深度圖像中各個像素對應(yīng)的三維點云數(shù)據(jù)的坐標(biāo)值;ox_rgb、oy_rgb分別對應(yīng)于所述深度相機原點的x軸和y軸坐標(biāo);fx_rgb,fy_rgb,分別對應(yīng)于所述深度相機的x軸和y軸方向的焦距;depth(x,y)代表深度圖像每一像素的值;pdepth為所述深度圖像各像素的三維坐標(biāo)pdepth(xdepth,ydepth,zdepth);r為旋轉(zhuǎn)矩陣,rx,ry,rz分別為繞x,y,z軸的旋轉(zhuǎn)分量;t為平移矩陣,tx,ty,tz分別為沿x,y,z軸的平移分量;prgb(xrgb,yrgb,zrgb)為所述彩色圖像中各個像素的三維坐標(biāo);fx_rgb,fy_rgb,分別對應(yīng)于所述彩色相機的x軸和y軸方向的焦距;ox_rgb,oy_rgb,分別對應(yīng)于所述彩色相機原點的x軸和y軸坐標(biāo)。
如圖3所示,三維虛擬服裝模型制作方法,包括:a1.從不同角度,獲取包含背景的著裝人體模特的深度信息和彩色信息;a2.利用深度信息,將著裝人體模特從背景中分割出來;a3.利用彩色信息,將服裝從人體模特上分割出來;a4.利用人體模特的深度信息查找出服裝的關(guān)鍵點,由所述關(guān)鍵點定義出縫合線,根據(jù)所述縫合線縫合制作成三維虛擬服裝模型。
標(biāo)定完成之后,利用3d傳感器對著裝人體模特從不同角度進行拍攝,獲取到包含背景的著裝人體模特的彩色圖像和深度圖像;在以下的說明中,以獲得著裝人體模特的正面、背面、左邊和右邊四個方向為例進行說明,其服裝為一件短袖t恤。由于服裝穿戴在人體模特上,服裝和人體模特的深度圖像為一體的,可通過深度閾值的設(shè)定,將著裝人體模特從拍攝背景中分割出來。即使背景的顏色和服裝的顏色相近,或者背景中包含有其他的物件,如:沙發(fā)、椅子等,通過該方法,都可快速將著裝人體模特分割出來,避免了現(xiàn)有技術(shù)中拍攝環(huán)境背景的限制。
對于分割出來的著裝人體模特,由于服裝的顏色和人體模特的膚色具有較大的差異,進一步根據(jù)彩色相機所獲取的彩色圖像,利用rgb色彩識別,將服裝從人體模特上分割出來,獲得四個方向上服裝的信息,包括深度信息和彩色信息。
獲取四個方向上服裝的深度信息和彩色信息后,進行自動化的處理,在服裝上查找出關(guān)鍵點。關(guān)鍵點包括:肩點、胸點、腰點、臀部點、手腕點、腳腕點、領(lǐng)口點。根據(jù)其服裝的種類,分別去查找如上所述關(guān)鍵點中的一種或多種。如短袖上衣,其需查找的關(guān)鍵點包括:肩點、胸點、腰點、領(lǐng)口點。
查找關(guān)鍵點,其中第一種方法為:利用人體模特的深度信息,獲取其人體模特的關(guān)節(jié)點,利用該關(guān)節(jié)點,投影至服裝上查找出關(guān)鍵點。3d傳感器可根據(jù)人體模特的深度信息,追蹤到人體骨架,人體骨架由一系列關(guān)節(jié)點以及關(guān)節(jié)點之間的連接線構(gòu)成。如圖4所示(從人體模特角度看),其關(guān)節(jié)點包括:頭部201、頸部202、雙肩中央203、左肩204、右肩205、左肘關(guān)節(jié)206、右肘關(guān)節(jié)207、左腕關(guān)節(jié)208、右腕關(guān)節(jié)209、左手210、右手211、脊柱中段212、臀部中央213、左臀部214、右臀部215、左膝蓋216、右膝蓋217、左踝關(guān)節(jié)218、右踝關(guān)節(jié)219、左腳220、右腳221。如圖5所示,根據(jù)所獲得的關(guān)節(jié)點,投影至服裝上,可獲得部分的關(guān)鍵點,該部分關(guān)鍵點和關(guān)節(jié)點重合;根據(jù)該部分關(guān)鍵點,再自動查找出剩下的關(guān)鍵點。
如下以左肩的關(guān)節(jié)點(從著裝人體模特角度看)為例進行說明。如圖6a和6b,將左肩部的關(guān)節(jié)點a通過上述公式(1)-(6),可投影到服裝的彩色圖像上,且投影到前后視角兩張彩色圖像上。因為著裝人體模特為直立站姿,所以服裝必然也是直挺的。當(dāng)以豎直線通過關(guān)節(jié)點a時,與服裝的相交處可找到一些點,如前視角的點b1和點c1,后視角的點b1′和點c1′。直線b1ac1將所述前視角的服裝圖片劃分成兩個區(qū)域,區(qū)域301和區(qū)域302;直線b1′ac1′將所述后視角的服裝圖片劃分成兩個區(qū)域,區(qū)域303和區(qū)域304。對前視角的服裝圖片,從右往左以豎直線掃描,可得到點e1,即橫線坐標(biāo)值最大的點為點e1,并且對區(qū)域301來說,縱向坐標(biāo)值最大的點為點d1,由此確定了區(qū)域301的四個關(guān)鍵點b1、e1、d1、c1。同樣的方法可用于后視角的服裝圖片,得到區(qū)域303的四個關(guān)鍵點b1′、e1′、d1′、c1′。由于前后視角的服裝的相對位置關(guān)系是已知的,由此可得區(qū)域301和區(qū)域303的四個關(guān)鍵點的對應(yīng)關(guān)系,即b1對應(yīng)b1′,e1對應(yīng)e1′,d1對應(yīng)d1′,c1對應(yīng)c1′。根據(jù)四個關(guān)鍵點的對應(yīng)關(guān)系,可建立縫合線,即b1b1′、e1e1′、d1d1′、c1c1′的縫合線。類似的思想可用于服裝其他視角劃分出相關(guān)區(qū)域,并在相關(guān)區(qū)域確定關(guān)鍵點,并找到不同區(qū)域的關(guān)鍵點的對應(yīng)關(guān)系,然后建立關(guān)鍵點與關(guān)鍵點之間的縫合關(guān)系。最后利用關(guān)鍵點、縫合線,在三維空間中將多個服裝區(qū)域縫合制作成服裝的三維模型。
查找關(guān)鍵點的第二種方法是:利用人體模特的深度信息,在關(guān)節(jié)模型庫中進行搜索,獲取人體模特的關(guān)節(jié)點,再投影至服裝上查找出關(guān)鍵點。首先建立關(guān)節(jié)模型庫,該關(guān)節(jié)模型庫中存儲有大量的人體關(guān)節(jié)模型,包括:左肩、右肩、左肘關(guān)節(jié)、右肘關(guān)節(jié)、左腕關(guān)節(jié)、右腕關(guān)節(jié)、左手、右手、左臀部、右臀部、左膝蓋、右膝蓋、左踝關(guān)節(jié)、右踝關(guān)節(jié)、左腳、右腳。
方法一中的人體骨架關(guān)節(jié)點為骨架的點,此關(guān)節(jié)模型不同于人體骨架,其包含了各關(guān)節(jié)的具體輪廓及其內(nèi)外關(guān)節(jié)點。根據(jù)人體模特的深度信息,換算出各深度點之間曲率的關(guān)系,到關(guān)節(jié)模型庫中進行搜索匹配曲率關(guān)系相同的點,如圖7所示,其為模型庫中左臂的關(guān)節(jié)模型,其包含了左肩401、左外肘關(guān)節(jié)402、左內(nèi)肘關(guān)節(jié)403、左外腕關(guān)節(jié)405、左內(nèi)腕關(guān)節(jié)406。根據(jù)人體模特的深度信息,匹配可以得到左肩的關(guān)節(jié)點,將該關(guān)節(jié)點投影至服裝前后視角兩張彩色圖像上,如圖8a和8b,將左肩點(從著裝人體模特角度看)投影至前視角的b2點和后視角的b2′。當(dāng)以豎直線通過b2點時,與服裝的相交處可找到一些點,如前視角的點c2,后視角的點c2′。直線b2c2將所述前視角的服裝圖片劃分成兩個區(qū)域,區(qū)域501和區(qū)域502;直線b2′c2′將所述后視角的服裝圖片劃分成兩個區(qū)域,區(qū)域503和區(qū)域504。對前視角的服裝圖片,從右往左以豎直線掃描,可得到點e2,即橫線坐標(biāo)值最大的點為點e2,并且對區(qū)域501來說,縱向坐標(biāo)值最大的點為點d2,由此確定了區(qū)域501的四個關(guān)鍵點b2、e2、d2、c2。同樣的方法可用于后視角的服裝圖片,得到區(qū)域503的四個關(guān)鍵點b2′、e2′、d2′、c2′。由于前后視角的服裝的相對位置關(guān)系是已知的,由此可得區(qū)域201和區(qū)域203的四個關(guān)鍵點的對應(yīng)關(guān)系,即b2對應(yīng)b2′,e2對應(yīng)e2′,d2對應(yīng)d2′,c2對應(yīng)c2′。根據(jù)四個關(guān)鍵點的對應(yīng)關(guān)系,可建立縫合線,即b2b2′、e2e2′、d2d2′、c2c2′的縫合線。類似的思想可用于服裝其他視角劃分出相關(guān)區(qū)域,并在相關(guān)區(qū)域確定關(guān)鍵點,并找到不同區(qū)域的關(guān)鍵點的對應(yīng)關(guān)系,然后建立關(guān)鍵點與關(guān)鍵點之間的縫合關(guān)系。最后利用關(guān)鍵點、縫合線,在三維空間中將多個服裝區(qū)域縫合制作成服裝的三維模型。
為了進一步提高服裝關(guān)鍵點的精度,將方法一種得到的關(guān)鍵點和方法二中得到的關(guān)鍵點進行置信度分析,分別對b1和b2,b1′和b2′,e1和e2,e1′和e2′、d1和d2,d1′和d2′,c1和c2,c1′和c2′進行加權(quán)平均,獲得更加精確的關(guān)鍵點,然后建立關(guān)鍵點與關(guān)鍵點之間的縫合關(guān)系。最后利用關(guān)鍵點、縫合線,在三維空間中將多個服裝區(qū)域縫合制作成服裝的三維模型。根據(jù)上述三種方法生成的三維虛擬服裝模型,不僅快速、自動、高效,且最終獲得的服裝模型效果更加真實。
以上內(nèi)容是結(jié)合具體/優(yōu)選的實施方式對本發(fā)明所作的進一步詳細(xì)說明,不能認(rèn)定本發(fā)明的具體實施只局限于這些說明。對于本發(fā)明所屬技術(shù)領(lǐng)域的普通技術(shù)人員來說,在不脫離本發(fā)明構(gòu)思的前提下,其還可以對這些已描述的實施方式做出若干替代或變型,而這些替代或變型方式都應(yīng)當(dāng)視為屬于本發(fā)明的保護范圍。