两个人的电影免费视频_国产精品久久久久久久久成人_97视频在线观看播放_久久这里只有精品777_亚洲熟女少妇二三区_4438x8成人网亚洲av_内谢国产内射夫妻免费视频_人妻精品久久久久中国字幕

一種虛擬主播直播方法及系統(tǒng)與流程

文檔序號(hào):11251948閱讀:6795來(lái)源:國(guó)知局
一種虛擬主播直播方法及系統(tǒng)與流程

本發(fā)明涉及動(dòng)畫(huà)技術(shù)和網(wǎng)絡(luò)直播技術(shù),尤其涉及一種虛擬主播直播方法及系統(tǒng)。



背景技術(shù):

網(wǎng)絡(luò)直播吸取和延續(xù)了互聯(lián)網(wǎng)的優(yōu)勢(shì),利用視頻方式進(jìn)行網(wǎng)上現(xiàn)場(chǎng)直播,主播(可為演員、群眾)可以將自己的故事演播、與觀眾對(duì)話、演唱歌曲、表演舞蹈等內(nèi)容現(xiàn)場(chǎng)實(shí)時(shí)發(fā)布到互聯(lián)網(wǎng)上進(jìn)行實(shí)時(shí)播放,這一主播直播方式具有直觀、快速、表現(xiàn)形式好、內(nèi)容豐富、交互性強(qiáng)、地域不受限制等優(yōu)點(diǎn),因此,這一主播直播方式目前非常受廣大群眾歡迎及喜愛(ài)。然而,目前這一主播直播方式,其僅以真人來(lái)進(jìn)行主播,表現(xiàn)形式單一,這樣不僅會(huì)令觀眾的交互體驗(yàn)感低下,而且還不利于網(wǎng)絡(luò)直播平臺(tái)的市場(chǎng)推廣和擴(kuò)展。



技術(shù)實(shí)現(xiàn)要素:

為了解決上述技術(shù)問(wèn)題,本發(fā)明的目的是提供一種虛擬主播直播方法,能以任何形式的虛擬角色作為主播來(lái)進(jìn)行網(wǎng)絡(luò)直播,提高交互體驗(yàn)感。

本發(fā)明的另一目的是提供一種虛擬主播直播系統(tǒng),,能以任何形式的虛擬角色作為主播來(lái)進(jìn)行網(wǎng)絡(luò)直播,提高交互體驗(yàn)感。

本發(fā)明所采用的技術(shù)方案是:一種虛擬主播直播方法,該方法包括的步驟有:

采用預(yù)設(shè)的主播角色設(shè)定信息來(lái)創(chuàng)建虛擬主播角色,將創(chuàng)建的虛擬主播角色導(dǎo)入圖形引擎中得到虛擬主播角色模型;

實(shí)時(shí)采集動(dòng)作者的動(dòng)作數(shù)據(jù)以及聲音數(shù)據(jù),將采集到的動(dòng)作數(shù)據(jù)與虛擬主播角色模型進(jìn)行關(guān)聯(lián),令虛擬主播角色模型按照動(dòng)作數(shù)據(jù)執(zhí)行相應(yīng)動(dòng)作;

將虛擬主播角色模型和聲音數(shù)據(jù)疊加至攝錄的視頻畫(huà)面中后合成得到虛擬主播角色視頻畫(huà)面,然后將實(shí)時(shí)生成的虛擬主播角色視頻畫(huà)面進(jìn)行直播。

進(jìn)一步,所述采用預(yù)設(shè)的主播角色設(shè)定信息來(lái)創(chuàng)建虛擬主播角色這一步驟,其具體包括:

設(shè)定主播角色的原畫(huà)、文案和腳本;

根據(jù)主播角色的原畫(huà),制作出虛擬主播的初始角色模型,然后為初始角色模型配置貼圖和材質(zhì)后得到所需的虛擬主播的角色模型;

為虛擬主播的角色模型配置相對(duì)應(yīng)的角色動(dòng)畫(huà)骨骼后,將虛擬主播的角色模型與角色動(dòng)畫(huà)骨骼進(jìn)行綁定以及權(quán)重配置,從而完成虛擬主播角色的創(chuàng)建。

進(jìn)一步,所述將創(chuàng)建的虛擬主播角色導(dǎo)入圖形引擎中得到虛擬主播角色模型這一步驟,其具體包括:

將虛擬主播的角色模型與角色動(dòng)畫(huà)骨骼導(dǎo)入圖形引擎中進(jìn)行整合處理,并為虛擬主播的角色模型配置相對(duì)應(yīng)的材質(zhì)和程序插件,從而得到虛擬主播角色模型。

進(jìn)一步,所述采用預(yù)設(shè)的主播角色設(shè)定信息來(lái)創(chuàng)建虛擬主播角色這一步驟,其還包括:

為虛擬主播的角色模型配置基于物理動(dòng)力學(xué)而制作出的服裝。

進(jìn)一步,所述動(dòng)作數(shù)據(jù)包括有肢體動(dòng)作數(shù)據(jù)和面部表情動(dòng)作數(shù)據(jù),所述實(shí)時(shí)采集動(dòng)作者的動(dòng)作數(shù)據(jù),將采集到的動(dòng)作數(shù)據(jù)與虛擬主播角色模型進(jìn)行關(guān)聯(lián),令虛擬主播角色模型按照動(dòng)作數(shù)據(jù)執(zhí)行相應(yīng)動(dòng)作這一步驟,其具體包括:

利用動(dòng)作捕捉裝置來(lái)實(shí)時(shí)捕捉動(dòng)作者的肢體動(dòng)作數(shù)據(jù);

利用面部表情捕捉器來(lái)實(shí)時(shí)捕捉動(dòng)作者的面部表情動(dòng)作數(shù)據(jù);

將肢體動(dòng)作數(shù)據(jù)與虛擬主播角色模型進(jìn)行肢體動(dòng)作關(guān)聯(lián),將面部表情動(dòng)作數(shù)據(jù)與虛擬主播角色模型進(jìn)行面部動(dòng)作關(guān)聯(lián),令虛擬主播角色模型按照肢體動(dòng)作數(shù)據(jù)和面部表情動(dòng)作數(shù)據(jù)執(zhí)行相應(yīng)的肢體動(dòng)作和面部表情動(dòng)作。

本發(fā)明所采用的另一技術(shù)方案是:一種虛擬主播直播系統(tǒng),該系統(tǒng)包括:

模型創(chuàng)建模塊,用于采用預(yù)設(shè)的主播角色設(shè)定信息來(lái)創(chuàng)建虛擬主播角色,將創(chuàng)建的虛擬主播角色導(dǎo)入圖形引擎中得到虛擬主播角色模型;

數(shù)據(jù)關(guān)聯(lián)模塊,用于實(shí)時(shí)采集動(dòng)作者的動(dòng)作數(shù)據(jù)以及聲音數(shù)據(jù),將采集到的動(dòng)作數(shù)據(jù)與虛擬主播角色模型進(jìn)行關(guān)聯(lián),令虛擬主播角色模型按照動(dòng)作數(shù)據(jù)執(zhí)行相應(yīng)動(dòng)作;

直播模塊,用于將虛擬主播角色模型和聲音數(shù)據(jù)疊加至攝錄的視頻畫(huà)面中后合成得到虛擬主播角色視頻畫(huà)面,然后將實(shí)時(shí)生成的虛擬主播角色視頻畫(huà)面進(jìn)行直播。

進(jìn)一步,所述模型創(chuàng)建模塊具體包括有:

設(shè)定子模塊,用于設(shè)定主播角色的原畫(huà)、文案和腳本;

模型制作子模塊,用于根據(jù)主播角色的原畫(huà),制作出虛擬主播的初始角色模型,然后為初始角色模型配置貼圖和材質(zhì)后得到所需的虛擬主播的角色模型;

角色創(chuàng)建子模塊,用于為虛擬主播的角色模型配置相對(duì)應(yīng)的角色動(dòng)畫(huà)骨骼后,將虛擬主播的角色模型與角色動(dòng)畫(huà)骨骼進(jìn)行綁定以及權(quán)重配置,從而完成虛擬主播角色的創(chuàng)建;

模型生成子模塊,用于將創(chuàng)建的虛擬主播角色導(dǎo)入圖形引擎中得到虛擬主播角色模型。

進(jìn)一步,所述模型生成子模塊具體用于將虛擬主播的角色模型與角色動(dòng)畫(huà)骨骼導(dǎo)入圖形引擎中進(jìn)行整合處理,并為虛擬主播的角色模型配置相對(duì)應(yīng)的材質(zhì)和程序插件,從而得到虛擬主播角色模型。

進(jìn)一步,所述模型創(chuàng)建模塊具體還包括有用于為虛擬主播的角色模型配置基于物理動(dòng)力學(xué)而制作出的服裝的配置子模塊。

進(jìn)一步,所述動(dòng)作數(shù)據(jù)包括有肢體動(dòng)作數(shù)據(jù)和面部表情動(dòng)作數(shù)據(jù),所述數(shù)據(jù)關(guān)聯(lián)模塊具體包括:

第一數(shù)據(jù)采集模塊,用于實(shí)時(shí)采集聲音數(shù)據(jù);

第二數(shù)據(jù)采集模塊,用于利用動(dòng)作捕捉裝置來(lái)實(shí)時(shí)捕捉動(dòng)作者的肢體動(dòng)作數(shù)據(jù);

第三數(shù)據(jù)采集模塊,用于利用面部表情捕捉器來(lái)實(shí)時(shí)捕捉動(dòng)作者的面部表情動(dòng)作數(shù)據(jù);

關(guān)聯(lián)控制子模塊,用于將肢體動(dòng)作數(shù)據(jù)與虛擬主播角色模型進(jìn)行肢體動(dòng)作關(guān)聯(lián),將面部表情動(dòng)作數(shù)據(jù)與虛擬主播角色模型進(jìn)行面部動(dòng)作關(guān)聯(lián),令虛擬主播角色模型按照肢體動(dòng)作數(shù)據(jù)和面部表情動(dòng)作數(shù)據(jù)執(zhí)行相應(yīng)的肢體動(dòng)作和面部表情動(dòng)作。

本發(fā)明的有益效果是:本發(fā)明的方法通過(guò)實(shí)時(shí)采集動(dòng)作者的動(dòng)作數(shù)據(jù)以及聲音數(shù)據(jù),將采集到的動(dòng)作數(shù)據(jù)與虛擬主播角色模型進(jìn)行關(guān)聯(lián),令虛擬主播角色模型按照動(dòng)作數(shù)據(jù)執(zhí)行相應(yīng)動(dòng)作,然后將虛擬主播角色模型和聲音數(shù)據(jù)疊加至攝錄的視頻畫(huà)面中后合成得到虛擬主播角色視頻畫(huà)面,然后將實(shí)時(shí)生成的虛擬主播角色視頻畫(huà)面進(jìn)行直播。由此可見(jiàn),本發(fā)明的方法能夠以任何形式的虛擬角色作為主播來(lái)進(jìn)行直播,提高觀眾的交互體驗(yàn)感,令主播者更容易受到觀眾的喜愛(ài),而且還能令直播平臺(tái)的主播互動(dòng)方式多樣化,提高直播平臺(tái)的商用價(jià)值性,有利于直播平臺(tái)的市場(chǎng)推廣和擴(kuò)展。此外,通過(guò)實(shí)時(shí)采集動(dòng)作者的動(dòng)作數(shù)據(jù)來(lái)控制驅(qū)動(dòng)虛擬主播角色模型執(zhí)行相對(duì)應(yīng)的動(dòng)作,能夠解決傳統(tǒng)cg動(dòng)畫(huà)角色動(dòng)作僵硬不流暢、面部表情僵硬、角色制作周期長(zhǎng)難以實(shí)現(xiàn)實(shí)時(shí)觀看等問(wèn)題。

本發(fā)明的另一有益效果是:本發(fā)明的系統(tǒng)通過(guò)模型創(chuàng)建模塊采用預(yù)設(shè)的主播角色設(shè)定信息來(lái)得到虛擬主播角色模型,然后利用數(shù)據(jù)關(guān)聯(lián)模塊來(lái)將采集到的動(dòng)作數(shù)據(jù)與虛擬主播角色模型進(jìn)行關(guān)聯(lián),令虛擬主播角色模型按照動(dòng)作數(shù)據(jù)執(zhí)行相應(yīng)動(dòng)作,接著通過(guò)直播模塊將虛擬主播角色模型和聲音數(shù)據(jù)疊加至攝錄的視頻畫(huà)面中后合成得到虛擬主播角色視頻畫(huà)面,然后將實(shí)時(shí)生成的虛擬主播角色視頻畫(huà)面進(jìn)行直播。由此可見(jiàn),本發(fā)明的系統(tǒng)能夠以任何形式的虛擬角色作為主播來(lái)進(jìn)行直播,提高觀眾的交互體驗(yàn)感,令主播者更容易受到觀眾的喜愛(ài),而且還能令直播平臺(tái)的主播互動(dòng)方式多樣化,提高直播平臺(tái)的商用價(jià)值性,有利于直播平臺(tái)的市場(chǎng)推廣和擴(kuò)展。此外,通過(guò)實(shí)時(shí)采集動(dòng)作者的動(dòng)作數(shù)據(jù)來(lái)控制驅(qū)動(dòng)虛擬主播角色模型執(zhí)行相對(duì)應(yīng)的動(dòng)作,能夠解決傳統(tǒng)cg動(dòng)畫(huà)角色動(dòng)作僵硬不流暢、面部表情僵硬、角色制作周期長(zhǎng)難以實(shí)現(xiàn)實(shí)時(shí)觀看等問(wèn)題。

附圖說(shuō)明

圖1是本發(fā)明一種虛擬主播直播方法的步驟流程示意圖;

圖2是本發(fā)明一種虛擬主播直播系統(tǒng)的結(jié)構(gòu)框圖;

圖3是本發(fā)明一種虛擬主播直播方法一具體實(shí)施例步驟流程示意圖;

圖4是虛擬主播角色的創(chuàng)建步驟流程示意圖;

圖5是角色動(dòng)畫(huà)骨骼制作流程示意圖;

圖6是基于物理動(dòng)力學(xué)進(jìn)行制作的流程示意圖;

圖7是以虛擬主播進(jìn)行實(shí)時(shí)直播過(guò)程的示意圖。

具體實(shí)施方式

如圖1所示,一種虛擬主播直播方法,該方法包括的步驟有:

采用預(yù)設(shè)的主播角色設(shè)定信息來(lái)創(chuàng)建虛擬主播角色,將創(chuàng)建的虛擬主播角色導(dǎo)入圖形引擎中得到虛擬主播角色模型;

實(shí)時(shí)采集動(dòng)作者的動(dòng)作數(shù)據(jù)以及聲音數(shù)據(jù),將采集到的動(dòng)作數(shù)據(jù)與虛擬主播角色模型進(jìn)行關(guān)聯(lián),令虛擬主播角色模型按照動(dòng)作數(shù)據(jù)執(zhí)行相應(yīng)動(dòng)作;

將虛擬主播角色模型和聲音數(shù)據(jù)疊加至攝錄的視頻畫(huà)面中后合成得到虛擬主播角色視頻畫(huà)面,然后將實(shí)時(shí)生成的虛擬主播角色視頻畫(huà)面進(jìn)行直播。

如圖2所示,一種虛擬主播直播系統(tǒng),該系統(tǒng)包括:

模型創(chuàng)建模塊,用于采用預(yù)設(shè)的主播角色設(shè)定信息來(lái)創(chuàng)建虛擬主播角色,將創(chuàng)建的虛擬主播角色導(dǎo)入圖形引擎中得到虛擬主播角色模型;

數(shù)據(jù)關(guān)聯(lián)模塊,用于實(shí)時(shí)采集動(dòng)作者的動(dòng)作數(shù)據(jù)以及聲音數(shù)據(jù),將采集到的動(dòng)作數(shù)據(jù)與虛擬主播角色模型進(jìn)行關(guān)聯(lián),令虛擬主播角色模型按照動(dòng)作數(shù)據(jù)執(zhí)行相應(yīng)動(dòng)作;

直播模塊,用于將虛擬主播角色模型和聲音數(shù)據(jù)疊加至攝錄的視頻畫(huà)面中后合成得到虛擬主播角色視頻畫(huà)面,然后將實(shí)時(shí)生成的虛擬主播角色視頻畫(huà)面進(jìn)行直播。對(duì)于所述模型生成模塊、數(shù)據(jù)關(guān)聯(lián)模塊以及直播模塊,其可為應(yīng)用程序模塊,也為可硬件設(shè)備,如處理器等。

結(jié)合以下實(shí)施例來(lái)對(duì)本發(fā)明進(jìn)行詳細(xì)闡述。

如圖3所示,一種虛擬主播直播方法具體步驟如下所示。

s1:制作步驟,其包括的步驟如下所示。

s101、制作虛擬主播美術(shù)資源:根據(jù)預(yù)設(shè)的主播角色設(shè)定信息,在游戲軟件中制作出虛擬主播的角色模型;

如圖4所示,所述步驟s101包括有:

s1011、設(shè)定主播角色的原畫(huà)、文案和腳本;

s1012、根據(jù)主播角色的原畫(huà)制作虛擬主播角色;

s1013、在maya或3dmax等3d軟件中制作虛擬主播的初始角色模型;

s1014、為虛擬主播的初始角色模型配置貼圖和材質(zhì)后得到所需的虛擬主播的角色模型;

優(yōu)選地,為了令創(chuàng)建的虛擬主播的角色模型更為精細(xì)和符合原畫(huà)的設(shè)定,設(shè)置步驟s1015,所述步驟s1015為:對(duì)初始角色模型或主播角色進(jìn)行細(xì)節(jié)修改,以滿足角色模型制作要求和/或主播角色的設(shè)定要求;

s102、制作虛擬主播骨骼系統(tǒng):為虛擬主播的角色模型配置相對(duì)應(yīng)的角色動(dòng)畫(huà)骨骼后,將虛擬主播的角色模型與角色動(dòng)畫(huà)骨骼進(jìn)行綁定以及權(quán)重配置,從而完成虛擬主播角色的創(chuàng)建;

如圖5所示,所述步驟s102包括有:

s1021、制作出與虛擬主播的角色模型相對(duì)應(yīng)的角色動(dòng)畫(huà)骨骼;

s1022、將虛擬主播的角色模型與角色動(dòng)畫(huà)骨骼進(jìn)行綁定以及權(quán)重配置,并進(jìn)行細(xì)化和整理,最終完成虛擬主播角色的制作。

作為上述制作步驟的優(yōu)選實(shí)施方式,為了提高虛擬主播的真實(shí)感,所述步驟s1中還可包括有步驟s103,其為,為虛擬主播的角色模型配置基于物理動(dòng)力學(xué)而制作出的物體,如服裝;

如圖6所示,所述步驟s103包括有:

s1031、分析動(dòng)力學(xué)模型物體,如虛擬主播的身體、頭發(fā)和服裝,令這些物體利用物理動(dòng)力學(xué)技術(shù),按照物理規(guī)律移動(dòng);

s1032、在本實(shí)施例中,虛擬主播的角色模型加入基于物理動(dòng)力學(xué)而制作出的服裝,即加入動(dòng)力學(xué)物體模型;

s1033、將其導(dǎo)入圖形引擎來(lái)確認(rèn)效果;

為了符合虛擬主播的設(shè)定要求,所述步驟s103中還包括有步驟s1034,對(duì)基于物理動(dòng)力學(xué)而制作出的服裝模型進(jìn)行調(diào)整修改。

作為本實(shí)施例的優(yōu)選實(shí)施方式,所述圖形引擎(游戲圖形引擎)可以采用先進(jìn)的次世代游戲引擎來(lái)實(shí)現(xiàn)。與其它的游戲圖形引擎不同,本實(shí)施例中所述采用圖形引擎無(wú)需第三方軟件的支持便能處理物理效果、聲音及動(dòng)畫(huà)。

s2:生成步驟。

s201、將虛擬主播的角色模型、角色動(dòng)畫(huà)骨骼、基于物理動(dòng)力學(xué)而制作出的服裝導(dǎo)入游戲圖形引擎中進(jìn)行整合處理,并為虛擬主播的角色模型配置相對(duì)應(yīng)的材質(zhì)和程序插件,從而得到虛擬主播角色模型。

s3:以創(chuàng)建的虛擬主播來(lái)實(shí)現(xiàn)網(wǎng)絡(luò)直播步驟。

如圖7所示,所述步驟s3包括:

s301、邀請(qǐng)一名演員或普通主播者,即動(dòng)作者,令其穿戴上動(dòng)作捕捉裝置和面部表情捕捉器,并調(diào)整捕捉設(shè)備,同時(shí)也對(duì)虛擬主播直播系統(tǒng)中的硬件環(huán)境進(jìn)行調(diào)試;

s302、捕捉演員的肢體動(dòng)作數(shù)據(jù)和面部表情動(dòng)作數(shù)據(jù),將肢體動(dòng)作數(shù)據(jù)與虛擬主播角色模型進(jìn)行肢體動(dòng)作關(guān)聯(lián),將面部表情動(dòng)作數(shù)據(jù)與虛擬主播角色模型進(jìn)行面部動(dòng)作關(guān)聯(lián),令虛擬主播角色模型按照肢體動(dòng)作數(shù)據(jù)和面部表情動(dòng)作數(shù)據(jù)執(zhí)行相應(yīng)的肢體動(dòng)作和面部表情動(dòng)作,實(shí)現(xiàn)根據(jù)捕捉到的動(dòng)作數(shù)據(jù)來(lái)實(shí)時(shí)驅(qū)動(dòng)控制虛擬主播角色模型執(zhí)行相應(yīng)動(dòng)作;

其中,對(duì)于將面部表情動(dòng)作數(shù)據(jù)與虛擬主播角色模型進(jìn)行面部動(dòng)作關(guān)聯(lián),令虛擬主播角色模型按照面部表情動(dòng)作數(shù)據(jù)執(zhí)行相應(yīng)的面部表情動(dòng)作,其具體采用真實(shí)表情系統(tǒng)來(lái)實(shí)現(xiàn),這樣在進(jìn)行真實(shí)面部表情動(dòng)作捕捉時(shí),無(wú)需任何標(biāo)記點(diǎn)或油漆標(biāo)志來(lái)進(jìn)行面部標(biāo)定,可通過(guò)跟蹤和分析面部的嘴唇、眉毛、眼睛和眼珠等肌肉運(yùn)動(dòng)來(lái)生成表情動(dòng)畫(huà),令虛擬主播角色模型與真實(shí)動(dòng)作者進(jìn)行實(shí)時(shí)表情聯(lián)動(dòng);

s303、導(dǎo)入用戶所選擇的場(chǎng)景文件、燈光文件和/或音樂(lè)文件;

s304、開(kāi)始直播時(shí),將實(shí)現(xiàn)關(guān)聯(lián)控制的虛擬主播角色模型、采集到的動(dòng)作者的聲音數(shù)據(jù)、場(chǎng)景、燈光、音樂(lè)疊加至攝錄的視頻畫(huà)面中后合成得到虛擬主播角色視頻畫(huà)面,通過(guò)圖形引擎,將實(shí)時(shí)生成的虛擬主播角色視頻畫(huà)面進(jìn)行直播,從而達(dá)到演員/主播者按照定好的劇本和對(duì)白來(lái)進(jìn)行實(shí)時(shí)演播,并且可與觀眾進(jìn)行互動(dòng)的效果。優(yōu)選地,所述步驟s3還包括步驟s305,當(dāng)設(shè)備調(diào)試和與圖像引擎進(jìn)行聯(lián)調(diào)時(shí)出現(xiàn)問(wèn)題,繼續(xù)執(zhí)行步驟s301和步驟s302,進(jìn)行設(shè)備的調(diào)整以及與引擎進(jìn)行聯(lián)調(diào)。

作為本實(shí)施例的優(yōu)選實(shí)施方式,所述燈光以真實(shí)光照技術(shù)來(lái)將光影效果完美展現(xiàn)在虛擬主播角色視頻畫(huà)面中,并將受到直接光源和全局光的共同作用展現(xiàn)出來(lái)。

作為本實(shí)施例的優(yōu)選實(shí)施方式,所述場(chǎng)景通過(guò)虛擬場(chǎng)景技術(shù)實(shí)現(xiàn),在游戲圖形軟件中制作出3d場(chǎng)景,將該場(chǎng)景文件導(dǎo)入游戲圖形引擎中可實(shí)時(shí)渲染出高品質(zhì)的場(chǎng)景畫(huà)面。

由上述可得,本發(fā)明的方法及系統(tǒng)所具有的優(yōu)點(diǎn)有:

1、能夠以任何形式的虛擬角色作為主播來(lái)進(jìn)行網(wǎng)絡(luò)直播,提高觀眾的交互體驗(yàn)感,令主播者更容易受到觀眾的喜愛(ài);

2、解決傳統(tǒng)cg動(dòng)畫(huà)角色動(dòng)作僵硬不流暢、面部表情僵硬問(wèn)題;

3、解決傳統(tǒng)主播直播內(nèi)容單調(diào)問(wèn)題;

4、解決傳統(tǒng)cg動(dòng)畫(huà)角色制作成本高、制作周期長(zhǎng)而無(wú)法實(shí)現(xiàn)實(shí)時(shí)直播的問(wèn)題;

5、解決傳統(tǒng)虛擬主播缺乏互動(dòng)問(wèn)題。

以上是對(duì)本發(fā)明的較佳實(shí)施進(jìn)行了具體說(shuō)明,但本發(fā)明創(chuàng)造并不限于所述實(shí)施例,熟悉本領(lǐng)域的技術(shù)人員在不違背本發(fā)明精神的前提下還可做作出種種的等同變形或替換,這些等同的變形或替換均包含在本申請(qǐng)權(quán)利要求所限定的范圍內(nèi)。

當(dāng)前第1頁(yè)1 2 
網(wǎng)友詢問(wèn)留言 已有1條留言
  • 136688... 來(lái)自[中國(guó)] 2023年01月18日 22:39
    技術(shù)實(shí)現(xiàn)要素闡述邏輯清晰有條理
    0
1
盐源县| 绍兴县| 凤山市| 武夷山市| 黄大仙区| 安福县| 克拉玛依市| 咸阳市| 雷山县| 临城县| 石楼县| 英山县| 获嘉县| 兴仁县| 奈曼旗| 廊坊市| 镇沅| 曲水县| 镇远县| 邢台市| 宝清县| 武平县| 古交市| 铁力市| 陇南市| 永昌县| 荔波县| 张家界市| 昭觉县| 竹溪县| 界首市| 姜堰市| 阿拉善左旗| 巴东县| 枣庄市| 明水县| 景泰县| 北流市| 溧水县| 禄丰县| 晋江市|