本發(fā)明涉及機器人技術(shù)領(lǐng)域,具體地說,涉及一種用于智能機器人的數(shù)據(jù)處理方法及裝置。
背景技術(shù):
隨著科學技術(shù)的不斷發(fā)展,信息技術(shù)、計算機技術(shù)以及人工智能技術(shù)的引入,機器人的研究已經(jīng)逐步走出工業(yè)領(lǐng)域,逐漸擴展到了醫(yī)療、保健、家庭、娛樂以及服務(wù)行業(yè)等領(lǐng)域。而人們對于機器人的要求也從簡單重復的機械動作提升為具有擬人問答、自主性及與其他機器人進行交互的智能機器人,人機交互也就成為決定智能機器人發(fā)展的重要因素。提高智能機器人的交互水平,改善用戶與機器人的交互體驗,成為本領(lǐng)域技術(shù)人員亟需解決的技術(shù)問題。
技術(shù)實現(xiàn)要素:
為解決上述問題,本發(fā)明提供了一種用于智能機器人的數(shù)據(jù)處理方法,其包括:
多模態(tài)輸入數(shù)據(jù)獲取步驟,獲取交互環(huán)境中的多模態(tài)輸入數(shù)據(jù);
多模態(tài)輸入數(shù)據(jù)處理步驟,對所述多模態(tài)輸入數(shù)據(jù)中的音頻信息進行聲源定位,得到聲源定位結(jié)果,對所述多模態(tài)輸入數(shù)據(jù)進行解析,得到情感信息;
指令生成步驟,根據(jù)所述聲源定位結(jié)果生成視線轉(zhuǎn)移指令,根據(jù)所述情感信息生成表情輸出指令,并將所述視線轉(zhuǎn)移指令和表情輸出指令傳輸至下位機中的面部載體。
根據(jù)本發(fā)明的一個實施例,所述面部載體包括能夠顯示多種面部圖形的顯示屏,所述方法還包括:
反饋信息輸出步驟,根據(jù)所述視線轉(zhuǎn)移指令在所述顯示屏中顯示注視對應(yīng)方向的眼睛圖形,并根據(jù)所述表情輸出指令顯示對應(yīng)形狀的面部圖形。
根據(jù)本發(fā)明的一個實施例,所述面部載體包括能夠顯示眼睛圖形的顯示屏,所述方法還包括:
反饋信息輸出步驟,根據(jù)所述視線轉(zhuǎn)移指令在所述顯示屏中顯示注視對應(yīng)方向的眼睛圖形,并根據(jù)所述表情輸出指令調(diào)整所述眼睛圖形的形狀。
根據(jù)本發(fā)明的一個實施例,所述面部載體包括面部模擬部件,所述方法還包括:
反饋信息輸出步驟,根據(jù)所述視線轉(zhuǎn)移指令調(diào)整所述面部模擬部件的朝向,并根據(jù)所述表情輸出指令調(diào)整所述面部模擬部件中眼部指示燈的亮滅狀態(tài)。
本發(fā)明還提供了一種用于智能機器人的數(shù)據(jù)處理裝置,其包括:
多模態(tài)輸入數(shù)據(jù)獲取模塊,其用于獲取交互環(huán)境中的多模態(tài)輸入數(shù)據(jù);
多模態(tài)輸入數(shù)據(jù)處理模塊,其用于對所述多模態(tài)輸入數(shù)據(jù)中的音頻信息進行聲源定位,得到聲源定位結(jié)果,對所述多模態(tài)輸入數(shù)據(jù)進行解析,得到情感信息;
指令生成模塊,其用于根據(jù)所述聲源定位結(jié)果生成視線轉(zhuǎn)移指令,根據(jù)所述情感信息生成表情輸出指令,并將所述視線轉(zhuǎn)移指令和表情輸出指令傳輸至下位機中的面部載體。
根據(jù)本發(fā)明的一個實施例,所述面部載體包括能夠顯示多種面部圖形的顯示屏,所述裝置還包括:
反饋信息輸出模塊,其用于根據(jù)所述視線轉(zhuǎn)移指令在所述顯示屏中顯示注視對應(yīng)方向的眼睛圖形,并根據(jù)所述表情輸出指令顯示對應(yīng)形狀的面部圖形。
根據(jù)本發(fā)明的一個實施例,所述面部載體包括能夠顯示眼睛圖形的顯示屏,所述裝置還包括:
反饋信息輸出模塊,其用于根據(jù)所述視線轉(zhuǎn)移指令在所述顯示屏中顯示注視對應(yīng)方向的眼睛圖形,并根據(jù)所述表情輸出指令調(diào)整所述眼睛圖形的形狀。
根據(jù)本發(fā)明的一個實施例,所述面部載體包括面部模擬部件,所述裝置還包括:
反饋信息輸出模塊,其用于根據(jù)所述視線轉(zhuǎn)移指令調(diào)整所述面部模擬部件的朝向,并根據(jù)所述表情輸出指令調(diào)整所述面部模擬部件中眼部指示燈的亮滅狀態(tài)。
本發(fā)明所提供的用于智能機器人的數(shù)據(jù)處理方法能夠使得智能機器人主動將視線轉(zhuǎn)移到交互場景中的敏感方向,并且根據(jù)獲取到的語音信息來自動地呈現(xiàn)出相應(yīng)的表情,這樣也就使得智能機器人的行為更加類人化,從而提高了智能機器人的用戶體驗。
本發(fā)明的其它特征和優(yōu)點將在隨后的說明書中闡述,并且,部分地從說明書中變得顯而易見,或者通過實施本發(fā)明而了解。本發(fā)明的目的和其他優(yōu)點可通過在說明書、權(quán)利要求書以及附圖中所特別指出的結(jié)構(gòu)來實現(xiàn)和獲得。
附圖說明
為了更清楚地說明本發(fā)明實施例或現(xiàn)有技術(shù)中的技術(shù)方案,下面將對實施例或現(xiàn)有技術(shù)描述中所需要的附圖做簡單的介紹:
圖1是根據(jù)本發(fā)明一個實施例的用于智能機器人的數(shù)據(jù)處理方法的實現(xiàn)流程示意圖;
圖2是根據(jù)本發(fā)明另一個實施例的用于智能機器人的數(shù)據(jù)處理方法的實現(xiàn)流程示意圖;
圖3是根據(jù)本發(fā)明再一個實施例的用于智能機器人的數(shù)據(jù)處理方法的實現(xiàn)流程示意圖;
圖4是根據(jù)本發(fā)明又一個實施例的用于智能機器人的數(shù)據(jù)處理方法的實現(xiàn)流程示意圖;
圖5是根據(jù)本發(fā)明一個實施例的用于智能機器人的數(shù)據(jù)處理裝置的結(jié)構(gòu)示意圖。
具體實施方式
以下將結(jié)合附圖及實施例來詳細說明本發(fā)明的實施方式,借此對本發(fā)明如何應(yīng)用技術(shù)手段來解決技術(shù)問題,并達成技術(shù)效果的實現(xiàn)過程能充分理解并據(jù)以實施。需要說明的是,只要不構(gòu)成沖突,本發(fā)明中的各個實施例以及各實施例中的各個特征可以相互結(jié)合,所形成的技術(shù)方案均在本發(fā)明的保護范圍之內(nèi)。
同時,在以下說明中,出于解釋的目的而闡述了許多具體細節(jié),以提供對本發(fā)明實施例的徹底理解。然而,對本領(lǐng)域的技術(shù)人員來說顯而易見的是,本發(fā)明可以不用這里的具體細節(jié)或者所描述的特定方式來實施。
另外,在附圖的流程圖示出的步驟可以在諸如一組計算機可執(zhí)行指令的計算機系統(tǒng)中執(zhí)行,并且,雖然在流程圖中示出了邏輯順序,但是在某些情況下,可以以不同于此處的順序執(zhí)行所示出或描述的步驟。
現(xiàn)有的智能機器人在與用戶進行交互的過程中,通常只是簡單地獲取用戶所輸入的音頻信息或是獲取關(guān)于用戶的圖像信息,這使得智能機器人表現(xiàn)得較為機械、呆板。
針對現(xiàn)有技術(shù)中所存在的上述問題,本發(fā)明提供了一種新的用于智能機器人的數(shù)據(jù)處理方法,該方法能夠使得智能機器人主動地視線轉(zhuǎn)移到交互場景中的敏感方向,并且根據(jù)獲取到的語音信息來自動地呈現(xiàn)出相應(yīng)的表情。
為了更加清楚地闡述本發(fā)明所提供的用于智能機器人的數(shù)據(jù)處理方法的實現(xiàn)原理、實現(xiàn)流程以及優(yōu)點,以下分別結(jié)合不同的實施例來對該方法作進一步地說明。
實施例一:
圖1示出了本實施例所提供的用于智能機器人的數(shù)據(jù)處理方法的實現(xiàn)流程示意圖。
如圖1所示,本實施例所提供的數(shù)據(jù)處理方法首先在步驟S101中獲取交互環(huán)境中的多模態(tài)輸入數(shù)據(jù)。本實施例中,該方法在步驟S101中所獲取到的交互環(huán)境中的多模態(tài)輸入數(shù)據(jù)包括音頻信息。需要指出的是,在本發(fā)明的其他實施例中,根據(jù)實際交互場景,該方法在步驟S101中所獲取到的多模態(tài)輸入數(shù)據(jù)中還可以包含其他合理數(shù)據(jù)(例如圖像數(shù)據(jù)或場景數(shù)據(jù)等),本發(fā)明不限于此。
在得到多模態(tài)輸入數(shù)據(jù)后,該方法會在步驟S102中對上述多模態(tài)輸入數(shù)據(jù)中的音頻信息進行聲源定位,從而得到聲源定位結(jié)果。
如圖1所示,在得到聲源定位結(jié)果后,該方法還會在步驟S103中對上述步驟S101中所獲取到的多模態(tài)輸入數(shù)據(jù)進行解析,從而得到情感信息。需要指出的是,本實施例中,根據(jù)步驟S101中所獲取到的多模態(tài)輸入數(shù)據(jù)中所包含的交互信息的具體形式的不同,該方法在步驟S103中可以采用多種不同的方式來對分別上述各種不同的交互信息進行解析,從而得到情感信息。
例如,對于步驟S101中所獲取到的多模態(tài)輸入數(shù)據(jù)中所包含的音頻信息,該方法在步驟S103中可以通過對上述音頻信息進行語音識別、語義識別和/或語音情緒識別來確定情感信息。
由于周圍環(huán)境的光線強弱并不會對音頻的監(jiān)測過程產(chǎn)生干擾,而如果用戶處于黑暗環(huán)境下時,監(jiān)測用戶的面部圖像和/或肢體動作就需要配備專用設(shè)備(例如紅外攝像頭)以及特定的處理軟件,因此本實施例所提供的通過音頻信息確定用戶的情感信息的方法更加容易實現(xiàn),其實現(xiàn)成本也較低,同時也能夠保證確定出的用戶情緒的準確度。
而對于步驟S101中所獲取到的多模態(tài)輸入數(shù)據(jù)中所包含的圖像信息,該方法在步驟S103中則可以通過對上述圖像信息進行人臉識別來確定出人臉所表征的情緒,從而得到用戶的情感信息。
需要指出的是,在本發(fā)明的其他實施例中,上述步驟S102與步驟S103還可以采用其他合理的執(zhí)行順序,本發(fā)明不限于此。如圖1所示,在得到聲源定位結(jié)果和情感信息后,該方法會在步驟S104中根據(jù)步驟S102中所得到的聲源定位結(jié)果來生成相應(yīng)的視線轉(zhuǎn)移指令,并根據(jù)步驟S103中所得到的情感信息來生成相應(yīng)的表情輸出指令。
在分別得到視線轉(zhuǎn)移指令和情感信息后,該方法會在步驟S105中將上述視線轉(zhuǎn)移指令和表情輸出指令作為控制指令發(fā)送至下位機的面部載體,以由下位機的面部載體來對上述視線轉(zhuǎn)移指令和表情輸出指令進行響應(yīng)。
實施例二:
圖2示出了本實施例所提供的用于智能機器人的數(shù)據(jù)處理方法的實現(xiàn)流程示意圖。
如圖2所示,本實施例所提供的數(shù)據(jù)處理方法首先在步驟S201中獲取交互環(huán)境中的多模態(tài)輸入數(shù)據(jù)。在得到交互環(huán)境中的多模態(tài)輸入數(shù)據(jù)后,該方法會在步驟S202中對上述步驟S201中所獲取到的多模態(tài)輸入數(shù)據(jù)中的音頻信息進行聲源定位,從而得到聲源定位結(jié)果。此外,該方法還會在步驟S203中對上述步驟S201中所獲取到的多模態(tài)輸入數(shù)據(jù)進行解析,從而得到情感信息。
在得到聲源定位結(jié)果和情感信息后,該方法會在步驟S204中根據(jù)步驟S202中所得到的聲源定位結(jié)果來生成相應(yīng)的視線轉(zhuǎn)移指令,并根據(jù)步驟S203中所得到的情感信息來生成相應(yīng)的表情輸出指令。在分別得到視線轉(zhuǎn)移指令和情感信息后,該方法會在步驟S205中將上述視線轉(zhuǎn)移指令和表情輸出指令作為控制指令發(fā)送至下位機的面部載體。
需要指出的是,本實施例中,上述步驟S201至步驟S205的實現(xiàn)原理以及實現(xiàn)過程與上述實施例一中步驟S101至步驟S105的實現(xiàn)原理以及實現(xiàn)過程類似,故在此不再對上述步驟S201至步驟S205的相關(guān)內(nèi)容進行贅述。
本實施例中,下位機的面部載體包括能夠顯示多種面部圖形(例如眼睛圖形、鼻子圖像以及嘴巴圖形等)的顯示屏。如圖2所示,本實施例中,該方法會在步驟S206中根據(jù)上述視線轉(zhuǎn)移指令在顯示屏中顯示注視對應(yīng)方向的眼睛圖像。此外,該方法還會在步驟S207中根據(jù)上述表情輸出指令顯示出對應(yīng)形狀的面部圖像。
例如,用戶在智能機器人的左側(cè)發(fā)出了諸如“你真棒”的聲音,那么該方法將會控制下位機將顯示的面部圖形的視線朝向該用戶并顯示出“笑臉”的面部圖形。
需要指出的是,本發(fā)明并不對上述步驟S206和步驟S207的執(zhí)行順序進行限定,在本發(fā)明的不同實施例中,該方法既可以先執(zhí)行上述步驟S206再執(zhí)行步驟S207,也可以先執(zhí)行步驟S207再執(zhí)行步驟S206,還可以同時執(zhí)行步驟S206和步驟S207,本發(fā)明不限于此。
實施例三:
圖3示出了本實施例所提供的用于智能機器人的數(shù)據(jù)處理方法的實現(xiàn)流程示意圖。
如圖3所示,本實施例所提供的數(shù)據(jù)處理方法首先在步驟S301中獲取交互環(huán)境中的多模態(tài)輸入數(shù)據(jù)。在得到交互環(huán)境中的多模態(tài)輸入數(shù)據(jù)后,該方法會在步驟S302中對上述步驟S301中所獲取到的多模態(tài)輸入數(shù)據(jù)中的音頻信息進行聲源定位,從而得到生源地定位結(jié)果。此外,該方法還會在步驟S303中對上述步驟S301中所獲取到的多模態(tài)輸入數(shù)據(jù)進行解析,從而得到情感信息。
在得到聲源定位結(jié)果和情感信息后,該方法會在步驟S304中根據(jù)步驟S302中所得到的聲源定位結(jié)果來生成相應(yīng)的視線轉(zhuǎn)移指令,并根據(jù)步驟S303中所得到的情感信息來生成相應(yīng)的表情輸出指令。在分別得到視線轉(zhuǎn)移指令和情感信息后,該方法會在步驟S305中將上述視線轉(zhuǎn)移指令和表情輸出指令作為控制指令發(fā)送至下位機的面部載體。
需要指出的是,本實施例中,上述步驟S301至步驟S305的實現(xiàn)原理以及實現(xiàn)過程與上述實施例一中步驟S101至步驟S105的實現(xiàn)原理以及實現(xiàn)過程類似,故在此不再對上述步驟S301至步驟S305的相關(guān)內(nèi)容進行贅述。
下位機的面部載體包括能夠顯示眼睛圖形的顯示屏。如圖3所示,本實施例中,該方法會在步驟S306中根據(jù)上述視線轉(zhuǎn)移指令在顯示屏中顯示注視對應(yīng)方向的眼睛圖形。此外,該方法還會在步驟S307中根據(jù)上述表情輸出指令調(diào)整上述眼睛圖形的形狀,以通過所顯示出的眼睛圖形的形狀來表征出相應(yīng)的情緒。
需要指出的是,本發(fā)明并不對上述步驟S306和步驟S307的執(zhí)行順序進行限定,在本發(fā)明的不同實施例中,該方法既可以先執(zhí)行上述步驟S306再執(zhí)行步驟S307,也可以先執(zhí)行步驟S307再執(zhí)行步驟S306,還可以同時執(zhí)行步驟S306和步驟S307,本發(fā)明不限于此。
實施例四:
圖4示出了本實施例所提供的用于智能機器人的數(shù)據(jù)處理方法的實現(xiàn)流程示意圖。
如圖4所示,本實施例所提供的數(shù)據(jù)處理方法首先在步驟S401中獲取交互環(huán)境中的多模態(tài)輸入數(shù)據(jù)。在得到交互環(huán)境中的多模態(tài)輸入數(shù)據(jù)后,該方法會在步驟S402中對上述步驟S401中所獲取到的多模態(tài)輸入數(shù)據(jù)中的音頻信息進行聲源定位,從而得到生源地定位結(jié)果。此外,該方法還會在步驟S403中對上述步驟S401中所獲取到的多模態(tài)輸入數(shù)據(jù)進行解析,從而得到情感信息。
在得到聲源定位結(jié)果和情感信息后,該方法會在步驟S404中根據(jù)步驟S402中所得到的聲源定位結(jié)果來生成相應(yīng)的視線轉(zhuǎn)移指令,并根據(jù)步驟S403中所得到的情感信息來生成相應(yīng)的表情輸出指令。在分別得到視線轉(zhuǎn)移指令和情感信息后,該方法會在步驟S405中將上述視線轉(zhuǎn)移指令和表情輸出指令作為控制指令發(fā)送至下位機的面部載體。
需要指出的是,本實施例中,上述步驟S401至步驟S405的實現(xiàn)原理以及實現(xiàn)過程與上述實施例一中步驟S101至步驟S105的實現(xiàn)原理以及實現(xiàn)過程類似,故在此不再對上述步驟S401至步驟S405的相關(guān)內(nèi)容進行贅述。
本實施例中,下位機的面部載體包括面部模擬部件(例如仿真頭部等),該面部模擬部件能夠進行轉(zhuǎn)動。如圖4所示,本實施例中,該方法會在步驟S406中根據(jù)上述視線轉(zhuǎn)移指令來調(diào)整面部模擬部件的朝向,以使得面部模擬部件的視線方向朝向聲源方向。此外,該方法還會在步驟S407中根據(jù)上述表情輸出指令調(diào)整面部模擬部件中眼部指示燈的亮滅狀態(tài),從而通過眼部指示燈的亮滅狀態(tài)來表征出相應(yīng)的情緒。當然,在本發(fā)明的其他實施例中,根據(jù)實際需要,該方法在步驟S407中還可以根據(jù)上述表情輸出指令來調(diào)整面部模擬部件中對應(yīng)部件的位置(例如通過調(diào)整嘴部各區(qū)域的位置來調(diào)整嘴部的形狀等)來呈現(xiàn)出不同的面部表情。
需要指出的是,本發(fā)明并不對上述步驟S406和步驟S407的執(zhí)行順序進行限定,在本發(fā)明的不同實施例中,該方法既可以先執(zhí)行上述步驟S406再執(zhí)行步驟S407,也可以先執(zhí)行步驟S407再執(zhí)行步驟S406,還可以同時執(zhí)行步驟S406和步驟S407,本發(fā)明不限于此。
從上述描述中可以看出,本發(fā)明所提供的用于智能機器人的數(shù)據(jù)處理方法能夠使得智能機器人主動將視線轉(zhuǎn)移到交互場景中的敏感方向,并且根據(jù)獲取到的語音信息來自動地呈現(xiàn)出相應(yīng)的表情,這樣也就使得智能機器人的行為更加類人化,從而提高了智能機器人的用戶體驗。
本發(fā)明還提供了一種用于智能機器人的數(shù)據(jù)處理裝置,其中,圖5輸出了本實施例中該數(shù)據(jù)處理裝置的結(jié)構(gòu)示意圖。
如圖5所示,本實施例所提供的數(shù)據(jù)處理裝置優(yōu)選地包括:多模態(tài)輸入數(shù)據(jù)獲取模塊501、多模態(tài)輸入數(shù)據(jù)處理模塊502以及指令生成模塊503。其中,多模態(tài)輸入數(shù)據(jù)獲取模塊501用于獲取交互環(huán)境中的多模態(tài)輸入數(shù)據(jù)。
本實施例中,多模態(tài)輸入數(shù)據(jù)獲取模塊501所獲取到的交互環(huán)境中的多模態(tài)輸入數(shù)據(jù)包括音頻信息。需要指出的是,在本發(fā)明的其他實施例中,根據(jù)實際交互場景,多模態(tài)輸入數(shù)據(jù)獲取模塊501所獲取到的多模態(tài)輸入數(shù)據(jù)中還可以包含其他合理數(shù)據(jù)(例如圖像數(shù)據(jù)或場景數(shù)據(jù)等),本發(fā)明不限于此。
在得到多模態(tài)輸入數(shù)據(jù)后,多模態(tài)輸入數(shù)據(jù)獲取模塊501會將上述多模態(tài)輸入數(shù)據(jù)傳輸至與之連接的多模態(tài)輸入數(shù)據(jù)處理模塊502。多模態(tài)輸入數(shù)據(jù)處理模塊502會對上述多模態(tài)輸入數(shù)據(jù)中的音頻信息進行聲源定位,從而得到聲源定位結(jié)果。此外,多模態(tài)輸入數(shù)據(jù)處理模塊502還對對上述多模態(tài)輸入數(shù)據(jù)進行解析,從而得到情感信息。
多模態(tài)輸入數(shù)據(jù)處理模塊502與指令生成模塊503連接,其會自身生成的聲源定位結(jié)果和情感信息傳輸至指令生成模塊503。本實施例中,指令生成模塊503會根據(jù)上述聲源定位結(jié)果來生成視線轉(zhuǎn)移指令,同時,其還會根據(jù)上述情感信息生成相應(yīng)的表情輸出指令,并將上述視線轉(zhuǎn)移指令和表情輸出指令傳輸至下位機的面部載體。
如圖5所示,本實施例中,該數(shù)據(jù)處理裝置優(yōu)選地還包括反饋信息輸出模塊504,其中,反饋信息輸出模塊504配置在下位機的面部載體中,其能夠根據(jù)指令生成模塊503所傳輸來的聲源定位結(jié)合和表情輸出指令來輸出多模態(tài)反饋信息。
需要指出的是,多模態(tài)輸入數(shù)據(jù)獲取模塊501、多模態(tài)輸入數(shù)據(jù)處理模塊502、指令生成模塊503以及反饋信息輸出模塊504實現(xiàn)其各自功能的原理以及過程既可以與上述實施例二中步驟S201至步驟S207所闡述的內(nèi)容相同,也可以與上述實施例三中步驟S301至步驟S307所闡述的內(nèi)容相同,還可以與上述實施例四中步驟S401至步驟S407所闡述的內(nèi)容相同,故在此不再對多模態(tài)輸入數(shù)據(jù)獲取模塊501、多模態(tài)輸入數(shù)據(jù)處理模塊502、指令生成模塊503以及反饋信息輸出模塊504的相關(guān)內(nèi)容進行贅述。
應(yīng)該理解的是,本發(fā)明所公開的實施例不限于這里所公開的特定結(jié)構(gòu)或處理步驟,而應(yīng)當延伸到相關(guān)領(lǐng)域的普通技術(shù)人員所理解的這些特征的等同替代。還應(yīng)當理解的是,在此使用的術(shù)語僅用于描述特定實施例的目的,而并不意味著限制。
說明書中提到的“一個實施例”或“實施例”意指結(jié)合實施例描述的特定特征、結(jié)構(gòu)或特性包括在本發(fā)明的至少一個實施例中。因此,說明書通篇各個地方出現(xiàn)的短語“一個實施例”或“實施例”并不一定均指同一個實施例。
雖然上述示例用于說明本發(fā)明在一個或多個應(yīng)用中的原理,但對于本領(lǐng)域的技術(shù)人員來說,在不背離本發(fā)明的原理和思想的情況下,明顯可以在形式上、用法及實施的細節(jié)上作各種修改而不用付出創(chuàng)造性勞動。因此,本發(fā)明由所附的權(quán)利要求書來限定。