两个人的电影免费视频_国产精品久久久久久久久成人_97视频在线观看播放_久久这里只有精品777_亚洲熟女少妇二三区_4438x8成人网亚洲av_内谢国产内射夫妻免费视频_人妻精品久久久久中国字幕

一種反饋答案的方法和裝置與流程

文檔序號:12364000閱讀:394來源:國知局
一種反饋答案的方法和裝置與流程

本發(fā)明涉及計算機技術(shù)領(lǐng)域,特別涉及一種反饋答案的方法和裝置。



背景技術(shù):

隨著計算機以及信息檢索技術(shù)的發(fā)展,人們越來越傾向于借助計算機來尋求某個問題的答案,相應的,問答系統(tǒng)的使用越來越廣泛。

現(xiàn)有的社區(qū)問答系統(tǒng)的實現(xiàn)一般是:用戶通過終端輸入一個問題,服務器從答案查詢庫中獲取預存的所有答案,確定用戶輸入的問題與其中的某個答案公有的詞匯,計算公有的每個詞匯在該答案中出現(xiàn)的次數(shù)之和,將其作為此答案與用戶輸入的問題的文本接近度,按照此方法,計算答案查詢庫中每個答案與用戶輸入的問題的文本接近度,將與問題文本接近度最大的答案推送給用戶。

在實現(xiàn)本發(fā)明的過程中,發(fā)明人發(fā)現(xiàn)現(xiàn)有技術(shù)至少存在以下問題:

基于上述的社區(qū)問答系統(tǒng)的實現(xiàn)方法,服務器在向用戶推送答案時,主要是基于問題和答案之間的詞匯匹配程度來計算問題和答案之間的文本接近度,但是用戶所需要的答案可能與用戶輸入的問題不存在共同的詞匯(即存在詞匯鴻溝),或者共同的詞匯出現(xiàn)的次數(shù)較少,這樣,推送給用戶的答案與用戶需求匹配的可能性較低,從而,導致服務器進行答案反饋的準確率較低。



技術(shù)實現(xiàn)要素:

為了解決現(xiàn)有技術(shù)的問題,本發(fā)明實施例提供了一種反饋答案的方法和裝置。所述技術(shù)方案如下:

第一方面,提供了一種反饋答案的方法,所述方法包括:

根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于問題與對應的最佳答案的語義接近度大于問題與對應的其它答案的語義接近度的訓練條件,對預設的語義提取公式中的語義提取參數(shù)進行訓練,得到所述語義提取參數(shù)的訓練值;

當接收到攜帶有目標問題的解答請求時,根據(jù)所述目標問題、答案查詢庫中的各答案、所述語義提取公式、以及所述語義提取參數(shù)的訓練值,分別確定所述各答案與所述目標問題的語義接近度;

根據(jù)所述各答案與所述目標問題的語義接近度,在所述各答案中選取目標答案,對所述解答請求進行反饋。

第二方面,提供了一種反饋答案的裝置,所述裝置包括:

訓練模塊,用于根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于問題與對應的最佳答案的語義接近度大于問題與對應的其它答案的語義接近度的訓練條件,對預設的語義提取公式中的語義提取參數(shù)進行訓練,得到所述語義提取參數(shù)的訓練值;

確定模塊,用于當接收到攜帶有目標問題的解答請求時,根據(jù)所述目標問題、答案查詢庫中的各答案、所述語義提取公式、以及所述語義提取參數(shù)的訓練值,分別確定所述各答案與所述目標問題的語義接近度;

反饋模塊,用于根據(jù)所述各答案與所述目標問題的語義接近度,在所述各答案中選取目標答案,對所述解答請求進行反饋。

本發(fā)明實施例提供的技術(shù)方案帶來的有益效果是:

本發(fā)明實施例中,根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于問題與對應的最佳答案的語義接近度大于問題與對應的其它答案的語義接近度的訓練條件,對預設的語義提取公式中的語義提取參數(shù)進行訓練,得到所述語義提取參數(shù)的訓練值,當接收到攜帶有目標問題的解答請求時,根據(jù)所述目標問題、答案查詢庫中的各答案、所述語義提取公式、以及所述語義提取參數(shù)的訓練值,分別確定所述各答案與所述目標問題的語義接近度,根據(jù)所述各答案與所述目標問題的語義接近度,在所述各答案中選取目標答案,對所述解答請求進行反饋。這樣,基于語義接近度進行答案選取,避免了問題和答案存在的詞匯鴻溝問題,從而,可以提高針對問題反饋的答案的準確度。

附圖說明

為了更清楚地說明本發(fā)明實施例中的技術(shù)方案,下面將對實施例描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本發(fā)明 的一些實施例,對于本領(lǐng)域普通技術(shù)人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)這些附圖獲得其他的附圖。

圖1是本發(fā)明實施例提供的一種反饋答案的方法流程圖;

圖2是本發(fā)明實施例提供的一種訓練過程的示意圖;

圖3是本發(fā)明實施例提供的一種反饋答案的裝置結(jié)構(gòu)示意圖;

圖4是本發(fā)明實施例提供的一種服務器的結(jié)構(gòu)示意圖。

具體實施方式

為使本發(fā)明的目的、技術(shù)方案和優(yōu)點更加清楚,下面將結(jié)合附圖對本發(fā)明實施方式作進一步地詳細描述。

實施例一

本發(fā)明實施例提供了一種反饋答案的方法,如圖1所示,該方法的處理流程可以包括如下的步驟:

步驟101,根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于問題與對應的最佳答案的語義接近度大于問題與對應的其它答案的語義接近度的訓練條件,對預設的語義提取公式中的語義提取參數(shù)進行訓練,得到語義提取參數(shù)的訓練值。

步驟102,當接收到攜帶有目標問題的解答請求時,根據(jù)目標問題、答案查詢庫中的各答案、語義提取公式、以及語義提取參數(shù)的訓練值,分別確定各答案與目標問題的語義接近度。

步驟103,根據(jù)各答案與目標問題的語義接近度,在各答案中選取目標答案,對解答請求進行反饋。

本發(fā)明實施例中,根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于問題與對應的最佳答案的語義接近度大于問題與對應的其它答案的語義接近度的訓練條件,對預設的語義提取公式中的語義提取參數(shù)進行訓練,得到所述語義提取參數(shù)的訓練值,當接收到攜帶有目標問題的解答請求時,根據(jù)所述目標問題、答案查詢庫中的各答案、所述語義提取公式、以及所述語義提取參數(shù)的訓練值,分別確定所述各答案與所述目標問題的語義接近度,根據(jù)所述各答案與所述目標問題的語義接近度,在所述各答案中選取目標答案,對所述解答請求進行反饋。這樣,基于語義接近度進行答案選取,避免了問題 和答案存在的詞匯鴻溝問題,從而,可以提高針對問題反饋的答案的準確度。

實施例二

本發(fā)明實施例提供了一種反饋答案的方法,該方法的執(zhí)行主體可以為服務器,該服務器可以是社區(qū)問答網(wǎng)站或應用的服務器,該服務器中可以設置有處理器、存儲器、收發(fā)器,處理器可以用于對語義提取參數(shù)的訓練和針對問題反饋答案的處理,存儲器可以用于存儲下述處理過程中需要的數(shù)據(jù)以及產(chǎn)生的數(shù)據(jù),收發(fā)器可以用于接收和發(fā)送數(shù)據(jù),。下面將結(jié)合具體實施方式,對圖1所示的處理流程進行詳細的說明,內(nèi)容可以如下:

步驟101,根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于問題與對應的最佳答案的語義接近度大于問題與對應的其它答案的語義接近度的訓練條件,對預設的語義提取公式中的語義提取參數(shù)進行訓練,得到語義提取參數(shù)的訓練值。

其中,在大數(shù)據(jù)處理時,可以對語句(如問題、答案等)的語義進行量化,語義提取公式可以是用于提取問題或者答案的語義的公式。語義提取參數(shù)可以是語義提取公式中的常數(shù)系數(shù),可以通過訓練過程確定。語義接近度可以是問題與答案在語義(即語句的表達意思)層面的接近程度。

在實施中,服務器可以從互聯(lián)網(wǎng)上獲取一些問題及其對應的答案,將其存儲在訓練樣本庫中,例如可以在某些社區(qū)問答系統(tǒng)中獲取一些問題及對應的答案,其中,對于訓練樣本庫中的每個問題都對應有一定數(shù)量的答案,其中包括對應于每個問題的最佳答案(一般可以是由提出問題的用戶選出的答案)和其他答案。對于詞庫中存在的每個詞都對應有詞向量(可以稱為分布向量),其中,詞向量可以是d維的向量(d可以是50),其中的某一維的數(shù)值可以用來表示該詞對應某一語義項的取值,例如,寶馬一詞的詞向量可以是[0.5;0.8;……],其中,詞向量的第一維對應的語義項可以是“該詞用于表示動物的可能性”,0.5表示該可能性的數(shù)值,第二維對應的語義項可以是“該詞用于表示車輛的可能性”,0.8表示該可能性的數(shù)值。服務器可以獲取問題和答案中的每個詞的詞向量。針對訓練樣本庫中的每個問題及其對應的答案,服務器可以得到其對應的包含詞向量的矩陣(可稱為詞矩陣),詞矩陣的每一列對應詞庫中的每個詞的詞向量。例如,目前詞庫中有V個詞,詞矩陣的維數(shù)可以是d×V,服務器獲取到 訓練樣本庫中某個問題或答案后,可以得到獲取的問題或答案中出現(xiàn)的詞的詞向量,并將其放在詞矩陣中的對應的位置,詞矩陣的其它位置可以設置為零(即問題或答案中沒有出現(xiàn)的詞對應在詞矩陣中的列為零),這樣,每個不同的問題或答案都有其對應的詞矩陣。

服務器可以將訓練樣本庫中的每個問題或答案對應的詞矩陣向量化,得到表征問題或答案的向量,可以用Ex表示,下標x可以是問題(可以用q表示問題)或者答案(可以用a表示答案),即Eq表示問題對應的詞矩陣向量化后的向量,Ea表示答案對應的詞矩陣向量化后的向量。服務器得到訓練樣本庫中的每個問題和答案的Eq、Ea后,對其進行一定比例的損毀,即可以將其中的一些值強制設置為零(可以隨機的在其中選取一些值),得到E~x,進而可以利用下面的語義提取公式提取問題或答案所表征的語義:

<mrow> <mi>z</mi> <mo>=</mo> <mi>f</mi> <mrow> <mo>(</mo> <mi>W</mi> <mo>*</mo> <mover> <mi>E</mi> <mo>~</mo> </mover> <mi>x</mi> <mo>+</mo> <mi>b</mi> <mo>)</mo> </mrow> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>

其中,z可稱為語義向量,可以表征問題或答案的語義,W可以稱為加權(quán)矩陣,用于對的語義提取和降維,b可以稱為偏置向量,與W共同用于提取問題或答案所表征的語義,W、b可稱為語義提取參數(shù),f()是非線性函數(shù),用于提取問題或答案所表征的語義,可以選取為S函數(shù)、雙曲線函數(shù)或者整流函數(shù)等等,本文中f()以整流函數(shù)為例,即f()、W和b共同作用來提取問題或答案所表征的語義。

針對訓練樣本庫中的每個問題及其對應的答案,服務器得到向量z后,可以計算問題和答案之間的語義接近度,可以用向量之間的余弦夾角來表示問題和答案之間的語義接近度,根據(jù)問題與對應的最佳答案的語義接近度大于問題與對應的其它答案的語義接近度的條件,訓練公式(1)中的加權(quán)矩陣和偏置矩陣,得到最終的訓練值。

可選的,可以通過增大問題與對應的最佳答案的語義接近度減去問題與對應的其它答案的語義接近度的差值總和的方式,得到上述公式(1)中的語義提取參數(shù),相應的,步驟101的處理過程可以如下:根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于增大問題與對應的最佳答案的語義接近度減去問題與對應的其它答案的語義接近度的差值總和的訓練條件,對預設的語義提取公式中的語義提取參數(shù)進行訓練,得到所述語義提取參數(shù)的訓練值。

在實施中,獲取樣本訓練庫中的一個問題及其對應的最佳答案和其他答案,其中,問題對應的最佳答案可以記為a+,問題對應的其他答案可以記為aj,j表示問題對應的第j個其他答案,可以是1到該問題對應的其他答案的總數(shù)中的任一整數(shù),例如,問題對應的最佳答案之外的其他答案有N個,j=1,2,…N。將獲取的樣本訓練庫中的一個問題及其對應的最佳答案和其他答案作為訓練數(shù)據(jù),建立目標函數(shù),并對建立的目標函數(shù)進行訓練,得到語義提取參數(shù)的訓練值。

以樣本訓練庫中的一個問題及其對應的最佳答案和其他答案為訓練數(shù)據(jù)的訓練過程如下:問題和答案按照公式(1)進行語義提取得到問題對應的語義向量,可分別可以記為zq和za,得到問題和其對應的所有答案的語義向量后,可以按照公式(2)計算答案和問題之間的語義接近度,

<mrow> <mi>sim</mi> <mrow> <mo>(</mo> <mi>q</mi> <mo>,</mo> <mi>a</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>cos</mi> <mrow> <mo>(</mo> <msub> <mi>z</mi> <mi>q</mi> </msub> <mo>,</mo> <msub> <mi>z</mi> <mi>a</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msub> <mi>z</mi> <mi>q</mi> </msub> <mo>&CenterDot;</mo> <msub> <mi>z</mi> <mi>a</mi> </msub> </mrow> <mrow> <mo>|</mo> <mo>|</mo> <msub> <mi>z</mi> <mi>q</mi> </msub> <mo>|</mo> <mo>|</mo> <mo>&CenterDot;</mo> <mo>|</mo> <mo>|</mo> <msub> <mi>z</mi> <mi>a</mi> </msub> <mo>|</mo> <mo>|</mo> </mrow> </mfrac> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>

其中,sim(q,a)表示問題及其對應的所有答案的預計接近度,本文采用的公式(2)是采用問題和答案對應的語義向量之間的余弦夾角來表示問題及其對應的所有答案的語義接近度。服務器可以按照公式(3)建立損失函數(shù),

<mrow> <mi>L</mi> <mrow> <mo>(</mo> <mi>q</mi> <mo>,</mo> <mi>a</mi> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mi>&Sigma;</mi> <mi>j</mi> </munder> <mrow> <mo>(</mo> <mi>sim</mi> <mrow> <mo>(</mo> <msup> <mrow> <mi>q</mi> <mo>,</mo> <mi>a</mi> </mrow> <mo>+</mo> </msup> <mo>)</mo> </mrow> <mo>-</mo> <mi>sim</mi> <mrow> <mo>(</mo> <mi>q</mi> <mo>,</mo> <msubsup> <mi>a</mi> <mi>j</mi> <mo>-</mo> </msubsup> <mo>)</mo> </mrow> <mo>)</mo> </mrow> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>

其中,L(q,a)表示問題與對應的最佳答案的語義接近度減去問題與對應的其它答案的語義接近度的差值總和,sim(q,a+)表示問題與對應的最佳答案的語義接近度,表示問題與對應的每個其它答案的語義接近度,公式(3)即是進行訓練的第一目標函數(shù)。對公式(3)中包含的語義提取參數(shù)設置初始值,利用梯度下降法,訓練第一目標函數(shù),得到公式(3)中包含的語義提取參數(shù)W、b的訓練值,此時,將樣本訓練庫中的一個問題及其對應的答案作為訓練數(shù)據(jù),對基于該訓練數(shù)據(jù)建立的目標函數(shù)的訓練過程結(jié)束,結(jié)束后得到了語義提取參數(shù)W、b的訓練值。

服務器獲取樣本訓練庫中的下一個問題及其對應的最佳答案和其它答案,將其作為訓練數(shù)據(jù),并按照上述的訓練過程建立第一目標函數(shù),并利用BP算法(Back Propagation,反向傳播)將上述得到的語義提取參數(shù)W、b的訓練值,作為訓練該第一目標函數(shù)的初始值,訓練第一目標函數(shù),得到此次的語義提取參數(shù)W、b的訓練值,將其作為下一次訓練的初始值,依次遞推,直到樣本訓 練庫中的所有問題及其對應的最佳答案和其它答案訓練完畢,整個的訓練過程結(jié)束,并得到最終的語義提取參數(shù)W、b的訓練值,并將其存儲。

另外的,為降低去目標函數(shù)的梯度時的復雜度,在上述的訓練過程中,目標函數(shù)也可以采用公式(4)所示的公式,

<mrow> <mi>L</mi> <mrow> <mo>(</mo> <msup> <mrow> <mi>q</mi> <mo>,</mo> <mi>a</mi> </mrow> <mo>+</mo> </msup> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mi>&Sigma;</mi> <mi>j</mi> </munder> <mi>max</mi> <mo>{</mo> <mn>0</mn> <mo>,</mo> <mi>&delta;</mi> <mo>-</mo> <mi>sim</mi> <mrow> <mo>(</mo> <msup> <mrow> <mi>q</mi> <mo>,</mo> <mi>a</mi> </mrow> <mo>+</mo> </msup> <mo>)</mo> </mrow> <mo>+</mo> <mi>sim</mi> <mrow> <mo>(</mo> <msubsup> <mrow> <mi>q</mi> <mo>,</mo> <mi>a</mi> </mrow> <mi>j</mi> <mo>-</mo> </msubsup> <mo>)</mo> </mrow> <mo>}</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>

其中,公式(4)表示的物理含義與公式(3)近似相同,訓練的依據(jù)都是使問題與對應的最佳答案的語義接近度大于問題與對應的其他答案的語義接近度, <mrow> <mi>&delta;</mi> <mo>=</mo> <mn>1</mn> <mo>/</mo> <mn>2</mn> <mo>-</mo> <mi>sim</mi> <mrow> <mo>(</mo> <msubsup> <mrow> <mi>q</mi> <mo>,</mo> <mi>a</mi> </mrow> <mi>j</mi> <mo>-</mo> </msubsup> <mo>)</mo> </mrow> <mo>.</mo> </mrow>

可選的,還可以通過另一個訓練過程確定上述訓練過程的初值,相應的,訓練過程可以如下:步驟一,根據(jù)訓練樣本庫中存儲的各問題和各答案,基于減小對語句順序執(zhí)行語義提取和語義提取的逆處理后得到的語句與語義提取前的語句的差異度的訓練條件,對預設的語義提取公式中的語義提取參數(shù)進行訓練,得到所述語義提取參數(shù)的中間訓練值;其中,所述語句為問題或答案;步驟二,根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于問題與對應的最佳答案的語義接近度大于問題與對應的其它答案的語義接近度的訓練條件,將所述語義提取參數(shù)的中間訓練值作為初始輸入值,對所述語義提取公式中的語義提取參數(shù)進行訓練,得到所述語義提取參數(shù)的訓練值。

其中,順序執(zhí)行語義提取可以是按照公式(1)所示的公式進行語句的語義提取,可以稱為是對語句的編碼過程,語義提取的逆處理可以是對公式(1)的逆處理,可以得到與編碼前的Ex具有相同維數(shù)的E’x,此處理可以稱作是解碼過程,可以利用去噪自動編碼機實現(xiàn)編碼過程和解碼過程的整個過程,可以將去噪自動編碼機看作是一種特殊的神經(jīng)網(wǎng)絡。

在實施中,如圖2所示,步驟一的處理過程如下:獲取樣本訓練庫中的各問題各答案中的某一個問題或答案,得到其對應的Ex,之后對其進行一定比例的損毀,可以將其中的一些值強制設置為零,得到按照公式(1)對其進行語義提取,得到每個問題和每個答案的語義向量z,其中z包含語義提取參數(shù)W、b,即對進行編碼后得到相應的語義向量z,之后服務器利用g(z)對z進行逆變換,即對編碼后得到的語義向量z進行逆變換得到g(f()),此過程為解碼過程?;跍p小解碼之后得到的E’x與編碼前的Ex的差異度的訓練條件,建立如下公式(5)為第二目標函數(shù):

L(g(f()),Ex)=||g(f())-Ex||2……(5)

其中,公式(5)表示利用選用的語義提取參數(shù)對編碼,再對其解碼,得到的E’x與損毀前的Ex的差異向量的模,公式(5)的值越小,得到的語義提取參數(shù)越能準確表達語句的語義,對公式(5)中包含的語義提取參數(shù)設置初始值,利用梯度下降法訓練第二目標函數(shù),得到語義提取參數(shù)的訓練值。

服務器獲取樣本訓練庫中的其它問題或答案,將其作為訓練數(shù)據(jù),并按照上述的訓練過程建立第二目標函數(shù),并利用BP算法將上述得到的語義提取參數(shù)W、b訓練值,作為訓練該第二目標函數(shù)的初始值,訓練第二目標函數(shù),依次遞推,直到樣本訓練庫中的所有問題和答案訓練完畢,整個的訓練過程結(jié)束,并得到最終的語義提取參數(shù)W、b的訓練值。

將步驟一得到的語義提取參數(shù)的訓練值作為整個訓練過程的中間訓練值,將其作為步驟二的訓練過程的初始值,按照步驟二繼續(xù)訓練得到最終的語義提取參數(shù)W、b,并將其存儲,其中步驟二的訓練過程可以是上述步驟101中基于增大問題與對應的最佳答案的語義接近度減去問題與對應的其它答案的語義接近度的差值和的訓練條件進行訓練的訓練過程,相應的處理方式可以參見步驟101中的具體描述,此處不再累述。

可選的,訓練語義提取參數(shù)時,可以對樣本訓練庫中的問題和答案分別進行訓練,得到問題和答案各自的語義提取參數(shù),相應的,上述步驟一的處理過程可以如下:根據(jù)訓練樣本庫中存儲的各問題,基于減小對問題順序執(zhí)行語義提取和語義提取的逆處理后得到的語句與語義提取前的語句的差異度的訓練條件,對預設的問題語義提取公式中的問題語義提取參數(shù)進行訓練,得到所述問題語義提取參數(shù)的中間訓練值;根據(jù)訓練樣本庫中存儲的各答案,基于減小對語句順序執(zhí)行語義提取和語義提取的逆處理后得到的語句與語義提取前的語句的差異度的訓練條件,對預設的答案語義提取公式中的答案語義提取參數(shù)進行訓練,得到所述答案語義提取參數(shù)的中間訓練值;上述步驟二的處理流程可以如下:根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于問題與對應的最佳答案的語義接近度大于問題與對應的其它答案的語義接近度的訓練條件,將所述問題語義提取參數(shù)的中間訓練值和所述答案語義提取參數(shù)的中間訓練值作為初始輸入值,對所述問題語義提取公式中的問題語義提取參數(shù)和所述答案語義提取公式中的答案語義提取參數(shù)進行訓練,得到所述問題語 義提取參數(shù)的訓練值和所述答案語義提取參數(shù)的訓練值。

在實施中,在上述步驟一的訓練過程中,樣本訓練庫中的問題或答案可以采用不同的W和b,分別按照公式(1)進行語義提取,即樣本訓練庫中的問題可以采用一對W和b(可以記為W1、b1)進行語義提取,樣本訓練庫中的問題對應的答案可以采用另一對W和b(可以記為W2、b2)進行語義提取,并按照步驟一所述的方式分別建立目標函數(shù)并訓練,得到W1、b1和W2、b2的訓練值,作為整個訓練過程的中間訓練值,并將其作為步驟二的初始值,按照步驟二所述的處理流程繼續(xù)訓練得到最終的語義提取參數(shù)W1、b1和W2、b2,并將其存儲,其中,在步驟二的訓練過程中,計算問題以及對應的最佳答案和其它答案的語義向量,并根據(jù)得到的語義向量按照公式(2)計算語義相似度時,語義相似度中包含著W1、b1和W2、b2四個語義提取參數(shù),相應的處理方式可以參見步驟一、二中的具體描述,此處不再累述。

步驟102,當接收到攜帶有目標問題的解答請求時,根據(jù)目標問題、答案查詢庫中的各答案、語義提取公式、以及語義提取參數(shù)的訓練值,分別確定各答案與目標問題的語義接近度。

其中,目標問題可以是用戶通過終端輸入的想要獲知答案的問題,答案查詢庫可以是上述的樣本訓練庫,也可以是存儲服務器從互聯(lián)網(wǎng)上獲取的一些答案的庫,用于服務器從中選取匹配目標問題的答案。

在實施中,用戶通過終端輸入目標問題并向服務器發(fā)送解答請求后,服務器會接收到用戶發(fā)送的解答請求,進而服務器對其進行解析,獲取其中攜帶的目標問題,將服務器存儲的語義提取參數(shù)的訓練值代入公式(1)中,可以按照公式(1)計算目標問題以及答案查詢庫中的各答案的語義向量,得到目標問題以及答案查詢庫中的各答案的語義向量后,可以按照公式(2)計算答案查詢庫中的各答案分別與目標問題的語義接近度。

可選的,針對上述問題和答案分別進行訓練的情況;相應的,當服務器接收到終端發(fā)送的解答請求時的處理過程可以如下:當接收到攜帶有目標問題的解答請求時,根據(jù)所述目標問題、答案查詢庫中的各答案、所述問題語義提取公式、所述答案語義提取公式、以及所述問題語義提取參數(shù)的訓練值和所述答案語義提取參數(shù)的訓練值,分別確定所述各答案與所述目標問題的語義接近度。

在實施中,服務器獲得問題和答案分別的語義提取參數(shù)后,接收到攜帶有 目標問題的解答請求時,可以根據(jù)問題和答案分別對應的語義提取參數(shù),按照公式(1)分別計算目標問題以及答案查詢庫中的各答案的語義向量,確定了各自的語義向量后,可以按照公式(2)計算答案查詢庫中的各答案與目標問題的語義相似度。

步驟103,根據(jù)各答案與目標問題的語義接近度,在各答案中選取目標答案,對解答請求進行反饋。

其中,目標答案可以是答案查詢庫中的各答案匹配于目標問題的答案,可以是其中的一個答案,也可以是其中的幾個答案。

在實施中,服務器獲得答案查詢庫中的各答案分別與目標問題的語義接近度后,可以按照從大到小的順序?qū)⒌玫降恼Z義接近度進行排序,可以將最大的語義接近度對應的答案選取為目標答案,或者將排序后的前幾個語義接近度對應的答案選取為目標答案,選取到目標答案后,將目標答案通過終端反饋給用戶。

可選的,還可以將得到的語義接近度與基于詞匯匹配的一些特征進行結(jié)合,相應的,步驟103的處理流程可以如下:根據(jù)所述各答案與所述目標問題的語義接近度,以及所述各答案與所述目標問題的文本接近度,在所述各答案中選取目標答案,對所述解答請求進行反饋。

其中,文本接近度可以是各答案和目標問題基于詞匯匹配的接近度。

在實施中,服務器獲得答案查詢庫中的各答案與目標問題的語義接近度后,將其存儲,并按照公式(6)-(16)所示的公式計算答案查詢庫中的各答案與目標問題基于詞匯匹配的文本接近度,

<mrow> <msub> <mi>F</mi> <mn>1</mn> </msub> <mo>=</mo> <msub> <mi>&Sigma;</mi> <mrow> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>&Element;</mo> <mi>q</mi> <mo>&cap;</mo> <mi>a</mi> </mrow> </msub> <mi>c</mi> <mrow> <mo>(</mo> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>a</mi> <mo>)</mo> </mrow> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mrow> <mo>(</mo> <mn>6</mn> <mo>)</mo> </mrow> </mrow>

<mrow> <msub> <mi>F</mi> <mn>2</mn> </msub> <mo>=</mo> <msub> <mi>&Sigma;</mi> <mrow> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>&Element;</mo> <mi>q</mi> <mo>&cap;</mo> <mi>a</mi> </mrow> </msub> <mi>log</mi> <mrow> <mo>(</mo> <mi>c</mi> <mrow> <mo>(</mo> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>a</mi> <mo>)</mo> </mrow> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow>

<mrow> <msub> <mi>F</mi> <mn>3</mn> </msub> <mo>=</mo> <msub> <mi>&Sigma;</mi> <mrow> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>&Element;</mo> <mi>q</mi> <mo>&cap;</mo> <mi>a</mi> </mrow> </msub> <mi>c</mi> <mrow> <mo>(</mo> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>a</mi> <mo>)</mo> </mrow> <mo>/</mo> <mo>|</mo> <mi>a</mi> <mo>|</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> </mrow>

<mrow> <msub> <mi>F</mi> <mn>4</mn> </msub> <mo>=</mo> <msub> <mi>&Sigma;</mi> <mrow> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>&Element;</mo> <mi>q</mi> <mo>&cap;</mo> <mi>a</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>c</mi> <mrow> <mo>(</mo> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>a</mi> <mo>)</mo> </mrow> <mo>/</mo> <mo>|</mo> <mi>a</mi> <mo>|</mo> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mrow> <mo>(</mo> <mn>9</mn> <mo>)</mo> </mrow> </mrow>

<mrow> <msub> <mi>F</mi> <mn>5</mn> </msub> <mo>=</mo> <msub> <mi>&Sigma;</mi> <mrow> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>&Element;</mo> <mi>q</mi> <mo>&cap;</mo> <mi>a</mi> </mrow> </msub> <mi>log</mi> <mrow> <mo>(</mo> <mo>|</mo> <mi>C</mi> <mo>|</mo> <mo>/</mo> <mi>df</mi> <mrow> <mo>(</mo> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>)</mo> </mrow> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mrow> <mo>(</mo> <mn>10</mn> <mo>)</mo> </mrow> </mrow>

<mrow> <msub> <mi>F</mi> <mn>6</mn> </msub> <mo>=</mo> <msub> <mi>&Sigma;</mi> <mrow> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>&Element;</mo> <mi>q</mi> <mo>&cap;</mo> <mi>a</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>log</mi> <mrow> <mo>(</mo> <mo>|</mo> <mi>C</mi> <mo>|</mo> <mo>/</mo> <mi>df</mi> <mrow> <mo>(</mo> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>)</mo> </mrow> <mo>)</mo> </mrow> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mrow> <mo>(</mo> <mn>11</mn> <mo>)</mo> </mrow> </mrow>

<mrow> <msub> <mi>F</mi> <mn>7</mn> </msub> <mo>=</mo> <msub> <mi>&Sigma;</mi> <mrow> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>&Element;</mo> <mi>q</mi> <mo>&cap;</mo> <mi>a</mi> </mrow> </msub> <mi>log</mi> <mrow> <mo>(</mo> <mo>|</mo> <mi>C</mi> <mo>|</mo> <mo>/</mo> <mi>df</mi> <mrow> <mo>(</mo> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>)</mo> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mrow> <mo>(</mo> <mn>12</mn> <mo>)</mo> </mrow> </mrow>

<mrow> <msub> <mi>F</mi> <mn>8</mn> </msub> <mo>=</mo> <msub> <mi>&Sigma;</mi> <mrow> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>&Element;</mo> <mi>q</mi> <mo>&cap;</mo> <mi>a</mi> </mrow> </msub> <mi>log</mi> <mrow> <mo>(</mo> <mi>c</mi> <mrow> <mo>(</mo> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>a</mi> <mo>)</mo> </mrow> <mo>/</mo> <mo>|</mo> <mi>a</mi> <mo>|</mo> <mo>)</mo> </mrow> <mi>log</mi> <mrow> <mo>(</mo> <mo>|</mo> <mi>C</mi> <mo>|</mo> <mo>/</mo> <mi>df</mi> <mrow> <mo>(</mo> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mrow> <mo>(</mo> <mn>13</mn> <mo>)</mo> </mrow> </mrow>

<mrow> <msub> <mi>F</mi> <mn>9</mn> </msub> <mo>=</mo> <msub> <mi>&Sigma;</mi> <mrow> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>&Element;</mo> <mi>q</mi> <mo>&cap;</mo> <mi>a</mi> </mrow> </msub> <mi>c</mi> <mrow> <mo>(</mo> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>a</mi> <mo>)</mo> </mrow> <mi>log</mi> <mrow> <mo>(</mo> <mo>|</mo> <mi>C</mi> <mo>|</mo> <mo>/</mo> <mi>df</mi> <mrow> <mo>(</mo> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>)</mo> </mrow> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mrow> <mo>(</mo> <mn>14</mn> <mo>)</mo> </mrow> </mrow>

<mrow> <msub> <mi>F</mi> <mn>10</mn> </msub> <mo>=</mo> <msub> <mi>&Sigma;</mi> <mrow> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>&Element;</mo> <mi>q</mi> <mo>&cap;</mo> <mi>a</mi> </mrow> </msub> <mi>log</mi> <mrow> <mo>(</mo> <mi>c</mi> <mrow> <mo>(</mo> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>a</mi> <mo>)</mo> </mrow> <mo>/</mo> <mo>|</mo> <mi>a</mi> <mo>|</mo> <mo>&CenterDot;</mo> <mo>|</mo> <mi>C</mi> <mo>|</mo> <mo>/</mo> <mrow> <mo>(</mo> <mi>c</mi> <mrow> <mo>(</mo> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>C</mi> <mo>)</mo> </mrow> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mrow> <mo>(</mo> <mn>15</mn> <mo>)</mo> </mrow> </mrow>

<mrow> <msub> <mi>L</mi> <mn>1</mn> </msub> <mo>=</mo> <msub> <mi>&Sigma;</mi> <mrow> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>&Element;</mo> <mi>q</mi> <mo>&cap;</mo> <mi>a</mi> </mrow> </msub> <mi>log</mi> <mrow> <mo>(</mo> <mo>|</mo> <mi>a</mi> <mo>|</mo> <mo>-</mo> <mi>c</mi> <mrow> <mo>(</mo> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>a</mi> <mo>)</mo> </mrow> <mo>+</mo> <mn>0.5</mn> <mo>)</mo> </mrow> <mo>/</mo> <mrow> <mo>(</mo> <mi>c</mi> <mrow> <mo>(</mo> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>a</mi> <mo>)</mo> </mrow> <mo>+</mo> <mn>0.5</mn> <mo>)</mo> </mrow> <mi>c</mi> <mrow> <mo>(</mo> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>a</mi> <mo>)</mo> </mrow> <mo>*</mo> <mrow> <mo>(</mo> <msub> <mi>k</mi> <mn>1</mn> </msub> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>/</mo> <mrow> <mo>(</mo> <mi>c</mi> <mrow> <mo>(</mo> <msub> <mi>q</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>a</mi> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>k</mi> <mn>1</mn> </msub> <mo>*</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mi>b</mi> <mo>+</mo> <mi>b</mi> <mo>*</mo> <mo>|</mo> <mi>a</mi> <mo>|</mo> <mo>/</mo> <mi>avg</mi> <mo>|</mo> <mi>C</mi> <mo>|</mo> </mrow> <mo>)</mo> </mrow> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mo>.</mo> <mrow> <mo>(</mo> <mn>16</mn> <mo>)</mo> </mrow> </mrow>

其中,c(qi,a)可以是qi在a中出現(xiàn)的次數(shù),df(qi)可以是qi在答案查詢庫中的各答案中出現(xiàn)的次數(shù),|a|可以是答案a中包含的詞的數(shù)目,|C|可以是答案查詢庫中的各答案包含的詞的數(shù)目,C可以是答案查詢庫中的各答案,k1∈[1.2,2.0],b=0.75,avg|C|可以是答案查詢庫中的各答案包含的詞的數(shù)目的平均值,得到各答案與目標問題文本相似度后,將其與上述確定的各答案與目標問題的語義相似度共同放入學習排序框架中,例如是SVM排序算法,得到答案查詢庫中各答案與目標問題的綜合排序,即綜合利用語義相似度特征和上述11個公式所示的基于詞匯匹配的文本相似度特征而得到的各答案與目標問題的相似度,其中此12個特征的權(quán)重可以根據(jù)經(jīng)驗值進行人為賦值,也可以利用樣本訓練庫中的樣本根據(jù)SVM排序算法進行訓練得到各個特征對應的權(quán)重,將最大的相似度對應的答案通過終端反饋給用戶,也可以將排序中的前幾個相似度對應的答案通過終端反饋給用戶。

本發(fā)明實施例中,根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于問題與對應的最佳答案的語義接近度大于問題與對應的其它答案的語義接近度的訓練條件,對預設的語義提取公式中的語義提取參數(shù)進行訓練,得到所述語義提取參數(shù)的訓練值,當接收到攜帶有目標問題的解答請求時,根據(jù)所述目標問題、答案查詢庫中的各答案、所述語義提取公式、以及所述語義提取參數(shù)的訓練值,分別確定所述各答案與所述目標問題的語義接近度,根據(jù)所述各答案與所述目標問題的語義接近度,在所述各答案中選取目標答案,對所述解答請求進行反饋。這樣,基于語義接近度進行答案選取,避免了問題和答案存在的詞匯鴻溝問題,從而,可以提高針對問題反饋的答案的準確度。

實施例三

基于相同的技術(shù)構(gòu)思,本發(fā)明實施例還提供了一種反饋答案的裝置,如圖3所示,該裝置包括:

訓練模塊310,用于根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于問題與對應的最佳答案的語義接近度大于問題與對應的其它答 案的語義接近度的訓練條件,對預設的語義提取公式中的語義提取參數(shù)進行訓練,得到所述語義提取參數(shù)的訓練值;

確定模塊320,用于當接收到攜帶有目標問題的解答請求時,根據(jù)所述目標問題、答案查詢庫中的各答案、所述語義提取公式、以及所述語義提取參數(shù)的訓練值,分別確定所述各答案與所述目標問題的語義接近度;

反饋模塊330,用于根據(jù)所述各答案與所述目標問題的語義接近度,在所述各答案中選取目標答案,對所述解答請求進行反饋。

可選的,所述訓練模塊310,用于:

根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于增大問題與對應的最佳答案的語義接近度減去問題與對應的其它答案的語義接近度的差值總和的訓練條件,對預設的語義提取公式中的語義提取參數(shù)進行訓練,得到所述語義提取參數(shù)的訓練值。

可選的,所述訓練模塊310,用于:

根據(jù)訓練樣本庫中存儲的各問題和各答案,基于減小對語句順序執(zhí)行語義提取和語義提取的逆處理后得到的語句與語義提取前的語句的差異度的訓練條件,對預設的語義提取公式中的語義提取參數(shù)進行訓練,得到所述語義提取參數(shù)的中間訓練值;其中,所述語句為問題或答案;

根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于問題與對應的最佳答案的語義接近度大于問題與對應的其它答案的語義接近度的訓練條件,將所述語義提取參數(shù)的中間訓練值作為初始輸入值,對所述語義提取公式中的語義提取參數(shù)進行訓練,得到所述語義提取參數(shù)的訓練值。

可選的,所述訓練模塊310,用于:

根據(jù)訓練樣本庫中存儲的各問題,基于減小對問題順序執(zhí)行語義提取和語義提取的逆處理后得到的語句與語義提取前的語句的差異度的訓練條件,對預設的問題語義提取公式中的問題語義提取參數(shù)進行訓練,得到所述問題語義提取參數(shù)的中間訓練值;

根據(jù)訓練樣本庫中存儲的各答案,基于減小對語句順序執(zhí)行語義提取和語義提取的逆處理后得到的語句與語義提取前的語句的差異度的訓練條件,對預設的答案語義提取公式中的答案語義提取參數(shù)進行訓練,得到所述答案語義提取參數(shù)的中間訓練值;

根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于問題與對應的最佳答案的語義接近度大于問題與對應的其它答案的語義接近度的訓練條件,將所述問題語義提取參數(shù)的中間訓練值和所述答案語義提取參數(shù)的中間訓練值作為初始輸入值,對所述問題語義提取公式中的問題語義提取參數(shù)和所述答案語義提取公式中的答案語義提取參數(shù)進行訓練,得到所述問題語義提取參數(shù)的訓練值和所述答案語義提取參數(shù)的訓練值;

所述確定模塊320,用于:

當接收到攜帶有目標問題的解答請求時,根據(jù)所述目標問題、答案查詢庫中的各答案、所述問題語義提取公式、所述答案語義提取公式、以及所述問題語義提取參數(shù)的訓練值和所述答案語義提取參數(shù)的訓練值,分別確定所述各答案與所述目標問題的語義接近度。

可選的,所述反饋模塊330,用于:

根據(jù)所述各答案與所述目標問題的語義接近度,以及所述各答案與所述目標問題的文本接近度,在所述各答案中選取目標答案,對所述解答請求進行反饋。

本發(fā)明實施例中,根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于問題與對應的最佳答案的語義接近度大于問題與對應的其它答案的語義接近度的訓練條件,對預設的語義提取公式中的語義提取參數(shù)進行訓練,得到所述語義提取參數(shù)的訓練值,當接收到攜帶有目標問題的解答請求時,根據(jù)所述目標問題、答案查詢庫中的各答案、所述語義提取公式、以及所述語義提取參數(shù)的訓練值,分別確定所述各答案與所述目標問題的語義接近度,根據(jù)所述各答案與所述目標問題的語義接近度,在所述各答案中選取目標答案,對所述解答請求進行反饋。這樣,基于語義接近度進行答案選取,避免了問題和答案存在的詞匯鴻溝問題,從而,可以提高針對問題反饋的答案的準確度。

需要說明的是:上述實施例提供的反饋答案的裝置在反饋答案時,僅以上述各功能模塊的劃分進行舉例說明,實際應用中,可以根據(jù)需要而將上述功能分配由不同的功能模塊完成,即將設備的內(nèi)部結(jié)構(gòu)劃分成不同的功能模塊,以完成以上描述的全部或者部分功能。另外,上述實施例提供的反饋答案的裝置與反饋答案的方法實施例屬于同一構(gòu)思,其具體實現(xiàn)過程詳見方法實施例,這里不再贅述。

實施例四

圖4是本發(fā)明實施例提供的服務器的結(jié)構(gòu)示意圖。該服務器1900可因配置或性能不同而產(chǎn)生比較大的差異,可以包括一個或一個以上中央處理器(central processing units,CPU)1922(例如,一個或一個以上處理器)和存儲器1932,一個或一個以上存儲應用程序1942或數(shù)據(jù)1944的存儲介質(zhì)1930(例如一個或一個以上海量存儲設備)。其中,存儲器1932和存儲介質(zhì)1930可以是短暫存儲或持久存儲。存儲在存儲介質(zhì)1930的程序可以包括一個或一個以上模塊(圖示沒標出),每個模塊可以包括對統(tǒng)計服務器中的一系列指令操作。更進一步地,中央處理器1922可以設置為與存儲介質(zhì)1930通信,在統(tǒng)計服務器1900上執(zhí)行存儲介質(zhì)1930中的一系列指令操作。

服務器1900還可以包括一個或一個以上電源1926,一個或一個以上有線或無線網(wǎng)絡接口1950,一個或一個以上輸入輸出接口1958,一個或一個以上鍵盤1956,和/或,一個或一個以上操作系統(tǒng)1941,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,F(xiàn)reeBSDTM等等。

服務器1900可以包括有存儲器,以及一個或者一個以上的程序,其中一個或者一個以上程序存儲于存儲器中,且經(jīng)配置以由一個或者一個以上處理器執(zhí)行所述一個或者一個以上程序包含用于進行以下操作的指令:

根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于問題與對應的最佳答案的語義接近度大于問題與對應的其它答案的語義接近度的訓練條件,對預設的語義提取公式中的語義提取參數(shù)進行訓練,得到所述語義提取參數(shù)的訓練值;

當接收到攜帶有目標問題的解答請求時,根據(jù)所述目標問題、答案查詢庫中的各答案、所述語義提取公式、以及所述語義提取參數(shù)的訓練值,分別確定所述各答案與所述目標問題的語義接近度;

根據(jù)所述各答案與所述目標問題的語義接近度,在所述各答案中選取目標答案,對所述解答請求進行反饋。

可選的,所述根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于問題與對應的最佳答案的語義接近度大于問題與對應的其它答案的語義接近度的訓練條件,對預設的語義提取公式中的語義提取參數(shù)進行訓練, 得到所述語義提取參數(shù)的訓練值,包括:

根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于增大問題與對應的最佳答案的語義接近度減去問題與對應的其它答案的語義接近度的差值總和的訓練條件,對預設的語義提取公式中的語義提取參數(shù)進行訓練,得到所述語義提取參數(shù)的訓練值。

可選的,所述根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于問題與對應的最佳答案的語義接近度大于問題與對應的其它答案的語義接近度的訓練條件,對預設的語義提取公式中的語義提取參數(shù)進行訓練,得到所述語義提取參數(shù)的訓練值,包括:

根據(jù)訓練樣本庫中存儲的各問題和各答案,基于減小對語句順序執(zhí)行語義提取和語義提取的逆處理后得到的語句與語義提取前的語句的差異度的訓練條件,對預設的語義提取公式中的語義提取參數(shù)進行訓練,得到所述語義提取參數(shù)的中間訓練值;其中,所述語句為問題或答案;

根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于問題與對應的最佳答案的語義接近度大于問題與對應的其它答案的語義接近度的訓練條件,將所述語義提取參數(shù)的中間訓練值作為初始輸入值,對所述語義提取公式中的語義提取參數(shù)進行訓練,得到所述語義提取參數(shù)的訓練值。

可選的,所述根據(jù)訓練樣本庫中存儲的各問題和各答案,基于減小對語句順序執(zhí)行語義提取和語義提取的逆處理后得到的語句與語義提取前的語句的差異度的訓練條件,對預設的語義提取公式中的語義提取參數(shù)進行訓練,得到所述語義提取參數(shù)的中間訓練值,包括:

根據(jù)訓練樣本庫中存儲的各問題,基于減小對問題順序執(zhí)行語義提取和語義提取的逆處理后得到的語句與語義提取前的語句的差異度的訓練條件,對預設的問題語義提取公式中的問題語義提取參數(shù)進行訓練,得到所述問題語義提取參數(shù)的中間訓練值;

根據(jù)訓練樣本庫中存儲的各答案,基于減小對語句順序執(zhí)行語義提取和語義提取的逆處理后得到的語句與語義提取前的語句的差異度的訓練條件,對預設的答案語義提取公式中的答案語義提取參數(shù)進行訓練,得到所述答案語義提取參數(shù)的中間訓練值;

所述根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基 于問題與對應的最佳答案的語義接近度大于問題與對應的其它答案的語義接近度的訓練條件,將所述語義提取參數(shù)的中間訓練值作為初始輸入值,對所述語義提取公式中的語義提取參數(shù)進行訓練,得到所述語義提取參數(shù)的訓練值,包括:

根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于問題與對應的最佳答案的語義接近度大于問題與對應的其它答案的語義接近度的訓練條件,將所述問題語義提取參數(shù)的中間訓練值和所述答案語義提取參數(shù)的中間訓練值作為初始輸入值,對所述問題語義提取公式中的問題語義提取參數(shù)和所述答案語義提取公式中的答案語義提取參數(shù)進行訓練,得到所述問題語義提取參數(shù)的訓練值和所述答案語義提取參數(shù)的訓練值;

所述當接收到攜帶有目標問題的解答請求時,根據(jù)所述目標問題、答案查詢庫中的各答案、所述語義提取公式、以及所述語義提取參數(shù)的訓練值,分別確定所述各答案與所述目標問題的語義接近度,包括:

當接收到攜帶有目標問題的解答請求時,根據(jù)所述目標問題、答案查詢庫中的各答案、所述問題語義提取公式、所述答案語義提取公式、以及所述問題語義提取參數(shù)的訓練值和所述答案語義提取參數(shù)的訓練值,分別確定所述各答案與所述目標問題的語義接近度。

可選的,所述根據(jù)所述各答案與所述目標問題的語義接近度,在所述各答案中選取目標答案,對所述解答請求進行反饋,包括:

根據(jù)所述各答案與所述目標問題的語義接近度,以及所述各答案與所述目標問題的文本接近度,在所述各答案中選取目標答案,對所述解答請求進行反饋。

本發(fā)明實施例中,根據(jù)訓練樣本庫中存儲的問題、最佳答案及其它答案的對應關(guān)系,基于問題與對應的最佳答案的語義接近度大于問題與對應的其它答案的語義接近度的訓練條件,對預設的語義提取公式中的語義提取參數(shù)進行訓練,得到所述語義提取參數(shù)的訓練值,當接收到攜帶有目標問題的解答請求時,根據(jù)所述目標問題、答案查詢庫中的各答案、所述語義提取公式、以及所述語義提取參數(shù)的訓練值,分別確定所述各答案與所述目標問題的語義接近度,根據(jù)所述各答案與所述目標問題的語義接近度,在所述各答案中選取目標答案,對所述解答請求進行反饋。這樣,基于語義接近度進行答案選取,避免了問題 和答案存在的詞匯鴻溝問題,從而,可以提高針對問題反饋的答案的準確度。

本領(lǐng)域普通技術(shù)人員可以理解實現(xiàn)上述實施例的全部或部分步驟可以通過硬件來完成,也可以通過程序來指令相關(guān)的硬件完成,所述的程序可以存儲于一種計算機可讀存儲介質(zhì)中,上述提到的存儲介質(zhì)可以是只讀存儲器,磁盤或光盤等。

以上所述僅為本發(fā)明的較佳實施例,并不用以限制本發(fā)明,凡在本發(fā)明的精神和原則之內(nèi),所作的任何修改、等同替換、改進等,均應包含在本發(fā)明的保護范圍之內(nèi)。

當前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
青浦区| 西畴县| 星子县| 鸡泽县| 荔浦县| 濉溪县| 鹰潭市| 普定县| 天津市| 石台县| 新蔡县| 扎兰屯市| 沈丘县| 勃利县| 安乡县| 梓潼县| 常宁市| 石楼县| 绥中县| 金沙县| 三亚市| 道真| 革吉县| 若羌县| 成武县| 卫辉市| 龙江县| 兰溪市| 叙永县| 都匀市| 历史| 吉隆县| 徐汇区| 阿拉善右旗| 茂名市| 弋阳县| 海盐县| 临江市| 广德县| 东山县| 宁夏|