本發(fā)明屬于機(jī)器學(xué)習(xí)和移動(dòng)通信,具體涉及一種面向物聯(lián)網(wǎng)動(dòng)態(tài)環(huán)境的自適應(yīng)學(xué)習(xí)方法及系統(tǒng)。
背景技術(shù):
1、隨著深度學(xué)習(xí)的不斷發(fā)展,其解決物聯(lián)網(wǎng)環(huán)境中設(shè)備通信問題的能力,越來越受到相關(guān)研究人員的關(guān)注。傳統(tǒng)的迭代優(yōu)化算法往往帶來高計(jì)算復(fù)雜度,難以滿足物聯(lián)網(wǎng)環(huán)境下設(shè)備交互的實(shí)時(shí)性需求;同時(shí)基于深度神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)方案在海量設(shè)備連接時(shí)的表現(xiàn)差,缺乏泛化能力。圖神經(jīng)網(wǎng)絡(luò)作為一種新興的深度學(xué)習(xí)框架,擁有比深度神經(jīng)網(wǎng)絡(luò)更好的學(xué)習(xí)能力和泛化表現(xiàn),同時(shí)有效利用物聯(lián)網(wǎng)環(huán)境中海量連接設(shè)備的底層拓?fù)洌瑸槟P吞峁└嗟挠杏眯畔?。但現(xiàn)有基于圖神經(jīng)網(wǎng)絡(luò)的方案,遵循測(cè)試樣本和訓(xùn)練樣本服從相同分布的假設(shè),當(dāng)模型適應(yīng)了新分布時(shí),會(huì)對(duì)已學(xué)習(xí)過的分布產(chǎn)生災(zāi)難性遺忘,遭受極大的性能損失。
2、所以,現(xiàn)有方案無法適應(yīng)動(dòng)態(tài)變化的信道環(huán)境。因此,研究在動(dòng)態(tài)信道環(huán)境下的波束設(shè)計(jì)方法,保障深度學(xué)習(xí)模型持續(xù)地學(xué)習(xí)和優(yōu)化無線資源,從而實(shí)現(xiàn)性能優(yōu)化目標(biāo),成為一個(gè)重大挑戰(zhàn)。
技術(shù)實(shí)現(xiàn)思路
1、本發(fā)明針對(duì)現(xiàn)有技術(shù)存在的問題,提供了一種面向物聯(lián)網(wǎng)動(dòng)態(tài)環(huán)境的自適應(yīng)學(xué)習(xí)方法及系統(tǒng),能夠適應(yīng)動(dòng)態(tài)變化的信道環(huán)境,提高物聯(lián)網(wǎng)環(huán)境中設(shè)備通信能力。
2、為解決以上技術(shù)問題,本發(fā)明提供如下技術(shù)方案:一種面向物聯(lián)網(wǎng)動(dòng)態(tài)環(huán)境的自適應(yīng)學(xué)習(xí)方法,包括以下步驟:
3、s1、獲取時(shí)隙t的信道數(shù)據(jù),使用迭代算法生成該信道數(shù)據(jù)對(duì)應(yīng)的功率向量標(biāo)簽,構(gòu)建時(shí)隙t的訓(xùn)練映射對(duì)dt;
4、s2、根據(jù)時(shí)隙t的訓(xùn)練映射對(duì)dt、以及信道數(shù)據(jù)對(duì)應(yīng)的功率向量標(biāo)簽值構(gòu)建當(dāng)前時(shí)隙t的圖數(shù)據(jù)集訓(xùn)練映射對(duì)gt;
5、s3、基于已知的內(nèi)存圖數(shù)據(jù)集mt,將時(shí)隙t的圖數(shù)據(jù)集訓(xùn)練映射對(duì)gt和內(nèi)存圖數(shù)據(jù)集mt前后堆疊后隨機(jī)打亂,構(gòu)成圖數(shù)據(jù)集訓(xùn)練映射對(duì)集合mt∪gt,以圖數(shù)據(jù)集訓(xùn)練映射對(duì)集合mt∪gt中各個(gè)樣本的信道數(shù)據(jù)為輸入、訓(xùn)練圖數(shù)據(jù)集映射對(duì)集合中各個(gè)信道數(shù)據(jù)對(duì)應(yīng)的功率向量標(biāo)簽值為輸出構(gòu)建并迭代訓(xùn)練圖神經(jīng)網(wǎng)絡(luò);同時(shí)在迭代訓(xùn)練過程中利用最小均方誤差函數(shù)作為損失函數(shù)進(jìn)行監(jiān)督學(xué)習(xí),直到遍歷所有的圖數(shù)據(jù)集訓(xùn)練映射對(duì)集合mt∪gt,獲得圖神經(jīng)網(wǎng)絡(luò)模型,以及所述圖神經(jīng)網(wǎng)絡(luò)模型的最優(yōu)權(quán)重θ;
6、s4、將圖數(shù)據(jù)集訓(xùn)練映射對(duì)集合mt∪gt中各個(gè)樣本的信道信息輸入至步驟s3獲得的圖神經(jīng)網(wǎng)絡(luò)模型,獲得預(yù)測(cè)的功率分配向量;
7、s5、基于步驟s4獲得的預(yù)測(cè)的功率分配向量,以及圖數(shù)據(jù)集訓(xùn)練映射對(duì)集合mt∪gt,利用性能函數(shù)計(jì)算所述預(yù)測(cè)的功率分配向量和速率與圖數(shù)據(jù)集訓(xùn)練映射對(duì)集合mt∪gt最優(yōu)和速率的負(fù)比率,根據(jù)該負(fù)比率分別針對(duì)mt、gt選出符合預(yù)設(shè)條件的映射對(duì),將該映射對(duì)堆疊打亂獲得新內(nèi)存圖數(shù)據(jù)集mt+1,并將新內(nèi)存圖數(shù)據(jù)集mt+1更新為內(nèi)存圖數(shù)據(jù)集mt,之后返回步驟s1。
8、進(jìn)一步地,前述的步驟s2中,圖數(shù)據(jù)集訓(xùn)練映射對(duì)gt按如下步驟獲得:
9、s2.1、將時(shí)隙t的訓(xùn)練映射對(duì)dt取信道矩陣hn,將hn作為對(duì)應(yīng)第n個(gè)圖數(shù)據(jù)集的點(diǎn)特征與邊特征;其中,n是樣本索引;
10、s2.2、取對(duì)應(yīng)的功率向量標(biāo)簽值pn作為對(duì)應(yīng)第n個(gè)圖數(shù)據(jù)集的隱藏?cái)?shù)據(jù),經(jīng)過dgl圖類的封裝,獲得圖數(shù)據(jù)集訓(xùn)練映射對(duì)gt;圖數(shù)據(jù)集訓(xùn)練映射對(duì)gt將物聯(lián)網(wǎng)環(huán)境下的各個(gè)設(shè)備視為節(jié)點(diǎn),設(shè)備之間的連接關(guān)系視為邊,每個(gè)節(jié)點(diǎn)與每條邊都包含了特征信息。
11、進(jìn)一步地,前述的步驟s3中,圖神經(jīng)網(wǎng)絡(luò)包括一個(gè)輸入層以及與其順序連接的兩個(gè)圖神經(jīng)網(wǎng)絡(luò)層、一個(gè)展平層、一個(gè)全連接層、一個(gè)激活函數(shù)層、一個(gè)損失函數(shù)層。
12、進(jìn)一步地,前述的步驟s3中,迭代訓(xùn)練圖神經(jīng)網(wǎng)絡(luò)時(shí)使用圖神經(jīng)網(wǎng)絡(luò)作為底層學(xué)習(xí)框架,圖數(shù)據(jù)集訓(xùn)練映射對(duì)gt作為圖神經(jīng)網(wǎng)絡(luò)輸入,首先模型提取各個(gè)節(jié)點(diǎn)的點(diǎn)特征作為隱狀態(tài)的初始化,其中v表示節(jié)點(diǎn);同時(shí)提取相應(yīng)邊的邊特征,按如下公式形成消息并聚合:
13、
14、其中v1,v2∈v,v是節(jié)點(diǎn)集合,n(v1)是節(jié)點(diǎn)v1的鄰居集合,是節(jié)點(diǎn)v1的隱狀態(tài),是節(jié)點(diǎn)v2的隱狀態(tài),l-1代表層數(shù),是節(jié)點(diǎn)v1與節(jié)點(diǎn)v2所構(gòu)成邊的邊特征,mlp是全連接層,θ是可訓(xùn)練參數(shù)集合。
15、當(dāng)每個(gè)節(jié)點(diǎn)都將自身信息與鄰居節(jié)點(diǎn)信息聚合后,按如下公式更新每個(gè)節(jié)點(diǎn)的隱狀態(tài):
16、
17、其中mean代表均值函數(shù)。
18、進(jìn)一步地,前述的步驟s3中,迭代訓(xùn)練圖神經(jīng)網(wǎng)絡(luò)模型時(shí)設(shè)置最大迭代次數(shù)為m,圖神經(jīng)網(wǎng)絡(luò)層數(shù)為l,優(yōu)化器為adam,學(xué)習(xí)率為lr,將圖數(shù)據(jù)集訓(xùn)練映射對(duì)集合mt∪gt劃分成若干個(gè)批次,對(duì)每個(gè)批次進(jìn)行迭代,迭代過程利用梯度下降法更新模型權(quán)重,優(yōu)化全局損失函數(shù),對(duì)圖數(shù)據(jù)集訓(xùn)練映射對(duì)集合mt∪gt遍歷完畢,該圖神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練過程結(jié)束,模型收斂,全局損失函數(shù)取得最小值,模型權(quán)重θ達(dá)到最優(yōu),最終的隱狀態(tài)矩陣x(l)經(jīng)過展平層和全連接層的處理后,得到作為圖神經(jīng)網(wǎng)絡(luò)模型的預(yù)測(cè)輸出。
19、進(jìn)一步地,前述的步驟s5中,利用性能函數(shù)計(jì)算所述預(yù)測(cè)的功率分配向量和速率與圖數(shù)據(jù)集訓(xùn)練映射對(duì)集合mt∪gt最優(yōu)和速率的負(fù)比率如下式:
20、
21、其中,θ是系統(tǒng)權(quán)重,h(n)是信道樣本數(shù)據(jù),p(n)是需要被圖神經(jīng)網(wǎng)絡(luò)模型學(xué)習(xí)的功率分配向量,是圖神經(jīng)網(wǎng)絡(luò)模型預(yù)測(cè)的功率分配向量,是預(yù)測(cè)輸出的和速率,是通過加權(quán)最小均方誤差算法獲得的圖數(shù)據(jù)集訓(xùn)練映射對(duì)集合mt∪gt最優(yōu)和速率,其中n是樣本索引。
22、進(jìn)一步地,前述的步驟s5中,根據(jù)該負(fù)比率分別針對(duì)mt、gt選出符合預(yù)設(shè)條件的映射對(duì)具體包括以下子步驟:
23、s5.1、對(duì)經(jīng)過性能函數(shù)計(jì)算的樣本數(shù)據(jù)中的mt和gt中的圖數(shù)據(jù)集映射對(duì)進(jìn)行降序排序,從gt中挑選前n-f(t)個(gè)圖數(shù)據(jù)集樣本映射對(duì),從mt中挑選前f(t)個(gè)圖數(shù)據(jù)集樣本映射對(duì),其中f(t)是關(guān)于時(shí)隙t的函數(shù);
24、s5.2、將gt中挑選前n-f(t)個(gè)圖數(shù)據(jù)集樣本映射對(duì)和從mt中挑選前f(t)個(gè)圖數(shù)據(jù)集樣本映射對(duì)堆疊打亂。
25、本發(fā)明還提供一種面向物聯(lián)網(wǎng)動(dòng)態(tài)環(huán)境的自適應(yīng)學(xué)習(xí)系統(tǒng),包括:數(shù)據(jù)流模塊、內(nèi)存集模塊、圖數(shù)據(jù)集構(gòu)建模塊、混合模塊、圖神經(jīng)網(wǎng)絡(luò)模塊;
26、數(shù)據(jù)流模塊,用于獲取時(shí)隙t的信道數(shù)據(jù),使用迭代算法生成該信道數(shù)據(jù)對(duì)應(yīng)的功率向量標(biāo)簽,構(gòu)建時(shí)隙t的訓(xùn)練映射對(duì)dt;
27、內(nèi)存集模塊,用于存儲(chǔ)圖數(shù)據(jù)集樣本數(shù)據(jù)mt;
28、圖數(shù)據(jù)集構(gòu)建模塊,用于根據(jù)時(shí)隙t的訓(xùn)練映射對(duì)dt、以及信道數(shù)據(jù)對(duì)應(yīng)的功率向量標(biāo)簽值構(gòu)建當(dāng)前時(shí)隙t的圖數(shù)據(jù)集訓(xùn)練映射對(duì)gt;
29、混合模塊,用于利用已知的內(nèi)存圖數(shù)據(jù)集mt,將時(shí)隙t的圖數(shù)據(jù)集訓(xùn)練映射對(duì)gt和內(nèi)存圖數(shù)據(jù)集mt前后堆疊后隨機(jī)打亂,構(gòu)成圖數(shù)據(jù)集訓(xùn)練映射對(duì)集合mt∪gt;
30、圖神經(jīng)網(wǎng)絡(luò)模塊,用于以圖數(shù)據(jù)集訓(xùn)練映射對(duì)集合mt∪gt中各個(gè)信道數(shù)據(jù)為輸入、圖數(shù)據(jù)集訓(xùn)練映射對(duì)集合中各個(gè)信道數(shù)據(jù)對(duì)應(yīng)的功率向量標(biāo)簽值為輸出進(jìn)行模型訓(xùn)練,獲得各個(gè)信道數(shù)據(jù)對(duì)應(yīng)的功率向量預(yù)測(cè)值。
31、相較于現(xiàn)有技術(shù),本發(fā)明采用以上技術(shù)方案的有益技術(shù)效果如下:
32、(1)本發(fā)明使用圖神經(jīng)網(wǎng)絡(luò)構(gòu)建深度學(xué)習(xí)模型,有效利用了圖神經(jīng)網(wǎng)絡(luò)的置換等變特性,深度挖掘物聯(lián)網(wǎng)環(huán)境下設(shè)備之間的底層拓?fù)浣Y(jié)構(gòu),提升了模型的實(shí)際通信性能。
33、(2)本發(fā)明在圖神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練過程中構(gòu)建內(nèi)存集,通過混合內(nèi)存集和當(dāng)前樣本集進(jìn)行訓(xùn)練,使模型克服了災(zāi)難性遺忘現(xiàn)象,在動(dòng)態(tài)變化的物聯(lián)網(wǎng)環(huán)境中表現(xiàn)出很好的適應(yīng)性。
34、(3)本發(fā)明利用和速率負(fù)比率定義性能損失函數(shù),將性能損失函數(shù)作為挑選內(nèi)存集樣本的標(biāo)準(zhǔn),有效地將問題結(jié)構(gòu)嵌入到模型訓(xùn)練過程。