两个人的电影免费视频_国产精品久久久久久久久成人_97视频在线观看播放_久久这里只有精品777_亚洲熟女少妇二三区_4438x8成人网亚洲av_内谢国产内射夫妻免费视频_人妻精品久久久久中国字幕

基于低秩分解的參數(shù)更新方法、裝置、設(shè)備及存儲(chǔ)介質(zhì)與流程

文檔序號(hào):40642802發(fā)布日期:2025-01-10 18:49閱讀:6來源:國(guó)知局
基于低秩分解的參數(shù)更新方法、裝置、設(shè)備及存儲(chǔ)介質(zhì)與流程

本發(fā)明涉及機(jī)器學(xué)習(xí),尤其涉及一種基于低秩分解的參數(shù)更新方法、裝置、設(shè)備及存儲(chǔ)介質(zhì)。


背景技術(shù):

1、在現(xiàn)代金融行業(yè)中,隨著大數(shù)據(jù)和人工智能技術(shù)的快速發(fā)展,金融機(jī)構(gòu)越來越依賴于數(shù)據(jù)驅(qū)動(dòng)的決策模型。這些模型廣泛應(yīng)用于風(fēng)險(xiǎn)管理、信用評(píng)估、市場(chǎng)預(yù)測(cè)、欺詐檢測(cè)等關(guān)鍵業(yè)務(wù)領(lǐng)域。然而,隨著金融數(shù)據(jù)的規(guī)模和復(fù)雜性的不斷增加,如何有效地訓(xùn)練和優(yōu)化這些模型,特別是在保證模型準(zhǔn)確性的同時(shí),降低計(jì)算資源的消耗,已成為一項(xiàng)亟待解決的技術(shù)難題。

2、傳統(tǒng)的金融模型通常依賴于大量的歷史數(shù)據(jù)進(jìn)行訓(xùn)練,這些模型的復(fù)雜度和參數(shù)數(shù)量往往非常龐大。這不僅增加了訓(xùn)練和部署的成本,還對(duì)計(jì)算資源提出了更高的要求。此外,由于金融數(shù)據(jù)的多樣性和動(dòng)態(tài)性,模型的泛化能力和實(shí)時(shí)更新的需求也越來越高。

3、為了解決這些問題,近年來,基于低秩分解的模型壓縮和優(yōu)化技術(shù)逐漸受到關(guān)注。低秩分解技術(shù)可以在不顯著降低模型性能的前提下,減少模型的參數(shù)數(shù)量,從而降低計(jì)算復(fù)雜度,適用于在資源有限的環(huán)境中部署金融模型。此外,低秩分解還可以與其他優(yōu)化技術(shù)(如增量式更新、學(xué)習(xí)率衰減)結(jié)合使用,以進(jìn)一步提升模型的實(shí)時(shí)性和精度。

4、在金融領(lǐng)域,使用低秩分解技術(shù)進(jìn)行模型優(yōu)化的典型應(yīng)用包括:

5、信用評(píng)分模型優(yōu)化:通過對(duì)信用評(píng)分模型進(jìn)行低秩分解,可以有效減少模型的計(jì)算負(fù)擔(dān),提高模型的實(shí)時(shí)評(píng)分能力,特別是在處理海量用戶數(shù)據(jù)時(shí)尤為重要。

6、欺詐檢測(cè):通過將低秩分解應(yīng)用于欺詐檢測(cè)模型,可以在保證高準(zhǔn)確率的同時(shí),減少模型在實(shí)際運(yùn)行中的資源消耗,使其能夠在高并發(fā)交易環(huán)境下有效工作。。


技術(shù)實(shí)現(xiàn)思路

1、本發(fā)明的主要目的在于提供一種基于低秩分解的參數(shù)更新方法、裝置、設(shè)備及存儲(chǔ)介質(zhì),旨在解決現(xiàn)有技術(shù)在處理大規(guī)模金融數(shù)據(jù)時(shí)面臨計(jì)算資源高消耗以及模型性能與復(fù)雜度難以平衡的技術(shù)問題。

2、為實(shí)現(xiàn)上述目的,本發(fā)明提供一種基于低秩分解的參數(shù)更新方法,所述基于低秩分解的參數(shù)更新方法包括以下步驟:

3、確定預(yù)訓(xùn)練模型,獲取源數(shù)據(jù)集,利用所述源數(shù)據(jù)集訓(xùn)練所述預(yù)訓(xùn)練模型,得到源模型;

4、固定所述源模型的所有層的參數(shù),向所述源模型中插入預(yù)設(shè)數(shù)量的數(shù)據(jù)處理層;

5、獲取訓(xùn)練數(shù)據(jù)集,利用所述訓(xùn)練數(shù)據(jù)集訓(xùn)練插入的所述數(shù)據(jù)處理層,利用增量式方式更新所述數(shù)據(jù)處理層的參數(shù),獲得目標(biāo)模型。

6、在一個(gè)實(shí)施例中,所述利用增量式方式更新所述數(shù)據(jù)處理層的參數(shù),包括:

7、將所述數(shù)據(jù)處理層的權(quán)重矩陣分解為兩個(gè)秩低于原始權(quán)重矩陣秩的矩陣,分別表示為第一矩陣和第二矩陣;

8、所述第一矩陣的維度與所述源模型的預(yù)訓(xùn)練權(quán)重矩陣的行數(shù)相同,所述第二矩陣的維度與所述源模型的預(yù)訓(xùn)練權(quán)重矩陣的列數(shù)相同;

9、保持源模型的預(yù)訓(xùn)練權(quán)重矩陣不變,更新新增數(shù)據(jù)處理層的第一矩陣和第二矩陣的參數(shù);

10、更新后的數(shù)據(jù)處理層的權(quán)重矩陣由第一矩陣和第二矩陣的乘積與源模型的預(yù)訓(xùn)練權(quán)重矩陣的和組成,形成目標(biāo)模型的最終權(quán)重矩陣。

11、在一個(gè)實(shí)施例中,所述獲取訓(xùn)練數(shù)據(jù)集,包括:

12、選取候選訓(xùn)練數(shù)據(jù)集,利用詞嵌入技術(shù)將所述候選訓(xùn)練數(shù)據(jù)集和所述源數(shù)據(jù)集中標(biāo)簽轉(zhuǎn)換為向量表示,分別表示為候選標(biāo)簽向量表示和源標(biāo)簽向量表示;

13、利用余弦相似性計(jì)算所述候選標(biāo)簽向量表示和源標(biāo)簽向量表示之間的標(biāo)簽相似度;

14、若所述標(biāo)簽相似度高于相似度閾值,則將所述候選訓(xùn)練數(shù)據(jù)集作為訓(xùn)練所述數(shù)據(jù)處理層的訓(xùn)練數(shù)據(jù)集。

15、在一個(gè)實(shí)施例中,所述利用增量式方式更新所述數(shù)據(jù)處理層的參數(shù),包括:

16、設(shè)置初始學(xué)習(xí)率以及學(xué)習(xí)率衰減策略,將訓(xùn)練數(shù)據(jù)集分成多個(gè)小批量數(shù)據(jù),每個(gè)小批量數(shù)據(jù)中包含固定預(yù)設(shè)數(shù)量的樣本;

17、每次從訓(xùn)練數(shù)據(jù)集中提取一個(gè)小批量數(shù)據(jù),進(jìn)行前向傳播以計(jì)算模型的預(yù)測(cè)結(jié)果;

18、根據(jù)預(yù)測(cè)結(jié)果和實(shí)際標(biāo)簽計(jì)算損失函數(shù),通過后向傳播計(jì)算損失函數(shù)相對(duì)于數(shù)據(jù)處理層的參數(shù)的梯度,利用當(dāng)前的學(xué)習(xí)率更新參數(shù);

19、在每次使用小批量數(shù)據(jù)更新數(shù)據(jù)處理層的參數(shù)后,根據(jù)當(dāng)前的學(xué)習(xí)率衰減策略調(diào)整學(xué)習(xí)率,直到所有的小批量數(shù)據(jù)處理完畢。

20、在一個(gè)實(shí)施例中,所述獲得目標(biāo)模型之后,還包括:

21、獲取驗(yàn)證數(shù)據(jù)集,根據(jù)所述目標(biāo)模型的任務(wù)需求確定評(píng)估指標(biāo);

22、通過所述驗(yàn)證數(shù)據(jù)集計(jì)算所述目標(biāo)模型的預(yù)測(cè)結(jié)果,并根據(jù)選定的評(píng)估指標(biāo)進(jìn)行量化評(píng)估,生成綜合評(píng)估結(jié)果;

23、分析所述綜合評(píng)估結(jié)果,調(diào)整所述目標(biāo)模型的參數(shù)。

24、在一個(gè)實(shí)施例中,向所述源模型中插入預(yù)設(shè)數(shù)量的數(shù)據(jù)處理層,包括:

25、基于目標(biāo)任務(wù)的需求確定插入層的類型,根據(jù)插入層的類型設(shè)計(jì)插入層的預(yù)設(shè)數(shù)量和深度;

26、分析所述源模型的層結(jié)構(gòu),確定插入層在所述源模型中插入的位置;

27、根據(jù)所述插入層的類型、插入層的預(yù)設(shè)數(shù)量和深度以及插入的位置向所述源模型中插入數(shù)據(jù)處理層;

28、根據(jù)所述插入層的類型確定初始化策略,通過所述初始化策略對(duì)插入的數(shù)據(jù)處理層的所有權(quán)重和偏置進(jìn)行初始化。

29、在一個(gè)實(shí)施例中,確定預(yù)訓(xùn)練模型,獲取源數(shù)據(jù)集,利用所述源數(shù)據(jù)集訓(xùn)練所述預(yù)訓(xùn)練模型,得到源模型,包括:

30、基于目標(biāo)任務(wù)的需求確定預(yù)訓(xùn)練模型,選擇與目標(biāo)任務(wù)的特征匹配的源數(shù)據(jù)集;

31、根據(jù)目標(biāo)任務(wù)的復(fù)雜度與源數(shù)據(jù)集的規(guī)模設(shè)置模型訓(xùn)練的參數(shù),包括學(xué)習(xí)率與訓(xùn)練輪數(shù);

32、對(duì)所述源數(shù)據(jù)集進(jìn)行數(shù)據(jù)增強(qiáng)處理,同時(shí)進(jìn)行標(biāo)準(zhǔn)化或歸一化處理;

33、基于處理后的源數(shù)據(jù)集以及模型訓(xùn)練的參數(shù)訓(xùn)練所述預(yù)訓(xùn)練模型,得到所述源模型。

34、在一個(gè)實(shí)施例中,為實(shí)現(xiàn)上述目的,本發(fā)明還提供一種基于低秩分解的參數(shù)更新裝置,所述基于低秩分解的參數(shù)更新裝置包括:

35、模型預(yù)訓(xùn)練模塊,確定預(yù)訓(xùn)練模型,獲取源數(shù)據(jù)集,利用所述源數(shù)據(jù)集訓(xùn)練所述預(yù)訓(xùn)練模型,得到源模型;

36、參數(shù)固定模塊,固定所述源模型的所有層的參數(shù),向所述源模型中插入預(yù)設(shè)數(shù)量的數(shù)據(jù)處理層;

37、參數(shù)更新模塊,獲取訓(xùn)練數(shù)據(jù)集,利用所述訓(xùn)練數(shù)據(jù)集訓(xùn)練插入的所述數(shù)據(jù)處理層,利用增量式方式更新所述數(shù)據(jù)處理層的參數(shù),獲得目標(biāo)模型。

38、在一個(gè)實(shí)施例中,為實(shí)現(xiàn)上述目的,本發(fā)明還提供一種基于低秩分解的參數(shù)更新設(shè)備,所述基于低秩分解的參數(shù)更新設(shè)備包括存儲(chǔ)器、處理器以及存儲(chǔ)在所述存儲(chǔ)器上并可在所述處理器上運(yùn)行的基于低秩分解的參數(shù)更新程序,所述基于低秩分解的參數(shù)更新程序被所述處理器執(zhí)行時(shí)實(shí)現(xiàn)如上述所述的基于低秩分解的參數(shù)更新方法的步驟。

39、在一個(gè)實(shí)施例中,為實(shí)現(xiàn)上述目的,本發(fā)明還提供一種存儲(chǔ)介質(zhì),所述存儲(chǔ)介質(zhì)上存儲(chǔ)有基于低秩分解的參數(shù)更新程序,所述基于低秩分解的參數(shù)更新程序被處理器執(zhí)行時(shí)實(shí)現(xiàn)如上所述的基于低秩分解的參數(shù)更新方法的步驟。

40、有益效果:本發(fā)明涉及一種基于低秩分解的參數(shù)更新方法,旨在解決現(xiàn)有技術(shù)在處理大規(guī)模金融數(shù)據(jù)時(shí)面臨計(jì)算資源高消耗以及模型性能與復(fù)雜度難以平衡的問題。本發(fā)明通過確定預(yù)訓(xùn)練模型并獲取源數(shù)據(jù)集,利用源數(shù)據(jù)集訓(xùn)練預(yù)訓(xùn)練模型得到源模型;固定源模型的所有層的參數(shù),并在源模型中插入預(yù)設(shè)數(shù)量的數(shù)據(jù)處理層;獲取訓(xùn)練數(shù)據(jù)集并利用訓(xùn)練數(shù)據(jù)集訓(xùn)練插入的數(shù)據(jù)處理層,通過增量式方式更新數(shù)據(jù)處理層的參數(shù),最終獲得目標(biāo)模型。本發(fā)明適用于處理大規(guī)模數(shù)據(jù)集的場(chǎng)景,有助于解決模型訓(xùn)練過程中計(jì)算資源消耗過大、訓(xùn)練時(shí)間過長(zhǎng)的問題,顯著提高模型的實(shí)用性和響應(yīng)速度,同時(shí)提高了模型在特定任務(wù)上的性能和適應(yīng)性。

當(dāng)前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
大安市| 柳林县| 青河县| 哈密市| 公安县| 隆化县| 新建县| 基隆市| 巴林左旗| 富裕县| 鲁甸县| 长泰县| 五大连池市| 唐河县| 内黄县| 石狮市| 汝城县| 安顺市| 桑植县| 连江县| 金阳县| 炎陵县| 邵武市| 东莞市| 光泽县| 克什克腾旗| 庄浪县| 竹溪县| 界首市| 泸溪县| 突泉县| 安顺市| 英吉沙县| 广州市| 景东| 义马市| 玛纳斯县| 比如县| 五寨县| 方城县| 驻马店市|