两个人的电影免费视频_国产精品久久久久久久久成人_97视频在线观看播放_久久这里只有精品777_亚洲熟女少妇二三区_4438x8成人网亚洲av_内谢国产内射夫妻免费视频_人妻精品久久久久中国字幕

計(jì)算高效的機(jī)器學(xué)習(xí)的制作方法

文檔序號(hào):40611720發(fā)布日期:2025-01-07 20:55閱讀:10來(lái)源:國(guó)知局
計(jì)算高效的機(jī)器學(xué)習(xí)的制作方法

本公開(kāi)總體上涉及機(jī)器學(xué)習(xí)。更具體地,本公開(kāi)涉及計(jì)算高效的聯(lián)邦機(jī)器學(xué)習(xí)。


背景技術(shù):

1、聯(lián)邦學(xué)習(xí)依賴于將模型參數(shù)從客戶端計(jì)算設(shè)備傳輸?shù)椒?wù)器計(jì)算設(shè)備,以及從服務(wù)器計(jì)算設(shè)備傳輸?shù)娇蛻舳擞?jì)算設(shè)備。聯(lián)邦學(xué)習(xí)(也稱為協(xié)作學(xué)習(xí))是一種由多個(gè)參與者在不共享原始數(shù)據(jù)的情況下協(xié)作訓(xùn)練機(jī)器學(xué)習(xí)模型的機(jī)器學(xué)習(xí)技術(shù)。然而,目前的研究表明,基于梯度模型更新的傳統(tǒng)聯(lián)邦學(xué)習(xí)方案不能節(jié)省通信成本,并且在非同分布獨(dú)立(notidentically?distributed?and?independent,non-iid)數(shù)據(jù)結(jié)構(gòu)上顯示出較低的精度性能。通信成本和非iid是傳統(tǒng)聯(lián)邦學(xué)習(xí)方案中的兩個(gè)障礙。如何使用非iid數(shù)據(jù)構(gòu)建計(jì)算高效的機(jī)器學(xué)習(xí)是一個(gè)關(guān)鍵挑戰(zhàn)。

2、圖1中示出了本地學(xué)習(xí)的概念。在這種學(xué)習(xí)方案中,存在多個(gè)本地機(jī)器學(xué)習(xí)模型10,該多個(gè)本地機(jī)器學(xué)習(xí)模型10由多個(gè)本地計(jì)算設(shè)備12使用來(lái)自本地?cái)?shù)據(jù)集的樣本來(lái)單獨(dú)訓(xùn)練。多個(gè)本地?cái)?shù)據(jù)集通常分布在不同的地理區(qū)域。然而,這種學(xué)習(xí)方案不具有普遍性,本地模型10反映了本地?cái)?shù)據(jù)的特征和偏差,而當(dāng)它們?cè)谄渌乩韰^(qū)域使用時(shí),它們通常提供有偏差或不準(zhǔn)確的預(yù)測(cè)。這種學(xué)習(xí)方案的性能、模型精度和復(fù)雜性嚴(yán)重依賴于各個(gè)本地計(jì)算設(shè)備12的屬性。

3、圖2中示出了中央學(xué)習(xí)的概念。與本地學(xué)習(xí)相比,中央學(xué)習(xí)對(duì)源自不同來(lái)源的數(shù)據(jù)和參數(shù)進(jìn)行集中化,以解決本地學(xué)習(xí)的本地?cái)?shù)據(jù)量不足的問(wèn)題。在這種學(xué)習(xí)方案中,存在單個(gè)(全局)機(jī)器學(xué)習(xí)模型20,該單個(gè)(全局)機(jī)器學(xué)習(xí)模型20隨后通過(guò)使用來(lái)自多個(gè)本地?cái)?shù)據(jù)集的聚合樣本來(lái)進(jìn)行訓(xùn)練。由本地計(jì)算設(shè)備22通過(guò)通信信道向負(fù)責(zé)訓(xùn)練全局模型20的服務(wù)器(未示出)發(fā)送樣本。本地計(jì)算設(shè)備22對(duì)全局模型20的訪問(wèn)由還充當(dāng)仲裁設(shè)備的服務(wù)器來(lái)管理。然而,仲裁設(shè)備本身不對(duì)全局模型20進(jìn)行任何改變。中央學(xué)習(xí)的典型應(yīng)用例如是全球部署的應(yīng)用形式的擴(kuò)展,如谷歌(google)的廣告推薦系統(tǒng)或奈飛(netflix)的視頻推薦系統(tǒng)。然而,隨著在集中式方案中移動(dòng)數(shù)據(jù)所需的數(shù)據(jù)流量的增加,這種類型的學(xué)習(xí)可能會(huì)引發(fā)各數(shù)據(jù)所有者之間對(duì)數(shù)據(jù)所有權(quán)、保密性、隱私和安全性的擔(dān)憂,以及產(chǎn)生有利于數(shù)據(jù)聚合者的數(shù)據(jù)壟斷的可能性。

4、為了提高集中式學(xué)習(xí)方案中的安全性并解決集中式學(xué)習(xí)方案中的數(shù)據(jù)保密性問(wèn)題,已經(jīng)提出了聯(lián)邦學(xué)習(xí)方案。圖3示出了聯(lián)邦學(xué)習(xí)的概念。在聯(lián)邦學(xué)習(xí)方案中,存在多個(gè)本地機(jī)器學(xué)習(xí)模型30,該多個(gè)本地機(jī)器學(xué)習(xí)模型30由幾個(gè)本地計(jì)算設(shè)備32使用來(lái)自本地?cái)?shù)據(jù)集的樣本來(lái)獨(dú)立訓(xùn)練。本地模型30被周期性地轉(zhuǎn)發(fā)給維護(hù)全局機(jī)器學(xué)習(xí)模型36的中央服務(wù)器計(jì)算設(shè)備34。服務(wù)器計(jì)算設(shè)備34管理本地計(jì)算設(shè)備32對(duì)全局模型30的訪問(wèn),并且一旦多個(gè)本地模型30中的任何一個(gè)或多個(gè)得到更新,就將多個(gè)本地模型30安全地聚合到全局模型36中。

5、在集中式聯(lián)邦學(xué)習(xí)協(xié)議中,服務(wù)器協(xié)調(diào)通信,但對(duì)等模型之間的學(xué)習(xí)不是增量式的,而基于增量式學(xué)習(xí)的私有算法是分散的(sheller?et?al."multi-institutional?deeplearning?modeling?without?sharing?patient?data:a?feasibility?study?on?braintumor?segmentation."international?miccai?brainlesion?workshop,pp.92-104.springer,cham,2018(sheller等人,“不共享患者數(shù)據(jù)的多機(jī)構(gòu)深度學(xué)習(xí)建模:關(guān)于腦腫瘤分割的可行性研究”。國(guó)際miccai腦損傷研討會(huì),第92至104頁(yè)。springer,cham,2018)。盡管分散式系統(tǒng)比集中式框架具有一些優(yōu)勢(shì),但它們通常更難實(shí)現(xiàn),并且更容易出現(xiàn)實(shí)現(xiàn)錯(cuò)誤。此外,在循環(huán)機(jī)構(gòu)增量學(xué)習(xí)(cyclic?institutional?incremental?learning,ciil)方案中(chang?et?al.,"distributed?deep?learning?networks?among?institutionsfor?medical?imaging",journal?of?the?american?medical?informatics?association,volume?25,issue?8,august?2018,pp.945–954(chang等人,“醫(yī)學(xué)成像機(jī)構(gòu)之間的分布式深度學(xué)習(xí)網(wǎng)絡(luò)”,美國(guó)醫(yī)學(xué)信息學(xué)協(xié)會(huì)雜志,第25卷,第8期,2018年8月,第945至954頁(yè)),沒(méi)有描述提供魯棒性(例如,錯(cuò)誤連接到客戶端)的機(jī)制。

6、在ciil方案中,各客戶端計(jì)算設(shè)備在更新隊(duì)列中的順序是固定的。如果客戶端計(jì)算設(shè)備的數(shù)據(jù)集是非同分布獨(dú)立(非iid)的,則災(zāi)難性遺忘(在新的數(shù)據(jù)集上更新模型之后,更新后的模型在先前所學(xué)習(xí)的數(shù)據(jù)上將不會(huì)太準(zhǔn)確,即“它忘記了它先前學(xué)習(xí)的東西”)可能甚至更高,因?yàn)橐匀珨?shù)據(jù)分布(all-data?distribution)的客戶端計(jì)算設(shè)備的數(shù)據(jù)集可能具有其中兩個(gè)數(shù)據(jù)集彼此相距不太遠(yuǎn)的子集。

7、連續(xù)的模型更新是增量式學(xué)習(xí)的固有特征,因此災(zāi)難性學(xué)習(xí)是這個(gè)領(lǐng)域的主要挑戰(zhàn)。最近,已經(jīng)提供了許多解決方案來(lái)解決這個(gè)問(wèn)題。這些解決方案中的一種解決方案是所謂的彈性權(quán)重固化(ewc)(kirkpatrick?et?al,"overcoming?catastrophic?forgettingin?neural?networks",proceedings?of?the?national?academy?of?sciences?114,no.13(2017):3521-3526.(kirkpatrick等人,“克服神經(jīng)網(wǎng)絡(luò)中的災(zāi)難性遺忘”,美國(guó)國(guó)家科學(xué)院院刊第114卷,第13期(2017):3521-3526),ewc基于先前模型中個(gè)體權(quán)重的分布來(lái)懲罰損失函數(shù)。根據(jù)本發(fā)明的方法被設(shè)計(jì)為從一開(kāi)始就使用該工具。

8、提出了一種基于聯(lián)邦學(xué)習(xí)的創(chuàng)新的鏈?zhǔn)桨踩喾接?jì)算技術(shù),命名為鏈?zhǔn)?隱私保護(hù)聯(lián)邦學(xué)習(xí)(preserving?federated?learning,ppel),并將該技術(shù)應(yīng)用于邊緣計(jì)算(li?etal,"privacy-preserving?federated?learning?framework?based?on?chained?securemulti-party?computing"(li等人,“基于鏈?zhǔn)桨踩喾接?jì)算的隱私保護(hù)聯(lián)邦學(xué)習(xí)框架”)。在這個(gè)框架中,服務(wù)器向所有客戶端發(fā)送全局模型參數(shù),然后這些客戶端以鏈?zhǔn)椒绞接?xùn)練全局模型,并且最后一個(gè)客戶端將全局模型發(fā)送回服務(wù)器。這種鏈?zhǔn)?ppel聚焦于防止敏感信息泄露的隱私保護(hù)聯(lián)邦學(xué)習(xí)。

9、因此,本發(fā)明的一個(gè)目的是至少部分地消除當(dāng)前使用的協(xié)作學(xué)習(xí)方案的缺點(diǎn),并提供一種改進(jìn)的聯(lián)邦機(jī)器學(xué)習(xí)的方法,該方法提供了顯著降低了計(jì)算成本的計(jì)算效率,提高了聯(lián)邦學(xué)習(xí)在非iid數(shù)據(jù)結(jié)構(gòu)(包括極端的非iid場(chǎng)景)下的精度,將基于服務(wù)器的聯(lián)邦學(xué)習(xí)架構(gòu)的魯棒性與循環(huán)方案的低計(jì)算和通信成本相結(jié)合。

10、通過(guò)提供一種用于高效機(jī)器學(xué)習(xí)的計(jì)算機(jī)實(shí)現(xiàn)的方法來(lái)實(shí)現(xiàn)上述目的,該方法由服務(wù)器計(jì)算設(shè)備和連接到所述服務(wù)器計(jì)算設(shè)備的多個(gè)客戶端計(jì)算設(shè)備來(lái)執(zhí)行,其中該多個(gè)客戶端計(jì)算設(shè)備中的每個(gè)客戶端計(jì)算設(shè)備本地存儲(chǔ)有本地?cái)?shù)據(jù)集,該方法包括:

11、a)由服務(wù)器計(jì)算設(shè)備生成一組初始模型參數(shù);

12、b)由服務(wù)器計(jì)算設(shè)備生成一組分區(qū)參數(shù),該組分區(qū)參數(shù)至少包括參數(shù):分區(qū)的數(shù)量和分區(qū)中的數(shù)據(jù)點(diǎn)的最小數(shù)量;

13、c)由服務(wù)器計(jì)算設(shè)備向每個(gè)客戶端計(jì)算設(shè)備傳送該組初始模型參數(shù)和該組分區(qū)參數(shù);

14、d)由每個(gè)客戶端計(jì)算設(shè)備獲取來(lái)自服務(wù)器計(jì)算設(shè)備的與該組初始參數(shù)相對(duì)應(yīng)的全局值;

15、e)由服務(wù)器計(jì)算設(shè)備基于所有客戶端計(jì)算設(shè)備的全局序列選擇客戶端計(jì)算設(shè)備;

16、f)由服務(wù)器計(jì)算設(shè)備向所選擇的客戶端計(jì)算設(shè)備傳送基于機(jī)器學(xué)習(xí)的模型參數(shù);

17、g)由所選擇的客戶端計(jì)算設(shè)備獲取與這些基于機(jī)器學(xué)習(xí)的模型參數(shù)相對(duì)應(yīng)的全局值;

18、h)由所選擇的客戶端計(jì)算設(shè)備至少部分地基于本地?cái)?shù)據(jù)集的一分區(qū)對(duì)該機(jī)器學(xué)習(xí)模型進(jìn)行增量訓(xùn)練,以獲得更新后的基于機(jī)器學(xué)習(xí)的模型參數(shù),該分區(qū)是根據(jù)預(yù)定義方案從該本地?cái)?shù)據(jù)集中選擇的;

19、i)由所選擇的客戶端計(jì)算設(shè)備向服務(wù)器計(jì)算設(shè)備傳送更新后的基于機(jī)器學(xué)習(xí)的模型參數(shù);

20、j)重復(fù)步驟d)至i),直到滿足所有預(yù)定義條件。

21、該方法的各種優(yōu)選實(shí)施例由從屬權(quán)利要求限定。

22、還通過(guò)提供被配置為執(zhí)行該方法的各個(gè)步驟的服務(wù)器計(jì)算設(shè)備和客戶端計(jì)算設(shè)備來(lái)實(shí)現(xiàn)上述目的。


技術(shù)實(shí)現(xiàn)思路

當(dāng)前第1頁(yè)1 2 
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
垫江县| 清水县| 宝山区| 清远市| 安国市| 平舆县| 新闻| 华亭县| 宁德市| 丰宁| 陆良县| 罗定市| 滁州市| 灵山县| 通道| 壶关县| 安福县| 开江县| 枣庄市| 桑植县| 仁怀市| 平昌县| 偃师市| 前郭尔| 尚义县| 静乐县| 屯留县| 南溪县| 金沙县| 荔波县| 分宜县| 肇庆市| 石棉县| 富锦市| 遂昌县| 祁门县| 乌鲁木齐县| 五指山市| 西和县| 兴海县| 南郑县|