“FL 流程始于與所有設(shè)備共享的全局模型。每臺(tái)設(shè)備在本地訓(xùn)練模型,并將更新發(fā)送到中央服務(wù)器,在那里匯總以改進(jìn)模型,”學(xué)者們說(shuō)。“然后將這個(gè)更新的模型分發(fā)回設(shè)備進(jìn)行進(jìn)一步訓(xùn)練。FL 循環(huán)迭代多次,直到全局模型達(dá)到所需的最佳精度。”
該團(tuán)隊(duì)的模型在每臺(tái)機(jī)器上本地運(yùn)行,包括一個(gè)長(zhǎng)短期記憶 (LSTM) 架構(gòu)、一個(gè) dropout 單元和兩個(gè)完全連接的密集層。LSTM 處理順序數(shù)據(jù),而 dropout 單元減少過(guò)度擬合,密集層有助于做出最終預(yù)測(cè)。
該模型還使用超參數(shù)來(lái)調(diào)整本地 LSTM 模型并在中央服務(wù)器上對(duì)類似客戶端進(jìn)行聚類。這些超參數(shù)在訓(xùn)練開(kāi)始前設(shè)置,控制著機(jī)器學(xué)習(xí)模型的訓(xùn)練過(guò)程。