Optimisation Algorithms for Federated Learning
2025 (English)Independent thesis Basic level (degree of Bachelor), 10 credits / 15 HE credits
Student thesis
Abstract [en]
A more recent development within machine learning is a technique called federated learning. Instead of training a model on a central server, a model is instead collaboratively trained on several devices. The data on each device is not shared with the server but instead kept locally on the devices, which increases data privacy and security for the users. Federated learning was introduced with the optimisation algorithm Federated Averaging (FedAvg), that uses a local stochastic gradient descent before communicating the updated weights to the server. However, FedAvg struggles in setups where the data distribution is unbalanced, and therefore other optimisation algorithms have been developed to address these issues. In this project, we aim to test different optimisation algorithms and study their accuracy and loss on different datasets. Specifically, the focus has been on heterogeneous data and fairness of the model performance. The optimisers were analysed and compared on different levels of data heterogeneity. Our analysis identifies the optimisation algorithm best suited for certain setups and concludes the overall best performing algorithm to be FedAvg-M.
Abstract [sv]
En nyare utveckling inom maskininlärning är en teknik som kallas federated learning. Istället för att träna en modell på en central server, tränas modellen istället kollaborativt av flera enheter. Den data som finns på varje enhet delas inte med servern, utan stannar istället kvar på enheten, vilket ökar säkerheten och integriteten för användarna. Federated learning introducerades med optimeringsalgoritmen Federated Averaging (FedAvg) som använder en lokal stokastisk gradientnedstigning innan den kommunicerar de uppdaterade vikterna till servern. Dock har FedAvg svårigheter i situationer då datadistributionen är ojämn, och därför har andra optimeringsalgoritmer utvecklats för att tackla dessa problem. I detta projekt ämnar vi att testa olika optimeringsalgoritmer och studera deras noggrannhet och förlust på olika dataset. Speciellt har fokusen varit på heterogena data och hur rättvist modellerna presterar. Optimeringsalgoritmerna analyserades och jämfördes för olika nivåer av dataheterogenitet. Vår analys identifierar optimeringsalgoritmen som är best lämpad för olika situationer och drar slutsatsen att den algoritmen som generellt presterar bäst är FedAvg-M.
Place, publisher, year, edition, pages
2025. , p. 453-459
Series
TRITA-EECS-EX ; 2025:144
National Category
Electrical Engineering, Electronic Engineering, Information Engineering
Identifiers
URN: urn:nbn:se:kth:diva-376166OAI: oai:DiVA.org:kth-376166DiVA, id: diva2:2034529
Supervisors
Examiners
Projects
Kandidatexamensarbete i Elektroteknik 2025, EECS, KTH2026-02-022026-02-02