As machine learning models affect our lives more strongly every day, developingmethods to train these models becomes paramount. In our paper, we focus on the problem ofminimizing a sum of functions, which lies at the heart of most - if not all - of these trainingmethods. This problem was formulated in terms of a decentralized consensus optimization, with theterms of the sum belonging to different agents. We examined the efficency and privacy-preservingproperties of methods to solve this problem, as well as conducted numerical experiments on severalvariations of the I-ADMM algorithm. Our results show that utilizing encryption is inefficientcompared to PI-ADMM1, while PI-ADMM1 converges at the same speed as I-ADMM.
Medan maskininlärningsmodellers påver-kan på våra liv växer varje dag blirutvecklandet av tränings-metoder för dessa modeller av stor vikt. I vårat projekt fokuserar vi påproblemet att minimisera en summa av funktioner, vilket är en nyckeldel av mångaträningsmetoder. Detta problem var formulerat i termer av ett decentraliserat konsensusoptimeringsproblem där de olika termerna i summan är kända enbart av olika agenter. Viundersökte effektiviteten och integriteten av lösningsmetoder, samt utförde numeriska experimentpå flera variationer av I-ADMM algoritmen. Våra resultat visade att kryptering var ineffektivtjämfört med PI-ADMM1, medan PI-ADMM1 konvergerar med samma hastighet som I-ADMM.