This bachelor thesis presents the implementation ofa simple fully connected neural network (FCNN) and federatedneural network with stochastic quantization from scratch andcompares their performance. Federated learning enables multipleparties to contribute to a machine learning model withoutsharing their sensitive data. The federated learning approach isbecoming increasingly popular due to its ability to train modelson decentralized data sources while maintaining privacy andsecurity. Both the FCNN and federated network are trainedand tested on the Modified National Institute of Standards andTechnology (MNIST) database, the first one achieving around90% accuracy after 50 epochs while the federated architectureonly able to reach around 45% accuracy. This remains the samewhen data is quantized.
Denna kandidatuppsats presenterar imple-menteringen av ett enkelt fullt anslutet neuralt nätverk (FCNN)och ett federerat neuralt nätverk med stokastisk kvantiser-ing från grunden, samt jämför deras prestanda. Federativtlärande möjliggör att flera parter kan bidra till en mask-ininlärningsmodell utan att dela med sig av känsliga data.Federativt lärande har blivit allt mer populärt på grund avdess förmåga att träna modeller på decentraliserade datakällorsamtidigt som integritet och säkerhet bevaras. Både FCNN ochdet federerade nätverket tränas och testas på Modified NationalInstitute of Standards and Technology (MNIST) databas, där detförsta uppnår 90% noggrannhet efter 50 epoker medan detfedererade nätverket endast når cirka 45% noggrannhet.Detta förblir densamma när data är kvantiserat.