Training of machine learning models often require sampling when the dataset is large. The manner in which one samples data points, for the mini-batches as well as for the loss function, has been shown to have an impact on the performance of the model as well as on its convergence during training. We set out to measure the impact of sampling strategies on an audio similarity model developed by Epidemic Sound. To this purpose, we evaluate using distance weighted sampling for the triplet loss and Poisson Disk Sampling for the mini-batch sampling. While we did not find that the alternative strategy for gathering mini-batches improved the model, the alternative triplet mining strategy showed promising results and opened up for further exploration into this area.
Träning av maskininlärningsmodeller kräver ofta att urval sker när datamängden är stor. Hur detta urval sker, för antingen mini-batches eller kostnadsfunktionen, har visats ha en inverkan på modellens slutgiltiga prestation samt på konvergenstid. Vi har valt att utvärdera urvalsstrategins inverkan på en ljudlikhetsmodell utvecklad av Epidemic Sound. I detta syfte har vi valt att utvärdera distance weighted sampling för trillingkostnadsfunktionen och Poissondiskurval som urvalsprocess för mini-batches. Vi fann ej att en alternativ urvalsprocess för mini-batches gav bättre resultat men däremot att den alternativa trillingsurvalsprocessen gav lovande resultat som öppnar upp för vidare forskning.