Kristin Dahnken

Aus IT-Forensik Wiki
Version vom 21. November 2024, 20:43 Uhr von Etduen (Diskussion | Beiträge) (Die Seite wurde neu angelegt: „Master Thesis, Hochschule Wismar, Septmeber 2024 Autor: Kristin Dahnken Titel: '''Privacy-Preserving Machine Learning in the Cloud: An Evaluation of Garbled Circuits for Secure Multi-Party Computation''' Abstrakt Machine Learning hat sich zu einem wichtigen Werkzeug verschiedenster Forschungs- bereiche entwickelt, wie etwa der Medizin oder der Informationssicherheit. Dennoch bringt die Verwendung von Cloud-Diensten zum Machine Learning noch einige Pro…“)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)

Master Thesis, Hochschule Wismar, Septmeber 2024

Autor: Kristin Dahnken

Titel: Privacy-Preserving Machine Learning in the Cloud: An Evaluation of Garbled Circuits for Secure Multi-Party Computation

Abstrakt

Machine Learning hat sich zu einem wichtigen Werkzeug verschiedenster Forschungs- bereiche entwickelt, wie etwa der Medizin oder der Informationssicherheit. Dennoch bringt die Verwendung von Cloud-Diensten zum Machine Learning noch einige Prob- leme mit sich, beispielsweise bei der Verwendung von sensiblen Trainingsdaten, da die Kontrolle über den Schutz dieser oft in den Händen des Cloud-Anbieters liegt. Auch sollen nicht alle Parteien die an einem kollaborativen Training eines Modells beteiligt sind, die Daten der jeweils anderen Parteien einsehen können. Um diesem Problem zu begegnen und sensible Daten während des Trainingsprozesses zu schützen, stellt diese Masterarbeit einen Proof of Concept vor, der Garbled Cir- cuits in diesen Prozess integriert. Ziel ist es, sowohl die Machbarkeit als auch die Sicherheit dieser Integration anhand einer beispielhaften Implementierung eines ein- fachen linearen Regressionsmodells zu zeigen. Darüber hinaus werden auch Limi- tierungen, Vorteile und mögliche zukünftige Anwendungen dieser Implementierung diskutiert.

Abstract

Machine learning has become an important tool in research across various domains, from medicine to cybersecurity. However, the use of cloud services for machine learning poses challenges when dealing with sensitive data, as control over data privacy is in the hands of the cloud provider. Additionally, not all parties involved in developing or training a model should have access to the full training data. To address this problem and protect sensitive data during the training process of a machine learning model, this master’s thesis presents a proof of concept that incor- porates garbled circuits into the aforementioned process. The aim is to demonstrate that the usage of garbled circuits is both feasible and secure by detailing an ex- emplary implementation of a simple linear regression model. This work will also discuss limitations, advantages and possible future applications.

Download PDF-Dokument

Download Folien-PDF-Dokument