- MSc thesis
- Μεταπτυχιακή Εξειδίκευση στα Πληροφοριακά Συστήματα (ΠΛΣ)
- 30 Σεπτεμβρίου 2023
- Ελληνικά
- 115
- ΜΑΡΚΕΤΟΣ, ΓΕΡΑΣΙΜΟΣ
- Μαρκέτος Γεράσιμος, Νάνος Ιωάννης | ΓΚΑΡΑΝΗ, ΓΕΩΡΓΙΑ
- μηχανική μάθηση | επιθέσεις στη μηχανική μάθηση | μοντέλα μηχανικής μάθησης | άμυνα στη μηχανική μάθηση
- Μεταπτυχιακή Εξειδίκευση στα Πληροφοριακά Συστήματα (ΠΛΣ)
- 2
- 3
- 86
-
-
Η μηχανική μάθηση εμφανίζει διαρκή πρόοδο με την ανάπτυξη νέων αλγορίθμων, τεχνικών και εργαλείων. Στη σύγχρονη εποχή αποτελεί θεμελιώδες τμήμα πολλών τεχνολογικών καινοτομιών, καθώς επιτρέπει στους υπολογιστές να εκτελούν πολύπλοκες εργασίες και να πραγματοποιούν ακριβείς προβλέψεις μέσω μεγάλου όγκου συνόλων δεδομένων. Η μηχανική μάθηση έχει εφαρμογή σε διάφορους τομείς όπως η αναγνώριση εικόνας και ομιλίας, η επεξεργασία φυσικής γλώσσας, η υγειονομική περίθαλψη, η αυτόνομη οδήγηση, χρηματοοικονομικές υπηρεσίες. Η προστασία της μηχανικής μάθησης κρίνεται αναγκαία για τη διατήρηση του απορρήτου των δεδομένων, τη διασφάλιση της πνευματικής ιδιοκτησίας, τη διασφάλιση της ακεραιότητας του μοντέλου, τη διατήρηση της εμπιστοσύνης και την υποστήριξη της επιχειρηματικής συνέχειας. Επιπλέον, η προστασία της μηχανικής μάθησης συνδράμει στο μετριασμό των κινδύνων και διασφαλίζει την αξιοπιστία, την ασφάλεια και την ηθική χρήση της τεχνολογίας της μηχανικής μάθησης.
Η προστασία των μοντέλων μηχανικής μάθησης περιλαμβάνει την εφαρμογή διάφορων μέτρων ασφαλείας ώστε να επιτευχθεί η διασφάλιση της ακεραιότητας, της εμπιστευτικότητας και της διαθεσιμότητας των μοντέλων και των δεδομένων που επεξεργάζονται. Οι βασικές πρακτικές περιλαμβάνουν την ασφάλεια των δεδομένων που χρησιμοποιούνται για εκπαίδευση, την προστασία του μοντέλου από μη εξουσιοδοτημένη πρόσβαση ή παραβίαση, τη διασφάλιση της ασφάλειας της υποδομής που υποστηρίζει τα μοντέλα, την πρόληψη επιθέσεων στα μοντέλα μηχανικής μάθησης.
Οι επιθέσεις που πραγματοποιούνται στα μοντέλα μηχανικής μάθησης διακρίνονται, ανάλογα με τον βαθμό γνώσης των παραμέτρων, της αρχιτεκτονικής ή των δεδομένων εκπαίδευσης, σε white box – στην περίπτωση της πλήρης πρόσβασης – και σε black box -περιορισμένη πρόσβαση. Στην παρούσα διπλωματική εργασία καταγράφονται οι βασικοί τύποι επιθέσεων στα μοντέλα μηχανικής μάθησης και στη συνέχεια πραγματοποιείται μια προσομοίωση δύο βασικών black box επιθέσεων. Συγκεκριμένα, αρχικά εφαρμόζεται μία score based attack, η Zeroth Order Optimization (ZOO) και στη συνέχεια δύο εκδοχές της decision based attack, η Boundary Attack, η πρώτη στοχευμένη και η δεύτερη μη στοχευμένη επίθεση.
-
Machine learning shows continuous progress with the development of new algorithms, techniques and tools. In nowadays constitutes a fundamental part of many technological innovations, as it allows computers to perform complex tasks and make accurate predictions through large volumes of data sets. Machine learning implements various fields such as image and speech recognition, natural language processing, healthcare, autonomous driving, financial services. Protecting machine learning is deemed necessary to maintain data privacy, safeguard intellectual property, ensure model integrity, maintain trust, and support business continuity. In addition, machine learning protection helps mitigate risks and ensures the reliability, safety, and ethical use of machine learning technology.
Protecting machine learning models involves implementing various security measures to ensure the integrity, confidentiality and availability of the models and the processing data. Main practices include securing the training data, protecting the model from unauthorized access, or tampering, ensuring the security of the models supporting infrastructure, preventing attacks on machine learning models.
Attacks carried out on machine learning models are distinguish, depending on the knowledge level of the parameters, architecture, or training data, in white box - in the case of full access - and in black box - limited access. In this thesis are listed the main types of attacks on machine learning models and then is carried out a simulation of two basic black box attacks. Specifically, a score-based attack, the Zeroth Order Optimization (ZOO), is initially applied and then two versions of the decision-based attack, the Boundary Attack, the first targeted and the second untargeted attack.
-
- Hellenic Open University
- Attribution-NonCommercial-NoDerivatives 4.0 Διεθνές