Ερμηνεύσιμη Μηχανική Μάθηση

Interpretable Machine Learning (Αγγλική)

  1. Bachelor’s thesis
  2. Τεντσίδου, Ευμορφία
  3. Πληροφορική (ΠΛΗ)
  4. 17 Ιουλίου 2021 [2021-07-17]
  5. Ελληνικά
  6. 73
  7. Κωτσιαντής, Σωτήριος
  8. Μπεληγιάννης, Γρηγόριος | Σγάρμπας , Κυριάκος
  9. Μηχανική Μάθηση | Ερμηνεύσιμη Μηχανική Μάθηση | Ερμηνευσιμότητα | Μέθοδοι Ερμηνείας | Μέθοδοι Ερμηνείας
  10. 4
  11. 26
  12. Περιέχει : διαγράμματα, πίνακες
    • Η ερμηνεύσιμη μηχανική μάθηση είναι ένα υποπεδίο της μηχανικής μάθησης, που έχει αναπτυχθεί μέσα στα τελευταία χρόνια με σκοπό να ερμηνεύσει τον τρόπο λειτουργίας και λήψης αποφάσεων των μαύρων κουτιών τόσο σε καθολικό επίπεδο, όσο και για μεμονωμένα στιγμιότυπα σε τοπικό επίπεδο. Ως μαύρα κουτιά εννοούνται εκείνα τα μοντέλα μηχανικής μάθησης τα οποία λόγο της περιπλοκότητας του τρόπου λειτουργίας και λήψης αποφάσεων δεν είναι δυνατόν να κατανοηθεί από τους ανθρώπους, και παρόλο που υστερούν σε διαφάνεια οι αποδόσεις τους είναι σημαντικά υψηλότερες σε σχέση με τα διάφανα κουτιά. Στη παρούσα πτυχιακή έπειτα από την παρουσίαση των βασικών εννοιών της μηχανικής μάθησης, παρουσιάζεται η ερμηνεύσιμη μηχανική μάθηση όπου αναφέρονται η έννοια της ερμηνευσιμότητας, οι λόγοι που καθιστούν απαραίτητη για την ερμηνεία των μαύρων κουτιών και προσδιορίζονται τα ερμηνεύσιμα μοντέλα (ή αλλιώς διάφανα κουτιά). Ακολουθεί μια θεωρητική προσέγγιση διάφορων μεθόδων ερμηνείας των μαύρων κουτιών που έχουν παρουσιαστεί τα τελευταία χρόνια, οι οποίες διαχωρίζονται σε τρεις κύριες κατηγορίες οι οποίες είναι: οι μέθοδοι αγνωστικιστικών μοντέλων (model agnostic methods), οι εξηγήσεις μέσω παραδειγμάτων (example-based explanations) και η ερμηνεία νευρωνικού δικτύου (neural network interpretation). Τέλος, πραγματοποιήθηκε πειραματική εφαρμογή αλγορίθμων ερμηνεύσιμης μηχανικής μάθησης σε μοντέλα μαύρων και διάφανων κουτιών, σε σύνολα δεδομένων ταξινόμησης και παλινδρόμησης, με χρήση της βιβλιοθήκης InterpretML. Μαζί με την παρουσίαση των αποτελεσμάτων που παράχθηκαν γίνεται και σύγκριση ανάμεσα στα διάφανα και τα μαύρα κουτιά, ξεχωριστά για τις περιπτώσεις της ταξινόμησης και της παλινδρόμησης.
    • Interpretable machine learning is a subfield of machine learning that has been developed in recent years to interpret the way black boxes work and make decisions both globally and for individual instances locally. Black boxes are those machine learning models that, due to the complexity of how they work and make decisions, cannot be understood by humans, and although there are lack of transparency, their performance is significantly higher than that of white boxes. In the present thesis after the presentation of the basic concepts of machine learning, the interpretable machine learning is presented where the concept of interpretability is mentioned, the reasons that make it necessary for the interpretation of black boxes and the interpretable models (or otherwise white boxes) are identified. Following is a theoretical approach to various methods of interpreting black boxes that have been presented in recent years, which are divided into three main categories which are: model agnostic methods, example-based explanations and neural network interpretation. Finally, experimental application of interpretable machine learning algorithms was performed to black and white box models, to classification and regression data sets, using the InterpretML library. Along with the presentation of the results produced, a comparison is made between the white and the black boxes, separately for the cases of classification and regression.
  13. Hellenic Open University
  14. Αναφορά Δημιουργού 4.0 Διεθνές