Κακόβουλη μηχανική μάθηση
Adversarial machine learning
dc.contributor.advisor | Ριζομυλιώτης, Παναγιώτης | el_GR |
dc.contributor.author | Κουδέρη, Χριστίνα | el_GR |
dc.coverage.spatial | Σάμος | el_GR |
dc.date.accessioned | 2021-02-10T13:22:03Z | |
dc.date.available | 2021-02-10T13:22:03Z | |
dc.date.issued | 2020-10 | |
dc.identifier.uri | http://hdl.handle.net/11610/21464 | |
dc.description.abstract | Τα συστήματα μηχανικής μάθησης καθώς προσφέρουν μια ιδιαίτερη ευελιξία, χρησιμοποιούνται σε πλήθος εφαρμογών τα τελευταία χρόνια. Και ενώ πολύ συχνά διάφορα μοντέλα μηχανικής μάθησης χρησιμοποιούνται για την αντιμετώπιση επιθέσεων, όπως παραδείγματος χάριν σε συστήματα ανίχνευσης εισβολών, ταυτόχρονα οι ίδιοι αλγόριθμοι μηχανικής μάθησης σε διάφορες μορφές τους μπορούν να αποτελέσουν οι ίδιοι στόχο επίθεσης από κάποιον κακόβουλο χρήστη. Τα προβλήματα που δημιουργούν αυτές οι επιθέσεις στην λειτουργία των συστημάτων μηχανικής μάθησης είναι ποικίλα. Μπορούν να προκαλέσουν απώλεια λειτουργικότητας ή λανθάνουσα λειτουργικότητα στις διάφορες εφαρμογές που στηρίζονται σε μοντέλα μηχανικής μάθησης με αποτέλεσμα ιδιαιτέρως σημαντικά κόστη τόσο στις επιχειρήσεις που τις παρέχουν όσο και στους χρήστες που τις χρησιμοποιούν. Επίσης ένα σημαντικό ζήτημα που προκύπτει από τέτοιου είδους επιθέσεις είναι αυτό της ιδιωτικότητας, καθώς η μηχανική μάθηση στηρίζεται σε πλήθος δεδομένων και στις περισσότερες των περιπτώσεων αυτά τα δεδομένα είναι προσωπικά δεδομένα χρηστών. Στην παρούσα διπλωματική εργασία θα γίνει μελέτη και αναφορά στις διάφορες επιθέσεις απέναντι στην μηχανική μάθηση σήμερα αλλά και στις τεχνικές άμυνας απέναντι σε αυτές, με ιδιαίτερη έμφαση στις επιθέσεις διαφυγής και τις επιθέσεις δηλητηρίασης δεδομένων, ενώ ταυτόχρονα δίνονται και παραδείγματα από διάφορες επιθέσεις στον πραγματικό κόσμο. Επίσης, αναφορά θα γίνει και στο ιδιαιτέρως σημαντικό ζήτημα της ιδιωτικότητας που προκύπτει και σε διάφορες τεχνικές για την αποφυγή τέτοιων περιπτώσεων απώλειας ή αποκάλυψης προσωπικών δεδομένων. | el_GR |
dc.format.extent | 56 σ. | el_GR |
dc.language.iso | el_GR | el_GR |
dc.rights | Default License | |
dc.subject | κακόβουλη μηχανική μάθηση | el_GR |
dc.subject | επιθέσεις διαφυγής | el_GR |
dc.subject | επιθέσεις δηλητηρίασης δεδομένων | el_GR |
dc.subject | ιδιωτικότητα στη μηχανική μάθηση | el_GR |
dc.subject | adversarial machine learning | en_US |
dc.subject | evasion attacks | en_US |
dc.subject | data poisoning attacks | en_US |
dc.subject | privacy in machine learning | en_US |
dc.subject.lcsh | Machine learning | en_US |
dc.subject.lcsh | Computer security | en_US |
dc.title | Κακόβουλη μηχανική μάθηση | el_GR |
dc.title | Adversarial machine learning | en_US |
dcterms.accessRights | free | el_GR |
dcterms.rights | Πλήρες Κείμενο - Ελεύθερη Δημοσίευση | el_GR |
heal.type | masterThesis | el_GR |
heal.recordProvider | aegean | el_GR |
heal.academicPublisher | Πανεπιστήμιο Αιγαίου - Πολυτεχνική Σχολή - Τμήμα Μηχανικών Πληροφοριακών και Επικοινωνιακών Συστημάτων | el_GR |
heal.academicPublisherID | aegean | el_GR |
heal.fullTextAvailability | true | el_GR |
dc.contributor.department | Ασφάλεια Πληροφοριακών και Επικοινωνιακών Συστημάτων | el_GR |