dc.contributor.advisor | Καραγρηγορίου, Αλέξανδρος | el_GR |
dc.contributor.author | Πεφάνης, Παντελής | el_GR |
dc.coverage.spatial | Σάμος | el_GR |
dc.date.accessioned | 2023-03-22T12:50:56Z | |
dc.date.available | 2023-03-22T12:50:56Z | |
dc.date.issued | 2022-09-08 | |
dc.identifier.uri | http://hdl.handle.net/11610/24939 | |
dc.description.abstract | Τα τελευταία χρόνια, ειδικά καθώς αυξάνεται η χρήση των υπολογιστών, η Τεχνητή Νοημοσύνη (AI) έχει γίνει πιο δημοφιλής ενώ τα επόμενα χρόνια αναμένεται να παίξει πολύ σημαντικό ρόλο. Λόγω του αυξημένου όγκου δεδομένων, των προηγμένων αλγορίθμων και των βελτιώσεων στην ισχύ του υπολογιστή και στην αποθήκευση δεδομένων, η τεχνητή νοημοσύνη έχει αναπτυχθεί πολύ γρήγορα. Η τεχνητή νοημοσύνη επιτρέπει στις μηχανές να μαθαίνουν από την εμπειρία, να προσαρμόζονται σε νέα δεδομένα και να εκτελούν έργα όπως οι άνθρωποι. Χρησιμοποιώντας αυτές τις τεχνολογίες, οι υπολογιστές μπορούν να εκπαιδευτούν να εκτελούν συγκεκριμένες εργασίες επεξεργάζοντας μεγάλες ποσότητες δεδομένων. Η μηχανική μάθηση στοχεύει στη μελέτη αλλά και στην κατασκευή αλγορίθμων που θα μπορούν να κάνουν προβλέψεις με βάση τα δεδομένα που τους παρέχονται. Πολλοί συγχέουν τις έννοιες της μηχανικής μάθησης και της τεχνητής νοημοσύνης. Η μηχανική μάθηση είναι ένα πεδίο τεχνητής νοημοσύνης ή αλλιώς η τεχνητή νοημοσύνη είναι ένα πεδίο που περιέχει μηχανική μάθηση. Οι άνθρωποι σκέφτονται και ενεργούν σε μια προσπάθεια να επιτύχουν τους στόχους τους, ενώ τα αποτελέσματα τέτοιων ενεργειών δεν μπορούν να γίνουν κατανοητά από τους άλλους και πρέπει να εξηγηθούν. Η τεχνητή νοημοσύνη επιδιώκει να αναπαράγει τις γνωστικές ανθρώπινες λειτουργίες αλλά η παρανόηση των αποτελεσμάτων παραμένει. Οι αλγόριθμοι τεχνητής νοημοσύνης συχνά λειτουργούν ως «μαύρα κουτιά» στα οποία γίνεται εισαγωγή δεδομένων και παρέχουν ένα αποτέλεσμα χωρίς να είναι κατανοητή η εσωτερική τους λειτουργία. Κατά συνέπεια, οι άνθρωποι είναι δύσπιστοι για τα αποτελέσματα ενός μοντέλου που χρησιμοποιεί τεχνητή νοημοσύνη και δεν μπορούν εύκολα να το αποδεχθούν. Αυτό δημιούργησε την ανάγκη να μπορούμε να εξηγήσουμε τις αποφάσεις της τεχνητής νοημοσύνης (XAI). Δηλαδή, τα αποτελέσματα θα πρέπει να γίνονται εύκολα κατανοητά από περισσότερους ανθρώπους και όχι μόνο από λίγους ειδικούς. Για να γίνει αυτό δυνατό, έχουν αναπτυχθεί διάφορες μέθοδοι όπως οι μοντέλαγνωστικές (model agnostic) μέθοδοι που εξηγούν τα αποτελέσματα ενός μοντέλου τεχνητής νοημοσύνης.
Στο πρώτο κεφάλαιο της διατριβής θα περιγράψουμε την έννοια της τεχνητής νοημοσύνης και της μηχανικής μάθησης δίνοντας τους ορισμούς και τις εφαρμογές τους. Παρουσιάζουμε επίσης τους πιο ευρέως χρησιμοποιούμενους αλγόριθμους μηχανικής μάθησης. Στο δεύτερο κεφάλαιο παρουσιάζεται η έννοια της επεξηγήσιμης τεχνητής νοημοσύνης (ΧΑΙ), οι στόχοι της και η κατηγοριοποίηση των μεθόδων. Τέσσερις μοντελαγνωστικές μέθοδοι περιγράφονται λεπτομερώς παρουσιάζοντας αντίστοιχα παραδείγματα και συζητώντας τα πλεονεκτήματα και τα μειονεκτήματα κάθε μεθόδου. Στο τρίτο κεφάλαιο, προτείνουμε παραλλαγές των δύο από τις τέσσερις μεθόδους και τις εφαρμογές τους. Στο τέταρτο κεφάλαιο χρησιμοποιούμε τρία πραγματικά σύνολα δεδομένων για να εφαρμόσουμε και να διερευνήσουμε στην πράξη τις μεθόδους και τις παραλλαγές τους που παρουσιάστηκαν στα παραπάνω κεφάλαια. Εστιάζουμε στο πόσο διαφορετικά είναι τα αποτελέσματα σε σύγκριση με την απλή εφαρμογή των μεθόδων. Τέλος, το πέμπτο κεφάλαιο περιλαμβάνει τα σχετικά συμπεράσματα που προκύπτουν από την παρούσα εργασία. | el_GR |
dc.format.extent | 115 σ. | el_GR |
dc.language.iso | en | en_US |
dc.rights | Default License | |
dc.subject | τεχνητή νοημοσύνη | el_GR |
dc.subject | επεξηγήσιμη τεχνητή νοημοσύνη | el_GR |
dc.subject | μηχανική μάθηση | el_GR |
dc.subject | artificial intelligence | en_US |
dc.subject | explainable artificial intelligence | en_US |
dc.subject | machine learning | en_US |
dc.subject | LIME | en_US |
dc.subject | SHAP | en_US |
dc.subject | permutation feature importance | en_US |
dc.subject | break down | en_US |
dc.subject.lcsh | Artificial intelligence | en_US |
dc.subject.lcsh | Machine learning | en_US |
dc.title | Comparative study of explainable artificial intelligence methods and applications | en_US |
dcterms.accessRights | free | el_GR |
dcterms.rights | Πλήρες Κείμενο - Ελεύθερη Δημοσίευση | el_GR |
heal.type | masterThesis | el_GR |
heal.recordProvider | aegean | el_GR |
heal.committeeMemberName | Ρακιτζής, Αθανάσιος | el_GR |
heal.committeeMemberName | Γεωργίου, Βασίλειος | el_GR |
heal.academicPublisher | Πανεπιστήμιο Αιγαίου - Σχολή Θετικών Επιστημών - Τμήμα Σ.Α.Χ.Μ. | el_GR |
heal.academicPublisherID | aegean | el_GR |
heal.fullTextAvailability | true | el_GR |
dc.contributor.department | Στατιστική και Αναλογιστικά - Χρηματοοικονομικά Μαθηματικά | el_GR |