Ζητήματα εφαρμογής της Τεχνητής Νοημοσύνης στην ποινική απόδειξη. Ευρωπαϊκή και εθνική διάσταση

Ζαγοραίος, Λεωνίδας

2026/03/30

Η παρούσα διπλωματική εργασία πραγματεύεται τη σταδιακή διείσδυση των συστημάτων τεχνητής νοημοσύνης στην ποινική διαδικασία και ιδίως στο πεδίο της ποινικής απόδειξης, επιχειρώντας να αναδείξει τις δογματικές, δικονομικές και θεμελιωδών δικαιωμάτων προκλήσεις που η εξέλιξη αυτή συνεπάγεται. Αφετηρία της ανάλυσης αποτελεί ο σκοπός της ποινικής δίκης και η ιστορική διαμόρφωση του ισχύοντος μικτού δικονομικού συστήματος, μέσα από τη διαλεκτική σχέση μεταξύ αναζήτησης της ουσιαστικής αλήθειας και προστασίας των δικαιωμάτων του κατηγορουμένου. Η εργασία εστιάζει στη διάκριση μεταξύ αλήθειας και πραγματικότητας στην ποινική δίκη, στον σχηματισμό της δικανικής πεποίθησης και στη λειτουργία του κριτηρίου in dubio pro reo, αναδεικνύοντας τον ρόλο της ποινικής απόδειξης ως διαδικασίας έλλογης και όχι απόλυτης γνώσης. Στο πλαίσιο αυτό, η τεχνητή νοημοσύνη εισάγεται ως νέος παράγοντας στην ποινική απόδειξη, ο οποίος δεν λειτουργεί ως απλό τεχνικό βοήθημα, αλλά επηρεάζει ουσιωδώς τον τρόπο συλλογής, επεξεργασίας και αξιολόγησης των αποδεικτικών δεδομένων. Η εργασία εξετάζει τις βασικές έννοιες που συγκροτούν το φαινόμενο της τεχνητής νοημοσύνης, από τις απαρχές της κυβερνητικής και της γνωσιακής επιστήμης έως τα σύγχρονα συστήματα μηχανικής μάθησης και νευρωνικών δικτύων, επιχειρώντας μια επιστημολογική απομυθοποίηση της τεχνολογίας. Ιδιαίτερη έμφαση δίδεται στη διακριτή φύση της αλγοριθμικής εκτίμησης, η οποία, σε αντίθεση με την ανθρώπινη κρίση, στηρίζεται σε πιθανολογικά και στατιστικά μοντέλα και στερείται αξιολογικού περιεχομένου, γεγονός που έχει κρίσιμες συνέπειες για τη λειτουργία της ποινικής απόδειξης. Ακολούθως, η εργασία αναλύει το ενωσιακό κανονιστικό πλαίσιο για την τεχνητή νοημοσύνη, με κεντρικό άξονα τον Κανονισμό (ΕΕ) 2024/1689 (AI Act), τη φιλοσοφία του ανθρωποκεντρισμού και την προσέγγιση βάσει κινδύνου. Εξετάζονται ειδικότερα τα συστήματα αλγοριθμικής αξιολόγησης κινδύνου στο ποινικό δίκαιο, οι λόγοι της απαγόρευσής τους όταν βασίζονται αποκλειστικά στην κατάρτιση προφίλ, καθώς και τα δομικά προβλήματα που ανακύπτουν από τη χρήση μεροληπτικών ή «βρώμικων» δεδομένων. Παράλληλα, αναδεικνύονται τα όρια της απαγόρευσης του profiling και οι εντάσεις που δημιουργούνται από την επιτρεπτή χρήση συστημάτων «υψηλού κινδύνου», ιδίως στο πεδίο της επιβολής του νόμου και της ποινικής δικαιοσύνης, σε συνάρτηση με την εφαρμογή του Κανονισμού στην ελληνική έννομη τάξη. Στο τρίτο μέρος, η εργασία προσεγγίζει τη χρήση της τεχνητής νοημοσύνης υπό το πρίσμα της αρχής της δίκαιης δίκης, επιχειρώντας μια αναλογική εκτίμηση αντικτύπου στα θεμελιώδη δικαιώματα. Εξετάζονται κρίσιμες παράμετροι, όπως η διαφάνεια, η ασφάλεια δικαίου, η φύση των αποδεικτικών μέσων, η αιτιολογία των δικαστικών αποφάσεων και η αρχή της ηθικής απόδειξης. Ιδιαίτερη σημασία αποδίδεται στη μετάβαση από το σύστημα των νομικών αποδείξεων στο σύστημα της ηθικής απόδειξης και στον ρόλο της αιτιολογίας ως εγγύησης ελέγχου, λογοδοσίας και δημοκρατικής νομιμοποίησης της δικανικής κρίσης. Τέλος, η εργασία καταλήγει σε μια συμπληρωματική αξιολόγηση της ενσωμάτωσης συστημάτων τεχνητής νοημοσύνης στην ποινική απόδειξη, υποστηρίζοντας ότι τα συστήματα αυτά μπορούν να γίνουν ανεκτά μόνο ως επικουρικά εργαλεία υποστήριξης της ανθρώπινης κρίσης. Η άκριτη ή υπέρμετρη αξιοποίησή τους, ιδίως σε ζητήματα που επηρεάζουν την ποινή και την προσωπική ελευθερία, εγείρει σοβαρά ζητήματα συμβατότητας με την αρχή της δίκαιης δίκης, την ανθρώπινη αξιοπρέπεια και τη δημοκρατική θεμελίωση της ποινικής δικαιοσύνης. Η εργασία επιχειρεί, εν τέλει, να συμβάλει σε έναν κριτικό και θεσμικά προσανατολισμένο διάλογο για τα όρια και τις προϋποθέσεις χρήσης της τεχνητής νοημοσύνης στην απονομή της ποινικής δικαιοσύνης.

Download PDF

View in repository

Browse all collections