Ζητήματα εφαρμογής Τεχνητής Νοημοσύνης στην ποινική απόδειξη σε ευρωπαϊκή και εθνική διάσταση

Μικρογραφία εικόνας

Ημερομηνία έκδοσης

2026-03-30

Επιβλέπων/ουσα

Τίτλος Εφημερίδας

Περιοδικό ISSN

Τίτλος τόμου

Εκδότης

Πάντειον Πανεπιστήμιο Κοινωνικών και Πολιτικών Επιστημών

Περίληψη

Η παρούσα διπλωματική εργασία πραγματεύεται τη σταδιακή διείσδυση των συστημάτων τεχνητής νοημοσύνης στην ποινική διαδικασία και ιδίως στο πεδίο της ποινικής απόδειξης, επιχειρώντας να αναδείξει τις δογματικές, δικονομικές και θεμελιωδών δικαιωμάτων προκλήσεις που η εξέλιξη αυτή συνεπάγεται. Αφετηρία της ανάλυσης αποτελεί ο σκοπός της ποινικής δίκης και η ιστορική διαμόρφωση του ισχύοντος μικτού δικονομικού συστήματος, μέσα από τη διαλεκτική σχέση μεταξύ αναζήτησης της ουσιαστικής αλήθειας και προστασίας των δικαιωμάτων του κατηγορουμένου. Η εργασία εστιάζει στη διάκριση μεταξύ αλήθειας και πραγματικότητας στην ποινική δίκη, στον σχηματισμό της δικανικής πεποίθησης και στη λειτουργία του κριτηρίου in dubio pro reo, αναδεικνύοντας τον ρόλο της ποινικής απόδειξης ως διαδικασίας έλλογης και όχι απόλυτης γνώσης. Στο πλαίσιο αυτό, η τεχνητή νοημοσύνη εισάγεται ως νέος παράγοντας στην ποινική απόδειξη, ο οποίος δεν λειτουργεί ως απλό τεχνικό βοήθημα, αλλά επηρεάζει ουσιωδώς τον τρόπο συλλογής, επεξεργασίας και αξιολόγησης των αποδεικτικών δεδομένων. Η εργασία εξετάζει τις βασικές έννοιες που συγκροτούν το φαινόμενο της τεχνητής νοημοσύνης, από τις απαρχές της κυβερνητικής και της γνωσιακής επιστήμης έως τα σύγχρονα συστήματα μηχανικής μάθησης και νευρωνικών δικτύων, επιχειρώντας μια επιστημολογική απομυθοποίηση της τεχνολογίας. Ιδιαίτερη έμφαση δίδεται στη διακριτή φύση της αλγοριθμικής εκτίμησης, η οποία, σε αντίθεση με την ανθρώπινη κρίση, στηρίζεται σε πιθανολογικά και στατιστικά μοντέλα και στερείται αξιολογικού περιεχομένου, γεγονός που έχει κρίσιμες συνέπειες για τη λειτουργία της ποινικής απόδειξης. Ακολούθως, η εργασία αναλύει το ενωσιακό κανονιστικό πλαίσιο για την τεχνητή νοημοσύνη, με κεντρικό άξονα τον Κανονισμό (ΕΕ) 2024/1689 (AI Act), τη φιλοσοφία του ανθρωποκεντρισμού και την προσέγγιση βάσει κινδύνου. Εξετάζονται ειδικότερα τα συστήματα αλγοριθμικής αξιολόγησης κινδύνου στο ποινικό δίκαιο, οι λόγοι της απαγόρευσής τους όταν βασίζονται αποκλειστικά στην κατάρτιση προφίλ, καθώς και τα δομικά προβλήματα που ανακύπτουν από τη χρήση μεροληπτικών ή «βρώμικων» δεδομένων. Παράλληλα, αναδεικνύονται τα όρια της απαγόρευσης του profiling και οι εντάσεις που δημιουργούνται από την επιτρεπτή χρήση συστημάτων «υψηλού κινδύνου», ιδίως στο πεδίο της επιβολής του νόμου και της ποινικής δικαιοσύνης, σε συνάρτηση με την εφαρμογή του Κανονισμού στην ελληνική έννομη τάξη. Στο τρίτο μέρος, η εργασία προσεγγίζει τη χρήση της τεχνητής νοημοσύνης υπό το πρίσμα της αρχής της δίκαιης δίκης, επιχειρώντας μια αναλογική εκτίμηση αντικτύπου στα θεμελιώδη δικαιώματα. Εξετάζονται κρίσιμες παράμετροι, όπως η διαφάνεια, η ασφάλεια δικαίου, η φύση των αποδεικτικών μέσων, η αιτιολογία των δικαστικών αποφάσεων και η αρχή της ηθικής απόδειξης. Ιδιαίτερη σημασία αποδίδεται στη μετάβαση από το σύστημα των νομικών αποδείξεων στο σύστημα της ηθικής απόδειξης και στον ρόλο της αιτιολογίας ως εγγύησης ελέγχου, λογοδοσίας και δημοκρατικής νομιμοποίησης της δικανικής κρίσης. Τέλος, η εργασία καταλήγει σε μια συμπληρωματική αξιολόγηση της ενσωμάτωσης συστημάτων τεχνητής νοημοσύνης στην ποινική απόδειξη, υποστηρίζοντας ότι τα συστήματα αυτά μπορούν να γίνουν ανεκτά μόνο ως επικουρικά εργαλεία υποστήριξης της ανθρώπινης κρίσης. Η άκριτη ή υπέρμετρη αξιοποίησή τους, ιδίως σε ζητήματα που επηρεάζουν την ποινή και την προσωπική ελευθερία, εγείρει σοβαρά ζητήματα συμβατότητας με την αρχή της δίκαιης δίκης, την ανθρώπινη αξιοπρέπεια και τη δημοκρατική θεμελίωση της ποινικής δικαιοσύνης. Η εργασία επιχειρεί, εν τέλει, να συμβάλει σε έναν κριτικό και θεσμικά προσανατολισμένο διάλογο για τα όρια και τις προϋποθέσεις χρήσης της τεχνητής νοημοσύνης στην απονομή της ποινικής δικαιοσύνης.
The present master thesis examines the gradual integration of artificial intelligence systems into criminal proceedings, with particular emphasis on the field of criminal evidence, seeking to highlight the doctrinal, procedural, and fundamental rights challenges arising from this development. The analysis begins with the purpose of criminal proceedings and the historical formation of the prevailing mixed procedural system, through the dialectical relationship between the search for substantive truth and the protection of the defendant’s rights. Special attention is devoted to the distinction between truth and reality in criminal adjudication, the formation of judicial conviction, and the operation of the in dubio pro reo principle, underscoring the role of criminal evidence as a process of reasoned, rather than absolute, knowledge. Within this framework, artificial intelligence is introduced as a new factor in criminal evidence, one which does not merely function as a technical aid but substantially influences the manner in which evidentiary data are collected, processed, and assessed. The thesis examines the core concepts underlying artificial intelligence, from the origins of cybernetics and cognitive science to contemporary systems of machine learning and neural networks, pursuing an epistemological demystification of the technology. Particular emphasis is placed on the distinct nature of algorithmic estimation, which—unlike human judgment—is grounded in probabilistic and statistical models and lacks normative and evaluative content, a characteristic with significant implications for the functioning of criminal evidence. The analysis then turns to the European Union regulatory framework governing artificial intelligence, focusing on Regulation (EU) 2024/1689 (the AI Act), its human-centric philosophy, and its risk-based approach. The thesis examines algorithmic risk assessment systems in criminal law, the reasons for their prohibition when based exclusively on profiling, and the structural deficiencies associated with the use of biased or “dirty” data. At the same time, it highlights the limits of the profiling ban and the tensions generated by the permitted use of “high-risk” systems, particularly in the fields of law enforcement and criminal justice, in conjunction with the implementation of the Regulation within the Greek legal order. In its third part, the thesis approaches the use of artificial intelligence through the lens of the right to a fair trial, undertaking an analogous impact assessment with respect to fundamental rights. Key parameters are examined, including transparency, legal certainty, the nature of evidentiary means, the reasoning of judicial decisions, and the principle of moral proof. Particular importance is attributed to the transition from systems of legal proof to the system of moral proof, as well as to the role of judicial reasoning as a guarantee of control, accountability, and democratic legitimacy of judicial conviction. Finally, the thesis concludes with a supplementary assessment of the integration of artificial intelligence systems into criminal evidence, arguing that such systems may be acceptable only as auxiliary tools supporting human judgment. Their uncritical or excessive use—especially in matters affecting sentencing and personal liberty—raises serious concerns regarding compatibility with the right to a fair trial, human dignity, and the democratic foundations of criminal justice. Ultimately, the thesis seeks to contribute to a critical and institutionally grounded dialogue on the limits and conditions under which artificial intelligence may be employed in the administration of criminal justice.

Περιγραφή

Λέξεις-κλειδιά

Τεχνητή, Νοημοσύνη, Artificial, Intelligence

Παραπομπή

Άδεια Creative Commons

Εκτός εάν σημειώνεται διαφορετικά, η άδεια αυτού του αντικειμένου περιγράφεται ως Attribution-NoDerivatives 4.0 International

Παραπομπή ως

Ζαγοραίος, Λ. (2026). Ζητήματα εφαρμογής Τεχνητής Νοημοσύνης στην ποινική απόδειξη σε ευρωπαϊκή και εθνική διάσταση. Πάντειον Πανεπιστήμιο Κοινωνικών και Πολιτικών Επιστημών. https://pandemos.panteion.gr/handle/123456789/24821
Προσοχή! Οι παραπομπές μπορεί να μην είναι πλήρως ακριβείς