Θα θέλαμε να σας ενημερώσουμε ότι ενδέχεται να παρουσιαστεί προσωρινή επιβράδυνση στην απόδοση του συστήματος, λόγω αυξημένου φόρτου από την αναδρομική έκδοση DOI. Σας ευχαριστούμε για την κατανόηση.
Please note that the system may respond more slowly than usual due to increased load from the retrospective issuance of DOIs. Thank you for your understanding.
 

Ensuring human Rrghts in AI regulation: a study of the EU AI act

Μικρογραφία εικόνας

Ημερομηνία έκδοσης

2025

Επιβλέπων/ουσα

Μέλη εξεταστικής επιτροπής

Τίτλος Εφημερίδας

Περιοδικό ISSN

Τίτλος τόμου

Εκδότης

Πάντειον Πανεπιστήμιο Κοινωνικών και Πολιτικών Επιστημών

Περίληψη

Η παρούσα διπλωματική εργασία εξετάζει τον Κανονισμό Τεχνητής Νοημοσύνης της ΕΕ (EU AI Act) με έμφαση στην προστασία των θεμελιωδών ανθρωπίνων δικαιωμάτων. Αναλύει τη ρυθμιστική προσέγγιση βάσει κινδύνου, η οποία απαγορεύει ΑΙ συστήματα που ενέχουν μη αποδεκτούς κινδύνους (όπως η κοινωνική βαθμολόγηση και οι χειριστικές βιομετρικές τεχνικές) και θέτει αυστηρές απαιτήσεις για τα «υψηλού κινδύνου» συστήματα που εφαρμόζονται σε κρίσιμους τομείς όπως η δικαιοσύνη, η υγεία και η εκπαίδευση. Τονίζονται οι απειλές για δικαιώματα όπως η ιδιωτικότητα, η ισότητα και η δίκαιη δίκη, ενώ μέσω παραδειγμάτων δείχνεται πώς η κακή χρήση της ΑΙ μπορεί να παραβιάσει βασικά δικαιώματα. Το συμπέρασμα είναι πως ο Κανονισμός αποτελεί σημαντικό βήμα για την ηθική και διαφανή χρήση της τεχνητής νοημοσύνης, αλλά απαιτεί αυστηρή εφαρμογή για να είναι αποτελεσματικός.
This thesis critically examines the European Union Artificial Intelligence Act (EU AI Act) through the lens of fundamental human rights protection. It explores how the EU’s regulatory framework addresses the ethical and legal implications of artificial intelligence (AI) technologies, especially when used in high-impact societal domains. Adopting a risk-based approach, the AI Act categorizes AI systems into prohibited, high-risk, limited-risk, and minimal-risk systems, with particular emphasis on the first two due to their potential to infringe on human rights. Key Contributions: Prohibited AI Practices: The study identifies AI applications banned under the Act, such as subliminal manipulation, exploitation of vulnerable populations, social scoring, and certain biometric systems. These are analyzed in terms of their inherent risks to dignity, autonomy, and freedom. High-Risk AI Systems: It further dissects high-risk AI applications (e.g., in law enforcement, education, healthcare, asylum, and employment), evaluating their capacity to compromise rights like the right to a fair trial, equality, freedom of expression, and non-discrimination. It highlights characteristics such as opacity, automation, profiling, and data personalization as significant threats to transparency and accountability. Fundamental Rights Impact Assessment (FRIA): The thesis emphasizes the significance of Article 27, which mandates impact assessments for high-risk AI systems, offering a preventive mechanism against rights violations. Case Studies: Concrete examples such as the Cambridge Analytica scandal, Schufa credit scoring, and the Dutch SyRI system illustrate the real-world consequences of unregulated or poorly governed AI. The thesis concludes that while the EU AI Act represents a pioneering regulatory step in the global governance of AI, its efficacy depends on proper implementation, transparency in technical systems, and enforceable safeguards. By grounding AI regulation in fundamental rights, the EU aims to ensure ethical technological progress that respects democratic values and human dignity.

Περιγραφή

Λέξεις-κλειδιά

Κανονισμός Τεχνητής Νοημοσύνης της ΕΕ (EU AI Act), Προσέγγιση Ρύθμισης Ανάλογα με τον Κίνδυνο, Απαγορευμένες Πρακτικές ΤΝ, Συστήματα ΤΝ Υψηλού Κινδύνου, Θεμελιώδη Δικαιώματα, Βιομετρική Επιτήρηση, Διακρίσεις, Ιδιωτικότητα, Προφίλ και Στοχοθέτηση, Αδιαφάνεια, Λογοδοσία, Δίκαιη Δίκη, Υποσυνείδητος Χειρισμός, Κοινωνική Βαθμολόγηση, Αξιολόγηση Επιπτώσεων στα Θεμελιώδη Δικαιώματα (FRIA), Ψηφιακή Ηθική, Διακυβέρνηση Τεχνητής Νοημοσύνης, EU AI Act, Risk-Based Regulation, Prohibited AI Practices, High-Risk AI Systems, Fundamental Rights, Biometric Surveillance, Discrimination, Privacy, Profiling, Opacity, Accountability, Fair Trial, Subliminal Manipulation, Social Scoring, Fundamental Rights Impact Assessment(FRIA), Digital Ethics, AI Governance

Παραπομπή

Άδεια Creative Commons

Εκτός εάν σημειώνεται διαφορετικά, η άδεια αυτού του αντικειμένου περιγράφεται ως Creative Commons Αναφορά-Μη Εμπορική Χρήση-Όχι Παράγωγα Έργα 4.0

Παραπομπή ως

Orfanioti, A., & Ορφανιώτη, Α. (2025). Ensuring human Rrghts in AI regulation: a study of the EU AI act. Πάντειον Πανεπιστήμιο Κοινωνικών και Πολιτικών Επιστημών. https://pandemos.panteion.gr/handle/123456789/20200
Προσοχή! Οι παραπομπές μπορεί να μην είναι πλήρως ακριβείς