Library SitePandemos Repository
Pandemos Record
 

Προβολή στοιχείων εγγραφής

Τμήμα Δημόσιας Διοίκησης  

Μεταπτυχιακές εργασίες  

 
Τίτλος:Οι ηθικές και νομικές προκλήσεις της τεχνητής νοημοσύνης: η ενωσιακή απάντηση στη μεροληπτική Τεχνητή Νοημοσύνη
Τίτλος:The ethical and legal challenges of artificial intelligence: the EU response to biased and discriminatory AI
Κύρια Υπευθυνότητα:Σιάπκα, Αναστασία Δ.
Επιβλέπων:Χάνος, Αντώνης
Θέματα:Artificial intelligence -- Ethics
Keywords:Τεχνητή νοηµοσύνη, διακριτική µεταχείριση, µηχανική µάθηση, αυτοµατοποιηµένη λήψη αποφάσεων, γενικός κανονισµός προστασίας δεδοµένων, προκαταλήψεις
Artificial intelligence, discrimination, machine learning, automated decision-making, General Data Protection Regulation, bias
Artificial intelligence, discrimination, machine learning, automated decision-making, General Data Protection Regulation, bias
Ημερομηνία Έκδοσης:2018
Εκδότης:Πάντειο Πανεπιστήμιο Κοινωνικών και Πολιτικών Επιστημών
Περίληψη:Η ταχεία διάδοση της Τεχνητής Νοηµοσύνης (TN) στα πλαίσια λήψης αποφάσεων τυγχάνει ενθουσιώδους υποδοχής ως λύση υποσχόµενη να αντικαταστήσει την ανθρώπινη υποκειµενικότητα µε αντικειµενικές, αλάνθαστες αποφάσεις. Παραδόξως, αξιόλογες δηµοσιογραφικές έρευνες έστρεψαν πρόσφατα την προσοχή σε περιπτώσεις όπου συστήµατα ΤΝ και στις δύο πλευρές του Ατλαντικού επέδειξαν µεροληπτικές στάσεις. Παρά τη διάχυση της αυτοµατοποιηµένης λήψης αποφάσεων σε ύψιστης σηµασίας διαδικασίες, όπως κατά την απονοµή ποινικής δικαιοσύνης, την εύρεση εργασίας και τον έλεγχο των συνόρων, όπου τα δικαίωµατα και οι ελευθερίες ατόµων και κοινωνικών οµάδων διακυβέυονται εξίσου, δεν υπάρχει µέθοδος που επιτρέπει στους ανθρώπους να αποσαφηνίσουν πώς η Τεχνητή Νοηµοσύνη καταλήγει σε τέτοιες απαράδεκτες αποφάσεις. Το ευδιάκριτο πρόβληµα µεροληψίας της Τεχνητής Νοηµοσύνης σε συνδυασµό µε τη λειτουργία της ως ανεξήγητο «µαύρο κουτί» καθιστoύν την εξερεύνηση αυτού του φαινοµένου επιτακτική, πρωτίστως στο λιγότερο εξετασθέν πεδίο των Ενωσιακών πολιτικών. Η παρούσα διπλωµατική εργασία επιδιώκει µια διεπιστηµονική ερευνητική µεθοδολογία για να εξετάσει ποιες είναι οι κύριες ηθικές και νοµικές προκλήσεις που θέτει η στενή Τεχνητή Νοηµοσύνη (Narrow AI), ειδικά στη µορφή της οδηγούµενης από δεδοµένα (data-driven) Μηχανικής Μαθήσεως (Machine Learning), σε θέµατα διακρίσεων και προκαταλήψεων στην ΕΕ. Το Κεφάλαιο 1 εφοδιάζει τους αναγνώστες µε το τεχνικό υπόβαθρο αναφορικά µε την Τεχνητή Νοηµοσύνη και τις αλληλένδετες τεχνολογίες Μηχανικής Μαθήσεως (Machine Learning) και Μεγάλων Δεδοµένων (Big Data). Με προσιτό τρόπο, εστιάζει στους ορισµούς και τύπους Τεχνητής Νοηµοσύνης που υιοθετούνται σε Ενωσιακές πράξεις καθώς και στα ορόσηµα της ιστορικής της εξέλιξης και το τρέχον στάδιο ανάπτυξής της. Το Κεφάλαιο 2 διεξάγει µια φιλοσοφική ανάλυση για να επιχειρηµατολογήσει κατά της υποτιθέµενης ηθικής ουδετερότητας της Τεχνητής Νοηµοσύνης. Ηθικοί προβληµατισµοί επιστηµολογικής φύσεως αποκαλύπτουν πως οι προκαταλήψεις διασχίζουν τα συστήµατα ΤΝ µέσω της επιλογής στόχων, των δεδοµένων εκπαίδευσης (training data), της εξάρτησης από συσχετισµούς και της επιστηµολογικής ανισότητας µεταξύ µη ειδηµόνων και προγραµµατιστών ΤΝ καθώς και µεταξύ ανθρώπων και µηχανών τύπου «µαύρου κουτιού» γενικότερα. Περνώντας σε κανονιστικά ηθικά ζητήµατα, τα συστήµατα ΤΝ επιφέρουν επιπτώσεις που, σύµφωνα µε την εξισωτική θεωρία, αντιτίθενται στα κανονιστικά ιδανικά της δικαιοσύνης και της ισότητας. Σε περισσότερο καφκικά σενάρια, άτοµα και εταιρείες µπορούν α χρησιµοποιήσουν τις τεχνικές ιδιαιτερότητες της Τεχνητής Νοηµοσύνης προκειµένου να κρύψουν µεροληπτικές προθέσεις. Στο Κεφάλαιο 3 εφαρµόζεται η δογµατική νοµική µεθοδολογία για να αποκαλύψει τις εντάσεις αυτών των προβληµατικών εκδηλώσεων της ΤΝ υπό το πρίσµα του ήπιου και αυστηρού Ενωσιακού δικαίου. Λαµβάνοντας υπόψιν τον χαρακτήρα της ως οδηγούµενης από δεδοµένα (data-driven), οι µεροληπτικές αποφάσεις της ΤΝ εµπίπτουν στο πεδίο εφαρµογής του νέου Γενικού Κανονισµού Προστασίας Δεδοµένων (ΓΚΠΔ, General Data Protection Regulation). Ειδικότερα, διερευνώνται οι αρχές που διέπουν την επεξεργασία δεδοµένων κατά το Άρθρο 5, οι εκτιµήσεις αντικτύπου σχετικά µε την προστασία δεδοµένων (ΕΑΠΔ, DPIA) του Άρθρου 35, η απαγόρευση της αυτοµατοποιηµένης λήψης αποφάσεων και το εικαζόµενο δικαίωµα αιτιολόγησης του Άρθρου 22, οι αρχές της νοµιµότητας, της δικαιοσύνης και της διαφάνειας στο Άρθρο 5 (1) α), η προτεινόµενη επιβολή ελέγχων και οι ενισχυµένες αρχές προστασίας δεδοµένων. Η διπλωµατική εργασία συµπεραίνει ότι η βασισµένη σε αρχές προσέγγιση καθώς και οι εκτιµήσεις αντίκτυπου σχετικά µε την προστασία δεδοµένων αποτελούν ισχυρά ρυθµιστικά σηµεία του ΓΚΠΔ. Ωστόσο, η ΕΕ πρέπει να αποθαρρύνει την επέκταση της Τεχνητής Νοηµοσύνης σε κρίσιµα πεδία λήψης αποφάσεων και να διερευνήσει τρόπους κάλυψης των σχετικών νοµικών κενών. Σε γενικές γραµµές, η «Αξιόπιστη ΤΝ» (Trustworthy AI) προτείνεται ως ηθικό και νοµικό πρότυπο εν όψει της προκατειληµµένης Τεχνητής Νοηµοσύνης που επιδίδεται σε διακριτική µεταχείριση.
Abstract:The proliferation of Artificial Intelligence (AI) in decision-making contexts is hailed as a silver bullet, pledging to replace human subjectivity with objective, infallible decisions. Paradoxically, considerable journalistic reporting has recently commanded attention to biased and discriminatory attitudes displayed by AI systems on both sides of the Atlantic. Notwithstanding the permeation of automated decision-making in critical settings, such as criminal justice, job recruitment, and border control, wherein rights and freedoms of individuals and groups are likewise imperilled, there is often no way for human agents to untangle how AI systems reach such unacceptable decisions. The conspicuous bias problem of AI alongside its operation as an inexplicable ‘black box’ render the exploration of this phenomenon pressing, primarily in the less examined EU policy arena. This dissertation pursues an interdisciplinary research methodology to examine which are the main ethical and legal challenges that Narrow AI, especially in its data-driven Machine Learning (ML) form, poses in relation to bias and discrimination across the EU. Chapter 1 equips readers with pertinent background information regarding AI and its interdependent ML and Big Data technologies. In an accessible manner, it takes heed of the definitions and types of AI adopted by EU instruments along with the milestones in its historical progression and its current stage of development. Chapter 2 conducts a philosophical analysis to argue against the putative ethical neutrality of AI. Ethical concerns of epistemological nature reveal that biases traverse AI systems through the selection of objectives, training data, the reliance on correlations, and the epistemic inequality between lay individuals and AI developers in combination with that between human agents and ‘black box’ machines in general. Touching upon normative ethical concerns, AI systems entail effects which, according to egalitarianism, oppose normative ideals of fairness and equality. In more Kafkaesque scenarios, individuals and corporations may use technical particularities of AI to mask their discriminatory intent. In Chapter 3, a doctrinal legal methodology is applied to reveal the tensions of these challenging instantiations of AI in light of soft and hard EU law instruments. In consideration of its data-driven character, biased and discriminatory AI decisions fall within the applicability scope of the newly enforced General Data Protection Regulation (GDPR). In particular, the data processing principles of Article 5, the Data Protection Impact Assessments (DPIA) of Article 35, the prohibition of automated decision-making and the speculative right to explanation of Article 22, the principles of lawfulness, fairness, and transparency of Article 5 (1) a), the suggested implementation of auditing, and the enhanced enforcement authorities receive scrutiny. The dissertation concludes that a principles-based approach and the provision of anticipatory impact assessments are regulatory strengths of the GDPR. However, the EU should discourage the deployment of AI in crucial decision-making contexts and explore ways to fill related legal gaps. Overall, Trustworthy AI is proposed as an ethical and legal paragon in the face of biased and discriminatory AI.
Περιγραφή:Διπλωματική εργασία - Πάντειο Πανεπιστήμιο. Τμήμα Δημόσιας Διοίκησης, ΠΜΣ, κατεύθυνση Δίκαιο, Τεχνολογία και Οικονομία, 2018
Περιγραφή:Βιβλιογραφία: σ. 90-102
 
 
Αρχεία σε Αυτό το Τεκμήριο:
Αρχείο Τύπος
7PMS_DHM_DIO_SiapkaAn.pdf application/pdf
 
FedoraCommons OAI Βιβλιοθήκη - Υπηρεσία Πληροφόρησης, Πάντειον Πανεπιστήμιο