Library SitePandemos Repository
Pandemos Record
 

Προβολή στοιχείων εγγραφής

Τμήμα Δημόσιας Διοίκησης  

Πάντειο Πανεπιστήμιο  

 
Τίτλος:Ζητήματα βιοηθικής και προστασίας των προσωπικών δεδομένων στις εφαρμογές της Τεχνητής Νοημοσύνης (Artificial Intelligence–AI) στην ιατρική: το παράδειγμα του IBM Watson
Τίτλος:Bioethical and personal data protection issues in Artificial Intelligence Systems in health care: the case study of IBM Watson
Κύρια Υπευθυνότητα:Ρέντζιος, Θεόδωρος Κ.
Επιβλέπων:Παναγοπούλου-Κουτνατζή, Φερενίκη
Θέματα:
Keywords:Τεχνητή Νοημοσύνη, Μηχανική Μάθηση, Σύστημα Υποστήριξης Κλινικών Αποφάσεων, Ιατρική Ευθύνη, Βιοηθική, IBM Watson
Artificial Intelligence, Machine Learning, Clinical Decision Support Software, Liability, Accountability, Bioethics, IBM Watson
Ημερομηνία Έκδοσης:2021
Εκδότης:Πάντειο Πανεπιστήμιο Κοινωνικών και Πολιτικών Επιστημών
Περίληψη:Οι τρέχουσες ερευνητικές εξελίξεις που αφορούν στην τεχνητή νοημοσύνη (artificial intelligence) είναι υπεύθυνες για τη δημιουργία μιας πρωτοποριακής τεχνολογίας. Στο σημείο αυτό, η επιστημονική κοινότητα αποδέχεται ότι η τεχνητή νοημοσύνη έχει τη δυνατότητα να ξεπεράσει τις πνευματικές ικανότητες των ανθρώπων, φτάνοντας σε δυνατότητες που οι τελευταίοι δεν είναι δυνατό να ελέγξουν ούτε να κατανοήσουν. Λαμβάνοντας υπόψη ότι η εν λόγω τεχνολογία έχει υπερβεί τις αρχικές της δυνατότητες , οι κίνδυνοι που ελλοχεύουν έχουν επίσης αυξηθεί. Στην πραγματικότητα, η εν λόγω τεχνολογία βασίζεται στη λεγόμενη «μηχανική μάθηση » (“machine learning”), που δίνει στους αλγορίθμους τη δυνατότητα να λαμβάνουν αποφάσεις, παρέχοντας μάλιστα καινοτόμες και απρόβλεπτες λύσεις, γεγονός που επεκτείνει τους πιθανούς κινδύνους που δύνανται να προκύψουν από τη χρήση της . Σε ό,τι αφορά τον τομέα της υγείας, παρατηρούμε ότι δεν υφίσταται ένα συγκεκριμένο νομικό πλαίσιο το οποίο να καθορίζει in concreto την ευθύνη που απορρέει από βλάβη στην υγεία ενός ασθενούς, η οποία οφείλεται σε εσφαλμένη διάγνωση ή θεραπεία ασθένειας, που προκύπτει από τη χρήση τεχνητής νοημοσύνης. Έτσι, είναι μείζονος σημασίας η συζήτηση γύρω από το εάν πρέπει να προβλεφθούν ειδικές ρυθμίσεις ή όχι για το ζήτημα αυτό. Η σπουδαιότητα της διεξαγωγής σχετικής έρευνας συνίσταται στο γεγονός ότι, εάν, από τη μία πλευρά, ισχύουν οι κανόνες ευθύνης (που διέπουν τόσο την ίδια όσο και τον επιμερισμό της μεταξύ των εμπλεκόμενων μερών) οι τελευταίοι πρέπει να εφαρμοστούν για να αποφευχθούν επικίνδυνες, ανεύθυνες και επιβλαβείς για τους ασθενείς πρακτικές. Από την άλλη πλευρά, υπάρχει μια αναμφισβήτητη και μόνιμη ανάγκη ενίσχυσης της επιστημονικής ανάπτυξης, καθώς και ενθάρρυνσης της χρήσης των εν λόγω τεχνολογιών στην ιατρική κοινότητα. Συνοπτικά, πρέπει να διασφαλιστεί ότι οι κατασκευαστές θα ανταποκριθούν στην ευθύνη του σχεδιασμού ασφαλούς τεχνολογίας για ιατρικούς σκοπούς και ότι οι χρήστες της τεχνολογίας αυτής (ιατροί) θα τη χρησιμοποιούν λελογισμένα, χωρίς να διακυβεύεται η ανάπτυξη ή η αποδοχή της από την ιατρική κοινότητα. Η παρούσα διατριβή επιδιώκει να συμβάλλει περαιτέρω στη συζήτηση αυτή. Έτσι, στο πρώτο κεφάλαιο εξετάζονται οι ηθικές προεκτάσεις της χρήσης τεχνητής νοημοσύνης στον τομέα της υγείας. Με αφορμή μια υπόθεση εργασίας, θα δούμε τις επιμέρους ηθικές προκλήσεις που δημιουργεί η χρήση της εν λόγω τεχνολογίας. Ειδικότερα, θα μας απασχολήσουν ζητήματα, όπως η συγκατάθεση του ασθενούς για χρήση της τεχνητής νοημοσύνης με σκοπό τη διάγνωση ή θεραπεία μιας ασθένειας, εφόσον έχει λάβει επαρκή ενημέρωση για τις λειτουργίες της, η ασφάλεια των εργαλείων που χρησιμοποιούνται, η διασφάλιση του ιατρικού απορρήτου και των προσωπικών δεδομένων του ασθενούς, καθώς και της διαφάνειας στη λειτουργία των αλγοριθμικών συστημάτων, όπως επίσης και η «μεροληψία» των αλγορίθμων που περιλαμβάνουν τεχνητή νοημοσύνη. Παράλληλα, θα εξετάσουμε το IBM Watson. Αφού προβούμε σε μια σύντομη περιγραφή του εν λόγω συστήματος, στη συνέχεια δούμε το ρόλο του, τους περιορισμούς του, καθώς και ορισμένα ζητήματα ευθύνης που απορρέουν από τη χρήση του. Στο δεύτερο κεφάλαιο θα διαπιστώσουμε εάν η ευθύνη που απορρέει από τη χρήση τεχνητής νοημοσύνης για σκοπούς διάγνωσης και θεραπείας ενός ασθενούς καθορίζεται σύμφωνα με τη νομοθεσία για την ιατρική ευθύνη, εάν, δηλαδή, ο ιατρός που χρησιμοποιεί την εν λόγω τεχνολογία θα πρέπει να θεωρείται υπεύθυνος, σε περίπτωση εσφαλμένης διάγνωσης ασθένειας ή συνταγογράφησης φαρμακευτικής αγωγής, που στηρίζεται στα αποτελέσματα ενός αλγορίθμου. Η ιδιαιτερότητα εδώ συνίσταται στο γεγονός ότι η χρήση των συστημάτων υποστήριξης αποφάσεων (decision support software) που περιλαμβάνουν τεχνητή νοημοσύνη απαιτεί τόσο τον ιατρό όσο και το μηχάνημα, δεδομένου ότι οι ιατρικές αποφάσεις λαμβάνονται από τον πρώτο βάσει των αποτελεσμάτων που παρέχονται από το δεύτερο. Επομένως, είναι προφανές ότι η ευθύνη δεν πρέπει να βαραίνει μόνο τον ιατρό, ούτε βεβαίως μόνο το μηχάνημα. Εάν μόνο ο πρώτος θεωρείται υπεύθυνος, ελλοχεύει ο κίνδυνος η ιατρική κοινότητα να μην αποδεχτεί στους κόλπους της τη χρήση τεχνητής νοημοσύνης, που έχει αποδεδειγμένα υψηλότερα ποσοστά ακρίβειας από τον ανθρώπινο παράγοντα, υπονομεύοντας έτσι την επίτευξη ακριβέστερων διαγνώσεων και αποφάσεων θεραπείας. Εάν, από την άλλη, η ευθύνη αποδίδεται μόνο στο ίδιο το μηχάνημα ή στον κατασκευαστή του, τότε πιθανόν οι ιατροί να βασίζονταν απλώς στα αποτελέσματα των συστημάτων υποστήριξης κλινικών αποφάσεων (clinical decision support software), αντί να προβαίνουν σε μια κριτική και εμπειρική εκτίμησή τους . Με άλλα λόγια, το επίπεδο αυτονομίας του μηχανήματος αποτελεί και το περιθώριο παρέμβασης του ιατρού που καταφεύγει στην τεχνολογία, προκειμένου να προσδιοριστεί εάν η βλάβη που προκαλείται στον ασθενή πρέπει να αντιμετωπιστεί με βάση τη σχετική νομοθεσία για την ιατρική ευθύνη, η οποία τυγχάνει εφαρμογής όταν οι ιατροί δεν ανταποκρίνονται στο αυξημένο πρότυπο επιμέλειας που οφείλεται στους ασθενείς, δυνάμει και της ιδιαίτερης νομικής υποχρέωσης που έχουν απέναντί τους. Στην παρούσα εργασία, δίδεται έμφαση στο καθήκον επιμέλειας των ιατρών όταν χρησιμοποιούν συστήματα υποστήριξη κλινικών αποφάσεων που περιλαμβάνουν τεχνητή νοημοσύνη και στην πιθανότητα οι μονάδες υγείας να θεωρούνται αναλογικά και εκείνες υπεύθυνες. Στο τρίτο κεφάλαιο, αναλύονται τα πρότυπα και οι τεχνικές προδιαγραφές των εν λόγω συστημάτων, δεδομένου ότι τα σύνθετα χαρακτηριστικά της τεχνολογίας που ενσωματώνεται σε αυτά δημιουργούν ορισμένες εύλογες αβεβαιότητες. Πρώτον, εξετάζεται εάν, λόγω της διττής φύσης υλικού και λογισμικού, η ευθύνη που προκύπτει εδώ πρέπει να αξιολογείται σύμφωνα με τη νομοθεσία για τα ελαττωματικά προϊόντα. Δεύτερον, ερευνάται εάν αυτά τα εργαλεία πρέπει να χαρακτηριστούν απλώς ως «προϊόν» ή ως «παροχή ιατρικής υπηρεσίας», καθώς και εάν πρέπει να θεωρούνται ιατροτεχνολογικά προϊόντα και, άρα, να υπόκεινται ομοίως στη σχετική ενωσιακή Οδηγία, που προβλέπει αυστηρό καθεστώς ευθύνης για τους κατασκευαστές ελαττωματικών προϊόντων. Επομένως, εάν καταλήξουμε στο συμπέρασμα ότι, δεδομένου του ιατρικού τους σκοπού, τα συστήματα αυτά πρέπει να χαρακτηρίζονται ως ιατροτεχνολογικά προϊόντα, οι κατασκευαστές θα υπόκεινται σε αυστηρότερους κανόνες και, ως εκ τούτου, θα είναι πιο ευάλωτοι και σε ενδεχόμενες αξιώσεις αστικής ευθύνης, λόγω ελαττωματικού προϊόντος. Αμφισβητείται, ωστόσο, κατά πόσο η σχετική νομοθεσία για τα ιατροτεχνολογικά προϊόντα μπορεί να καλύπτει τα συστήματα υποστήριξης κλινικών αποφάσεων, δεδομένου ότι τα τελευταία είναι πιο περίπλοκα από τα παραδοσιακά ιατροτεχνολογικά προϊόντα, λόγω τόσο της ιδιάζουσας φύσης της τεχνολογίας που είναι ενσωματωμένη σε αυτά, όσο και του γεγονότος ότι τα εν λόγω εργαλεία απαιτούν την παρέμβαση και αλληλεπίδραση μεταξύ πολλών προσώπων: του ιατρού που χρησιμοποιεί την τεχνολογία, καθώς και όλων όσοι ασχολούνται με την κατασκευή, το σχεδιασμό, την ανάπτυξη και την εισαγωγή των δεδομένων. Το σκεπτικό πίσω από μια τέτοια συζήτηση βασίζεται στο γεγονός ότι θα ήταν ενδεχομένως άδικο να αποδοθεί αυστηρή ευθύνη στον κατασκευαστή της τεχνολογίας (δυνάμει της προαναφερθείσας Οδηγίας) για βλάβη στην υγεία ενός ασθενούς, που απορρέει από τη χρήση κλινικών συστημάτων τεχνητής νοημοσύνης, όταν ούτε ο κατασκευαστής ούτε προγραμματιστής είναι σε θέση να εντοπίσουν ή να εξηγήσουν το σφάλμα που προέκυψε. Στο τέταρτο κεφάλαιο εξετάζεται η δυνατότητα απόδοσης νομικής προσωπικότητας στα εν λόγω συστήματα, με σκοπό να θεωρείται υπεύθυνη η ίδια η τεχνολογία. Η σημασία αυτής της προσέγγισης έγκειται στο γεγονός ότι, εάν η ευθύνη αποδίδεται απευθείας στην ίδια την τεχνητή νοημοσύνη, τα δικαστήρια δεν θα αντιμετωπίζουν πλέον τη δυσκολία να διαπιστώσουν ποιο από τα προαναφερθέντα εμπλεκόμενα πρόσωπα είναι υπεύθυνο. Από την άλλη πλευρά, το να καθίσταται η τεχνολογία per se υπεύθυνη σημαίνει ότι ο κατασκευαστής ή ο προγραμματιστής ευθύνονται εκ των προτέρων άμεσα και αντικειμενικά, κάτι που ενδέχεται να επιβραδύνει την πρόοδο και την εν γένει εξέλιξη της εν λόγω τεχνολογίας, λόγω του εύλογου φόβου των τελευταίων. Στο πέμπτο κεφάλαιο θα αναλυθεί η προστασία των προσωπικών δεδομένων από τη χρήση τεχνητής νοημοσύνης στον τομέα της υγείας. Θα δούμε, λοιπόν, ποια προστασία επιφυλάσσουν οι ΗΠΑ και ποια η Ευρωπαϊκή Ένωση (στο εξής: «ΕΕ»). Τέλος, θα εξαχθούν συμπεράσματα ως απάντηση στα ερωτήματα που τέθηκαν και θα αναζητηθούν ορισμένες πιθανές λύσεις στο ζήτημα αυτό.
Abstract:Current research developments related to artificial intelligence (AI) are responsible for the creation of an innovative technology. At this point, the scientific community accepts that artificial intelligence can transcend human spiritual abilities, reaching potentials that the latter cannot control or comprehend. Given that such technology has exceeded its original capabilities, the risks involved have also increased. In fact, this technology is based on the so-called "machine learning", which allows algorithms to make decisions, even providing innovative and unpredictable solutions, which extend the potential risks of its use. In the field of healthcare, we observe that there is no specific legal framework that defines in concreto the liability arising from damage to a patient's health due to a misdiagnosis or treatment of a disease based on the results of an artificial intelligence tool. Thus, the debate over whether or not specific arrangements should be made for this issue is of major importance. The importance of conducting such an investigation lies in the fact that, if, on the one hand, the rules of liability (which govern both the same and its division between the parties involved) apply, the latter must be applied to avoid dangerous, irresponsible and harmful practices. On the other hand, there is an undeniable and permanent need to enhance scientific development, as well as to encourage the use of these technologies in the medical community. In short, it must be ensured that manufacturers meet the responsibility of designing safe technology for medical purposes and that users of this technology (physicians) use it wisely, without compromising its development or acceptance by the medical community. This dissertation seeks to further contribute to this discussion. Thus, the first chapter examines the ethical implications of using artificial intelligence in healthcare. On the occasion of a working case, we will look at the individual ethical challenges posed by the use of this technology. In particular, we will be concerned with issues such as the patient's consent to the use of artificial intelligence for the diagnosis or treatment of a disease, the safety of the artificial intelligence tools used and the guarantee of medical confidentiality and patients’ personal data, as well as transparency in the operation of algorithmic systems, as well as the "bias" of algorithms involving artificial intelligence. At the same time, we will examine the IBM Watson. After making a brief description of this system, we will then look at its role, its limitations, as well as some liability issues arising from its use. In the second chapter we will find out whether the liability arising from the use of artificial intelligence for the purpose of diagnosis and treatment is determined in accordance with the rules of medical liability, ie if the doctor who uses such a technology should be held liable, in cases of misdiagnosis of a disease or prescription of medication, based on the results of an algorithm. The peculiarity here is that the use of decision support software systems (DSS) that include artificial intelligence requires both the doctor and the machine, since medical decisions are made by the former based on the results provided by the latter. Therefore, it is obvious that neither the doctor nor the machine alone should be held liable. If the former is exclusively held liable, there is a risk that the medical community will not accept the use of artificial intelligence, which has proven to be more accurate than humans, thus undermining the achievement of more accurate diagnoses and choice of treatment. If, on the other hand, the machine or its manufacturer are solely held liable, then physicians may just base their judgement on the results of clinical decision support software (CDSS), rather than making a critical and empirical assessment of them. In other words, the level of autonomy of the machine is also the margin of intervention of the doctor who resorts to technology, in order to determine whether the damage caused to the patient should be treated in accordance with the relevant legislation on medical liability, which applies when the physicians do not meet the increased standard of care. In the dissertation, emphasis is given on the duty of care of physicians when using clinical decision support systems involving artificial intelligence and on the likelihood that health institutes will be held proportionately liable. The third chapter analyzes the standards and technical qualifications of such systems, given that the complex features of the technology incorporated in them create some reasonable uncertainties. First, it examines whether, due to the dual nature of the hardware and software, the liability arising here should be assessed in accordance with defective product legislation. Secondly, it is examined whether these tools should be described merely as a "product" or as a "medical service" and whether they should be qualified as medical devices and, therefore, be subject to the relevant EU Directive , which provides a strict liability regime for manufacturers of defective products. Therefore, if we conclude that, given their medical purpose, these systems should be classified as medical devices, manufacturers will be subject to stricter rules and will therefore be more vulnerable to possible civil liability claims due to a defective product. It is deniable, however, whether the relevant legislation on medical devices may cover clinical decision support systems, as the latter are more complex than traditional medical devices, due to both the special nature of the technology incorporated in them and the fact that these tools require the intervention and interaction between many people: the physician who uses the technology, as well as all those involved in the construction, design, development and data input. The rationale behind such a discussion is based on the fact that it might be unfair to provide strict liability to the manufacturer of the technology (under the aforementioned Directive) for harm to a patient's health resulting from the use of artificial intelligence clinical systems when neither the manufacturer nor the developer is able to detect or explain the error that occurred. The fourth chapter examines the possibility of assigning legal personhood to such systems, in order to hold the technology itself liable. The importance of this approach lies in the fact that, if the responsibility is attributed directly to the artificial intelligence itself, the courts will no longer have difficulty assessing which of the above persons involved is responsible. On the other hand, making technology per se liable means that the manufacturer or developer is directly and objectively liable in advance, which may slow down the progress and general development of this technology, due to the reasonable fear of of the latter. The fifth chapter will analyze the protection of personal data from the use of artificial intelligence in the field of healthcare. We will see, then, what protection the United States and the European Union (hereinafter "the EU") reserve. Finally, conclusions will be drawn in response to the questions raised and some possible solutions to this issue will be sought.
Περιγραφή:Διπλωματική εργασία - Πάντειο Πανεπιστήμιο. Τμήμα Δημόσιας Διοίκησης, ΠΜΣ, κατεύθυνση Δίκαιο, Τεχνολογία και Οικονομία, 2021
Περιγραφή:Βιβλιογραφία: σ.118-136
 
 
Αρχεία σε Αυτό το Τεκμήριο:
Αρχείο Τύπος
7PMS_RentziosTh_7119M058.pdf application/pdf
 
FedoraCommons OAI Βιβλιοθήκη - Υπηρεσία Πληροφόρησης, Πάντειον Πανεπιστήμιο