Ζητήματα βιοηθικής και προστασίας των προσωπικών δεδομένων στις εφαρμογές της Τεχνητής Νοημοσύνης (Artificial Intelligence–AI) στην ιατρική: το παράδειγμα του IBM Watson

Ρέντζιος, Θεόδωρος Κ.

2021

Οι τρέχουσες ερευνητικές εξελίξεις που αφορούν στην τεχνητή νοημοσύνη (artificial intelligence) είναι υπεύθυνες για τη δημιουργία μιας πρωτοποριακής τεχνολογίας. Στο σημείο αυτό, η επιστημονική κοινότητα αποδέχεται ότι η τεχνητή νοημοσύνη έχει τη δυνατότητα να ξεπεράσει τις πνευματικές ικανότητες των ανθρώπων, φτάνοντας σε δυνατότητες που οι τελευταίοι δεν είναι δυνατό να ελέγξουν ούτε να κατανοήσουν. Λαμβάνοντας υπόψη ότι η εν λόγω τεχνολογία έχει υπερβεί τις αρχικές της δυνατότητες , οι κίνδυνοι που ελλοχεύουν έχουν επίσης αυξηθεί. Στην πραγματικότητα, η εν λόγω τεχνολογία βασίζεται στη λεγόμενη «μηχανική μάθηση » (“machine learning”), που δίνει στους αλγορίθμους τη δυνατότητα να λαμβάνουν αποφάσεις, παρέχοντας μάλιστα καινοτόμες και απρόβλεπτες λύσεις, γεγονός που επεκτείνει τους πιθανούς κινδύνους που δύνανται να προκύψουν από τη χρήση της . Σε ό,τι αφορά τον τομέα της υγείας, παρατηρούμε ότι δεν υφίσταται ένα συγκεκριμένο νομικό πλαίσιο το οποίο να καθορίζει in concreto την ευθύνη που απορρέει από βλάβη στην υγεία ενός ασθενούς, η οποία οφείλεται σε εσφαλμένη διάγνωση ή θεραπεία ασθένειας, που προκύπτει από τη χρήση τεχνητής νοημοσύνης. Έτσι, είναι μείζονος σημασίας η συζήτηση γύρω από το εάν πρέπει να προβλεφθούν ειδικές ρυθμίσεις ή όχι για το ζήτημα αυτό. Η σπουδαιότητα της διεξαγωγής σχετικής έρευνας συνίσταται στο γεγονός ότι, εάν, από τη μία πλευρά, ισχύουν οι κανόνες ευθύνης (που διέπουν τόσο την ίδια όσο και τον επιμερισμό της μεταξύ των εμπλεκόμενων μερών) οι τελευταίοι πρέπει να εφαρμοστούν για να αποφευχθούν επικίνδυνες, ανεύθυνες και επιβλαβείς για τους ασθενείς πρακτικές. Από την άλλη πλευρά, υπάρχει μια αναμφισβήτητη και μόνιμη ανάγκη ενίσχυσης της επιστημονικής ανάπτυξης, καθώς και ενθάρρυνσης της χρήσης των εν λόγω τεχνολογιών στην ιατρική κοινότητα. Συνοπτικά, πρέπει να διασφαλιστεί ότι οι κατασκευαστές θα ανταποκριθούν στην ευθύνη του σχεδιασμού ασφαλούς τεχνολογίας για ιατρικούς σκοπούς και ότι οι χρήστες της τεχνολογίας αυτής (ιατροί) θα τη χρησιμοποιούν λελογισμένα, χωρίς να διακυβεύεται η ανάπτυξη ή η αποδοχή της από την ιατρική κοινότητα. Η παρούσα διατριβή επιδιώκει να συμβάλλει περαιτέρω στη συζήτηση αυτή. Έτσι, στο πρώτο κεφάλαιο εξετάζονται οι ηθικές προεκτάσεις της χρήσης τεχνητής νοημοσύνης στον τομέα της υγείας. Με αφορμή μια υπόθεση εργασίας, θα δούμε τις επιμέρους ηθικές προκλήσεις που δημιουργεί η χρήση της εν λόγω τεχνολογίας. Ειδικότερα, θα μας απασχολήσουν ζητήματα, όπως η συγκατάθεση του ασθενούς για χρήση της τεχνητής νοημοσύνης με σκοπό τη διάγνωση ή θεραπεία μιας ασθένειας, εφόσον έχει λάβει επαρκή ενημέρωση για τις λειτουργίες της, η ασφάλεια των εργαλείων που χρησιμοποιούνται, η διασφάλιση του ιατρικού απορρήτου και των προσωπικών δεδομένων του ασθενούς, καθώς και της διαφάνειας στη λειτουργία των αλγοριθμικών συστημάτων, όπως επίσης και η «μεροληψία» των αλγορίθμων που περιλαμβάνουν τεχνητή νοημοσύνη. Παράλληλα, θα εξετάσουμε το IBM Watson. Αφού προβούμε σε μια σύντομη περιγραφή του εν λόγω συστήματος, στη συνέχεια δούμε το ρόλο του, τους περιορισμούς του, καθώς και ορισμένα ζητήματα ευθύνης που απορρέουν από τη χρήση του. Στο δεύτερο κεφάλαιο θα διαπιστώσουμε εάν η ευθύνη που απορρέει από τη χρήση τεχνητής νοημοσύνης για σκοπούς διάγνωσης και θεραπείας ενός ασθενούς καθορίζεται σύμφωνα με τη νομοθεσία για την ιατρική ευθύνη, εάν, δηλαδή, ο ιατρός που χρησιμοποιεί την εν λόγω τεχνολογία θα πρέπει να θεωρείται υπεύθυνος, σε περίπτωση εσφαλμένης διάγνωσης ασθένειας ή συνταγογράφησης φαρμακευτικής αγωγής, που στηρίζεται στα αποτελέσματα ενός αλγορίθμου. Η ιδιαιτερότητα εδώ συνίσταται στο γεγονός ότι η χρήση των συστημάτων υποστήριξης αποφάσεων (decision support software) που περιλαμβάνουν τεχνητή νοημοσύνη απαιτεί τόσο τον ιατρό όσο και το μηχάνημα, δεδομένου ότι οι ιατρικές αποφάσεις λαμβάνονται από τον πρώτο βάσει των αποτελεσμάτων που παρέχονται από το δεύτερο. Επομένως, είναι προφανές ότι η ευθύνη δεν πρέπει να βαραίνει μόνο τον ιατρό, ούτε βεβαίως μόνο το μηχάνημα. Εάν μόνο ο πρώτος θεωρείται υπεύθυνος, ελλοχεύει ο κίνδυνος η ιατρική κοινότητα να μην αποδεχτεί στους κόλπους της τη χρήση τεχνητής νοημοσύνης, που έχει αποδεδειγμένα υψηλότερα ποσοστά ακρίβειας από τον ανθρώπινο παράγοντα, υπονομεύοντας έτσι την επίτευξη ακριβέστερων διαγνώσεων και αποφάσεων θεραπείας. Εάν, από την άλλη, η ευθύνη αποδίδεται μόνο στο ίδιο το μηχάνημα ή στον κατασκευαστή του, τότε πιθανόν οι ιατροί να βασίζονταν απλώς στα αποτελέσματα των συστημάτων υποστήριξης κλινικών αποφάσεων (clinical decision support software), αντί να προβαίνουν σε μια κριτική και εμπειρική εκτίμησή τους . Με άλλα λόγια, το επίπεδο αυτονομίας του μηχανήματος αποτελεί και το περιθώριο παρέμβασης του ιατρού που καταφεύγει στην τεχνολογία, προκειμένου να προσδιοριστεί εάν η βλάβη που προκαλείται στον ασθενή πρέπει να αντιμετωπιστεί με βάση τη σχετική νομοθεσία για την ιατρική ευθύνη, η οποία τυγχάνει εφαρμογής όταν οι ιατροί δεν ανταποκρίνονται στο αυξημένο πρότυπο επιμέλειας που οφείλεται στους ασθενείς, δυνάμει και της ιδιαίτερης νομικής υποχρέωσης που έχουν απέναντί τους. Στην παρούσα εργασία, δίδεται έμφαση στο καθήκον επιμέλειας των ιατρών όταν χρησιμοποιούν συστήματα υποστήριξη κλινικών αποφάσεων που περιλαμβάνουν τεχνητή νοημοσύνη και στην πιθανότητα οι μονάδες υγείας να θεωρούνται αναλογικά και εκείνες υπεύθυνες. Στο τρίτο κεφάλαιο, αναλύονται τα πρότυπα και οι τεχνικές προδιαγραφές των εν λόγω συστημάτων, δεδομένου ότι τα σύνθετα χαρακτηριστικά της τεχνολογίας που ενσωματώνεται σε αυτά δημιουργούν ορισμένες εύλογες αβεβαιότητες. Πρώτον, εξετάζεται εάν, λόγω της διττής φύσης υλικού και λογισμικού, η ευθύνη που προκύπτει εδώ πρέπει να αξιολογείται σύμφωνα με τη νομοθεσία για τα ελαττωματικά προϊόντα. Δεύτερον, ερευνάται εάν αυτά τα εργαλεία πρέπει να χαρακτηριστούν απλώς ως «προϊόν» ή ως «παροχή ιατρικής υπηρεσίας», καθώς και εάν πρέπει να θεωρούνται ιατροτεχνολογικά προϊόντα και, άρα, να υπόκεινται ομοίως στη σχετική ενωσιακή Οδηγία, που προβλέπει αυστηρό καθεστώς ευθύνης για τους κατασκευαστές ελαττωματικών προϊόντων. Επομένως, εάν καταλήξουμε στο συμπέρασμα ότι, δεδομένου του ιατρικού τους σκοπού, τα συστήματα αυτά πρέπει να χαρακτηρίζονται ως ιατροτεχνολογικά προϊόντα, οι κατασκευαστές θα υπόκεινται σε αυστηρότερους κανόνες και, ως εκ τούτου, θα είναι πιο ευάλωτοι και σε ενδεχόμενες αξιώσεις αστικής ευθύνης, λόγω ελαττωματικού προϊόντος. Αμφισβητείται, ωστόσο, κατά πόσο η σχετική νομοθεσία για τα ιατροτεχνολογικά προϊόντα μπορεί να καλύπτει τα συστήματα υποστήριξης κλινικών αποφάσεων, δεδομένου ότι τα τελευταία είναι πιο περίπλοκα από τα παραδοσιακά ιατροτεχνολογικά προϊόντα, λόγω τόσο της ιδιάζουσας φύσης της τεχνολογίας που είναι ενσωματωμένη σε αυτά, όσο και του γεγονότος ότι τα εν λόγω εργαλεία απαιτούν την παρέμβαση και αλληλεπίδραση μεταξύ πολλών προσώπων: του ιατρού που χρησιμοποιεί την τεχνολογία, καθώς και όλων όσοι ασχολούνται με την κατασκευή, το σχεδιασμό, την ανάπτυξη και την εισαγωγή των δεδομένων. Το σκεπτικό πίσω από μια τέτοια συζήτηση βασίζεται στο γεγονός ότι θα ήταν ενδεχομένως άδικο να αποδοθεί αυστηρή ευθύνη στον κατασκευαστή της τεχνολογίας (δυνάμει της προαναφερθείσας Οδηγίας) για βλάβη στην υγεία ενός ασθενούς, που απορρέει από τη χρήση κλινικών συστημάτων τεχνητής νοημοσύνης, όταν ούτε ο κατασκευαστής ούτε προγραμματιστής είναι σε θέση να εντοπίσουν ή να εξηγήσουν το σφάλμα που προέκυψε. Στο τέταρτο κεφάλαιο εξετάζεται η δυνατότητα απόδοσης νομικής προσωπικότητας στα εν λόγω συστήματα, με σκοπό να θεωρείται υπεύθυνη η ίδια η τεχνολογία. Η σημασία αυτής της προσέγγισης έγκειται στο γεγονός ότι, εάν η ευθύνη αποδίδεται απευθείας στην ίδια την τεχνητή νοημοσύνη, τα δικαστήρια δεν θα αντιμετωπίζουν πλέον τη δυσκολία να διαπιστώσουν ποιο από τα προαναφερθέντα εμπλεκόμενα πρόσωπα είναι υπεύθυνο. Από την άλλη πλευρά, το να καθίσταται η τεχνολογία per se υπεύθυνη σημαίνει ότι ο κατασκευαστής ή ο προγραμματιστής ευθύνονται εκ των προτέρων άμεσα και αντικειμενικά, κάτι που ενδέχεται να επιβραδύνει την πρόοδο και την εν γένει εξέλιξη της εν λόγω τεχνολογίας, λόγω του εύλογου φόβου των τελευταίων. Στο πέμπτο κεφάλαιο θα αναλυθεί η προστασία των προσωπικών δεδομένων από τη χρήση τεχνητής νοημοσύνης στον τομέα της υγείας. Θα δούμε, λοιπόν, ποια προστασία επιφυλάσσουν οι ΗΠΑ και ποια η Ευρωπαϊκή Ένωση (στο εξής: «ΕΕ»). Τέλος, θα εξαχθούν συμπεράσματα ως απάντηση στα ερωτήματα που τέθηκαν και θα αναζητηθούν ορισμένες πιθανές λύσεις στο ζήτημα αυτό.

Download PDF

View in repository

Browse all collections