20 Ιουνίου, 2024

Πόσο αντικειμενική μπορεί να είναι η τεχνητή νοημοσύνη;

Του Σωκράτη Βερτέλλη

Για τους περισσότερους, επηρεασμένους σίγουρα και από διάσημες ταινίες του κινηματογράφου, έως πρόσφατα η έννοια της τεχνητής νοημοσύνης (ΑΙ) ήταν συνυφασμένη με τα ρομπότ. Όμως, η χρήση λίγο παλαιότερα εικονικών βοηθών από γίγαντες της τεχνολογίας, όπως το Siri της Apple ή το Alexa της Amazon, και  πρωτίστως, η πρόσφατη εμφάνιση λογισμικών μετάφρασης ή εφαρμογών που επιτρέπουν τον διάλογο  (chatbot) όπως το Chat GPT της OPEN AI, κατέστησαν σαφές ότι ΑΙ σημαίνει – για την ώρα τουλάχιστον – λογισμικό, δηλαδή ένα πρόγραμμα υπολογιστή, το οποίο επεξεργάζεται γρήγορα τα δεδομένα και μας δίνει απαντήσεις, που στο συγκεκριμένο πεδίο αποκαλούμε αλγόριθμο.. Η διάδοση και εξέλιξη τέτοιου λογισμικού προσδοκάται ότι θα καταλήγει σε αποφάσεις: α) πολύ πιο σωστές, ειδικά σε σοβαρά ζητήματα όπως η ιατρική διάγνωση, β) πολύ ταχύτερες και με πολύ χαμηλότερο κόστος, γ) απαλλαγμένες από προκαταλήψεις που, αντίθετα, μπορεί να παρεισφρησουν στην ανθρώπινη κρίση, και άρα πολύ πιο αντικειμενικές και δίκαιες. Σε αυτό το τελευταίο θα επικεντρωθούμε στο παρόν άρθρο. 

Αν και εκ πρώτης, φαίνεται όντως ότι υποκειμενικές αντιλήψεις αναφορικά με φυλετικά ζητήματα, ζητήματα θρησκευτικών πεποιθήσεων, φύλου κλπ. δεν μπορούν να επηρεάσουν τις αποφάσεις ενός αλγορίθμου, η πραγματικότητα είναι διαφορετική. Ας δούμε – όσο πιο απλά γίνεται – πώς χτίζεται ένας αλγόριθμος μηχανικής εκμάθησης. Αρχικώς, ο αλγόριθμος τροφοδοτείται με αμέτρητα, γνωστά δεδομένα (training data) τα οποία έχει κατηγοριοποιήσει ο προγραμματιστής και τα οποία αντιστοιχούν σε γνωστές απαντήσεις (known answers). Στη συνέχεια αναπτύσσεται ένα μοντέλο (decision model) που επιτρέπει στα εισαγόμενα, γνωστά δεδομένα (input) να οδηγήσουν στα εξαγόμενα, γνωστά αποτελέσματα (output). Ακολούθως, η αποτελεσματικότητα του μοντέλου εξετάζεται σε σχέση με τα αποτελέσματα που δίνει όταν πλέον τροφοδοτείται με δεδομένα από την πραγματική ζωή. Τέλος, το μοντέλο πρέπει να είναι έτοιμο να εφαρμοστεί σε νέες καταστάσεις και να επεξεργαστεί άγνωστα δεδομένα ώστε να εξάγει συμπεράσματα. Σε αυτό το στάδιο, δηλαδή, ο αλγόριθμος ψάχνει πλέον μόνος του στα νέα δεδομένα που συναντά να βρεί γνωστά μοτίβα και να συνδυάσει γνωστές του καταστάσεις ώστε να παράσχει αποφάσεις και προβλέψεις για τις νέες συνθήκες. 

Προκαταλήψεις και διακρίσεις, όμως, μπορούν να εισχωρήσουν σε κάθε ένα από τα παραπάνω στάδια  ανάπτυξης του αλγόριθμου. Εάν για παράδειγμα, για μία ομάδα ανθρώπων δεν υπάρχουν επαρκή δεδομένα ή τα δεδομένα είναι ανακριβή ή πεπαλαιωμένα ενώ για μία άλλη ομάδα, υπάρχουν άφθονα και σύγχρονα δεδομένα, εκ των πραγμάτων το μοντέλο που θα αναπτυχθεί θα ευνοεί τη δεύτερη ομάδα. Επίσης, αν με βάση τα δεδομένα εκπαίδευσης οι άνθρωποι μίας φτωχής γειτονιάς μίας πόλης είναι λιγότερο αποτελεσματικοί ή εργατικοί σε σχέση με αυτούς μίας πλούσιας γειτονιάς, σε περίπτωση που το μοντέλο γενικευτεί το συμπέρασμα θα είναι ότι οι άνθρωποι που ζουν σε φτωχότερες περιοχές είναι λιγότερο ικανοί από αυτούς που έτυχε να ζουν σε πιο πλούσιες. Έτσι, σε περίπτωση που χρησιμοποιηθεί αυτός ο αλγόριθμος για να ξεχωρίσει τους υποψηφίους για μία θέση εργασίας – πολλές εταιρείες ανθρώπινου δυναμικού, χρησιμοποιούν ήδη ΑΙ για να ξεχωρίσουν τα βιογραφικά που ενδιαφέρουν από αυτά που απορρίπτονται εξαρχής – οι υποψήφιοι της δεύτερης κατηγορίας θα έχουν πολύ περισσότερες πιθανότητες από αυτούς της πρώτης. Ανάλογα, στις χώρες όπου θα χρησιμοποιηθεί η ΑΙ ως βοηθός στο σύστημα απονομής δικαιοσύνης – ήδη συμβαίνει σε ορισμένες πολιτείες των ΗΠΑ – ένας αλγόριθμος που έχει εκπαιδευτεί με δεδομένα ελαφράς εγκληματικότητας για τους λευκούς και βαριάς εγκληματικότητας για τους μαύρους, εκ των πραγμάτων θα οδηγεί σε ευνοϊκότερα συμπεράσματα και προτάσεις ποινών για τους λευκούς.  

Εξάλλου, δεν πρέπει να αποκλείονται περιπτώσεις όπου οι ίδιοι οι προγραμματιστές, επιχειρούν να μεταλαμπαδεύσουν στον αλγόριθμο, δικές τους υποκειμενικές απόψεις με ‘δούρειους ίππους’. Στο ίδιο, προηγούμενο παράδειγμα, ο προγραμματιστής ενός αλγορίθμου που υπολογίζει τα ασφάλιστρα που πρέπει να πληρώσει κάποιος σε μία ασφαλιστική εταιρεία, αντί να εισάγει στο μοντέλο ευθέως ρατσιστικές θέσεις, που είναι πιο εύκολο να εντοπιστούν, αντικαθιστά τα φυλετικά χαρακτηριστικά με τους ταχυδρομικούς κώδικες γιατί είναι γνωστό ότι σε συγκεκριμένους ταχυδρομικούς κώδικες κατοικούν πολίτες με τα φυλετικά χαρακτηριστικά που θέλει να αποφύγει να ασφαλίσει. Έτσι, όταν θα ζητήσει να ασφαλιστεί ο κάτοικος των περιοχών αυτών, θα κληθεί να πληρώσει μεγαλύτερο ασφάλιστρο από τον κάτοικο της πιο πλούσιας περιοχής. Το φαινόμενο αυτό ονομάζεται ‘redlining effect’ ή ‘masking’. Θα μπορούσαμε να γεμίσουμε πολλές ακόμα σελίδες με τρόπους που ένας αλγόριθμος μπορεί να καταλήξει σε δυσμενείς διακρίσεις σε βάρος συγκεκριμένων ομάδων ή ατόμων. Επομένως, δεδομένου ότι ο αλγόριθμος είναι ανθρώπινη κατασκευή, αποδεικνύεται ότι η ΑΙ μπορεί κάλλιστα να περιέχει προκαταλήψεις. Τούτο μπορεί να είναι  ιδιαίτερα επικίνδυνο, όπως γίνεται εύκολα αντιληπτό, όταν χρησιμοποιείται από ισχυρούς παράγοντες (πολυεθνικές τροφίμων ή φαρμάκων, τράπεζες, ασφαλιστικές εταιρείες, παρόχους ενέργειας ακόμα και κυβερνήσεις) οι οποίοι μπορούν να “παραγγείλουν” τον αλγόριθμο που τους εξυπηρετεί. 

Πώς λοιπόν μπορεί να αντιμετωπιστεί ο κίνδυνος αυτός; Καταρχάς, να σημειώσουμε ότι η απαγόρευση των διακρίσεων έχει ξεχωριστή θέση τόσο στο Χάρτη των Θεμελιωδών Δικαιωμάτων της Ευρωπαϊκής Ένωσης (άρ. 21) όσο και στην Ευρωπαϊκή Σύμβαση των Δικαιωμάτων του Ανθρώπου (άρ. 14) και φυσικά στη Συνθήκη για την Λειτουργία της Ευρωπαϊκής Ένωσης (άρ. 18-25). Η Ευρωπαϊκή Επιτροπή, αναγνωρίζοντας ότι μόνο μία αξιόπιστη ΑΙ μπορεί να έχει κέρδη για την κοινωνία των πολιτών ίδρυσε το 2018 το Artificial Intelligence High Level Expert Group (AIHLEG) το οποίο σε έκθεση που παρέδωσε το 2019 έθεσε ως θεμέλιο λίθο της αξιόπιστης ΑΙ την ύπαρξη ηθικών κανόνων, με προεξάρχουσες την ισότητα, την απαγόρευση των διακρίσεων και την αλληλεγγύη. Μπορούν, όμως, τέτοιες ηθικές ανησυχίες να μεταφραστούν σε δεσμευτικούς νομικούς κανόνες και, μάλιστα, για αλγόριθμους που συχνά αναπτύσσονται εκτός ΕΕ; 

Λαμβάνοντας υπόψη τις δυσκολίες αυτές, ήδη στους κόλπους της ΕΕ βρίσκεται σε προχωρημένο στάδιο η Πράξη για την Τεχνητή Νοημοσύνη (European AI ACT) που θα αποτελεί το πρώτο παγκοσμίως νομικά δεσμευτικό κείμενο που θα επιχειρεί να θέτει αυστηρούς κανόνες για την ΑΙ. Δεδομένου ότι το τελικό κείμενο δεν έχει ακόμα ψηφιστεί και τεθεί σε ισχύ, περιοριζόμαστε να επισημάνουμε ότι η ΑΙ ACT θα εφαρμόζεται σε όλους τους αλγορίθμους που μπορεί να έχουν υψηλό ρίσκο, με βάση τα κριτήρια που θέτει το κείμενο, ανεξαρτήτως εάν αυτοί αναπτύχθηκαν εντός ή εκτός ΕΕ. Η AI ACT, μάλιστα, έχοντας απολύτως επίγνωση των προκαταλήψεων που μπορεί να παρεισφρήσουν στα δεδομένα εκμάθησης, θέτει πολύ αυστηρές προδιαγραφές για τα δεδομένα που χρησιμοποιούνται ως training data. 

Όμως, και ο Γενικός Κανονισμός Προστασίας Δεδομένων Προσωπικού Χαρακτήρα (GDPR) που βρίσκεται ήδη σε ισχύ αποτελεί σημαντικότατο ανάχωμα στην καταστρατήγηση των ίσων ευκαιριών από αλγόριθμους. Για παράδειγμα η πρώτη αρχή που θέτει ο GDPR είναι η επεξεργασία των προσωπικών δεδομένων να είναι νόμιμη, αντικειμενική και διαφανής (άρ. 5 παρ. 1 α). Αν και στο άρ. 6, ο Κανονισμός περιλαμβάνει διάφορες περιπτώσεις που μπορεί να καθιστούν την επεξεργασία νόμιμη χωρίς να χρειάζεται απαραίτητα η συγκατάθεση του υποκειμένου των δεδομένων για την επεξεργασία των δεδομένων του από έναν υπεύθυνο επεξεργασίας, κατά τη γνώμη μας, προκειμένου να αναπτυχθεί ένα μοντέλο αλγορίθμου, η μόνη βάση που μπορεί να σταθεί είναι η συναίνεση. Πράγματι, λαμβάνοντας υπόψη ότι τελικά η νομιμότητα κάθε επεξεργασίας που δεν βασίζεται στη συγκατάθεση ελέγχεται σταθμίζοντας τα συμφέροντα υποκειμένου και υπεύθυνου επεξεργασίας – όταν δεν θίγονται βάναυσα τα συμφέροντα του υποκειμένου η επεξεργασία θεωρείται νόμιμη – , στην προκειμένη περίπτωση θεωρούμε αναμφισβήτητα ότι τα συμφέροντα του υποκειμένου των δεδομένων που διακυβεύονται βρίσκονται πάνω από κάθε ενδεχόμενο συμφέρον του υπεύθυνου επεξεργασίας, δηλαδή του προγραμματιστή. Επομένως, ο τελευταίος θα είναι υποχρεωμένος, προτού συλλέξει τα δεδομένα που χρειάζεται, να ενημερώσει αναλυτικά το υποκείμενο για τους σκοπούς της επεξεργασίας ώστε να λάβει τη συγκατάθεσή του. Αλλά και η αντικειμενικότητα και η διαφάνεια της επεξεργασίας αποτελούν εξίσου σοβαρές ασπίδες προστασίας. Η πρώτη διότι επιβάλλει να μη γίνονται διακρίσεις κατά την επεξεργασία δεδομένων και η δεύτερη διότι επιβάλλει ο τρόπος επεξεργασίας να είναι σαφής και κατανοητός. Ασφαλώς, σημαντικές είναι και οι λοιπές αρχές του άρ. 5 παρ. 1 του GDPR, όπως του περιορισμού του σκοπού, της ελαχιστοποίησης (της επεξεργασίας), της ακρίβειας (των δεδομένων) και της περιορισμένης αποθήκευσης, διότι επιτάσσουν να χρησιμοποιούνται μόνο τα δεδομένα που απαιτούνται για συγκεκριμένο σκοπό και διάστημα και έτσι δεν επιτρέπουν την ανεξέλεγκτη εξαγωγή συμπερασμάτων και ανίχνευση μοτίβων που μπορεί να χρησιμοποιηθούν για άλλους αλγόριθμους.  Εφόσον, λοιπόν, ο υπεύθυνος επεξεργασίας δεν είναι σε θέση να αποδείξει ότι έχει τηρήσει στο ακέραιο τις αρχές που επιβάλει ο Κανονισμός θα έρθει αντιμέτωπος με σοβαρές κυρώσεις (αρχή της λογοδοσίας, άρ. 5 παρ. 2). Παρεμφερής με τη λογοδοσία διάταξη υπάρχει και στην AI ACT, η οποία μάλιστα προβλέπει την ευθύνη ακόμα και του εισαγωγέα ενός προγράμματος ΑΙ, θέλοντας ακριβώς να προστατεύσει και από αλγορίθμους που αναπτύχθηκαν εκτός ΕΕ.  Προστασία θα μπορούσε να προκύψει, επιπλέον, και από διατάξεις του δικαίου του ανταγωνισμού για τις αθέμιτες, εμπορικές πρακτικές αλλά και του δικαίου του καταναλωτή, όμως, τα στενά πλαίσια του παρόντος άρθρου δεν επιτρέπουν περαιτέρω ανάπτυξη. Ο GDPR έχει και πολλές ακόμα δικλείδες ασφαλείας που μπορούν να εφαρμοστούν και στην ΑΙ, ειδικά στις διατάξεις για την αυτοματοποιημένη λήψη αποφάσεων ή την κατάρτιση προφίλ. 

Εν κατακλείδει, η τεχνητή νοημοσύνη αναμφίβολα αποτελεί την τέταρτη, βιομηχανική επανάσταση και πρόκειται να αλλάξει τον τρόπο που σκεφτόμαστε και λειτουργούμε έως τώρα. Προκειμένου, όμως, να μην καταστεί όπλο στα χέρια των λίγων σε βάρος των πολλών και να έχουν όλοι τις ίδιες ευκαιρίες, θα πρέπει ο τρόπος ανάπτυξης και η εφαρμογή της να σέβονται αυστηρούς κανόνες ηθικής οι οποίοι να μετουσιώνονται σε νομικές επιταγές. Ήδη ο GDPR ενσωματώνει πολλές από αυτές τις ηθικές αξίες και αποτελεί ισχυρό, νομικό εργαλείο για την πάταξη των διακρίσεων. Συνεπώς, αν και πολλοί μπορεί να θεωρούν τον GDPR περιττό ή κουραστικά λεπτομερή και γραφειοκρατικό, στην πραγματικότητα πρόκειται για ένα νομοθέτημα αληθινά πρωτοποριακό και ανθρωποκεντρικό. Δεν είναι τυχαίο, άλλωστε, ότι οι περισσότερες ανεπτυγμένες χώρες εκτός ΕΕ, με τον ένα ή τον άλλο τρόπο, έχουν σπεύσει να προσαρμόσουν ανάλογα και τις δικές τους νομοθεσίες. Αισιόδοξα, βέβαια, είναι τα μηνύματα και από την AI ACT που φαίνεται ότι θα αποτελέσει ένα πολύ μεθοδικό και ισχυρό σύμμαχο στην προστασία τόσο της ιδιωτικότητας όσο και της ισότητας έναντι μίας ασύδοτης ΑΙ. Μένει να δούμε αν όλα αυτά μπορούν να εφαρμοστούν στην πράξη ή τελικά η τεχνητή νοημοσύνη θα αποδειχθεί  πιο έξυπνη από τους νομοθέτες και τους τοποτηρητές της έννομης τάξης. 

Ο Σωκράτης Βερτέλλης είναι δικηγόρος, LLM in Technology, Media and Telecommunications Law, συνιδρυτής και εταίρος της INTELLEX (www.intel-lex.eu)