Γράφει ο Σπύρος Βλαχόπουλος*
Τα τελευταία χρόνια ο δημόσιος διάλογος κατακλύζεται από ανταλλαγή απόψεων πάνω στο θέμα της τεχνητής νοημοσύνης. Δικαίως άραγε; Μήπως το «παρακάναμε»; Μήπως η τεχνητή νοημοσύνη είναι απλά ένα ακόμη στάδιο τεχνολογικής εξέλιξης στην ιστορία της ανθρωπότητας; Η απάντηση στα ερωτήματα αυτά πρέπει να είναι μάλλον αρνητική.
Η τεχνητή νοημοσύνη εμφανίζει μια σαφή ποιοτική διαφορά σε σχέση με όλες τις τεχνολογικές εξελίξεις, αφού μπορεί να επηρεάσει με ριζικό τρόπο θεμελιώδεις αρχές του πολιτεύματος και της κοινωνικής μας συμβίωσης.
Ας ξεκινήσουμε με τη δημοκρατία. Στη σύγχρονη εποχή, η έννοια της δημοκρατίας δεν εξαντλείται στη διαδικασία των εκλογών για την ανάδειξη των μελών της λαϊκής αντιπροσωπείας. Η δημοκρατία έχει αποκτήσει μια σαφώς πιο συμμετοχική, ουσιαστική και διαρκή σημασία και στηρίζεται στον δημόσιο διάλογο και στη διαβούλευση της κρατικής εξουσίας με τον πολίτη πριν από τη λήψη των κρίσιμων αποφάσεων. Όλα αυτά δε, προϋποθέτουν μια ελεύθερη ανταλλαγή απόψεων και ροή πληροφοριών, που δεν θα κυριαρχείται από παραπληροφόρηση και fake news. Μπορεί λοιπόν να φανταστεί κανείς την αντικατάσταση του δημοκρατικού διαλόγου και της δημόσιας διαβούλευσης (που προϋποθέτουν την ανθρώπινη ιδιότητα) από εφαρμογές τεχνητής νοημοσύνης, η οποία επιπλέον είναι εξαιρετικά επιρρεπής στη μαζική αναπαραγωγή fake news;
Τα τελευταία χρόνια έχει αναδειχθεί επίσης η σημασία μιας συνταγματικής αρχής, η οποία συνδέεται στενά με τη δημοκρατία και τη θωρακίζει. Πρόκειται για την αρχή της διαφάνειας. Πώς συμβαδίζει με την αρχή της διαφάνειας το να μην υπάρχει ουσιαστική πρόσβαση στα δεδομένα και γενικότερα στον τρόπο λειτουργίας των εφαρμογών της τεχνητής νοημοσύνης, κυρίως γιατί η πρόσβαση αυτή απαιτεί εξαιρετικά εξειδικευμένες τεχνολογικές γνώσεις που δεν είναι προσιτές παρά μόνο σε λίγους και ειδικούς; Δεν είναι, επομένως, τυχαίο ότι τα συστήματα τεχνητής νοημοσύνης, λόγω αυτού ακριβώς του αδιαφανούς και δυσχερώς κατανοητού τρόπου λειτουργίας τους, συχνά παρομοιάζονται με το «μαύρο κουτί» των αεροπλάνων. Και, τέλος, αντί για τις εφαρμογές τεχνητής νοημοσύνης, δεν είναι προτιμότερο να λαμβάνονται οι αποφάσεις από δημοσίους λειτουργούς που λογοδοτούν στον υπουργό και αυτός με τη σειρά του στη Βουλή, δηλαδή στη λαϊκή αντιπροσωπεία; Η «αλυσίδα» αυτή δεν είναι σε τελική ανάλυση η ουσία της δημοκρατίας και του κοινοβουλευτικού μας πολιτεύματος;
Η δημοκρατία είναι όμως ο ένας «πυλώνας» της έννομης τάξης μας. Ο άλλος είναι η δικαιοσύνη και το κράτος δικαίου. Κεντρικός σκοπός του δικαίου είναι η απονομή εξατομικευμένης δικαιοσύνης. Και ναι μεν η τεχνητή νοημοσύνη μπορεί πράγματι να βοηθήσει προς την κατεύθυνση αυτή, από την άλλη όμως έχει παρατηρηθεί ότι οι εφαρμογές της σε κάποιες περιπτώσεις αναπαράγουν προκαταλήψεις και ανισότητες και μάλιστα με έναν «κρυφό» τρόπο που δύσκολα μπορεί να ελεγχθεί. Θα ήταν πραγματικά άτοπο να περιμένει κανείς ότι η τεχνητή νοημοσύνη θα οδηγήσει σε μια «αντικειμενική» δικαιοσύνη, η οποία θα αντικαταστήσει την υποκειμενική ματιά του δικαστή. Το πιο χαρακτηριστικό παράδειγμα μας έρχεται από τις Ηνωμένες Πολιτείες της Αμερικής, όπου αποδείχθηκε ότι το σύστημα Compas σχετικά με τις πιθανότητες υποτροπής κρατούμενων αναπαρήγαγε τις κοινωνικές προκαταλήψεις εις βάρος των Αφροαμερικανών. Ειδικότερα, οι εσφαλμένες προβλέψεις εις βάρος των Αφροαμερικανών ήταν σχεδόν διπλάσιες σε σχέση με τους λευκούς υποδίκους.
Κατά συνέπεια και πέρα από κάποιες βοηθητικές λειτουργίες της τεχνητής νοημοσύνης στην απονομή της δικαιοσύνης (π.χ. στην αναζήτηση στις βάσεις νομικών δεδομένων, στην ανωνυμοποίηση δικαστικών αποφάσεων, στην ταξινόμηση υποθέσεων ανά κατηγορίες, στην εξαγωγή στατιστικών στοιχείων και στον υπολογισμό της αποζημίωσης), σε καμία περίπτωση δεν μπορεί να αντικαταστήσει τον άνθρωπο-δικαστή.
Μπορεί κανείς να φανταστεί μια δικαιοσύνη, η οποία δεν θα αξιολογεί με ανθρώπινους όρους αλλά μηχανικά και ανώνυμα, μέσω των εφαρμογών της τεχνητής νοημοσύνης, και μάλιστα με αποτελέσματα που θα είναι δύσκολα επαληθεύσιμα και ελέγξιμα; Με ποια κριτήρια οι εφαρμογές της τεχνητής νοημοσύνης θα αποφαίνονται, σε αμφισβητούμενες περιπτώσεις, για το ποιος είναι ο εφαρμοστέος κανόνας δικαίου ή η ορθότερη ερμηνευτική εκδοχή ενός ασαφούς κανόνα δικαίου; Με ποιον τρόπο οι εφαρμογές της τεχνητής νοημοσύνης θα «αφουγκραστούν» τις νομικές, κοινωνικές και τεχνολογικές εξελίξεις, ώστε να προσαρμόσουν την ερμηνεία του κανόνα δικαίου στις μεταβαλλόμενες συνθήκες;
Σε τελική ανάλυση, η αντικατάσταση της ανθρώπινης δικαιοσύνης από τις εφαρμογές της τεχνητής νοημοσύνης δεν συμβαδίζει με τις δικαιοκρατικές εγγυήσεις που διέπουν τη λειτουργία της δικαιοσύνης, όπως την αρχή της δημοσιότητας και την αιτιολόγηση των δικαστικών αποφάσεων.
Μπορεί να συναχθεί ένα συμπέρασμα ύστερα απ’ όλα αυτά; Η απάντηση τώρα είναι θετική. Η τεχνητή νοημοσύνη μπορεί να έχει πολύ θετικά αποτελέσματα, αρκεί να μην αντικαταστήσει τον άνθρωπο. Η ανθρώπινη επίβλεψη στις εφαρμογές της τεχνητής νοημοσύνης είναι απαραίτητος όρος για τη διατήρηση του σύγχρονου δημοκρατικού κράτους δικαίου.
Ο κίνδυνος για την τεχνητή νοημοσύνη είναι να γίνει ανεξέλεγκτη και πλήρως αυτόνομη από τον ανθρώπινο παράγοντα. Γιατί τότε μπορεί να γίνει πραγματικότητα, χωρίς να υπάρχει η δυνατότητα επανόρθωσης μέσω των ανθρώπινων μηχανισμών, το εφιαλτικό σενάριο με το οποίο ο Κάφκα αρχίζει τη «Δίκη»: Τον Γιόζεφ Κ. «χωρίς να έχει κάνει κανένα κακό, τον συνέλαβαν ένα πρωί».
*Καθηγητής Νομικής Σχολής ΕΚΠΑ