Μπορεί ο αλγόριθμος να εκδώσει δικαστική απόφαση;

Μπορεί ο αλγόριθμος να εκδώσει δικαστική απόφαση;

3' 31" χρόνος ανάγνωσης
Ακούστε το άρθρο

Η τεχνητή νοημοσύνη (ΤΝ) αξιοποιείται –ή μπορεί να αξιοποιηθεί– σε ευρύ φάσμα λειτουργιών του συστήματος δικαιοσύνης: από την ανωνυμοποίηση εγγράφων και την «έξυπνη» αυτοματοποίηση διαδικασιών έως την «προβλεπτική ανάλυση» δικαστικών αποφάσεων ή τη συμμετοχή συστημάτων ΤΝ στη διαδικασία σχηματισμού της δικαστικής κρίσης. Σαφώς, η εκάστοτε χρήση εγείρει διαφορετικής φύσης και έντασης ανησυχίες σε σχέση με την επίδρασή της στα δικαιώματα των ατόμων, αλλά και τη συμβατότητά της με βασικές επιταγές του δικαιικού συστήματος, όπως π.χ. η διασφάλιση της «δίκαιης δίκης». Για παράδειγμα, ένα σύστημα ΤΝ, όπως το λογισμικό COMPAS που χρησιμοποιείται στις ΗΠΑ για την αξιολόγηση του κινδύνου υποτροπής κατηγορουμένων, ενέχει αναμφίβολα περισσότερους κινδύνους για τις ελευθερίες του ατόμου σε σύγκριση με τη χρήση ενός διαλογικού ρομπότ (chatbot) στην ιστοσελίδα ενός δικαστηρίου.

Τα ηθικά και νομικά διλήμματα εντείνονται όσο η συζήτηση για τη χρήση της ΤΝ πλησιάζει στον πυρήνα του συστήματος δικαιοσύνης, τη λήψη δικαστικών αποφάσεων. Η ανησυχία για ένα δυστοπικό μέλλον, στο οποίο η δικαστική εξουσία θα ανατεθεί εξ ολοκλήρου σε συστήματα ΤΝ είναι, χωρίς αμφιβολία, δικαιολογημένη, εάν λάβει κανείς ιδίως υπόψη ένα –εγγενές;– χαρακτηριστικό των συστημάτων ΤΝ: την αδιαφάνεια που θα καθιστούσε ανέφικτο τον ουσιαστικό έλεγχο της διαδικασίας λήψης μιας απόφασης από τον «ηλεκτρονικό δικαστή».

Επιτυγχάνει όμως ένα «ευφυές» σύστημα το ζητούμενο της αντικειμενικής και αμερόληπτης κρίσης; Ενα σύστημα ΤΝ θα εκπαιδευτεί κατ’ αρχήν με βάση δεδομένα, τα οποία προέρχονται από προηγούμενες δικαστικές αποφάσεις που συχνά περιλαμβάνουν –όχι απαραιτήτως εμφανείς– προκαταλήψεις εις βάρος ατόμων ή ομάδων ή και παρωχημένες κοινωνικές αντιλήψεις.. Συνεπώς, φαντάζει ιδιαίτερα δύσκολο ένα σύστημα ΤΝ που βασίζεται σε δεδομένα που είναι ήδη εμποτισμένα με συγκεκριμένες τάσεις, να οδηγεί σε αποφάσεις που δεν θα τις αναπαράγουν. Το πρόβλημα επιτείνει η λεγόμενη «προκατάληψη υπέρ της αυτοματοποίησης» (automation bias), η οποία οδηγεί τους χρήστες ενός συστήματος ΤΝ να εμπιστεύονται υπέρμετρα τα αποτελέσματα ή τις συστάσεις του και να μην αμφισβητούν την «κρίση» του.

Λαμβάνοντας υπόψη την τρέχουσα στάθμη της τεχνολογίας, η πλήρης υποκατάσταση του ανθρώπου – δικαστή από ένα σύστημα ΤΝ φαντάζει τεχνολογικά μη εφικτό αλλά και δικαιοπολιτικά μη αποδεκτό ενδεχόμενο, καθώς η πολυπλοκότητα της νομικής σκέψης, αλλά και του ίδιου του πλαισίου των κανόνων και των περιστατικών που καλείται να ερμηνεύσει ένας δικαστής, δεν φαίνεται να μπορεί να αντιμετωπιστεί από τον ηλεκτρονικό ανάλογό του. Αυτό όμως δεν θα πρέπει να ανασχέσει την αξιοποίηση υπαρκτών και πιθανών οφελών από τη χρήση συστημάτων ΤΝ σε επιμέρους στάδια και πτυχές της Δικαιοσύνης. Ακριβέστερα, ο στόχος πρέπει να συνίσταται ακριβώς στη βελτιστοποίηση αυτών των σταδίων, π.χ. μέσω της ενίσχυσης της ευρύτερης και ουσιώδους κατανόησης της νομοθεσίας και των ποικίλων συσχετισμών μεταξύ νομοθετικών κειμένων και δικαστικών αποφάσεων ή ακόμη και της υποστήριξης της δικαιοδοτικής διαδικασίας με χαρακτηριστικά προβλεπτικής ανάλυσης.

Η Ευρωπαϊκή Επιτροπή επιχειρεί να προσεγγίσει ορισμένα από τα ζητήματα αυτά μέσω της πρότασης κανονισμού για την τεχνητή νοημοσύνη. Πρόκειται για την πρώτη προσπάθεια να ρυθμιστεί δεσμευτικά η χρήση συστημάτων ΤΝ, υιοθετώντας μια «προσέγγιση με βάση τον κίνδυνο». Σύμφωνα με την πρόταση της Επιτροπής, τα συστήματα που αναπτύσσονται στο πλαίσιο της Δικαιοσύνης ανήκουν εξ ορισμού σε επίπεδο «υψηλού κινδύνου», υπαγόμενα σε ένα αυστηρό(;) κανονιστικό πλαίσιο. Με τις θετικές και τις αρνητικές πτυχές της, η επιλογή αυτή αναμένεται να αποτελέσει τη βάση για την οριοθέτηση της σχέσης μεταξύ ΤΝ και Δικαιοσύνης.

Οι προβληματισμοί σχετικά με τη χρήση ΤΝ στη Δικαιοσύνη εδράζονται σε δικαιοπολιτικούς και φιλοσοφικούς στοχασμούς που είναι ανεξάρτητοι και προγενέστεροι του νέου τεχνολογικού κύματος. Η ποιότητα, η ταχύτητα, η αποτελεσματικότητα και η ανεξαρτησία του συστήματος Δικαιοσύνης, η αποφυγή διακρίσεων, η αμεροληψία των δικαστών και η δυνατότητα κατανόησης του σκεπτικού των αποφάσεών τους αποτελούν σημεία προβληματισμού ανεξαρτήτως της χρήσης ΤΝ. Εν προκειμένω, η ΤΝ λειτουργεί ως χρήσιμη βάση για μια συγκριτική προσέγγιση –και συνεπώς αυτοαξιολόγηση– της (ανθρώπινης) δικαστικής κρίσης και των σχετικών διαδικασιών. Εάν η βελτίωση των επιμέρους χαρακτηριστικών του συστήματος ενισχύει τελικώς τη διαδικασία λήψης αποφάσεων (από ανθρώπους – δικαστές), πώς θα μπορούσε να υποστηρίξει κανείς ότι υποβαθμίζει την ποιότητα της Δικαιοσύνης ή θίγει το δικαίωμα σε δίκαιη δίκη; Χρειάζονται απλώς ιδέες, τόλμη και –προφανώς– εγγυήσεις.
 
* Η κ. Λίλιαν Μήτρου είναι καθηγήτρια του Πανεπιστημίου Αιγαίου, πρόεδρος του Ινστιτούτου για το Δίκαιο Προστασίας της Ιδιωτικότητας, των Προσωπικών Δεδομένων και την Τεχνολογία.

** Ο κ. Βασίλης Καρκατζούνης, LLM, είναι υποψήφιος διδάκτωρ του Πανεπιστημίου Αιγαίου, μέλος της επιστημονικής επιτροπής του υπουργείου Δικαιοσύνης για τις επιπτώσεις της τεχνητής νοημοσύνης στο δικαστικό σύστημα.

Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή