H τεχνητή νοημοσύνη και οι νομικές όψεις της

H τεχνητή νοημοσύνη και οι νομικές όψεις της

Πώς θα ρυθμίσουμε τους αλγορίθμους ώστε να υπηρετούν καλύτερα την ανθρωπότητα; – Οι κίνδυνοι και οι προκλήσεις

4' 2" χρόνος ανάγνωσης
Ακούστε το άρθρο

ΛΙΛΙΑΝ ΜΗΤΡΟΥ (επιμ.)

Μπορεί ο αλγόριθμος… να είναι ηθικός, να είναι δίκαιος, να είναι διαφανής, να δικάζει και να διοικεί;

Πανεπιστημιακές Εκδόσεις Κρήτης, 2023, σελ. 208

Πέντε πολύ ενδιαφέροντα, κρίσιμα και επίκαιρα ερωτήματα επιχειρεί να απαντήσει ο συλλογικός τόμος με τον τίτλο «Μπορεί ο αλγόριθμος… να είναι ηθικός, να είναι δίκαιος, να είναι διαφανής, να δικάζει και να διοικεί;», που κυκλοφόρησε πρόσφατα από τις Πανεπιστημιακές Εκδόσεις Κρήτης, υπό την επιστημονική επιμέλεια της καθηγήτριας του τμήματος Μηχανικών Πληροφοριακών και Επικοινωνιακών Συστημάτων στο Πανεπιστήμιο Αιγαίου, Λίλιαν Μήτρου. Οι νομικοί επιδεικνύουν τα τελευταία χρόνια αυξανόμενο ενδιαφέρον για τις εξελίξεις της τεχνητής νοημοσύνης, όχι μόνο γιατί φέρεται να απειλείται το επάγγελμά τους, αλλά κυρίως γιατί η επιστήμη τους θα παίζει όλο και πιο καίριο ρόλο στη διαμόρφωση της σχέ-σης μας με τις νέες τεχνολογίες.

Το βιβλίο ξεκινάει με μια πολύ κατατοπιστική εισαγωγή της κ. Μήτρου και συνεχίζει με την ανάλυση τεσσάρων νομικών, οι οποίοι μελετούν μεθοδικά τα κύρια διακυβεύματα της τεχνητής νοημοσύνης, χρησιμοποιώντας πλήθος βιβλιογραφικών αναφορών και εύγλωττων παραδειγμάτων. Ελλείψει εξειδικευμένης για την τεχνητή νοημοσύνη νομοθεσίας, παγκοσμίως, ο τόμος υποχρεωτικά καταλήγει να σχολιάζει προθέσεις, κείμενα και γεγονότα. Οι απαντήσεις των συγγραφέων τίθενται σε στέρεες βάσεις και καλύπτουν ένα μεγάλο φάσμα της επιχειρηματολογίας. Η κατάρα, ωστόσο, όσων γράφουν για ένα τόσο ρευστό πεδίο, είναι ότι αναγκάζονται ενίοτε να κινούνται σε κινούμενη άμμο. Η έκδοση, για παράδειγμα, δεν πρόλαβε την εμφάνιση του ChatGPT.

Συνοψίζοντας και απλοποιώντας τις θέσεις που παίρνουν οι συγγραφείς στα κρίσιμα θέματα, θα έλεγε κάποιος ότι η τεχνητή νοημοσύνη έχει δύο δομικά προβλήματα που πρέπει να αντιμετωπιστούν μέσω κάποιας ρύθμισης: τους εγγενείς τεχνικούς περιορισμούς, που συνδέονται με την τεχνολογία καθεαυτή, και τους εξωγενείς παράγοντες, που συνδέονται με τον προγραμματισμό από την πλευρά του ανθρώπινου παράγοντα.

Ο αλγόριθμος, κατά συνέπεια, μπορεί να είναι ηθικός, δίκαιος και διαφανής, αλλά μέχρι ενός σημείου. Η αξιοπιστία του θα εξαρτηθεί κατά κύριο λόγο απ’ την ανθρώπινη ικανότητα και την ανθρώπινη βούληση. Εδώ, οι πάντες έχουν τον ρόλο τους. «Οι εταιρείες πρέπει να σκεφτούν σοβαρά τις ηθικές διαστάσεις για το πώς αναπτύσσουν τα εργαλεία τους και πού οδηγούν τις κοινωνίες», γράφει ο Σπύρος Τάσσης, «αλλά κι εμείς, ως δημοκρατικοί πολίτες, οφείλουμε να γνωρίζουμε και να εκπαιδευτούμε για τις ηθικές και κοινωνικές συνέπειες, όχι μόνο για να αποφασίσουμε τι είναι σωστό και πώς πρέπει να αναπτυχθεί το ρυθμιστικό πλαίσιο, αλλά κυρίως για να επιλέξουμε ποιος ακριβώς θα είναι ο ρόλος που θα επιτρέψουμε σε αυτές τις τεχνολογίες να παίξουν στη ζωή μας, όσο ακόμη μας παρέχεται αυτή η δυνατότητα».

Τόσο όμως η ικανότητα όσο και η βούλησή μας να κατασκευάσουμε ηθικούς και δίκαιους αλγορίθμους, σκοντάφτουν πάνω στις προκαταλήψεις και τις διακρίσεις μας, ένα θέμα που αναλύει διεξοδικά η Ηλιάνα Κωστή. Η συγγραφέας υποστηρίζει ότι μπορεί να επιτευχθεί κάποιο υψηλό επίπεδο αξιοπιστίας αναφορικά με τη δικαιοσύνη, αλλά υπάρχει ένα ακόμη σοβαρό εμπόδιο, το φαινόμενο του «μαύρου κουτιού», το οποίο απαιτεί πιο τεχνικές λύσεις. Στο ίδιο συμπέρασμα καταλήγει και το ζήτημα της διαφάνειας, όπως το διαχειρίζεται ο Απόστολος Βόρρας. Η διαφάνεια έχει όρια: ακόμη και οι μηχανικοί αδυνατούν πολλές φορές να επεξηγήσουν το αποτέλεσμα μιας διαδικασίας μηχανικής μάθησης. Με λίγα λόγια, ο αλγόριθμος μπορεί να είναι δίκαιος και ηθικός, αν ο άνθρωπος το επιτρέψει με τις πράξεις ή τις παραλείψεις του, αλλά μπορεί να είναι διαφανής μόνο αν η ίδια η μηχανή το επιτρέψει. Αυτή κι αν είναι πρόκληση.

Στο βιβλίο αναπόφευκτα υπάρχουν αρκετές αλληλοεπικαλύψεις μεταξύ των συγγραφέων, καθώς τα δομικά χαρακτηριστικά της σύγχρονης τεχνητής νοημοσύνης τέμνουν οριζόντια τα προβλήματα. Οι μεροληψίες, η ιδιωτικότητα, η αδιαφάνεια επανέρχονται ως λάιτ μοτίβ στο βιβλίο, καθιστώντας σαφές ότι για να ρυθμιστεί αυτή η πανίσχυρη τεχνολογία, θα πρέπει να χρησιμοποιηθούν πιο διεπιστημονικές προσεγγίσεις. Εύλογα, στη μελέτη επανέρχεται σταθερά ο σχολιασμός της Πράξης για την τεχνητή νοημοσύνη της Ευρωπαϊκής Eνωσης, ο οποίος θα μπορούσε να καταλαμβάνει ακόμη περισσότερο χώρο. Ο πρωτοποριακός αυτός νόμος, που βρίσκεται ακόμη σε διαβούλευση, χρειάζεται περισσότερη επεξήγηση και περισσότερη συζήτηση, καθώς όταν ψηφιστεί θα μας αφορά όλους.

Eνα απ’ τα πιο ενδιαφέροντα κείμενα του τόμου είναι η διαπραγμάτευση του δύσκολου ερωτήματος, αν μπορεί ο αλγόριθμος να δικάζει. Η απάντηση του Βασίλη Καρκατζούνη είναι ότι υπό προϋποθέσεις, κατά περίπτωση, και πάντα με τον άνθρωπο στην εξίσωση, ο αλγόριθμος μπορεί και να δικάζει. Τέλος, η κ. Μήτρου είναι πιο συγκρατημένη σε σχέση με το εάν θα πρέπει να ανατεθεί στην τεχνητή νοημοσύνη η δημόσια διοίκηση. Χαρακτηρίζει το εγχείρημα «σύνθετο» και υπολογίζει ότι τα κόστη ενδεχομένως να είναι περισσότερα απ’ τα οφέλη.

Η επιλογή της νομικής διαλέκτου στη συγγραφή των κειμένων, αν και κατανοητή, είναι πιθανό να απομακρύνει το γενικό κοινό απ’ την ανάγνωση της μελέτης, γεγονός που σ’ έναν βαθμό την αδικεί, καθώς θα είχαν συμφέρον να την προσεγγίσουν πολύ περισσότεροι. Σε κάθε περίπτωση, το βιβλίο θα ωφελήσει με βεβαιότητα όσους έχουν έστω και μια επιδερμική σχέση με τη νομική επιστήμη. Θα τους εξοικειώσει με τις βασικές πτυχές μιας περίπλοκης κοινωνικοπολιτικής και νομικής εξίσωσης, για την οποία πρέπει υποχρεωτικά να είμαστε σήμερα όλοι ενήμεροι.

Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή