ΔΙΕΘΝΗΣ ΟΙΚΟΝΟΜΙΑ

Χωρίς ρυθμιστικό πλαίσιο η τεχνητή νοημοσύνη

JUSTIN NOGAREDE*

ΕΤΙΚΕΤΕΣ: ΑΝΑΛΥΣΗ

Οταν συζητούμε για την τεχνητή νοημοσύνη, μπαίνουμε στον πειρασμό να ασχοληθούμε με ακραία φαινόμενα, που μπορεί να συμβούν στο μέλλον: λόγου χάριν, τον πιθανό κίνδυνο ενός μικρού μη επανδρωμένου αεροσκάφους που «αφηνιάζει» και σκορπά τον θάνατο, ή τις προοπτικές απασχόλησης των ανθρώπων, όταν τα ρομπότ τους ξεπερνούν σε απόδοση σε κάθε επίπεδο. Ωστόσο, δεν χρειάζεται να φανταζόμαστε πράγματα, μια και οι τωρινές εξελίξεις είναι συνάμα και ενδιαφέρουσες και ανησυχητικές. Δεδομένα συγκεντρώνονται και μετά συνδυάζονται και χρησιμοποιούνται για αυτοματοποιημένη λήψη αποφάσεων, που δεν κατανοούμε μεν, μας επηρεάζουν δε. Ποιος γνωρίζει τον λόγο που η μηχανή αναζήτησης της Google δείχνει όσα δείχνει και σε ποια προσωπικά δεδομένα στηρίζεται; Ποιος μπορεί να είναι βέβαιος ότι βλέπει τις ίδιες προσφορές στο Booking.com με άλλους χρήστες και εάν όχι, γιατί; Η έλλειψη διαφάνειας δημιουργεί τεράστια περιθώρια χειραγώγησης και διακρίσεων.

Πέραν τούτων, οι δημόσιες αρχές στην Ε.Ε. σωρεύουν και συνδυάζουν δεδομένα, ενώ ολοένα και συχνότερα τα χρησιμοποιούν για να αποφασίσουν ποιος δικαιούται πρόσβαση σε κοινωνικές υπηρεσίες και ποιος θα τεθεί στο στόχαστρο της αστυνομίας και άλλων υπηρεσιών. Οπως τονίζει η πανεπιστημιακός Βιρτζίνια Γιούμπανκς, «όταν τέτοια συστήματα δεν έχουν δημιουργηθεί για να καταργήσουν απερίφραστα τις δομικές ανισότητες, η ταχύτητα και η κλίμακά τους τις επιτείνει». Χρησιμοποιώντας υφιστάμενα δεδομένα, τα οποία αναπόφευκτα είναι προϊόντα προκατάληψης και δίνουν μία μερική εικόνα, υπάρχει η τάση να διογκώνονται οι υπάρχουσες ανισότητες και να προβάλλονται στο μέλλον. Φυσικά, ο γενικός κανονισμός προστασίας δεδομένων της Ε.Ε. περιορίζει το πώς και το πότε τα προσωπικά δεδομένα χρησιμοποιούνται και παρέχει κάποια προστασία.

Ωστόσο, ο νόμος αυτός καταρτίστηκε για να απαντήσει σε όλα τα ερωτήματα σχετικά με την προστασία των ανθρωπίνων δικαιωμάτων, που εγείρονται σε ένα σύστημα λήψης αποφάσεων με αλγορίθμους και πηγαίνουν πέραν του απορρήτου και των ατομικών στοιχείων. Στις αρχές του 2017 το Ευρωκοινοβούλιο ζήτησε από την Κομισιόν νομοσχέδιο για τη ρομποτική και την τεχνητή νοημοσύνη. Η αρμόδια επιτροπή των 52 ειδικών δημοσίευσε πέρυσι τον Ιούνιο έναν κώδικα αρχών και συστάσεων για την άσκηση πολιτικής και την υλοποίηση επενδύσεων. Δυστυχώς, στην επιτροπή συμμετείχαν μόνον τέσσερις ειδικευμένοι σε ζητήματα ηθικής, ενώ οι υπόλοιποι ήταν εκπρόσωποι επιχειρηματικών κλάδων. Σε κάθε περίπτωση, οι ηθικοί κανόνες δεν μπορούν να αντικαταστήσουν μία δεσμευτική νομοθεσία. Για να εξασφαλίσεις περισσότερη διαφάνεια από επιχειρήσεις και δημόσιες υπηρεσίες σχετικά με το είδος των συστημάτων αυτοματοποιημένης λήψης αποφάσεων που χρησιμοποιούν, με ποιο σκοπό το κάνουν και βάσει ποίων δεδομένων και για να περιορίσεις συγκεκριμένες χρήσεις τους, δεν μπορείς να επαφίεσαι στην ατομική καλή θέληση.

Η νέα πρόεδρος της Ευρωπαϊκής Επιτροπής, Ούρσουλα φον ντερ Λάιεν, ανακοίνωσε πως θα καταρτισθεί νομοθεσία για συντονισμένη πανευρωπαϊκή προσέγγιση των ανθρωπίνων και ηθικών συνεπειών της τεχνητής νοημοσύνης και έθεσε ως όριο τις πρώτες 100 ημέρες από την ανάληψη των καθηκόντων της. Η προθεσμία ήταν αισιόδοξη και μάλλον δεν θα τηρηθεί, αλλά θα υπάρξουν προτάσεις έως τη λήξη του 2020. Πάντως, ακόμα κι έτσι, υπάρχουν προβλήματα, καθώς η τεχνητή νοημοσύνη αφορά τους νυν κανόνες μη διακρίσεων και προστασίας δεδομένων, την ασφάλεια των προϊόντων και την αστική ευθύνη, αλλά και τη λειτουργία της ενιαίας αγοράς και εκφάνσεις της καινοτομίας. Αυτά τα πεδία υπάγονται σε διαφορετικά τμήματα της Κομισιόν, έχουν διαφορετικούς προϊσταμένους και με διαφορετικά θεσμικά συμφέροντα. Εναπόκειται, τέλος, στην αντιπρόεδρο της Επιτροπής, Μαργκρέτε Βεστάγκερ, να συντονίσει το έργο σε αυτό το πεδίο, διότι εποπτεύει την ευρύτερη ψηφιακή πολιτική της Ε.Ε. και είναι καθ’ ύλην αρμόδια επίτροπος για τον ανταγωνισμό.   

* Σύμβουλος ψηφιακής πολιτικής του Ιδρύματος Ευρωπαϊκών Προοδευτικών Σπουδών (FEPS). 

Έντυπη

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ