Μήπως ο αλγόριθμος με αδικεί;

Μήπως ο αλγόριθμος με αδικεί;

Το ζήτημα της αδιαφάνειας της τεχνητής νοημοσύνης, που «αποφασίζει» χωρίς να εξηγεί, θέτουν νέοι επιστήμονες και δημιουργοί

7' 20" χρόνος ανάγνωσης
Ακούστε το άρθρο

Θα εμπιστευόσασταν μια τεχνητή νοημοσύνη (Τ.Ν.) να διαβάζει τα συναισθήματά σας, αφού έχει εκπαιδευθεί να τα αναγνωρίζει από εκατομμύρια άλλα πρόσωπα, αποκτώντας έτσι κάποιες στέρεες προκαταλήψεις; Πώς θα σας φαινόταν αν μια Τ.Ν. έπαιρνε μια σημαντική απόφαση για εσάς, σας απέρριπτε, για παράδειγμα, για μια δουλειά, χωρίς όμως να είναι σε θέση να σας εξηγήσει επακριβώς πώς οδηγήθηκε σε αυτό το αποτέλεσμα; Θα μοιραζόσασταν πρόθυμα τα δεδομένα της υγείας σας με μια Τ.Ν. που αντλεί πληροφορίες από χιλιάδες άλλους ταυτόχρονα; Τα ερωτήματα αυτά μπορεί να έχουν μια έντονη ηθική χροιά, αλλά δεν είναι καθόλου θεωρητικά. Δυνητικά θα μπορούσαν να συζητούνται από πολύ περισσότερους, αλλά το πρόβλημα είναι ότι μοιάζουν πολύ περίπλοκα για τον μη ειδικό. Αυτό τουλάχιστον καταδεικνύει ένα πρόγραμμα του Ινστιτούτου Γκαίτε, που επιχειρεί να πυροδοτήσει τον προβληματισμό για την ηθική της τεχνητής νοημοσύνης.

«Πιστεύω ότι η ηθική της Τ.Ν. πρέπει να απασχολήσει τον δημόσιο διάλογο γιατί είναι ένα θέμα που μας αφορά όλους», επισημαίνει η Γκαλίνα Ντιμίτροβα-Ντίμοβα, καθηγήτρια Ψηφιακών Τεχνών στην Εθνική Ακαδημία Τεχνών της Σόφιας και επιμελήτρια του προγράμματος. «Οι αλγόριθμοι βρίσκονται σήμερα στα κοινωνικά δίκτυα και στις εφαρμογές που χρησιμοποιούμε, στις διαδικτυακές μας αγορές, στα μέσα ενημέρωσης, σε προϊόντα και υπηρεσίες υγείας, βρίσκονται παντού. Υπάρχουν τρομερά πλεονεκτήματα, αλλά υπάρχουν και παρενέργειες που εγείρουν μια σειρά ηθικών ζητημάτων. Τι κομίζει η Τ.Ν. στην ανθρωπιά μας, πώς αλλάζει τις μεταξύ μας σχέσεις, πώς επηρεάζει τις ζωές μας και τη σχέση μας με τις συσκευές και τη μηχανική νοημοσύνη;».

«Τι κομίζουν αυτές οι εφαρμογές στην ανθρωπιά μας, πώς επηρεάζουν τις ζωές μας και τις σχέσεις μας;», είναι κάποια από τα ερωτήματα που διερευνά το διεπιστημονικό πρόγραμμα του Ινστιτούτου Γκαίτε.

Δεκαπέντε υπότροφοι του Ινστιτούτου Γκαίτε κλήθηκαν να διαπραγματευθούν τα καίρια αυτά ερωτήματα, καθένας από τη δική του επιστημονική σκοπιά. Η ομάδα AIMotion, για παράδειγμα, φώτισε μέσω μιας διαδραστικής εγκατάστασης το ζήτημα της ανάγνωσης των συναισθημάτων από λογισμικά αναγνώρισης προσώπων. Τα λογισμικά αυτά έχουν μπει εσχάτως και στο στόχαστρο της Ευρωπαϊκής Ενωσης, η οποία συζητάει ακόμα και την απαγόρευσή τους σε κάποιες περιπτώσεις. «Το χαμόγελο, το συνοφρύωμα ή τα ανασηκωμένα φρύδια μπορούν να πουν πολλά για το πώς αισθάνεται ένα άτομο σε μια δεδομένη στιγμή», αναφέρει η ομάδα. «Σε ποιο βαθμό όμως αυτά τα χαρακτηριστικά είναι επαρκή έτσι ώστε να αναγνωρίζει και να επηρεάζει πραγματικά τα συναισθήματα ενός ανθρώπου μια Τ.Ν.;», αναρωτιούνται τα μέλη της. «Το έργο μας», καταλήγουν, «βασίζεται στην ιδέα ότι ένα σύστημα Τ.Ν. θα μπορούσε πράγματι να διαβάσει τα ανθρώπινα συναισθήματα». Αυτοί που θα σταθούν απέναντι στη μηχανή θα εμπλακούν σε έναν μη λεκτικό διάλογο μαζί της, και ανάλογα με τα συναισθήματά τους θα δουν τη μηχανή να παράγει συγκεκριμένα χρώματα και εικόνες που θα συνδέονται με καθένα από αυτά.

Εδώ οι απαντήσεις δεν είναι ούτε εύκολες ούτε δεδομένες, καθώς κάποια λογισμικά Τ.Ν. υπόσχονται μεγάλα ποσοστά ακρίβειας στην αναγνώριση προσώπων, και κατ’ επέκταση στην ανάγνωση συναισθημάτων. Ποιος, όμως, θα είναι υπεύθυνος αν γίνει κάποιο σοβαρό λάθος;

Μήπως ο αλγόριθμος με αδικεί;-1
«Είναι σημαντικό να ενεργοποιήσουμε έναν ευρύ κοινωνικό διάλογο πάνω στο θέμα», λέει η Μπετίνα Βένζελ, διευθύντρια του τομέα πληροφόρησης του Ινστιτούτου Γκαίτε Αθήνας και ΝΑ Ευρώπης.

Μήπως ο αλγόριθμος με αδικεί;-2
Η Αναστασία Νεφέλη Βιδάκη είναι μέλος της ομάδας Black Box, η οποία συμμετέχει στο πρόγραμμα με μια πιο καλλιτεχνική φόρμα, έναν επισκέψιμο λαβύρινθο.

Νέο λογισμικό και προκαταλήψεις

«Καθώς οι αυτοδίδακτες μηχανές συμμετέχουν ολοένα και περισσότερο στις ζωές μας», επισημαίνει η Μπετίνα Βένζελ, διευθύντρια του τομέα πληροφόρησης του Ινστιτούτου Γκαίτε Αθήνας και Νοτιοανατολικής Ευρώπης, «η κοινωνία χρειάζεται νέους κανόνες οι οποίοι δεν θα υπαγορεύονται μόνο απ’ τους τεχνολόγους και τις μεγάλες τεχνολογικές επιχειρήσεις. Ως τώρα το δυναμικό της Τ.Ν. έχει εξερευνηθεί κυρίως απ’ τον ιδιωτικό τομέα. Η πολιτική και η κοινωνία των πολιτών έχουν μείνει πίσω. Μέσα σ’ αυτό το πλαίσιο είναι σημαντικό για το μέλλον μας να φωτίσουμε τις υπάρχουσες προσεγγίσεις, αλλά και τις ευκαιρίες και τις διακινδυνεύσεις της Τ.Ν. με τη συμμετοχή όλων των πολιτών και να ενεργοποιήσουμε έναν ευρύ κοινωνικό διάλογο πάνω στο θέμα». 

«Ζούμε σε μια ιστορική εποχή», σημειώνει ο καλλιτέχνης Μαρίνος Κουτσομιχάλης, ο οποίος έπαιξε τον ρόλο του μέντορα στο πρόγραμμα, «όπου ακόμη δεν έχει καθοριστεί ποια είναι η ηθική της ευθύνης της Τ.Ν. Βρισκόμαστε σ’ ένα μεταβατικό στάδιο και δεν έχουμε ακόμη ένα κοινό ηθικό πλαίσιο. Είναι χαρακτηριστικό ότι στην πορεία των ζυμώσεων των ομάδων υπήρξε μια ένταση ανάμεσα στις πιο πρακτικές και τις πιο κριτικές προσεγγίσεις της Τ.Ν.». 

Φαίνεται ότι ο κόσμος αμφιταλαντεύεται ακόμη ανάμεσα στον φόβο απέναντι στην Τ.Ν. και την έξαψη για όλα τα καλά που κομίζει – κι αυτό κάνει ακόμη πιο δύσκολη την ψύχραιμη αποτίμησή της. Η ομάδα Glubot, για παράδειγμα, προτίμησε να αναδείξει τη θετική επιρροή της Τ.Ν. μέσα από ένα πολύ πρακτικό πλαίσιο και να μην αγγίξει ηθικά ζητήματα, «παρ’ όλο που κάποια στιγμή αναγκαστικά θα το κάνει», όπως προβλέπει ο κ. Κουτσομιχάλης, έχοντας στον νου του τα ζητήματα ιδιωτικότητας που εγείρουν οι εφαρμογές Τ.Ν. στην υγεία. Το έργο, που φέρει το όνομα «Τ.Ν. από εσένα για εσένα», θέλει να επιβεβαιώσει τις μεγάλες και δίκαιες ελπίδες που επενδύονται στη χρήση της Τ.Ν. στην υγεία. Εχει ως στόχο του την αρωγή ανθρώπων που πάσχουν από διαβήτη, αξιοποιώντας τα δεδομένα που παράγονται από αισθητήρες συνεχούς παρακολούθησης της γλυκόζης. Οι χρήστες που έχουν πάνω τους τέτοια συστήματα θα μπορούν να αλληλεπιδρούν με την Τ.Ν. της ομάδας, βλέποντας ότι ο φόβος του αγνώστου είναι αβάσιμος. Οταν είσαι ενήμερος για τις λειτουργίες μιας μηχανής και νιώθεις ότι έχεις τον έλεγχό της, δεν έχεις τίποτα να φοβάσαι και την εμπιστεύεσαι. 
Πώς διασφαλίζεται όμως η ορθή, δίκαιη και αμερόληπτη λειτουργία ενός αυτοματισμού; Το μείζον πρόβλημα της Τ.Ν., το οποίο γίνεται αντικείμενο εκτεταμένης συζήτησης παγκοσμίως, είναι ότι αναπαράγει τις μεροληψίες, τις προκαταλήψεις και τις πεποιθήσεις των δημιουργών της. Πολλές φορές αυτό δεν είναι καν εσκεμμένο. Μια ομάδα ανδρών προγραμματιστών δεν μπορεί εκ των πραγμάτων να συμπεριλάβει την οπτική των γυναικών όταν εκπαιδεύει ένα μοντέλο μηχανικής μάθησης, όπως και μια ομάδα λευκών δεν μπορεί να καταλάβει συνολικά την κατάσταση των μαύρων. Για να αποφευχθεί αυτό πρέπει να γίνουν διαγνωστικοί έλεγχοι, πειράματα και διορθώσεις. «Η ομάδα ALMA αντιμετώπισε πιο εννοιολογικά και φιλοσοφικά το ζήτημα των προκαταλήψεων», λέει ο κ. Κουτσομιχάλης, «παρ’ όλα αυτά συνειδητοποίησε κι εκείνη ότι είχε ανάγκη από μετρήσεις». 

Η συζήτηση για την ηθική της Τ.Ν. μοιάζει με μια μηχανή παραγωγής ερωτημάτων: είναι δυνατό να ποσοτικοποιηθεί η ηθική ώστε να βλέπουμε πιο καθαρά τις διακρίσεις των αλγορίθμων; Μπορούμε να φτιάξουμε έναν δείκτη ηθικής ώστε να αποτρέπονται οι προκαταλήψεις; Ορισμένοι ειδικοί απαντούν θετικά. Η ομάδα ALMA απαντάει με μια ακόμη μελέτη, που ο  κ. Κουτσομιχάλης θα ήθελε να είναι πιο επιθετική.

Το σύστημα σε απέρριψε, αλλά δεν ξέρεις γιατί

Ενας άλλος, ίσως και πιο θεμελιώδης κίνδυνος της Τ.Ν. είναι η αδιαφάνεια και η μη επεξηγησιμότητά της. Το ότι ακόμα και οι ίδιοι οι προγραμματιστές της συχνά δεν καταλαβαίνουν πώς παίρνουν τις αποφάσεις τους κάποια αλγοριθμικά συστήματα. Αξιολογεί αρνητικά μια Τ.Ν. τις επιδόσεις σου στη δουλειά σου ή τις προοπτικές σου να λάβεις ένα δάνειο, κι εσύ δεν μπορείς να μάθεις το γιατί. «Εχεις τις εισροές, τις εκροές, και στη μέση μια διαδικασία που κανείς δεν μπορεί να καταλάβει πώς δουλεύει», λέει στην «Κ» η Αναστασία Νεφέλη Βιδάκη, μέλος της ομάδας Black Box, που συμμετέχει στο πρόγραμμα με μια πιο καλλιτεχνική φόρμα, έναν επισκέψιμο λαβύρινθο μέσα από τον οποίο μας καλεί να περάσουμε όλοι. «Ο λαβύρινθος συμβολίζει αυτό που είναι για πολλούς η Τ.Ν.: μια περίπλοκη, χαοτική και δυσνόητη διαδικασία. Μας ενδιέφερε να το αποτυπώσουμε αυτό οπτικά, σε μια διαδραστική και βιωματική έκθεση, που εκτός από τις παθογένειες θα διερευνά και τους πιθανούς τρόπους διαφυγής. Η αφετηρία μας ήταν βιωματική. Στον εργασιακό, κυρίως, βίο μας ως γυναίκες νιώθουμε συχνά αποπροσανατολισμένες, σε αδιέξοδο», σημειώνει η κ. Βιδάκη.

Ωστόσο, η ομάδα δεν θέλει ούτε τις γυναίκες, αλλά ούτε και κανέναν άλλον κλεισμένο μέσα σε αυτό το σκοτεινό μέρος. «Επιθυμούμε να δείξουμε μια πορεία που οδηγεί στο φως», εξηγεί η ίδια, «και θα μπορούσαμε να πούμε ότι κατά κάποιον τρόπο φτιάξαμε τον μίτο της Αριάδνης. Η συνταγή που προτείνουμε είναι τετριμμένη, αλλά αποτελεσματική. Το θέμα είναι να μη μείνει το μαύρο κουτί ως έχει. Πρέπει να γίνει διαφανές, πρέπει οι λειτουργίες που κρύβονται μέσα του να γίνουν ορατές από όλους. Πιστεύουμε πολύ στην εκπαίδευση και την ενημέρωση, αλλά και στην τέχνη και την ηθική. Ολα αυτά μαζί θα θεραπεύσουν το πρόβλημα. Μόνο έτσι θα δούμε τι συμβαίνει μέσα στο μαύρο κουτί και θα βγούμε επιτέλους έξω από τον λαβύρινθο της Τ.Ν.». Πιθανώς ο δρόμος που οδηγεί πέρα από τις παρεξηγήσεις για την Τ.Ν. να ξεκινάει από αυτό που λέει και η κ. Ντιμίτροβα-Ντίμοβα, «να καταλάβουμε όλοι ότι υπάρχουν πολύ περισσότερα να συζητήσουμε, από το να εστιάζουμε στο αν θα κατακτήσει κάποτε η Τ.Ν. τον κόσμο».

Η εκδήλωση της παρουσίασης των έργων του EthicAI=FORUM 2022 θα γίνει την Πέμπτη 24 Νοεμβρίου, θα ξεκινήσει στις 5 μ.μ. και θα πραγματοποιηθεί στο φουαγέ του Goethe-Institut Athen, Ομήρου 14-16, Αθήνα. Θα ολοκληρωθεί με ένα πάνελ συζήτησης στις 7.30 μ.μ. υπό τον τίτλο «Πώς μπορεί η τεχνητή νοημοσύνη να είναι σωστή;». 

Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή