Και οι μηχανές έχουν προκαταλήψεις

Και οι μηχανές έχουν προκαταλήψεις

Πώς μέσω της τεχνητής νοημοσύνης αναπαράγονται πολλές φορές στερεότυπα και γιατί τελικά η τεχνολογία δεν είναι πάντα αντικειμενική.

7' 39" χρόνος ανάγνωσης
Ακούστε το άρθρο

Η Τεχνητή Νοημοσύνη (ΤΝ) έχει παρεισφρήσει για τα καλά στη ζωή μας, τις περισσότερες φορές με τρόπο που δεν γίνεται εύκολα αντιληπτός. Σε παγκόσμιο επίπεδο χρησιμοποιείται για να καθορίζει τους δικαιούχους κοινωνικών παροχών, να βοηθά ή και να αντικαθιστά τον ανθρώπινο παράγοντα στις διαδικασίες πρόσληψης προσωπικού, να «γνωμοδοτεί» σχετικά με σοβαρές δικαστικές αποφάσεις ή την προληπτική αστυνόμευση συγκεκριμένων περιοχών, ακόμα και να επιβλέπει την εξάπλωση της Covid-19. Τα αυτοματοποιημένα συστήματα υπόσχονται πολλά οφέλη σε διάφορους τομείς της ζωής μας. Δεν πρέπει όμως να παραβλέπει κανείς τους σοβαρούς κινδύνους που ανακύπτουν από την εφαρμογή τους, ορισμένοι από τους οποίους εντοπίζονται στο κομμάτι των διακρίσεων.

«Την τελευταία δεκαετία ζούμε την εποχή της ραγδαίας τεχνολογικής ανάπτυξης στον τομέα της ΤΝ, μέσα από την οποία γίνεται όλο και πιο έντονο το ζήτημα της “αλγοριθμικής προκατάληψης” σε βάρος, μεταξύ άλλων, και των γυναικών», μας λέει η νομικός Ιωάννα Παπαγεωργίου, διδακτορική ερευνήτρια στο πολύ ενδιαφέρον πρόγραμμα «ΝοBIAS / Artificial intelligence Without Bias», ένα ευρωπαϊκό ερευνητικό πρόγραμμα, ενταγμένο στο πλαίσιο των δράσεων Marie Skłodowska-Curie, χρηματοδοτούμενο από το European Union’s Horizon 2020 της Ευρωπαϊκής Ένωσης.

Ξεκινώντας επίσημα τη δράση του τον Ιανουάριο του 2020, το πρόγραμμα έχει στόχο μέχρι το 2023 να ερευνήσει το μείζον πρόβλημα της μεροληψίας, των στερεοτύπων και –μεταξύ άλλων– των έμφυλων ή φυλετικών διακρίσεων που απορρέουν από εφαρμογές της τεχνητής νοημοσύνης. Συνολικά δεκαπέντε ερευνήτριες και ερευνητές, μεταξύ των οποίων η κ. Παπαγεωργίου, από μια ευρεία γκάμα επιστημονικών κλάδων (πληροφορική, νομική, κοινωνιολογία, νευρολογία, οικονομικά, μαθηματικά, σπουδές φύλου κ.ά.), αναζητούν αυτή τη στιγμή πρακτικές λύσεις για μια πιο ηθική, μη σεξιστική ή ρατσιστική τεχνητή νοημοσύνη ισότητας, αναπτύσσοντας μεθόδους για δίκαια και αξιόπιστα συστήματα αυτοματοποιημένης λήψης αποφάσεων με χρήση της ΤΝ.

«Τείνουμε να πιστεύουμε ότι η τεχνολογία είναι αντικειμενική, όμως κάτι τέτοιο δεν ισχύει πάντοτε στην πράξη, ιδιαίτερα όταν μιλάμε για εφαρμογές που βασίζονται στην τεχνητή νοημοσύνη και στη μηχανική μάθηση. Έχει αποδειχθεί ότι συστήματα τεχνητής νοημοσύνης αναπαράγουν υφιστάμενα στερεότυπα, προκαταλήψεις και διακρίσεις λόγω φύλου, εθνικής και φυλετικής καταγωγής, χρώματος ή σεξουαλικού προσανατολισμού, με αποτέλεσμα η εφαρμογή τους σε μεγάλη κλίμακα να φέρει τον κίνδυνο διαιώνισης ανισοτήτων», τονίζει η κ. Παπαγεωργίου.

Γυναίκες Νοσοκόμες – Άνδρες Γιατροί

Δύο κλασικά παραδείγματα που συζητούνται έντονα στους επιστημονικούς κύκλους προέρχονται από εφαρμογές μεγάλων εταιρειών όπως η Google και η Amazon. Η τελευταία απέσυρε πριν από μερικά χρόνια λογισμικό σχεδιασμένο από την ίδια, το οποίο προοριζόταν για την αυτοματοποιημένη αξιολόγηση βιογραφικών και κατ’ επέκταση την αυτoματοποιημένη πρόσληψη προσωπικού. «Έπειτα από έναν χρόνο πειραματικής εφαρμογής, διαπίστωσαν ότι το σύστημα έδειχνε μια προτίμηση στους άνδρες υποψηφίους, απορρίπτοντας τις γυναίκες. Αυτό δεν συνέβη γιατί η εταιρεία ή οι προγραμματιστές της είχαν την πρόθεση να προσλάβουν αποκλειστικά ή κυρίως άνδρες, αλλά γιατί ο αλγόριθμος “εκπαιδεύτηκε” με βιογραφικά που είχε λάβει η εταιρεία τα τελευταία δέκα χρόνια. Καθώς οι γυναίκες, παραδοσιακά τα τελευταία χρόνια, υπο-εκπροσωπούνται στον τεχνολογικό τομέα, τα δεδομένα του συστήματος απέκτησαν αυτόματα “ανδρικό” χαρακτήρα, με αποτέλεσμα ο αλγόριθμος να αντιλαμβάνεται το ανδρικό φύλο ως θετική παράμετρο για την πρόσληψη», τονίζει η κ. Παπαγεωργίου.

Και οι μηχανές έχουν προκαταλήψεις-1Στο ίδιο κλίμα κινείται και το παράδειγμα της Google, με έρευνα να αποδεικνύει τη μεροληψία που έχουν εμφανίσει αλγόριθμοι εξατομικευμένων διαφημίσεων. Συγκεκριμένα, σχετική μελέτη έδειξε ότι πλήθος αγγελιών που αναρτώνται στο διαδίκτυο και αφορούν θέσεις εργασίας υψηλού κύρους και υψηλών μισθολογικών απολαβών εμφανίζονται συχνότερα σε άνδρες  χρήστες παρά σε γυναίκες. Ένα βήμα παρακάτω, μελέτες έχουν δείξει πως η διαδικτυακή αναζήτηση της λέξης «nurse», που αντιστοιχεί στην ελληνική λέξη «νοσοκόμος/νοσοκόμα», εμφανίζει κατά κανόνα φωτογραφίες από γυναίκες νοσοκόμες, ενώ η αναζήτηση «γιατρός» ή «χειρουργός» εμφανίζει κυρίως άνδρες χειρουργούς. Το αντίστοιχο θα συμβεί αν αναζητήσει κανείς τη λέξη «γραμματέας» (φωτογραφίες γυναικών) σε σύγκριση με τη λέξη «διευθύνων σύμβουλος» (φωτογραφίες ανδρών).

Παρόμοια έμφυλα στερεότυπα έχουν παρατηρηθεί ακόμα και στους αλγόριθμους αυτόματης μετάφρασης της Google. Γράφεις, για παράδειγμα, στην τουρκική γλώσσα, μια γλώσσα στην οποία δεν υφίσταται το γραμματικό γένος, «o (πρόκειται για κοινή αντωνυμία που αντιστοιχεί στα: αυτός/αυτή/αυτό)… είναι μηχανικός» και αντίστοιχα «o… είναι νοσηλευτής» και η αυτόματη μετάφραση στην αγγλική είναι «αυτός είναι μηχανικός» και «αυτή είναι νοσηλεύτρια».

Αίσθηση προκάλεσε, ακόμα, πριν από κάποια χρόνια ένα περιστατικό μεταξύ δύο συζύγων, κατόχων της πιστωτικής κάρτας Apple Card, όπου το σχετικό αυτοματοποιημένο σύστημα ενέκρινε πολύ χαμηλότερο πιστωτικό όριο στη γυναίκα σε σχέση με τον άνδρα σύζυγό της, παρότι όπως φαίνεται διέθεταν όμοια πιστοληπτική ικανότητα. Στο παιχνίδι των έμφυλων στερεοτύπων μπορούν να ενταχθούν και γνωστοί ψηφιακοί φωνητικoί βοηθοί, όπως οι Siri, Cortana και Alexa. «Τέτοια συστήματα έχουν κατά κανόνα γυναικεία ονόματα με προεπιλογή γυναικείας φωνής, γεγονός που σύμφωνα με σχετικές μελέτες έχει τις ρίζες του και ίσως διαιωνίζει το στερεότυπο που θέλει μια γυναίκα και όχι έναν άνδρα να φέρει τον ρόλο της εξυπηρετικής βοηθού, η οποία μας συντρέχει υπάκουα κι ευγενικά, παρέχοντας χρήσιμες πληροφορίες, χωρίς όμως να είναι αυτή που λαμβάνει στο τέλος τις αποφάσεις».

Ο Ρατσιστής Αλγόριθμος

Τα παραδείγματα είναι πολλά και δεν αντικατοπτρίζουν μόνο έμφυλες διακρίσεις, αλλά και φυλετικά στερεότυπα, με πιο χαρακτηριστικό περιστατικό το σύστημα αναγνώρισης προσώπων του Google Photos, που πριν από λίγα χρόνια φάνηκε να αποδίδει την ετικέτα «γορίλλας» σε φωτογραφίες μαύρων ανθρώπων. Τα περισσότερα συστήματα αναγνώρισης προσώπου έχουν παρουσιάσει σημαντικά ποσοστά λάθους στην αναγνώριση ακριβείας προσώπων ασιατικής και αφρικανικής προέλευσης, ιδιαίτερα μάλιστα γυναικών, ακριβώς διότι έχουν «εκπαιδευτεί με λιγότερα παραδείγματα αυτών των δημογραφικών ομάδων. «Ένα σχετικό παράδειγμα είναι και αυτό τoυ λογισμικού COMPAS, που χρησιμοποιείται ως βοηθητικό εργαλείο για τους ποινικούς δικαστές σε ορισμένες αμερικανικές πολιτείες, προβλέποντας τον κίνδυνο υποτροπής των κατηγορουμένων, ώστε να αποφασιστεί η ποινική τους μεταχείριση. Με τα στοιχεία που εξετάστηκαν από τον αμερικανικό μη κερδοσκοπικό οργανισμό ProPublica φάνηκε ότι το σύστημα μεροληπτούσε σε βάρος έγχρωμων παραβατών, εμφανίζοντάς τους λανθασμένα να έχουν περίπου διπλάσιες πιθανότητες τέλεσης νέων εγκλημάτων σε σχέση με λευκούς κατηγορουμένους».

Η προσπάθεια αναζήτησης των πηγών αυτής της αλγοριθμικής εισαγωγής προκαταλήψεων και της μεροληπτικής τάσης της τεχνητής νοημοσύνης είναι, προφανώς, ένας δύσβατος δρόμος με κρυφά σκαμπανεβάσματα για τις ερευνήτριες και τους ερευνητές του προγράμματος. «Όσον αφορά τις έμφυλες διακρίσεις, μια βασική αιτία είναι ότι η κοινωνία μας έχει υπάρξει βαθιά μεροληπτική σε βάρος των γυναικών. Αυτό, μοιραία, αντικατοπτρίζεται στα δεδομένα που έχουμε στη διάθεσή μας και με τα οποία τροφοδοτούμε τα τεχνολογικά συστήματα», τονίζει η κ. Παπαγεωργίου. «Ένας ακόμα λόγος μπορεί να σχετιστεί με την έλλειψη ποικιλομορφίας στη χρηματοδότηση και στον σχεδιασμό αυτών των συστημάτων, στον οποίο συμμετέχουν κατά βάση λευκοί ετεροφυλόφιλοι άνδρες, γεγονός που, χωρίς τη συμμετοχή κοινωνικών παραγόντων ή τη σχετική κατάρτιση γύρω από ζητήματα ισότητας, μπορεί να επιτρέψει την ακούσια παρείσφρηση ασυνείδητων έμφυλων και πολιτιστικών στερεοτύπων, καθώς τα συστήματα τροποποιούνται με βάση τις δικές τους ανθρώπινες αντιλήψεις και σύνολο εμπειριών».

Στον τομέα της ΤΝ οι γυναίκες αποτελούν μόλις το 26%, ενώ στους κολοσσούς που ηγούνται σε εφαρμογές ΤΝ, όπως η Google και η Facebook, το ποσοστό αυτό μειώνεται, σημειώνει η κ. Παπαγεωργίου. «Μία από τις δυσκολίες της έρευνάς μας έγκειται στο ότι, καθώς επικεντρωνόμαστε στη λεγόμενη Data-Driven AI, τα συστήματα δεν προγραμματίζονται ρητά, αλλά “εκπαιδεύονται” και αυτοβελτιώνονται μέσω ενός τεράστιου όγκου δεδομένων και αλγορίθμων μηχανικής μάθησης. Αυτά τα ογκώδη σύνολα δεδομένων μπορεί να μην είναι αντιπροσωπευτικά όλων των δημογραφικών ομάδων και να περιέχουν λιγότερα παραδείγματα αναφορών σε γυναίκες, άτομα με αναπηρίες, μαύρους ή άτομα ΛΟΑΤΚΙ+ είτε, ακόμη, να εμπεριέχουν στερεότυπα σε βάρος αυτών των ομάδων. Για να το πάμε ένα βήμα παρακάτω, ένας αλγόριθμος μπορεί να καταλήξει να λειτουργεί με βάση το φύλο ή την καταγωγή, ακόμα και αν αυτά τα δεδομένα δεν έχουν τροφοδοτηθεί άμεσα σε αυτόν. Η διεύθυνση κατοικίας, λόγου χάρη, ένα φαινομενικά ουδέτερο δεδομένο, μπορεί να ερμηνευτεί με τέτοιο τρόπο από ένα σύστημα ώστε να καταλήξει να είναι δηλωτικό φυλετικής καταγωγής και να οδηγήσει σε δυσμενή μεταχείριση φυλετικών μειονοτήτων», προσθέτει.

Τα Θύματα και η Νομοθεσία

Ως εκ τούτου, ολοένα και περισσότερα μπορεί να είναι τα θύματα διακρίσεων από συστήματα τεχνητής νοημοσύνης, τα οποία πολλές φορές δεν είναι καν σε θέση να αντιδράσουν, για τον απλούστατο λόγο ότι δεν μπορούν να γνωρίζουν ότι αποτελούν θύματα. Τι προβλέπει, όμως, η σύγχρονη νομοθεσία απέναντι σε τέτοιου είδους περιστατικά; «Το υπάρχον νομοθετικό πλαίσιο κατά των διακρίσεων, από τις διεθνείς συμβάσεις, τις ευρωπαϊκές οδηγίες και τον Χάρτη Θεμελιωδών Δικαιωμάτων έως τα εθνικά νομοθετήματα και τις σχετικές προβλέψεις του Γενικού Κανονισμού για την Προστασία Δεδομένων, είναι εδώ και μπορεί να μας προστατεύσει, ανεξαρτήτως του αν χρησιμοποιούνται ή όχι συστήματα ΤΝ. Ωστόσο, η πολυπλοκότητα αυτών των συστημάτων, η αδιαφάνειά τους, ο βαθμός αυτονομίας τους, η δυσκολία ερμηνείας των εσωτερικών αλγοριθμικών διαδικασιών, η ύπαρξη επιχειρηματικών ή εμπορικών απορρήτων και η άγνοια από πλευράς των θυμάτων για το ποια δεδομένα και ποιοι αλγόριθμοι χρησιμοποιήθηκαν δημιουργούν νέες προκλήσεις και μπορεί να εισαγάγουν νέου τύπου διακρίσεις. Είναι ανάγκη, λοιπόν, να υπάρξει ένα πιο συγκεκριμένο θεσμικό και ρυθμιστικό πλαίσιο που θα καλύπτει τις εν λόγω τεχνολογίες, κάτι που προτίθεται άμεσα να υιοθετήσει η ΕΕ», σχολιάζει η κ. Παπαγεωργίου, προσθέτοντας ότι είναι σημαντικό να καταλάβουμε ότι οι άνθρωποι είμαστε μέρος του προβλήματος.

«Ο ψηφιακός κόσμος είναι ένα συνεχές κι ένας καθρέφτης του πραγματικού. Αντικατοπτρίζει τις υφιστάμενες ανισότητες και, όσο αυτές συνεχίζονται στον πραγματικό κόσμο, θα μπορούν να αναπαράγονται και από τα συστήματα ΤΝ. Σκοπός του προγράμματός μας είναι να δούμε όχι μόνο τις τεχνικές, αλλά και τις κοινωνικές, ηθικές και νομικές προκλήσεις των εφαρμογών τεχνητής νοημοσύνης. Η τέταρτη βιομηχανική επανάσταση μπορεί να αποτελέσει σημαντικό όπλο σε πολλά επίπεδα, μεταξύ των οποίων και στην εξάλειψη ανισοτήτων, εφόσον ο σχεδιασμός και η χρήση της γίνουν με γνώμονα τον σεβασμό στις αρχές της ισότητας και της απαγόρευσης των διακρίσεων».

Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή