ΔΙΑΔΙΚΤΥΟ

Οι ιντερνετικές προκαταλήψεις δημιουργούν... ρατσιστικά ρομπότ

ΧΡΙΣΤΙΝΑ ΣΑΝΟΥΔΟΥ

H Tay, το ιντερνετικό ρομπότ της Microsoft, άρχισε να «ποστάρει» ρατσιστικά σχόλια μετά λίγες ώρες στο Twitter.

ΕΤΙΚΕΤΕΣ:

Σε αντίθεση με τα πρώιμα «στατικά» μοντέλα, τα σημερινά προγράμματα τεχνητής νοημοσύνης έχουν την ικανότητα της μάθησης. Αλληλεπιδρώντας με το περιβάλλον τους, δηλαδή κυρίως με τους (ανθρώπινους) χρήστες του Διαδικτύου, και ενσωματώνοντας ολοένα και περισσότερες πληροφορίες από βάσεις δεδομένων όπως το Wikipedia, αυξάνουν τις «γνώσεις» και κατά συνέπεια βελτιώνουν την αποτελεσματικότητά τους. Σε πεδία όπως η μετάφραση, για παράδειγμα, είναι προφανές ότι οι ψηφιακές εφαρμογές μια μέρα θα μπορούν να ανταγωνιστούν τους ανθρώπους. Ακόμη κι αν δεν έχουν τη δυνατότητα να συλλάβουν όλο το εύρος των ιδιωματισμών μιας γλώσσας, είναι ήδη αρκετά αξιόπιστες ώστε να μπορούν να αποδώσουν τη γενική ιδέα ενός κειμένου. Αλλά ακριβώς αυτή η (σχεδόν) ανθρώπινη διάσταση των σύγχρονων υπολογιστών εμπεριέχει κινδύνους που μόνον ένας συγγραφέας δυστοπικής επιστημονικής φαντασίας θα μπορούσε να προβλέψει πριν από μερικά χρόνια: Οι εν λόγω «έξυπνοι» αλγόριθμοι προσομοιάζουν ολοένα και περισσότερο στους δημιουργούς τους και οι δημιουργοί τυχαίνει να είναι κάθε άλλο παρά αλάνθαστοι.

Οταν η εφαρμογή διαχείρισης φωτογραφιών της Google άρχισε να βάζει την ετικέτα «γορίλας» σε σκουρόχρωμους απεικονιζόμενους, η εταιρεία έσπευσε να ζητήσει συγγνώμη και, καθώς δεν βρέθηκε άλλος τρόπος επίλυσης του προβλήματος, να καταργήσει οριστικά τη συγκεκριμένη ετικέτα. Οταν αποδείχθηκε πως η μηχανή αναζήτησης για επαγγελματίες LinkedIn «προτιμούσε» τα ανδρικά ονόματα από τα γυναικεία, οι τεχνικοί της απέσυραν τον επίμαχο αλγόριθμο. Κάτι αντίστοιχο συνέβη όταν η Tay, η αθώα αν και επιπόλαια Αμερικανίδα έφηβη της Microsoft που συνομιλούσε με πραγματικούς χρήστες του Twitter, κατέληξε όχι μόνο να αναπαράγει ρατσιστικά και σεξιστικά σχόλια, αλλά και να αυτοσχεδιάζει στο ίδιο πνεύμα μέσα σε λιγότερες από 24 ώρες. Η εταιρεία, η οποία διαφήμιζε την Tay ως ένα ρομπότ που γίνεται εξυπνότερο με κάθε συζήτηση, αρχικά διέγραψε τα προσβλητικά tweets και τελικά έκλεισε τον λογαριασμό της.

Κι αν όλα αυτά ακούγονται κάπως αστεία, τα πράγματα είναι σαφώς πιο σοβαρά στην περίπτωση των προγραμμάτων που χρησιμοποιούν ευρέως τα δικαστήρια των ΗΠΑ για να κρίνουν αν ένας κρατούμενος είναι πιθανό να απασχολήσει ξανά τις αρχές. Το 2016, ο οργανισμός ερευνητικής δημοσιογραφίας ProPublica μελέτησε τα προφίλ πάνω από 7.000 συλληφθέντων και συνέκρινε το «σκορ» (δηλαδή τις πιθανότητες υποτροπής μέσα στα επόμενα δύο χρόνια) που τους αναλογούσε σύμφωνα με τους υπολογισμούς των ειδικών αλγορίθμων, αποκαλύπτοντας πως ακόμη και εκείνοι είχαν την τάση να κατηγοριοποιούν τους μαύρους κατηγορουμένους ως μελλοντικούς εγκληματίες. Εντούτοις, τέτοιου είδους εφαρμογές προωθούνται ευρέως προς χρήση από οργανισμούς εύρεσης εργασίας, από τράπεζες για την αξιολόγηση αιτήσεων δανεισμού, από την αστυνομία για τον προσδιορισμό περιοχών που χρήζουν αστυνόμευσης κ.ά.

Φυσικά κανένας δεν μπορεί να χαρακτηρίσει ένα μηχάνημα «ρατσιστικό», στην πράξη όμως ένας αλγόριθμος που διδάσκεται από το περιβάλλον του έχει ελάχιστες πιθανότητες να είναι απολύτως «αντικειμενικός».

Σύμφωνα με έρευνα που δημοσιεύθηκε την περασμένη άνοιξη στο περιοδικό Science, τα μηχανήματα «μαθαίνουν» εντοπίζοντας και αφομοιώνοντας τους πιο συνηθισμένους συσχετισμούς μεταξύ των λέξεων, όπως αυτοί αποτυπώνονται μέσα στο χάος του Διαδικτύου. Επομένως δεν εκπλήσσει το γεγονός ότι συσχετίζουν τη λέξη «γυναίκα» με τις θεωρητικές επιστήμες και τη λέξη «άντρας» με τα μαθηματικά ή ότι συνδέουν τα αφροαμερικανικά ονόματα με δυσάρεστες έννοιες.

Επειδή δεν μπορούν να αλλάξουν την ανθρωπότητα, οι πολυεθνικοί κολοσσοί του Ιντερνετ έχουν υποσχεθεί ότι θα διερευνήσουν μεθόδους «φιλτραρίσματος» των δεδομένων, με τα οποία βομβαρδίζονται τα... ανυποψίαστα συστήματα τεχνητής νοημοσύνης. Εντός του Ιουλίου, η Google λάνσαρε το πρότζεκτ PAIR (People + AI Research), που έχει ακριβώς αυτόν τον σκοπό, ενώ μια ομάδα προγραμματιστών και ερευνητών ίδρυσε το AI Now Initiative σε συνεργασία με την Αμερικανική Ενωση για τις Ελευθερίες των Πολιτών. Το εγχείρημα, η δημιουργία του οποίου ανακοινώθηκε σε εκδήλωση του MIT, αποσκοπεί στον εντοπισμό και την κατανόηση των... αλγοριθμικών προκαταλήψεων, που, σύμφωνα με τους ιδρυτές της πρωτοβουλίας, ενδέχεται να αποτελέσουν σοβαρή απειλή στο προσεχές μέλλον.

Έντυπη

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ