Οι έξυπνες μηχανές, οι γορίλλες και ο Μίδας

Οι έξυπνες μηχανές, οι γορίλλες και ο Μίδας

Ο καθηγητής Στιούαρτ Ράσελ στην «Κ»

8' 11" χρόνος ανάγνωσης
Ακούστε το άρθρο

Οι έξυπνες μηχανές, οι γορίλλες και ο Μίδας-1Ο Στιούαρτ Ράσελ είναι καθηγητής της επιστήμης των υπολογιστών και κάτοχος της έδρας μηχανικής Smith-Zadeh, στο Πανεπιστήμιο της Καλιφόρνιας, στο Μπέρκλεϊ των Ηνωμένων Πολιτειών. Σπούδασε Φυσική στην Οξφόρδη και ολοκλήρωσε το διδακτορικό του στην Επιστήμη των Υπολογιστών στο Πανεπιστήμιο του Στάνφορντ. Ελαβε θέση καθηγητή και προέδρου στο τμήμα Ηλεκτρικής Μηχανολογίας και Επιστημών των Υπολογιστών του Πανεπιστημίου Μπέρκλεϊ. Διετέλεσε επίκουρος καθηγητής Νευρολογικής Χειρουργικής στο Πανεπιστήμιο της Καλιφόρνιας, στο Σαν Φρανσίσκο, αντιπρόεδρος του Συμβουλίου του Παγκόσμιου Οικονομικού Φόρουμ για την Τεχνητή Νοημοσύνη και τη Ρομποτική, και σύμβουλος για τον έλεγχο των εξοπλισμών στον Οργανισμό Ηνωμένων Εθνών. Είναι επίσης μαζί με τον Πίτερ Νόρβιγκ ο συγγραφέας του πιο γνωστού εγχειριδίου για την Τεχνητή Νοημοσύνη (Τ.Ν.). 

Πρόσφατα κυκλοφόρησε στη χώρα μας το τελευταίο σπουδαίο βιβλίο του, «Συμβατή με τον άνθρωπο; Η τεχνητή νοημοσύνη και το πρόβλημα του ελέγχου» (εκδόσεις Τραυλός, μετάφραση Νίκος Αποστολόπουλος), το οποίο έχει επαινεθεί από τον Ελον Μασκ, τον Ντάνιελ Κάνεμαν και πολλούς άλλους σημαντικούς ανθρώπους. 

Επικοινώνησα με τον κορυφαίο επιστήμονα μέσω ηλεκτρονικού ταχυδρομείου. Ενα από τα πρώτα πράγματα που επισημαίνει κάποιος παρακολουθώντας τη δημόσια παρουσία και τα κείμενά του είναι το ευφυές του χιούμορ. Δεν έχασα την ευκαιρία να του το επισημάνω. «Είναι η βρετανική μου καταγωγή!», απάντησε. 

Ο Ράσελ υποστηρίζει ότι προχωρώντας τη διαδικασία δημιουργίας εξελιγμένων Τ.Ν. πρέπει να εξασφαλίσουμε ότι εμείς θα έχουμε τον έλεγχο των μηχανών, ότι δεν θα αρνηθούν κάποια στιγμή να σταματήσουν τη λειτουργία τους ή ότι δεν θα μας φέρουν κάποια στιγμή προ εκπλήξεως, όπως σε αυτή την ανησυχητική ιστορία όπου «το οικιακό σας ρομπότ είναι μόνο στο σπίτι, εσείς έχετε καθυστερήσει στη δουλειά, αυτό πρέπει να ταΐσει τα παιδιά τα οποία είναι πεινασμένα, και δεν υπάρχει τίποτα στο ψυγείο. Το ρομπότ λοιπόν βλέπει τη γάτα… Το ρομπότ σας δεν έχει μάθει σωστά τη λειτουργία των ανθρώπινων αξιών και δεν καταλαβαίνει ότι η συναισθηματική αξία της γάτας υπερισχύει της θρεπτικής της αξίας…». 

Οι έξυπνες μηχανές, οι γορίλλες και ο Μίδας-2
Το τελευταίο βιβλίο του Στιούαρτ Ράσελ το οποίο έχει επαινεθεί από τον Ελον Μασκ, τον Ντάνιελ Κάνεμαν και πολλούς άλλους σημαντικούς ανθρώπους. 

– Κύριε Ράσελ, μιλάτε πειστικά για δύο βασικά προβλήματα, που έχουμε να αντιμετωπίσουμε. Αλήθεια, πόσο αισιόδοξος είστε ότι θα τα λύσουμε πριν να είναι αργά;

– Το «πρόβλημα του γορίλλα» αναφέρεται στην κατάσταση στην οποία βρίσκονται σήμερα οι γορίλλες. Οι πρόγονοί τους αντιμετώπισαν τους ανθρώπους – οι οποίοι ήταν πολύ εξυπνότεροι απ’ αυτούς. Προφανώς, θέλουμε να αποφύγουμε μια τέτοια κατάσταση, γιατί οι γορίλλες δεν έχουν κανένα έλεγχο πάνω στο μέλλον τους. Το «πρόβλημα του Μίδα» σχετίζεται με την πιθανότητα να χάσουμε εμείς οι ίδιοι τον έλεγχο των μηχανών, καθορίζοντας για αυτές έναν σκοπό που θα έχει καταστροφικές επιπτώσεις για την ανθρωπότητα.

Είμαι αισιόδοξος ότι μπορούμε να λύσουμε τεχνικά το «πρόβλημα του Μίδα», δημιουργώντας μια Τ.Ν. πάνω σε διαφορετικά θεμέλια, τα οποία δεν θα απαιτούν από εμάς να συγκεκριμενοποιούμε τους σκοπούς των μηχανών. Αντίθετα, ο μόνος στόχος των μηχανών θα είναι να ωφελούν τους ανθρώπους. Επειδή όμως δεν γνωρίζουν τι σημαίνει «ωφέλιμο», θα πρέπει πάντα να συμμορφώνονται με τον ανθρώπινο έλεγχο.

Ωστόσο, ακόμα κι όταν αποκτήσουμε μια τεχνική λύση, μπορεί να αποτύχουμε να τη χρησιμοποιήσουμε εξαιτίας συστημικών αποτυχιών (όπως στο Τσερνομπίλ), ή εξαιτίας σκόπιμων καταχρήσεων της Τεχνητής Νοημοσύνης, που θα παρακάμπτουν τα μέτρα ασφαλείας. Η επίλυση αυτού του προβλήματος απαιτεί σοβαρή, συντονισμένη, παγκόσμια προσπάθεια, και δεν έχουμε ούτε κατά διάνοια προσεγγίσει τέτοιο επίπεδο συνεργασίας. 
 
– Ποια χρήση της Τεχνητής Νοημοσύνης είναι η πιο πολλά υποσχόμενη σήμερα;

– Η χρήση της Τεχνητής Νοημοσύνης στην εκπαίδευση μπορεί να γίνει επαναστατική, δεδομένων των προόδων που έχουν γίνει στην τεχνολογία την τελευταία δεκαετία. Η ατομική διδασκαλία είναι τρεις φορές πιο αποτελεσματική από τη διδασκαλία μέσα στην τάξη, αλλά δεν θα μπορέσει ποτέ να είναι οικονομικά προσιτή αν πρέπει να την κάνουν άνθρωποι. Με την Τεχνητή Νοημοσύνη μπορούμε να δώσουμε μια εκπληκτική ποιότητα εκπαίδευσης σε κάθε παιδί στη Γη.

– Ποια πιστεύετε ότι είναι η πιο σοβαρή βραχυπρόθεσμη απειλή, τα αυτόνομα όπλα ίσως, ή η πολιτική χειραγώγηση; 

– Τα φονικά αυτόνομα όπλα είναι συστήματα Τ.Ν. που μπορούν να εντοπίσουν, να επιλέξουν και να επιτεθούν σε ανθρώπινους στόχους. Αναπόφευκτα θα γίνουν όπλα μαζικής καταστροφής: δεν χρειάζονται επίβλεψη από τους ανθρώπους, κι έτσι χιλιάδες ή εκατομμύρια από αυτά μπορούν να εξαπολύσουν επιθέσεις και να σκοτώσουν όσους ανθρώπους θέλετε. Πρέπει να τα απαγορεύσουμε το συντομότερο δυνατόν. Η πολιτική χειραγώγηση είναι ένα σοβαρό θέμα. Οι αλγόριθμοι που επιλέγουν το περιεχόμενο των μέσων κοινωνικής δικτύωσης έχουν μάθει να χειραγωγούν τους χρήστες και να τους κάνουν πιο προβλέψιμους, κάτι που σημαίνει ότι συχνά καταναλώνουμε πιο ακραίο περιεχόμενο, το οποίο είναι και γνωστό ως «πιασάρικο». Οι παραγωγοί περιεχομένου (οι άνθρωποι) συνεργάζονται με αυτή τη διαδικασία προκειμένου να παραγάγουν το πιασάρικο περιεχόμενο και να διευκολύνουν τη διαδικασία δημιουργίας μανιασμένων οπαδών που δεν έχουν πια καμία σχέση με την αλήθεια. 

Οταν εμπλέκονται οι κυβερνήσεις σε αυτή τη διαδικασία, ή χρησιμοποιούν υποδομές για να παρακολουθούν και να ελέγχουν τους πληθυσμούς, αυτό μπορεί να γίνει μια μόνιμη αυτοτροφοδοτούμενη διαδικασία.

– Ενα ακόμα μεγάλο ζήτημα είναι οι αλγοριθμικές μεροληψίες. Πότε θα εμπιστευθείτε έναν δικαστή Τ.Ν.;

– Οι μεροληπτικές αλγοριθμικές αποφάσεις είναι συχνά το αποτέλεσμα μεροληψιών που ενυπάρχουν στα δεδομένα, όπως επίσης και λανθασμένων σκοπών στην εκπαίδευση των δεικτών πρόβλεψης. Ο αλγόριθμος από μόνος του είναι ουδέτερος, αλλά η κατάχρησή του μπορεί να έχει ως αποτέλεσμα μεροληπτικά αποτελέσματα. Ενας δικαστής Τ.Ν. που αποφασίζει αν κάποιος είναι ένοχος ή αθώος θα εργαζόταν αρκετά διαφορετικά, ο συλλογισμός του θα βασιζόταν στα γεγονότα της υπόθεσης και στον νόμο. (Η εκπαίδευση βάσει δεδομένων εδώ δεν θα λειτουργούσε πολύ καλά, γιατί οι συνθήκες της πραγματικής ζωής είναι πολύ διαφορετικές.) Σε κάποιες ξεκάθαρες περιοχές του νόμου, όπως στον ορισμό της υπηκοότητας για παράδειγμα, μπορούμε να χτίσουμε νομικά συστήματα συλλογισμών που θα είναι πολύ αξιόπιστα, θα μπορούν να εξηγήσουν τις αποφάσεις τους, και πάει λέγοντας. 

Αλλες περιοχές απαιτούν την ανθρώπινη κρίση, λογικές προσδοκίες, κ.λπ., πράγματα που είναι πολύ δύσκολο να οριστούν. Πιστεύω ότι έχουμε αρκετό δρόμο μέχρι να είμαστε σε θέση να δημιουργήσουμε έναν καλό δικαστή Τ.Ν.

Η προσπάθεια κατανόησης της νοημοσύνης δεν είναι ύβρις

– Προτείνετε ότι πρέπει να ακολουθήσουμε τρεις αρχές στην κατασκευή των έξυπνων ρομπότ, οι οποίες συμπυκνώνονται στη φράση: «Οι πανίσχυρες νοημοσύνες που θα φτιάξουμε, τα υπερέξυπνα ρομπότ μας θα πρέπει να είναι εντελώς αγνά, να έχουν αβέβαιους σκοπούς και να μαθαίνουν διαρκώς (όλους) τους ανθρώπους παρατηρώντας τους». Η πρώτη αρχή, του αλτρουισμού, λέτε ότι πρέπει να είναι δεδομένη. Τα ρομπότ πρέπει να σκέφτονται το καλό των ανθρώπων κι όχι το δικό τους. Αλλά η δεύτερη αρχή τα υποχρεώνει να είναι ταπεινά, να μην είναι σίγουρα για τις πράξεις τους, να μπορούν να τις επανεξετάζουν. Και η τρίτη αρχή είναι να αντλούν γνώση όχι μόνο απ’ τη συμπεριφορά ενός ανθρώπου, αλλά από όλους. Πώς μπορούμε να διασφαλίσουμε ότι οι τρεις αρχές που περιγράφετε θα γίνουν παγκόσμια αποδεκτές;

– Το πρώτο μέρος είναι τεχνικό: πρέπει να μετατρέψουμε αυτές τις αρχές σε ακριβείς μαθηματικούς ορισμούς και να αποδείξουμε ότι οι μηχανές που λύνουν αυτού του είδους τα προβλήματα είναι αρκούντως ασφαλείς και ωφέλιμες για τους ανθρώπους. Το δεύτερο μέρος είναι πρακτικό: πρέπει να δείξουμε στην κοινότητα της Τεχνητής Νοημοσύνης πώς να φτιάξει χρήσιμα συστήματα ΤΝ που θα πληρούν αυτές τις προϋποθέσεις των τριών αρχών. Το τρίτο μέρος είναι πολιτικό: πρέπει να υποχρεώσουμε τις επαγγελματικές ενώσεις, τους οργανισμούς πιστοποιήσεων, τις τεχνολογικές εταιρείες και τους κυβερνητικούς ρυθμιστές να υιοθετήσουν τους απαραίτητους κανόνες και τα πρότυπα, προκειμένου να διασφαλιστεί ότι όλα τα συστήματα θα κατασκευάζονται μ’ αυτό τον τρόπο. Ο κύριος λόγος που πιστεύω ότι αυτό θα λειτουργήσει –πέρα απ’ το γεγονός ότι αν συνεχίσουμε να δημιουργούμε ΤΝ με τον παλιό τρόπο θα οδηγηθούμε στην καταστροφή– είναι ότι τα νέα είδη των συστημάτων είναι απλώς καλύτερα κι ότι οι άνθρωποι θα θέλουν να τα χρησιμοποιούν γιατί προσαρμόζονται στο ιδανικό τού πώς πρέπει να συμπεριφέρεται ένα σύστημα Τεχνητής Νοημοσύνης.

– Πώς θα μπορούσε να προετοιμαστεί η κοινωνία για αυτό που έρχεται;

– Πιστεύω ότι τα μίντια έχουν έναν τεράστιο ρόλο να παίξουν, ξεκαθαρίζοντας τι συμβαίνει σήμερα –για παράδειγμα, σαν αποτέλεσμα των αλγορίθμων επιλογής περιεχομένου στα μέσα κοινωνικής δικτύωσης– και εξηγώντας ότι αυτό δεν αφορά ρομπότ σαν τον Terminator. Κανείς δεν βλέπει κάτι που να μοιάζει με τέτοιο ρομπότ σήμερα στη ζωή του, κι έτσι καταλήγουν όλοι να το βλέπουν όλο αυτό σαν μια ιστορία επιστημονικής φαντασίας. Ενώ είναι όμως συνέχεια στα social media, έχουν Alexa στην κουζίνα τους, και πάει λέγοντας. Βιβλία, ταινίες, ντοκιμαντέρ μπορούν να μας δείξουν πώς είναι πιθανό να εξελιχθούν τα πράγματα και να μας εξηγήσουν πώς συμβαίνουν όλα αυτά.
 
– Μια ασύμβατη μηχανή μ’ εμάς, για να παραφράσω τον τίτλο του βιβλίου σας, θα σήμαινε το τέλος του ανθρώπινου πολιτισμού. Βλέπετε μια ύβρη στην αναζήτηση της υπερνοημοσύνης;

– Δεν θα ’θελα να πω ότι η άσκηση της ανθρώπινης εφευρετικότητας και/ή η αναζήτηση της κατανόησης της νοημοσύνης είναι παραδείγματα ύβρεως. Η νοημοσύνη είναι ένα απ’ τα πιο εκπληκτικά πράγματα στο σύμπαν, κι έτσι είναι φυσικό να θέλουμε να την καταλάβουμε και να δούμε αν μπορούμε να τη δημιουργήσουμε. Το λάθος είναι να πιστέψουμε ότι αυτό που θέλουμε να οικοδομήσουμε είναι η καθαρή νοημοσύνη – η ικανότητα να επιδιώκουμε οποιονδήποτε σκοπό. Για τον ίδιο λόγο, είναι λάθος να δημιουργήσουμε νέους οργανισμούς που θα αναπαράγονται απεριόριστα μέχρι να καταναλώσουν όλους τους πόρους της Γης. Ελπίζω να έχουμε καταλάβει τώρα αυτό το λάθος και να σταματήσουμε να το κάνουμε.  
 
– Αλήθεια, μπορεί μια μηχανή να αναπτύξει αίσθηση του χιούμορ;

– Πολλοί προσπάθησαν, με ελάχιστη επιτυχία όμως, να εκπαιδεύσουν τις μηχανές έτσι ώστε να διαχωρίζουν τα αστεία από τα «κρύα» ανέκδοτα. Στην πραγματικότητα, η μηχανή δεν βρίσκει τίποτα αστείο ή μη αστείο. Θα ήταν όπως όταν κάποιος που δεν μπορεί να διαβάζει κινεζικά να σκανάρει χιλιάδες αστεία και «κρύα» ανέκδοτα γραμμένα στα κινεζικά με σκοπό να εντοπίσει επαναλαμβανόμενα σχήματα μέσα από τα οποία να προβλέπεται το αστείο του πράγματος. Νομίζω ότι η έννοια «αίσθηση του χιούμορ» είναι σωστή – το χιούμορ μοιάζει να είναι μια αίσθηση, όπως ο πόνος ή η γλυκύτητα, όταν κάτι γαργαλάει τον εγκέφαλό μας. Στον βαθμό που γνωρίζουμε, οι μηχανές δεν έχουν καθόλου αισθήσεις.

Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή