Τεχνητή νοημοσύνη: έχουν οι μηχανές ψυχοσωματικά;

Τεχνητή νοημοσύνη: έχουν οι μηχανές ψυχοσωματικά;

Οι «παραισθήσεις», η λέξη του 2023 σύμφωνα με το λεξικό του Κέμπριτζ, αναφέρονται στην τάση των μεγάλων γλωσσικών μοντέλων να αυθαιρετούν. Πώς θα μπορούσαμε να αντιμετωπίσουμε τα ψέματα των μηχανών;

3' 51" χρόνος ανάγνωσης
Ακούστε το άρθρο

Πριν από ενάμιση χρόνο ένας μηχανικός της Google, ο Μπλέικ Λεμόιν, ξεκίνησε στα πλαίσια της δουλειάς του μια συνομιλία μ’ ένα μεγάλο γλωσσικό μοντέλο ονόματι LaMDA, η οποία θα του άλλαζε τη ζωή. Καθώς εξελισσόταν η διάδρασή του, ο Λεμόιν πίστευε ολοένα και πιο βαθιά ότι αυτό το είδος τεχνητής νοημοσύνης έχει συνείδηση. Δεν είχαν όμως όλοι την ίδια γνώμη. Οταν ο ίδιος βεβαιώθηκε κι αποφάσισε να δημοσιοποιήσει τη συνομιλία του με το LaMDA, είδε αμέσως την πόρτα της εξόδου απ’ την εταιρεία. Το σκεπτικό ήταν ότι το είχε παρατραβήξει με τους ανθρωπομορφικούς ισχυρισμούς του. Το αυτοδίδακτο μοντέλο δεν έχει συνείδηση, είπαν οι επικεφαλής της εταιρείας. Είναι μια στατιστική διαδικασία που προβλέπει την επόμενη κατάλληλη λέξη. Δεν είναι σε θέση καν να γνωρίζει τι είναι ένα δέντρο, μια ελιά ή ένας άνθρωπος.

Συνείδηση

Λίγους μήνες μετά την απόλυση του Λεμόιν, ο κόσμος ξύπνησε απότομα σε μια καινούργια πραγματικότητα. Εμφανίστηκε το ChatGPT. Και φυσικά, το πρώτο πράγμα που το ρώτησαν όσοι θυμούνταν την ιστορία με τον πρώην προγραμματιστή της Google, ήταν αν είχε συνείδηση. Το εξελιγμένο νευρωνικό δίκτυο έδινε, κι εξακολουθεί να δίνει, την απάντηση που έδωσαν και οι επικεφαλής της Google, μια απάντηση που δεν αφήνει κανένα περιθώριο παρερμηνείας. «Οχι, δεν έχω συνείδηση», λέει το ChatGPT, «είμαι ένα γλωσσικό μοντέλο τεχνητής νοημοσύνης που δημιουργήθηκε από την OpenAI και ενώ μπορώ να επεξεργάζομαι και να παράγω κείμενο με βάση τα πρότυπα που μαθαίνω κατά τη διάρκεια της εκπαίδευσης, δεν έχω αυτογνωσία, συναισθήματα, εμπειρίες ή συνείδηση. Οι απαντήσεις μου παράγονται με βάση έναν συνδυασμό πληροφοριών που έχω διδαχθεί και αλγορίθμων και δεν διαθέτω την υποκειμενική εμπειρία που χαρακτηρίζει τη συνείδηση».

Μπορεί λοιπόν η τεχνητή νοημοσύνη να μην έχει επισήμως συνείδηση, αλλά δεδομένης της τεράστιας προόδου της, η επισήμανση του Μπλέικ Λεμόιν θα μπορούσε να διαβαστεί κάπως διαφορετικά. Η συνείδηση είναι πράγματι ένα μεγάλο μυστήριο, ωστόσο επειδή απαιτεί συνακόλουθα και την ύπαρξη αυτοσυνείδησης, είναι δύσκολο να αποδοθεί στη μηχανή. Αν όμως λέγαμε ότι η τεχνητή νοημοσύνη έχει ψυχή; Εφόσον δεν υφίσταται επιστημονική τεκμηρίωση της ψυχής, το ερευνητικό ερώτημα θα ήταν βάσιμο. Φανταστείτε πώς θα κοιτούσαμε τον Λεμόιν αν έλεγε ότι το μοντέλο LaMDA έχει ψυχή. Κι όμως, αυτό θα ήταν πιο κοντά στην πραγματικότητα, γιατί οι μηχανές παρουσιάζουν επίσης φαινομενικά ανεξήγητα προβλήματα, όπως και οι άνθρωποι, τα οποία αποδίδονται σε νεφελώδεις ψυχικές διεργασίες.

Τα τελευταία χρόνια ακούμε όλο και περισσότερο να χαρακτηρίζονται διάφορες σωματικές ενοχλήσεις ως ψυχοσωματικά συμπτώματα. Είναι η εύκολη απάντηση πια, όταν το μόνο που ξέρουμε για έναν πόνο είναι ότι δεν ξέρουμε τι ακριβώς μπορεί να τον προκαλεί. Ομοίως, όταν βλέπουμε μια μηχανή να αστοχεί και να κάνει τα δικά της, υποκύπτουμε στην τάση του ανθρωπομορφισμού και λέμε περιπαικτικά ότι πρέπει να της δείξουμε λίγη αγάπη. Εδώ όμως η αβεβαιότητα διαρκεί για λίγο. Με την αντίστροφη μηχανική, βρίσκουμε τις αιτίες των προβλημάτων και τα διορθώνουμε. Στην AI των μεγάλων γλωσσικών μοντέλων οι αστοχίες της μηχανής έχουν ονομαστεί «παραισθήσεις» (hallucinations). Η λέξη μάλιστα αυτή ήταν για το λεξικό του Κέμπριτζ η «λέξη του 2023». Αν μου δινόταν η ευκαιρία να τις μετονομάσω, θα διάλεγα τον όρο «ψυχοσωματικά».

Χωρίς data

Δοκιμάστε να ζητήσετε απ’ το Bard της Google ή απ’ το ChatGPT της Microsoft, να σας μιλήσουν για λιγότερο γνωστές προσωπικότητες, καλλιτεχνών για παράδειγμα, και θα εκπλαγείτε απ’ τις ασυναρτησίες και τα ψεύδη που θα παραθέσουν ανάμεσα σε κάποιες σωστές βασικές πληροφορίες. Τα μοντέλα αγωνίζονται να αντεπεξέλθουν και μοιάζουν να υποφέρουν σοβαρά, να είναι έξω απ’ τα νερά τους όταν δεν έχουν ικανό αριθμό δεδομένων να επεξεργαστούν.

Τα ψυχοσωματικά των μηχανών, ωστόσο, δεν χρειάζονται τη συνδρομή ειδικών της ψυχικής ή, εν προκειμένω, της ψηφιακής υγείας για να θεραπευτούν. Είναι ζήτημα προγραμματισμού, ρυθμίσεων και στόχων. Πιθανώς, με τον χρόνο οι αστοχίες να μειωθούν. Η πλήρης εξάλειψή τους, ωστόσο, είναι μάλλον αδύνατη γιατί το περιβάλλον μας είναι δυναμικό. Γι’ αυτό και δεν θα μπορούμε να τα εμπιστευόμαστε πάντα και πλήρως. Στη σχέση μας μαζί τους θα υπάρχει πάντα ένα στοιχείο υγιούς αμφιβολίας.

Είναι γεγονός ότι τα μοντέλα αυτά είδαν το φως του κόσμου βιαστικά, πριν να είναι παντελώς έτοιμα. Μοιάζουν κατά κάποιον τρόπο με ανώριμους γονείς, οι οποίοι φορτώνουν στους ώμους τους πλήθος ανασφαλειών, συμπλεγμάτων και εσωτερικών αδιεξόδων. Τα ψυχοσωματικά των μηχανών είναι η απόδειξη ότι κάτι πάει στραβά στην εκπαίδευσή τους, ότι υπάρχει ενδεχομένως ανάγκη για ποιοτικότερα δεδομένα και καλύτερες εκπαιδευτικές μεθόδους. Ισως να υπάρχει και κάποιο εγγενές λάθος στην ίδια την ύπαρξή τους – ο χρόνος θα δείξει. Φυσικά, δεν θα τα απορρίψουμε γιατί είναι ατελή. Αντιθέτως, θα πρέπει να τους δείξουμε περισσότερο ενδιαφέρον και προσοχή. Πολύ συχνά η αντιμετώπιση των αιτιών των προβλημάτων οδηγεί τα ψυχοσωματικά, αν όχι στην εξαφάνιση τουλάχιστον σε μια πιο υποφερτή συνύπαρξη μαζί τους.

Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή