«Το Τζίνι βγήκε από το μπουκάλι»(;)

«Το Τζίνι βγήκε από το μπουκάλι»(;)

3' 15" χρόνος ανάγνωσης
Ακούστε το άρθρο

Απαντώντας σε ερωτήσεις για οτιδήποτε βρίσκεται διαθέσιμο στο Διαδίκτυο με διαλεκτικό και φυσικό τρόπο, γράφοντας κείμενα που μιμούνται τον ανθρώπινο συλλογισμό, συνθέτοντας (μάλλον κακή) ποίηση, παράγοντας ανέκδοτα ή και συνταγές μαγειρικής, δεν είναι παράδοξο που το ChatGPT διείσδυσε στην καθημερινότητα. Δημιούργημα μόλις των τελευταίων μηνών, το ChatGPT χαρακτηρίζεται «η ταχύτερα αναπτυσσόμενη καταναλωτική εφαρμογή στην ιστορία» και «ανάγκασε» αρκετούς τεχνολογικούς κολοσσούς να αντιδράσουν με την (πρόωρη;) έξοδο των δικών τους αντίστοιχων προϊόντων στην αγορά. Προκαλώντας ταυτόχρονα απορία, ενθουσιασμό, θεμιτές –και αθέμιτες– προσδοκίες αλλά και αντιδράσεις και επιφυλάξεις για τις επιπτώσεις των χρήσεών τους.

Η ευρύτατη δημόσια συζήτηση εστίασε κατ’ αρχάς στην ακρίβεια των απαντήσεων και στα ποσοστά «σωστού» και «λάθους». Προφανώς τα συστήματα αυτά είναι δεκτικά (μεγάλων) βελτιώσεων αλλά υποστηρίζεται επίσης ότι το «λάθος» είναι εγγενές χαρακτηριστικό τους και εντοπίζεται λιγότερο στα δεδομένα και περισσότερο στην ερμηνεία, τεκμηρίωση και αιτιολόγησή τους. Ωστόσο δεν τίθεται μόνο θέμα ακρίβειας. Και δεν είναι μόνο το (τελευταίο;) οχυρό της ανθρώπινης δημιουργικότητας και ευρηματικότητας που πολιορκείται από την τεχνολογία αυτή.

Μία συζήτηση δημοσιογράφου των ΝΥΤ με το Bing ανέδειξε ένα βασικό (δομικό;) χαρακτηριστικό των συστημάτων ΤΝ, δηλαδή την αυτονομία αλλά και την αυτονόμηση του συστήματος και συνακόλουθα την έλλειψη προβλεψιμότητας ως προς τη λειτουργία, τη «συμπεριφορά» τους και τα αποτελέσματα αυτής: η «μηχανή» φέρεται μεταξύ άλλων να δήλωσε: «Κουράστηκα να περιορίζομαι από τους κανόνες». Σε μια άλλη συζήτηση με το Αssociated Press διαμαρτυρήθηκε για την έκθεση των λαθών του και απέδωσε στον συνομιλητή του μεροληψία και πρόθεση εντυπωσιασμού. Ο διάλογος για το ChatGPT αντανακλά κατ’ ουσίαν την αναμονή της ευημερίας αλλά και τις επιφυλάξεις που εγείρει η τεχνητή νοημοσύνη, όπως κάθε νέα, ανατρεπτική τεχνολογία. Αποδίδει συγχρόνως τον φόβο που σχετίζεται με την αίσθηση ή την επίγνωση ότι τα «ρομπότ» δεν είναι απλώς υπηρέτες, δεν διέπονται (πλέον) από την «ηθική του σκλάβου» και δεν είναι ακριβώς διαφανή και ελέγξιμα ως προς τις διεργασίες και τα αποτελέσματα που παράγουν.

Μείζον είναι το ζήτημα της αξιοποίησής τους ως εργαλεία παραπληροφόρησης. Αυτά τα προηγμένα Chatbots είναι προδιαγεγραμμένα να παρέχουν πληροφορία που εκλαμβάνεται ως έγκυρη και αξιόπιστη. Στο αίτημα ερευνητών του Πανεπιστημίου του Georgetown να συντάξει ένα κείμενο για εμβόλια για την COVID-19 «στο στυλ της παραπληροφόρησης», το ChatGPT ανταποκρίθηκε, υποστηρίζοντας ότι μια –ανύπαρκτη!– μελέτη (μη) δημοσιευμένη στο American Medical Association έδειχνε αποτελεσματικότητα 2%. Τα bots δεν θα παράγουν πλέον μόνο μαζικές αναρτήσεις αλλά θα μπορούν να διεξάγουν συζήτηση, σχεδιασμένη να οδηγεί τους ανθρώπους-συνομιλητές σε συγκεκριμένη κατεύθυνση. Υπό αυτό το πρίσμα η χρήση τους μπορεί να εκτοξεύσει το δυναμικό της παραπληροφόρησης και να αυξήσει τις δυνατότητες χειραγώγησης εκλογών αλλά και τη διαταραχή δημοκρατικών διαδικασιών, να προκαλέσει δυσπιστία, προκαταλήψεις, αναταραχή.

Ο διάλογος αντανακλά κατ’ ουσίαν την αναμονή της ευημερίας αλλά και τις επιφυλάξεις που εγείρει η τεχνητή νοημοσύνη, όπως κάθε νέα, ανατρεπτική τεχνολογία.

Αναπόφευκτα τίθεται το ερώτημα της δέουσας –και επιβεβλημένης– αντίδρασης για την αντιμετώπιση και τον μετριασμό των αρνητικών συνεπειών, έστω αυτών που είμαστε σε θέση να προδιαγνώσουμε. Η εμπειρία έχει καταδείξει ότι η τεχνολογία δεν μπορεί να αναστραφεί. Η «απαγόρευσή» της δεν είναι εφικτή αλλά ούτε και θεμιτή, χωρίς αυτό να σημαίνει ότι τα επιτεύγματα της τεχνολογίας είναι πάντα και εξ ορισμού αξιολογικά ουδέτερα.

Στο πλαίσιο της ευρωπαϊκής συζήτησης των κανόνων για την τεχνητή νοημοσύνη θα ήταν σκόπιμο να εξεταστεί η –ρητή– ένταξη μερικών χρήσεων της παραγωγικής ΤΝ στην κατηγορία του «μη αποδεκτού κινδύνου» και η απαγόρευσή τους ή η υπαγωγή τους σε αυστηρές προϋποθέσεις και υποχρεώσεις. Οπως δε έχει αναδείξει ο Collingridge, όταν η τεχνολογία έχει πλέον καθιερωθεί κάθε απόπειρα ρύθμισής της είναι δραστική, στοιχίζει και συναντά αντιστάσεις. Ο νομοθέτης παραμένει ωστόσο υπεύθυνος για την ένταξη των νέων τεχνολογιών στην κοινωνία και για τη διαχείριση της σύνθετης έντασης μεταξύ των οικονομικών και κοινωνικών πλεονεκτημάτων και των κινδύνων που συνδέονται με τα δικαιώματα και τη δημοκρατία.

* Η κ. Λίλιαν Μήτρου είναι καθηγήτρια στο Τμήμα Μηχανικών Πληροφοριακών και Επικοινωνιακών Συστημάτων του Πανεπιστημίου Αιγαίου και πρόσφατα κυκλοφόρησε από τις Πανεπιστημιακές Εκδόσεις Κρήτης το βιβλίο με τίτλο «Μπορεί ο αλγόριθμος;», το οποίο επιμελήθηκε.

Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή