Σταματήστε τις ΑΙ

2' 53" χρόνος ανάγνωσης
Ακούστε το άρθρο

Ο ένας τίτλος, στον Guardian, έλεγε: “Ο Ήλον Μασκ καλεί σε παύση της ανάπτυξης των ΑΙ”. Στο BBC ο τίτλος ήταν: “Ο Ήλον Μασκ μεταξύ των ειδικών που καλούν σε παύση των ΑΙ”. “Ο Ήλον Μασκ και άλλοι προτρέπουν σε διακοπή των ΑΙ, επισημαίνοντας “κινδύνους για την κοινωνία” έγραφε το Reuters. Δεν είναι καλοί τίτλοι αυτοί. Ο κατά καιρούς πλουσιότερος άνθρωπος του κόσμου έχει διατυπώσει ή υποστηρίξει στο παρελθόν πολύ περίεργες απόψεις για διάφορα θέματα, από τα εμβόλια κατά της Covid μέχρι το τι σημαίνει ελευθερία της έκφρασης, κι από κάθε παλαβή θεωρία συνομωσίας στο Twitter μέχρι το πώς μπορούν να σωθούν εκείνα τα παιδάκια από τη σπηλιά στην Ταϊλάνδη. Μολονότι είναι ένας επιτυχημένος επιχειρηματίας και εκ των αρχικών χρηματοδοτών της εταιρείας που πολύ αργότερα έφτιαξε το ChatGPT, η παρουσία του στα δημόσια πράγματα τα τελευταία χρόνια δεν τον καθιστά ακριβώς αξιόπιστη πηγή επιστημονικά τεκμηριωμένων απόψεων.

Και αυτό είναι κρίμα, γιατί η είδηση στην οποία αναφέρονταν αυτοί οι τίτλοι είναι σημαντική. Αναφερόταν σε μια ανοιχτή επιστολή που δημοσιεύτηκε από το Future of Life Institute, μια ΜΚΟ που έρευνα το μέλλον της ανθρωπότητας και κυρίως τους κινδύνους που προκύπτουν για το είδος μας από τέσσερις τομείς: την κλιματική αλλαγή, τα πυρηνικά όπλα, τη βιοτεχνολογία και, φυσικά, την τεχνητή νοημοσύνη. Στην επιστολή τα μέλη του ινστιτούτου, αναγνωρίζοντας τη ραγδαία ανάπτυξη των εργαλείων σαν το ChatGPT, το Midjourney, το Stable Diffusion και άλλα που έχουν εμφανιστεί πρόσφατα, επισημαίνουν τους κινδύνους από την ανεξέλεγκτη και υπερβολικά γρήγορη ανάπτυξη υπολογιστικών συστημάτων (“ψηφιακά μυαλά”, τα αποκαλούν) που λειτουργούν με τρόπο που οι ίδιοι οι δημιουργοί τους δεν μπορούν να κατανοήσουν ή να ελέγξουν. “Ισχυρά συστήματα τεχνητής νοημοσύνης θα πρέπει να αναπτυχθούν μόνο όταν θα είμαστε σίγουροι ότι οι επιπτώσεις τους θα είναι θετικές και οι κίνδυνοι διαχειρίσιμοι”, γράφουν οι συντάκτες της επιστολής, και καταλήγουν στο εξής αίτημα: “Ζητάμε από όλα τα εργαστήρια που ερευνούν την τεχνητή νοημοσύνη να σταματήσουν αμέσως και για τουλάχιστον έξι μήνες την εκπαίδευση συστημάτων ΑΙ που είναι πιο ισχυρά από το GPT-4”. Και μάλιστα, αν οι εταιρείες δεν μπορούν να το υλοποιήσουν άμεσα, “οι κυβερνήσεις θα πρέπει να επέμβουν”, γράφουν. Είναι ρεαλιστικό αυτό το πρωτοφανές και κάπως μαξιμαλιστικό αίτημα; Είναι υπερβολική η ανησυχία των ειδικών που συνυπογράφουν την επιστολή;

Πώς να το αξιολογήσουμε αυτό εμείς, που παρακολουθούμε και διαβάζουμε, χωρίς να είμαστε ειδικοί; Ίσως τα άτομα που συνυπογράφουν την επιστολή, με το κύρος και την εμπειρία τους, να μας δίνουν μια ένδειξη για τη σοβαρότητα του θέματος. Οι ειδήσεις έδωσαν έμφαση στο όνομα του Ήλον Μασκ ή του συνιδρυτή της Apple Στιβ Γουόζνιακ, αλλά την επιστολή την υπογράφουν και πολλοί άλλοι, όπως ο διάσημος συγγραφέας Γιουβάλ Χαράρι και ο συνιδρυτής του Skype Γιαν Ταλίν (που επίσης δεν είναι ακριβώς ειδικοί, αλλά όπως και να το κάνουμε είναι σοβαρότεροι από τον Ήλον Μασκ) και, κυρίως, και κάποιοι άλλοι, πολύ αρμοδιότεροι, όπως ο βρετανός καθηγητής Στούαρτ Ράσελ, που έχει γράψει το ένα από τα δύο καλύτερα εκλαϊκευμένα βιβλία για την τεχνητή νοημοσύνη που έχω διαβάσει (“Human Compatible: AI and the problem of control και ο Σουηδός καθηγητής Μαξ Τέγκμαρκ, που έχει γράψει το άλλο (“Life 3.0”). Είναι αδύνατο να προβλέψει κανείς το μέλλον, και πολύ δύσκολο για οποιονδήποτε να αξιολογήσει ρεαλιστικά τους κινδύνους από την ανάπτυξη μηχανών που δεν μπορούμε να ελέγξουμε. Αλλά αν ο Μαξ Τέγκμαρκ και ο Στούαρτ Ράσελ, άνθρωποι σοβαροί, όχι Λουδίτες, καλούν σε ένα μορατόριουμ κατά μιας τεχνολογικής εξέλιξης, καλό θα είναι εμείς, οι μη-ειδικοί, να τους ακούσουμε προσεκτικά. Κι ας συμφωνεί μαζί τους ο Ήλον Μασκ.

Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή