«Η Τεχνητή Νοημοσύνη αλλάζει το υφαντό της ύπαρξής μας»
η-τεχνητή-νοημοσύνη-αλλάζει-το-υφαντ-562933012

«Η Τεχνητή Νοημοσύνη αλλάζει το υφαντό της ύπαρξής μας»

Πόσο επικίνδυνη είναι η AI για το μέλλον της ανθρωπότητας; Η «Κ» επιχειρεί να ρίξει φως σε αυτό το ερώτημα, συνομιλώντας με τη Senior Director της ΑI στη Microsoft, Ευδοξία Ψάλτη, και τον προεδρεύοντα της Εθνικής Επιτροπής Βιοηθικής & Τεχνοηθικής, Χαράλαμπο Τσέκερη

Λουκάς Βελιδάκης
Ακούστε το άρθρο

«Η AI μπορεί να απειλήσει το ανθρώπινο είδος με εξαφάνιση»: Αυτό είναι το αρνητικό σενάριο πρόσφατης έκθεσης του Στέιτ Ντιπάρτμεντ, που βάσισε τα ευρήματά της σε σειρά συνεντεύξεων με κορυφαία στελέχη εταιρειών τεχνητής νοημοσύνης, ερευνητές κυβερνοασφάλειας, εμπειρογνώμονες σε θέματα όπλων μαζικής καταστροφής και αξιωματούχους εθνικής ασφάλειας.

«Η ΑΙ αλλάζει το υφαντό της ανθρώπινης ύπαρξης», λέει στην «Κ» ο Χαράλαμπος Τσέκερης, προεδρεύων της Εθνικής Επιτροπής Βιοηθικής & Τεχνοηθικής, ο οποίος εμφανίζεται συγκρατημένα αισιόδοξος απέναντι στις προσεχείς εξελίξεις, καλώντας ταυτόχρονα σε έναν συλλογικό αναστοχασμό για «το τι είδους ΑΙ κοινωνία θέλουμε».

Είναι υπαρκτός ο κίνδυνος κάποια στιγμή να χάσουμε τον έλεγχο; Ο κ. Τσέκερης σημειώνει ότι η ανησυχία είναι υπαρκτή κι ότι όντως εμφανίζεται σε σειρά παγκόσμιων ερευνών: «Υπάρχει ο φόβος μήπως ξεφύγει από τα χέρια μας ο έλεγχος της τεχνητής νοημοσύνης, μήπως δηλαδή υπάρξει ένα φαινόμενο Μινχάουζεν: η τεχνητή νοημοσύνη να στραφεί σε βάρος της ανθρωπότητας και καταλήξει να είναι αυτοκαταστροφική». 

Ποιοι είναι όμως οι υπαρξιακοί κίνδυνοι που συνεπάγεται η ΑΙ; «Μέσα στο 2023 υπήρξαν αρκετά αφηγήματα υπαρξιακού ρίσκου λόγω της τεχνητής νοημοσύνης που αναφέρονται σε αυτό το AI hype. Είδαμε, δηλαδή, ένα open letter από το Future of Life Institute με πολύ επιδραστικές προσωπικότητες, από τον Χαράρι μέχρι τον Μασκ. Είδαμε στην ίδια γραμμή μια ανοιχτή επιστολή από το κέντρο για την ασφάλεια της τεχνητής νοημοσύνης, που προειδοποιούσε ότι ο μετριασμός του κινδύνου εξαφάνισης της ανθρωπότητας από την τεχνητή νοημοσύνη πρέπει να εκλαμβάνεται ως παγκόσμια προτεραιότητα».

Εκφράζει την πεποίθηση ότι χρειάζεται μια πιο ψύχραιμη και ρεαλιστική ματιά: «Να δούμε όλο το φάσμα δυνατοτήτων και όλο το φάσμα σεναρίων που αφορά στην τεχνητή νοημοσύνη». 

Ανθρώπινη εποπτεία και έλεγχος

«Η Τεχνητή Νοημοσύνη αλλάζει το υφαντό της ύπαρξής μας»-1Η Ευδοξία Ψάλτη ανήκει στην κατηγορία των ανθρώπων που βρίσκονται στην πρώτη γραμμή των εξελίξεων της τεχνητής νοημοσύνης, έχοντας την ιδιότητα της Senior Director στον τομέα της ΑI στη Microsoft.

«Γνωρίζοντας το πώς λειτουργούν αυτά τα μοντέλα της τεχνητής νοημοσύνης, ουσιαστικά θα πρέπει να υπάρχει μία “διακυβέρνηση”, διότι όταν χρησιμοποιείς ένα μοντέλο το οποίο αυτο-διδάσκεται, μπορεί να φτάσει σε ένα σημείο, όπου θα δημιουργήσει μη αναμενόμενα αποτελέσματα. Οπότε, αυτό που πάντα προτείνουμε σε πελάτες, σε ομάδες ανθρώπων που θέλουν να ενσωματώσουν την ΑΙ σε όσα κάνουν, είναι ότι πρέπει πρώτα να καθορίσετε τις αρχές σας, διότι αν το μοντέλο είναι μία αυτόνομη οντότητα, μπορεί να κάνει πολλά διαφορετικά πράγματα». 

Προσθέτει πως είναι θετικό το ότι –προς το παρόν– οι εξελίξεις βρίσκονται υπό έλεγχο, εκφράζοντας την αισιοδοξία ότι «εάν έχετε τις σωστές αρχές σχετικά με τη λογοδοσία, τη διαφάνεια, τη δικαιοσύνη, την αξιοπιστία, την ασφάλεια, την ιδιωτικότητα και τη συμπεριληπτικότητα, τότε μπορείτε να εγγυηθείτε ότι θα υπάρχει ανθρώπινη εποπτεία και έλεγχος».

Από την πλευρά του, ο κ. Τσέκερης συμφωνεί ότι «αν δεν μεταφράσουμε στο πεδίο της πρακτικής και της ανάπτυξης των αλγορίθμων τις παραπάνω έννοιες και δεν τις ενσωματώσουμε στα συστήματα από νωρίς, τότε είναι πολύ εύκολο να αλλοιωθούν και δύσκολο να τις επανακτήσουμε».

«Η Τεχνητή Νοημοσύνη αλλάζει το υφαντό της ύπαρξής μας»-2

Η στρατηγική της προόρασης και το πλέγμα των σεναρίων

Ο κ. Τσέκερης, ενόψει των επαπειλούμενων ρίσκων που συνεπάγεται η καλπάζουσα εξέλιξη της τεχνολογίας, σημειώνει ότι είναι πολύ χρήσιμη η μέθοδος της στρατηγικής προόρασης καθώς αυτή δεν «βλέπει» μόνον ένα σενάριο για το μέλλον. «Το ένα και μοναδικό μέλλον είναι κάτι που αποκλείεται στην επιστημονική μέθοδο της στρατηγικής προόρασης».

«Αυτό που προσπαθήσαμε να κάνουμε στην έκθεση Generative AI Greece 2030, είναι να δούμε ακριβώς τα πολλά, διαφορετικά και εναλλακτικά μέλλοντα της παραγωγικής τεχνητής νοημοσύνης. Θα έλεγα ότι υπό αυτό το πρίσμα δεν θα πρέπει να αποκλείουμε αυτό το σενάριο που περιγράφεται από την έκθεση του Στέιτ Ντιπάρτμεντ. Δεν θα πρέπει να αποκλείουμε για την ακρίβεια κανένα σενάριο. Ούτε το σενάριο ότι πολύ γρήγορα η παραγωγική τεχνητή νοημοσύνη θα εξελιχθεί σε τεχνητή γενική νοημοσύνη. Λειτουργούμε βάσει σεναρίων και προσπαθούμε να δούμε όλα αυτά τα σενάρια, το καθένα ξεχωριστά, με τις δυνατότητες, τα ρίσκα, τις ευκαιρίες, τις απειλές που διαθέτει το καθένα».

Το ένα και μοναδικό μέλλον είναι κάτι που αποκλείεται στην επιστημονική μέθοδο της στρατηγικής προόρασης.

Η ανατροπή του εργασιακού σύμπαντος

«Η Τεχνητή Νοημοσύνη αλλάζει το υφαντό της ύπαρξής μας»-3Μεταφέρουμε τη συζήτηση στο κομμάτι της εργασίας και των αλλαγών που αναμένεται να προκύψουν. Ο κ. Τσέκερης το αντιλαμβάνεται ως σημαντική πρόκληση και επικαλείται πρόσφατη έκθεση του ΔΝΤ στην οποία υπήρχε η πρόβλεψη ότι το 40% των επαγγελμάτων –μέχρι το 2030– θα διαταραχθούν και δη σε χώρες που δεν είναι προετοιμασμένες. 

«Aρα, το να χαθούν δουλειές είναι μια πιθανότητα στον βαθμό που δεν θα υπάρξει ψηφιακό ανθρώπινο κεφάλαιο, δεν θα υπάρξουν δεξιότητες, upskilling, reskilling και δεν θα υπάρξουν θεσμοί που θα αφομοιώσουν, θα ενσωματώσουν την ΑΙ. Και εδώ πρέπει να πούμε ότι η ταχύτητα είναι ένα κρίσιμο μέγεθος. Αυτό λέμε και στο report, ότι πρέπει να επιταχύνουμε τους ρυθμούς μας, ούτως ώστε να δημιουργηθούν, σε σχέση με το θέμα της εργασίας, κατάλληλες οργανωσιακές δομές και εργασιακή κουλτούρα, προκειμένου να αφομοιωθεί η τεχνητή νοημοσύνη και να μεταφραστεί σε καινοτομία και παραγωγικότητα. Οπως καταλαβαίνετε, χρειάζεται χρόνο προκειμένου αυτή η τεχνολογική έκρηξη να μεταφραστεί σε παραγωγικότητα και ευημερία για όλους».

Συμπληρώνει ότι αυτό το χρονικό διάστημα έχει να κάνει κυρίως με την καλλιέργεια ψηφιακού ανθρώπινου κεφαλαίου, με την καλλιέργεια δομών και κουλτούρας συνεργασίας και –βεβαίως– με το θεσμικό κεφάλαιο, «που θα αφομοιώσουν την τεχνητή νοημοσύνη και κυρίως την εμπιστοσύνη του κόσμου, την κοινωνική συνοχή». 

Δεν βρισκόμαστε ακόμα στο στάδιο που η ΑΙ μπορεί να μας αντικαταστήσει ή να κάνει κάτι ανεξάρτητα.

«Η ΑΙ είναι εργαλείο»

«Για εμένα, προσωπικά, η AI είναι ένα εργαλείο. Δεν αντικαθιστά ό,τι κάνω. Μπορεί να κάνει κάποια πράγματα καλύτερα από ό,τι τα κάνω εγώ, αλλά ακόμα το θεωρώ εργαλείο», λέει η κ. Ψάλτη, κληθείσα να περιγράψει τις αλλαγές που συντελούνται στον κλάδο της.

Εκτιμά ότι δεν βρισκόμαστε ακόμα στο στάδιο που η ΑΙ μπορεί να μας αντικαταστήσει ή να κάνει κάτι ανεξάρτητα. «Αλλά και πάλι, όλα εξαρτώνται από το πώς είναι δομημένο. Το εργαλείο από μόνο του, είναι το ίδιο με τα πυρηνικά όπλα, σωστά; Η τεχνολογία από μόνη της, είναι καινοτόμος και μπορεί να χρησιμοποιηθεί με διαφορετικούς τρόπους. Γι’ αυτό ένα κομμάτι της δουλειάς είναι να δημιουργηθούν διασφαλίσεις μέσα στο προϊόν. Πράγματα, όπως κάνει η Microsoft με το AI dashboard, με τα εργαλεία ασφάλειας περιεχομένου. Φτιάχνουμε εργαλεία που μπορούν να βοηθήσουν, να διασφαλίσουμε την εμπειρία μέσα στο προϊόν. Και το άλλο μισό είναι να καθιερώσουμε αυτές τις αρχές, ώστε να έχουμε όλοι ένα κοινό σύνολο κανόνων ή κατευθυντήριων γραμμών, να διασφαλίσουμε ότι όλοι χρησιμοποιούμε το προϊόν με τον ασφαλέστερο τρόπο».

Ο κίνδυνος της υπερ-νοημοσύνης

Μία από τις προκλήσεις που εμφανίζονται στο πλέγμα των πολλαπλών σεναρίων για το μέλλον της ΑΙ είναι η απειλή της υπερ-νοημοσύνης, που αυξάνει τις ανησυχίες για το μέλλον της ανθρωπότητας.

Υπάρχει όμως η πιθανότητα να φτάσουμε σε ένα τέτοιο σημείο υπερ-νοημοσύνης ώστε τα μηχανήματα να σκέφτονται και να δρουν αυτόνομα; «Δεν το ξέρω αυτό. Αυτό είναι για όσους καταπιάνονται με το ηθικό ή το φουτουριστικό σκέλος. Από την σκοπιά του engineering, αυτή τη στιγμή, ο κίνδυνος είναι μικρός. Oσο εξελίσσεται η τεχνολογία, ποιος ξέρει; Γι’ αυτό νομίζω είναι πολύ σημαντικό να υπάρχει συνεργασία μεταξύ των κυβερνήσεων, μεταξύ κυβέρνησης και πολίτη, ώστε να υπάρχει εκπαίδευση, γνώση των κινδύνων κι όλοι να μπορούμε να κάνουμε πιο υπεύθυνη χρήση», απαντά η κ. Ψάλτη.

Ο κ. Τσέκερης σπεύδει να σημειώσει ότι πρόκειται για πολύ μακρινό σενάριο. «Σε ένα πρόσφατο report, η συντριπτική πλειονότητα των επιστημόνων είπε ότι μέχρι το 2100 θα έχουμε αυτό το human level AI. Δηλαδή η τεχνητή νοημοσύνη θα φτάσει και θα ξεπεράσει την ανθρώπινη ικανότητα, την ανθρώπινη συνείδηση, την ανθρώπινη ευφυΐα». Αλλοι πάλι, όπως ορισμένοι γκουρού της Σίλικον Βάλεϊ –σαν τον Ρέι Κούρτσβαϊλ και τον Πίτερ Διαμαντή– πιστεύουν ότι μέχρι το 2035 θα έχουμε τη διεπαφή ανθρώπινου εγκεφάλου και cloud, άρα θα μπορέσουμε να έχουμε αυξημένες νοητικές δυνατότητες νωρίτερα. 

Κάποιοι πιστεύουν ότι γύρω στο 2030, η τεχνητή νοημοσύνη θα ξεπεράσει κατά πολύ την ανθρώπινη ευφυΐα. «Εδώ πρέπει να πούμε ότι ήδη το Claude έχει IQ 101, είναι η πιο έξυπνη εφαρμογή και αυτό σημαίνει ότι ξεπερνάει τον ανθρώπινο μέσο όρο. Το ερώτημα είναι αν αυτή η αναδυόμενη υπερ-ευφυΐα θα ωφελήσει τον άνθρωπο και την κοινωνία ή θα δημιουργήσει υπαρξιακά προβλήματα, θα διαταράξει την εργασία, θα υποβαθμίσει τις γνωστικές και νοητικές ικανότητες των ανθρώπων, θα διαταράξει την ιδιωτικότητα», σχολιάζει ο Χαράλαμπος Τσέκερης.

«Η Τεχνητή Νοημοσύνη αλλάζει το υφαντό της ύπαρξής μας»-4

Το κομμάτι της ηθικής και η εφαρμογή του

Ποια είναι η ηθική διάσταση του θέματος; Πέρα από το πεδίο της ιατρικής, όπου η βιοηθική έχει να κάνει κυρίως με τις ιατρικές εφαρμογές της ΑΙ, υπάρχουν οι ηθικές έννοιες, οι οποίες πρέπει πλέον να περάσουν σε επίπεδο εφαρμογής. «Πρόκειται για μια σύγχρονη συζήτηση, καθώς υπάρχει η τάση, οι ηθικές έννοιες, που συνδέονται με την τεχνητή νοημοσύνη –ιδιωτικότητα, ευθύνη, ασφάλεια, διαφάνεια, λογοδοσία, δικαιοσύνη, δικαιοκρισία– να πρέπει περάσουν από το αφηρημένο σε ένα πρακτικό και επιχειρησιακό επίπεδο εφαρμογής στους οργανισμούς και τις επιχειρήσεις», τονίζει ο κ. Τσέκερης. 

Η κ. Ψάλτη εκτιμά ότι πρέπει να παρακολουθούμε και να αλλάζουμε τη νομοθεσία και τις κατευθυντήριες γραμμές σε συνάρτηση με τις αλλαγές της τεχνολογίας.

Σημειώνει ότι πρόκειται για ζήτημα πολυπαραγοντικό. Γι’ αυτό στη Microsoft, για να καταρτίσουν μία σειρά από αρχές, αξιοποίησαν τη γνώση της φιλοσοφίας, της βιοηθικής, της τεχνοηθικής, πέρα από τη συμβολή των μηχανικών και των νομικών. «Το θέμα είναι εξαιρετικά σφαιρικό».

Δεν μπορούμε να βγάλουμε rules και guidelines σήμερα και να περιμένουμε να τα αλλάξουμε σε πέντε χρόνια.

Το αίτημα για αναστοχασμό

Ο κ. Τσέκερης τονίζει ότι συνήθως οι ειδικοί είναι αισιόδοξοι. «Βεβαίως, οι κοινωνικοί επιστήμονες πάντοτε ήταν λιγότερο αισιόδοξοι από τους υπόλοιπους. Σε μια πρόσφατη έρευνα του Atlantic Council, πάνω από 1.800 ειδικοί ρωτήθηκαν για το μέλλον σε 10 χρόνια και οι 6 στους 10 ήταν απαισιόδοξοι. Θα έλεγα να αναστοχαστούμε στην αισιοδοξία και την απαισιοδοξία μας, στους φόβους και τις ελπίδες μας, να καταλάβουμε τι μας φοβίζει, τι μας κάνει να ελπίζουμε και να διαμορφώσουμε δράσεις σε διάφορα επίπεδα για να προκαλέσουμε την επιθυμητή αλλαγή από το επίπεδο της πολιτείας μέχρι την κοινωνία πολιτών, μέχρι την εκπαιδευτική κοινότητα».

Ο ίδιος εκτιμά ότι μας λείπει η «εξωτερική πολιτική επάρκεια», δηλαδή η αίσθηση ότι μπορώ να αλλάξω τα πράγματα. «Δυστυχώς δεν έχουμε αυτή την αίσθηση. Ειδικά στην Ελλάδα είναι πολύ χαμηλό το ποσοστό. Θεωρούμε ότι πρέπει να ζήσουμε με την απώλεια της ιδιωτικότητας, πρέπει να ζήσουμε με τις δυστοπίες που περιτριγυρίζουν την ΑΙ. Αυτό είναι λάθος. Πρέπει να ατενίσουμε το μέλλον με αισιοδοξία, με δημιουργικότητα και φαντασία».

Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή