Η Κομισιόν ανησυχεί για την τεχνητή νοημοσύνη

Η Κομισιόν ανησυχεί για την τεχνητή νοημοσύνη

Καλεί τα κράτη-μέλη σε αξιολογήσεις κινδύνου για τέσσερις κρίσιμους τεχνολογικούς τομείς

3' 30" χρόνος ανάγνωσης
Ακούστε το άρθρο

Ηχρήση τεχνητής νοημοσύνης απαιτεί συνεχή παρακολούθηση, αξιολόγηση κινδύνου διαρροής της τεχνολογίας και προστασία από κράτη που χαρακτηρίζονται αντίπαλα, σύμφωνα με την Κομισιόν, που κατατάσσει τις εφαρμογές του Α.Ι. στους κρίσιμους τεχνολογικούς τομείς.

Οι Βρυξέλλες ανησυχούν για τους πιθανούς κινδύνους που επισύρουν οι τεχνολογίες γύρω από τους προηγμένους ημιαγωγούς, την τεχνητή νοημοσύνη, τις κβαντικές τεχνολογίες και τις βιοτεχνολογίες. 

Στη σχετική ευρωπαϊκή σύσταση περιλαμβάνεται μάλιστα κατάλογος δέκα τεχνολογικών τομέων, εκ των οποίων οι τέσσερις θεωρούνται πολύ πιθανό να παρουσιάσουν τους πιο ευαίσθητους και άμεσους κινδύνους σχετικά με την ασφάλεια της τεχνολογίας και τη διαρροή της. Οι τομείς αυτοί είναι οι εξής:

  • Προηγμένες τεχνολογίες ημιαγωγών (μικροηλεκτρονική, φωτονική, τσιπ υψηλής συχνότητας, εξοπλισμός κατασκευής ημιαγωγών).
  • Τεχνολογίες τεχνητής νοημοσύνης (υπολογισμός υψηλής απόδοσης, υπολογισμός νέφους και αιχμής, ανάλυση δεδομένων, όραση υπολογιστή, επεξεργασία γλώσσας, αναγνώριση αντικειμένων).
  • Κβαντικές τεχνολογίες (κβαντικοί υπολογιστές, κβαντική κρυπτογραφία, κβαντικές επικοινωνίες, κβαντική ανίχνευση και ραντάρ).
  • Βιοτεχνολογίες (τεχνικές γενετικής τροποποίησης, νέες γονιδιωματικές τεχνικές, γονιδιακή κίνηση, συνθετική βιολογία).

Η Επιτροπή συνιστά στα κράτη-μέλη να διεξαγάγουν αρχικά συλλογικές αξιολογήσεις κινδύνου για αυτούς τους τέσσερις τομείς, έως το τέλος του τρέχοντος έτους, συμπεριλαμβανομένης της διαβούλευσης με τον ιδιωτικό τομέα. Η Κομισιόν θα συνεργαστεί με τα κράτη-μέλη, μέσω των κατάλληλων φόρουμ εμπειρογνωμόνων, για την έναρξη των συλλογικών αξιολογήσεων κινδύνου για τους τέσσερις προαναφερθέντες τεχνολογικούς τομείς.

Υπό το φως αυτού του διαλόγου και της πρώτης εμπειρίας από τις αρχικές συλλογικές αξιολογήσεις κινδύνου, η Κομισιόν μπορεί να παρουσιάσει περαιτέρω πρωτοβουλίες σχετικά με το θέμα αυτό έως την άνοιξη του 2024.

Το αποτέλεσμα της λεπτομερούς συλλογικής αξιολόγησης του επιπέδου και της φύσης των κινδύνων που παρουσιάζονται μπορεί να χρησιμεύσει ως βάση για περαιτέρω συζήτηση σχετικά με την ανάγκη οποιωνδήποτε ακριβών και αναλογικών μέτρων για την προώθηση, τη συνεργασία ή την προστασία σε οποιονδήποτε από αυτούς τους τομείς τεχνολογίας.

Ο επίτροπος αρμόδιος για την εσωτερική αγορά Τιερί Μπρετόν δήλωσε: «Πρέπει να παρακολουθούμε συνεχώς τις κρίσιμες τεχνολογίες μας, να αξιολογούμε την έκθεσή μας σε κινδύνους και –όπου και όταν χρειάζεται– να λαμβάνουμε μέτρα για τη διατήρηση των στρατηγικών μας συμφερόντων και της ασφάλειάς μας. Η Ευρώπη προσαρμόζεται στις νέες γεωπολιτικές πραγματικότητες, βάζοντας τέλος στην εποχή της αφέλειας και ενεργώντας ως πραγματική γεωπολιτική δύναμη».

Μαζικές απολύσεις λόγω τεχνητής νοημοσύνης;

Η έκθεση της Κομισιόν έρχεται μόλις λίγους μήνες αφότου ο ΟΟΣΑ εκτίμησε ότι οι ανεπτυγμένες οικονομίες των χωρών-μελών του Οργανισμού βρίσκονται προ των πυλών της «επανάστασης» που θα φέρει η τεχνητή νοημοσύνη μεταβάλλοντας θεμελιωδώς την εργασία, προκαλώντας μαζικές απολύσεις και θέτοντας ηθικά ζητήματα.

Ο Οργανισμός κάλεσε τις πλουσιότερες οικονομίες του κόσμου να προετοιμαστούν για την αναστάτωση που θα επέλθει στις αγορές εργασίας. Παράλληλα, ζήτησε να προετοιμαστούν για τις ανεπιθύμητες παρενέργειες όταν οι κλάδοι των οικονομιών θα υιοθετούν μαζικά τη νέα τεχνολογία και προεξόφλησε πως τον μεγαλύτερο κίνδυνο διατρέχουν οι υψηλής εξειδίκευσης υπάλληλοι γραφείου, που αντιπροσωπεύουν περίπου το 27% της απασχόλησης σε όλες τις χώρες-μέλη του.

Ο διεθνής οργανισμός είναι ο τελευταίος σε μια σειρά οικονομικών οργανισμών που προειδοποιούν για τις παρενέργειες που θα έχουν οι νέες τεχνολογίες, όπως η εφαρμογή ChatGPT, που οι οικονομολόγοι και οι άνθρωποι της τεχνολογίας έχουν χαρακτηρίσει «δημιουργική τεχνητή νοημοσύνη», λόγω της ικανότητάς της να δημιουργεί περιεχόμενο παραπλήσιο με εκείνο των ανθρώπων. Υπογραμμίζει ειδικότερα την ανάγκη να ληφθούν υπόψη τα πιθανά οφέλη, όπως η μεγαλύτερη ικανοποίηση των εργαζομένων από την ποιότητα της εργασίας τους και η αύξηση της παραγωγικότητας, αλλά και να εξετασθούν σοβαρά οι αρνητικές επιπτώσεις, ιδιαιτέρως για τα επαγγέλματα υψηλής εξειδίκευσης. 

Το κάλεσμα ερευνητών για μορατόριουμ

Τον περασμένο Μάρτιο δημοσιεύτηκε μια ανοιχτή επιστολή στο Ινστιτούτο Future of Life υπογεγραμμένη από 1.000 ερευνητές σε όλο τον κόσμο, οι οποίοι εξέφραζαν τις ανησυχίες τους για τη ραγδαία και χωρίς ρυθμιστικό πλαίσιο ανάπτυξη των συστημάτων τεχνητής νοημοσύνης από τις εταιρείες τεχνολογίας.

«Τους τελευταίους μήνες είδαμε εργαστήρια τεχνητής νοημοσύνης να εγκλωβίζονται σε έναν αγώνα εκτός ελέγχου για να αναπτύξουν και να παρουσιάσουν όλο και πιο ισχυρά ψηφιακά μυαλά που κανείς —ακόμα και οι δημιουργοί τους— δεν μπορεί να καταλάβει, να προβλέψει ή να ελέγξει αξιόπιστα», αναφερόταν στην επιστολή.

Μεταξύ όσων υπέγραψαν ήταν οι κορυφαίοι καθηγητές τεχνητής νοημοσύνης Στούαρτ Ράσελ και Γιοσουά Μπένζιο, οι συνιδρυτές των Apple, Pinterest και Skype κ.ά. Το Ινστιτούτο Future of Life, το οποίο δημοσίευσε την επιστολή, έχει τον Μασκ στους μεγαλύτερους χρηματοδότες του και διευθύνεται από τον Μαξ Τέγκμαρκ, καθηγητή του Ινστιτούτου Τεχνολογίας της Μασαχουσέτης και ερευνητή τεχνητής νοημοσύνης. 

Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή