Τεχνητή νοημοσύνη: Ευρωπαϊκή συμφωνία για το νομικό πλαίσιο – Το παρασκήνιο και τα επόμενα βήματα

Τεχνητή νοημοσύνη: Ευρωπαϊκή συμφωνία για το νομικό πλαίσιο – Το παρασκήνιο και τα επόμενα βήματα

Η συμφωνία επετεύχθη μετά την άρση των ενστάσεων της Γαλλίας για τους ρυθμιστικούς κανόνες, σχετικά με τη λειτουργία των ισχυρών μοντέλων θεμελίωσης AI

3' 0" χρόνος ανάγνωσης
Ακούστε το άρθρο

Σε συμφωνία για τις τεχνικές λεπτομέρειες της νομοθεσίας για την πιο εξελισσόμενη τεχνολογία σε παγκόσμιο επίπεδο, την Τεχνητή Νοημοσύνη (ΑΙ), προχώρησαν σήμερα τα κράτη-μέλη της Ευρωπαϊκής Ενωσης, μετά τη σχετική πολιτική συμφωνία, τον περασμένο Δεκέμβρη. Επόμενο «βήμα» θα είναι η επικύρωσή της από το Ευρωπαϊκό Κοινοβούλιο, ώστε να μπει σε εφαρμογή.

Η συμφωνία επετεύχθη μετά την άρση των ενστάσεων της Γαλλίας για τους ρυθμιστικούς κανόνες, σχετικά με τη λειτουργία των ισχυρών μοντέλων θεμελίωσης AI, όπως το ChatGPT. Το Παρίσι δεν ήθελε καμία δεσμευτική υποχρέωση έναντι των κατασκευαστών τέτοιων μοντέλων, ενώ είχε διατυπώσει αντιρρήσεις και για τα κριτήρια διαφάνειας, κυρίως σε σχέση με τις εμπορικές συναλλαγές.

Η αλλαγή στάσης της Γαλλίας, σύμφωνα με πληροφορίες, οφείλεται στην άρση των σχετικών ενστάσεων Γερμανίας και Ιταλίας πριν από λίγες ημέρες. Πάντως, ακόμα και η έγκριση της νομοθεσίας, που είναι η πρώτη στον κόσμο, δεν σημαίνει και το τέλος των κανονιστικών διαδικασιών, καθώς η Κομισιόν θα πρέπει να υιοθετήσει περίπου είκοσι κατ’ εξουσιοδότηση εκτελεστικές πράξεις και τουλάχιστον έξι κατευθυντήριες γραμμές.

Η προσέγγιση ρίσκου για την ΑΙ, που υιοθέτησε η Κομισιόν το 2021, είχε γίνει θετικά αποδεκτή, ιδιαίτερα όταν παρουσιάστηκε το πρώτο εγχειρίδιο κανόνων. Το 2022 όμως, όταν η OpenAI «λάνσαρε» το ChatGPT, προκλήθηκαν διάφορες συζητήσεις σε παγκόσμιο επίπεδο σχετικά με την κανονιστική ρύθμιση των λεγόμενων chatbots.

Για τον λόγο αυτό, το Ευρωπαϊκό Κοινοβούλιο πρόσθεσε νέο άρθρο που περιλάμβανε μια μακρά λίστα υποχρεώσεων, προκειμένου να εξασφαλίσει από τα εν λόγω συστήματα σεβασμό έναντι των θεμελιωδών δικαιωμάτων, καθώς η Κομισιόν δεν είχε συμπεριλάβει στο δικό της σχέδιο κάποια σχετική πρόβλεψη για τα θεμελιώδη μοντέλα.

Η κίνηση αυτή προκάλεσε την αντίδραση Γερμανίας, Γαλλίας και Ιταλίας που κατέθεσαν μάλιστα αντιπρόταση, με την οποία εισηγούνταν «υποχρεωτική αυτορρύθμιση μέσω κωδικών δεοντολογίας» για τα θεμελιώδη μοντέλα.

Μετά τη σημερινή συμφωνία, το Ευρωπαϊκό Κοινοβούλιο θα φέρει προς ψηφοφορία το εν λόγω νομοθετικό κείμενο στις επιτροπές Εσωτερικής Αγοράς και Πολιτικών Ελευθεριών, Δικαιοσύνης και Εσωτερικών Υποθέσεων στα μέσα Φεβρουαρίου και στην ολομέλεια του Μαρτίου ή Απριλίου. Μόλις ολοκληρωθεί η κοινοβουλευτική διαδικασία, ο σχετικός νόμος θα εφαρμοστεί εντός του 2024, ενώ η σχετική περίοδος εφαρμογής θα διαρκέσει έως και 36 μήνες. Οι κανονισμοί για τα μοντέλα ΑΙ θα πρέπει να εφαρμοστούν ήδη έπειτα από ένα χρόνο.

Τέσσερις κατηγορίες

Σύμφωνα με τον νόμο, τα συστήματα ΑΙ διακρίνονται σε τέσσερις κατηγορίες. Πρόκειται για μια δομή που μοιάζει με πυραμίδα, καθώς χωρίζει τα προϊόντα τεχνητής νοημοσύνης σε τέσσερις κύριες κατηγορίες, ανάλογα με τον πιθανό κίνδυνο που ενέχουν για την ασφάλεια των πολιτών και τα θεμελιώδη δικαιώματά τους: ελάχιστο, περιορισμένο, υψηλό και απαράδεκτο.

Οσα προϊόντα εμπίπτουν στην κατηγορία ελάχιστου κινδύνου θα απαλλάσσονται από πρόσθετους κανονισμούς, ενώ όσα χαρακτηρίζονται περιορισμένου κινδύνου θα πρέπει να ακολουθούν βασικές υποχρεώσεις διαφάνειας ως προς τη λειτουργία τους.

Τα συστήματα που θεωρούνται υψηλού κινδύνου θα υπόκεινται σε αυστηρούς κανόνες, οι οποίοι θα ισχύουν πριν από την είσοδό τους στην αγορά της Ε.Ε. και καθ’ όλη τη διάρκεια λειτουργίας τους εντός της, ενώ θα πρέπει να γίνεται τακτική επικαιροποίηση. Αυτή η ομάδα περιλαμβάνει εφαρμογές που έχουν άμεσο και δυνητικά μεταβαλλόμενο αντίκτυπο στους πολίτες, όπως, παραδείγματος χάρη, ένα λογισμικό ταξινόμησης βιογραφικών για συνεντεύξεις εργασίας, μια χειρουργική επέμβαση με χρήση ρομπότ, προγράμματα βαθμολόγησης εξετάσεων στα πανεπιστήμια κ.ά.

Τα προϊόντα τεχνητής νοημοσύνης υψηλού κινδύνου θα πρέπει να υποβάλλονται σε τακτική αξιολόγηση, να καταχωρούνται σε βάση δεδομένων της Ε.Ε., να υπογράφουν δήλωση «συμμόρφωσης» και να φέρουν τη σήμανση CE – όλα αυτά, πριν φτάσουν στους καταναλωτές. Μόλις καταστούν διαθέσιμα, θα βρίσκονται υπό την εποπτεία των εθνικών αρχών, με τη βοήθεια ειδικού γραφείου τεχνητής νοημοσύνης της Ευρωπαϊκής Επιτροπής.

Τα συστήματα που χαρακτηρίζονται ως «απαράδεκτα» θεωρούνται απειλή για την κοινωνία και θα απαγορευθούν σε όλη την επικράτεια της Ε.Ε.

Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή