Οι νομικοί κίνδυνοι από τις εφαρμογές τεχνητής νοημοσύνης

Οι νομικοί κίνδυνοι από τις εφαρμογές τεχνητής νοημοσύνης

Γιατί νομικοί μιλούν για πληθώρα αγωγών εις βάρος επιχειρήσεων, ανεξαρτήτως μικρού ή μεγάλου μεγέθους

2' 18" χρόνος ανάγνωσης
Ακούστε το άρθρο

Εάν η εταιρεία σας χρησιμοποιεί τεχνητή νοημοσύνη για να δημιουργεί περιεχόμενο, να λαμβάνει αποφάσεις ή να επηρεάζει τις ζωές άλλων, είναι πιθανό να είστε υπεύθυνοι για ό,τι κι αν κάνει και ειδικά όταν υποπίπτει σε λάθος. Αυτό ισχύει, επίσης, για μεγάλες εταιρείες τεχνολογίας που διαθέτουν μοντέλα τεχνητής νοημοσύνης βασισμένα σε συνομιλίες, συμπεριλαμβανομένων της Google και της Microsoft, καθώς και των νεοφυών με τη γενναία χρηματοδότηση, Anthropic και OpenAI, όπως αναφέρει σε σχετικό δημοσίευμά της η εφημερίδα The Wall Street Journal.

«Εάν τα επόμενα χρόνια φθάσουμε να χρησιμοποιούμε την τεχνητή νοημοσύνη (Τ.Ν.) καταπώς περιμένουν οι περισσότεροι σχολιαστές, δηλαδή βασιζόμενοι σε αυτήν για ανάθεση σε τρίτους μεγάλου μέρους του περιεχομένου και των κρίσεων, δεν νομίζω ότι οι εταιρείες θα αποφύγουν κάποιας μορφής ευθύνη», επισημαίνει η Τζέιν Μπαμπάουερ, καθηγήτρια Νομικής στο Πανεπιστήμιο της Φλόριντα, που έχει ασχοληθεί με αυτά τα θέματα. Οι συνέπειες κάθε άλλο παρά αμελητέες είναι. Συγκεκριμένα, κάθε όμιλος που κάνει χρήση της γενετικής τεχνητής νοημοσύνης θα μπορούσε να θεωρείται υπόλογος, σύμφωνα με τη νομοθεσία περί βλαπτικού λόγου και ελαττωματικών προϊόντων, δεδομένου ότι οι σημερινές τεχνολογίες Τ.Ν. είναι δημιουργοί και λόγου και προϊόντων. Ορισμένοι εμπειρογνώμονες νομικοί διατείνονται ότι αυτό ίσως και να οδηγούσε σε πληθώρα αγωγών εις βάρος επιχειρήσεων, ανεξαρτήτως μικρού ή μεγάλου μεγέθους.

Είναι ήδη σαφές ότι οι συνέπειες της παραγωγής τεχνητής νοημοσύνης μπορεί να υπερβαίνουν κατά πολύ την απειλή για την ίδια τη φήμη των εταιρειών, οι οποίες τη χρησιμοποιούν. Οι ανησυχίες σχετικά με τη μελλοντική ευθύνη αιτιολογούν και το γιατί οι επιχειρήσεις χειραγωγούν παρασκηνιακά τα συστήματά τους, ώστε να αποφύγουν προβληματικά αποτελέσματα αργότερα, όπως για παράδειγμα το Gemini της Google που θεωρήθηκε ότι είχε «υπερβολική κοινωνική επαγρύπνηση».

Η νομική λογική είναι ξεκάθαρη, όπως αναφέρει η WSJ. Το άρθρο 230 της πράξης περί αξιοπρεπούς επικοινωνίας του 1996 στις ΗΠΑ προστατεύει τις διαδικτυακές πλατφόρμες από το να θεωρούνται υπεύθυνες για όσα εμείς λέμε σε αυτές. Αυτός ο νόμος ήταν θεμελιώδης για την ανάπτυξη του πρώιμου Διαδικτύου και αποτελεί αδιαμφισβήτητα ένα βασικό λόγο που πολλές από τις μεγαλύτερες εταιρείες τεχνολογίας του σήμερα αναπτύχθηκαν στις ΗΠΑ και όχι αλλού. Ωστόσο, το άρθρο 230 δεν καλύπτει τον δημιουργούμενο από την τεχνητή νοημοσύνη μιας εταιρείας λόγο, όπως σημειώνει ο δικαστής Γκράχαμ Ράιαν, ο οποίος θα δημοσιεύσει σχετική εργασία στο πανεπιστημιακό περιοδικό του Χάρβαρντ για τον νόμο και την τεχνολογία. «Η γενετική Τ.Ν. είναι η άγρια Δύση όσον αφορά τον νομικό κίνδυνο για τις τεχνολογικές εταιρείες, σε αντίθεση με οποιαδήποτε άλλη εποχή στην ιστορία του Διαδικτύου από την εμφάνισή του», προσθέτει.

Οπότε, εάν κατατεθούν αγωγές, ο κατάλογος των πιθανών κατηγορουμένων θα είναι πολύ ευρύτερος από μια ολιγάριθμη ομάδα τεχνολογικών κολοσσών. Οι εταιρείες που χρησιμοποιούν απλώς γενετική τεχνητή νοημοσύνη –ας πούμε χρησιμοποιώντας την τεχνολογία του OpenAI ως μέρος μιας υπηρεσίας που παρέχεται σε έναν πελάτη– είναι πιθανό να είναι υπεύθυνες για τα αποτελέσματα τέτοιων συστημάτων.

Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή