Οι τρεις απειλές της ΑΙ αν πέσει σε λάθος χέρια
οι-τρεις-απειλές-της-αι-αν-πέσει-σε-λάθο-563017243

Οι τρεις απειλές της ΑΙ αν πέσει σε λάθος χέρια

Ποιους κινδύνους εγκυμονούν τα προηγμένα μοντέλα τεχνητής νοημοσύνης αν πέσουν σε λάθος χέρια;

Newsroom
Ακούστε το άρθρο

Ο Λευκός Οίκος είναι έτοιμος να ανοίξει νέο μέτωπο στην προσπάθειά του να προστατεύσει τα επιτεύγματα της Τεχνητής Νοημοσύνης από την Κίνα και τη Ρωσία.

Επιστήμονες που εργάζονται στο δημόσιο αλλά και στον ιδιωτικό τομέα στις ΗΠΑ ανησυχούν ότι οι αντίπαλοι των ΗΠΑ θα μπορούσαν να αξιοποιήσουν τα νέα μοντέλα της ΑΙ για να εξαπολύσουν επιθέσεις στον κυβερνοχώρο ή ακόμη και να δημιουργήσουν ισχυρά βιολογικά όπλα.

Οι απειλές που θέτει η τεχνητή νοημοσύνη:

  • Deepfakes και παραπληροφόρηση

Τα deepfakes -κατασκευασμένα βίντεο που δημιουργούνται από αλγορίθμους τεχνητής νοημοσύνης εκπαιδευμένους σε άφθονο υλικό από το διαδίκτυο, παρότι μοιάζουν εντελώς αληθινά- εμφανίζονται στα μέσα κοινωνικής δικτύωσης, δημιουργώντας ένα θολό τοπίο ανάμεσα στην αλήθεια και το ψέμα, στο ήδη εξαιρετικά πολωμένο πολιτικό σύμπαν στις ΗΠΑ.

Αν και τέτοια μέσα υπάρχουν εδώ και αρκετά χρόνια, έχουν γνωρίσει νέα άνθηση τον τελευταίο χρόνο από μια σειρά νέων εργαλείων «παραγωγικής τεχνητής νοημοσύνης», όπως το Midjourney, που καθιστούν φθηνή και εύκολη τη δημιουργία πειστικών deepfakes.

Εργαλεία δημιουργίας εικόνων που τροφοδοτούνται με ΑΙ από εταιρείες όπως η OpenAI και η Microsoft μπορούν να χρησιμοποιηθούν για την παραγωγή φωτογραφιών που θα μπορούσαν να προωθήσουν την παραπληροφόρηση σχετικά με τις εκλογές, παρά το γεγονός ότι και οι δύο έχουν θεσπίσει πολιτικές κατά της δημιουργίας παραπλανητικού περιεχομένου.

Ορισμένες εκστρατείες παραπληροφόρησης απλώς αξιοποιούν την ικανότητα της τεχνητής νοημοσύνης να μιμείται πραγματικά άρθρα ειδήσεων, διαδίδοντας ψευδείς πληροφορίες.

Ενώ μεγάλες πλατφόρμες κοινωνικής δικτύωσης όπως το Facebook, το Twitter και το YouTube έχουν καταβάλει προσπάθειες για την απαγόρευση και την αφαίρεση των deepfakes, η αποτελεσματικότητά τους στον έλεγχο αυτού του περιεχομένου είναι αμφιλεγόμενη.

Για παράδειγμα, πέρυσι, «ένας ελεγχόμενος από την κινεζική κυβέρνηση ειδησεογραφικός ιστότοπος που χρησιμοποιούσε μια πλατφόρμα παραγωγικής τεχνητής νοημοσύνης προώθησε έναν ψευδή ισχυρισμό που είχε κυκλοφορήσει προηγουμένως, ότι οι Ηνωμένες Πολιτείες δήθεν λειτουργούσαν ένα εργαστήριο στο Καζακστάν για τη δημιουργία βιολογικών όπλων για χρήση εναντίον της Κίνας», ανέφερε το Υπουργείο Εσωτερικής Ασφάλειας (DHS) στην αξιολόγηση της εγχώριας απειλής του 2024.

Ο Σύμβουλος Εθνικής Ασφάλειας Τζέικ Σάλιβαν, μιλώντας σε εκδήλωση στην Ουάσινγκτον, δήλωσε ότι το πρόβλημα δεν έχει εύκολες λύσεις επειδή συνδυάζει την πρόθεση «κρατικών και μη κρατικών φορέων να χρησιμοποιούν την ΑΙ για να προβαίνουν σε παραπληροφόρηση μεγάλης κλίμακας, να διαταράσσουν δημοκρατικά κράτη και να προωθούν προπαγάνδα, παρουσιάζοντας μία διαστρεβλωμένη εικόνα για τον κόσμο». «Αυτή τη στιγμή η επίθεση νικά την άμυνα σε μεγάλο βαθμό», υπογράμμισε.

  • Βιολογικά όπλα

Η αμερικανική κοινότητα πληροφοριών, think tanks και ακαδημαϊκοί ανησυχούν όλο και περισσότερο για τους κινδύνους που εγκυμονούν οι κακόβουλοι παράγοντες του εξωτερικού που αποκτούν πρόσβαση σε προηγμένες δυνατότητες τεχνητής νοημοσύνης.

Ερευνητές της Gryphon Scientific και της Rand Corporation σημείωσαν ότι τα προηγμένα μοντέλα ΑΙ μπορούν να παρέχουν πληροφορίες που θα μπορούσαν να βοηθήσουν στη δημιουργία βιολογικών όπλων.

Η Gryphon μελέτησε πώς τα μεγάλα γλωσσικά μοντέλα (LLM) θα μπορούσαν να χρησιμοποιηθούν από εχθρούς για να προκαλέσουν ζημιά στον τομέα των βιοεπιστημών και διαπίστωσε ότι «μπορούν να παρέχουν πληροφορίες που θα μπορούσαν να βοηθήσουν έναν κακόβουλο παράγοντα στη δημιουργία ενός βιολογικού όπλου, παρέχοντας χρήσιμες, ακριβείς πληροφορίες σε κάθε βήμα αυτής της πορείας».

Διαπίστωσαν, για παράδειγμα, ότι ένα LLM θα μπορούσε να παρέχει γνώσεις μεταδιδακτορικού επιπέδου στην «επεξεργασία» δεδομένων με στόχο έναν ιό ικανό να προκαλέσει πανδημία.

Η έρευνα του Rand έδειξε ότι τα LLM θα μπορούσαν να βοηθήσουν στον σχεδιασμό και την εκτέλεση μιας βιολογικής επίθεσης. Διαπίστωσαν ότι ένα LLM θα μπορούσε για παράδειγμα να προτείνει μεθόδους για την τοποθέτηση βοτουλινικής τοξίνης.

  • Κυβερνο-όπλα

Το υπουργείο Εσωτερικής Ασφάλειας των ΗΠΑ (DHS) στην αξιολόγηση των απειλών για το 2024, σημείωσε ότι όσοι εξαπολύουν κυβερνοεπιθέσεις πιθανότατα χρησιμοποιούν την τεχνητή νοημοσύνη για να «αναπτύξουν νέα εργαλεία» ώστε να «καταστήσουν δυνατή την πραγματοποίηση κυβερνοεπιθέσεων μεγαλύτερης κλίμακας, ταχύτερων και πιο αποτελεσματικών» εναντίον κρίσιμων υποδομών, συμπεριλαμβανομένων αγωγών και σιδηροδρόμων, .

Η Κίνα και άλλοι που αναπτύσσουν τεχνολογίες ΑΙ θα μπορούσαν να υπονομεύσουν τις ΗΠΑ στον κυβερνοχώρο, δήλωσε το DHS.

Η Microsoft ανέφερε σε έκθεση του Φεβρουαρίου ότι είχε εντοπίσει ομάδες χάκερ που συνδέονται με την κινεζική και τη βορειοκορεατική κυβέρνηση, καθώς και τις ρωσικές στρατιωτικές υπηρεσίες πληροφοριών και τους Φρουρούς της Επανάστασης του Ιράν, οι οποίοι προσπαθούσαν να τελειοποιήσουν τις εκστρατείες χάκινγκ, χρησιμοποιώντας μεγάλα γλωσσικά μοντέλα.

Reuters

Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή
MHT