Μήπως τα ρομπότ στον πόλεμο θα ήταν πιο ανθρώπινα;

Μήπως τα ρομπότ στον πόλεμο θα ήταν πιο ανθρώπινα;

Στη συλλογική φαντασία η τεχνητή νοημοσύνη για στρατιωτικούς σκοπούς εμφανίζεται με τη μορφή του «Εξολοθρευτή». Ομως οι μηχανές, εκτός από πιο ακριβείς, θα μπορούσαν να είναι και καλύτερα προγραμματισμένες στα όρια του διεθνούς δικαίου, λέει ο Ντιν Μπέικερ, καθηγητής στη Στρατιωτική Ακαδημία UNSW της Καμπέρας

8' 40" χρόνος ανάγνωσης
Ακούστε το άρθρο

Πόσο πιθανό είναι να δούμε αυτόνομα, φονικά ρομπότ στα πεδία των μαχών; Υπάρχει ηθικός τρόπος χρήσης της τεχνητής νοημοσύνης στον πόλεμο; Στα ερωτήματα της «Κ» απαντάει ο καθηγητής στη Στρατιωτική Ακαδημία UNSW της Καμπέρας, και συγγραφέας, Ντιν Μπέικερ.

Oλες οι μετρήσεις της ελληνικής κοινής γνώμης έως τώρα δείχνουν ότι οι Ελληνες είμαστε διχασμένοι απέναντι στην τεχνητή νοημοσύνη. Οι μισοί πιστεύουμε ότι πρόκειται για μια σπουδαία τεχνολογία που θα βοηθήσει την ανθρωπότητα και οι άλλοι μισοί φοβόμαστε ότι έχουμε ανοίξει το κουτί της Πανδώρας. Οταν οι έρευνες αρχίσουν να εξειδικεύουν τα ερωτήματά τους, είναι πολύ πιθανό να συνειδητοποιήσουμε ότι υπάρχει ένα πεδίο χρήσης της τεχνητής νοημοσύνης για το οποίο καταγράφεται σχεδόν ομοφωνία. Αυτό το πεδίο είναι ο πόλεμος. Η προοπτική χρήσης αυτόνομων μηχανών στην υπηρεσία των στρατιωτικών σκοπών μπορεί να κάνει τους ανθρώπους, έστω και διαισθητικά, να ανατριχιάζουν. Βάζοντας φονικά ρομπότ στα πεδία των μαχών, σκέφτεται εύλογα ο καθένας, ποιος μας λέει ότι κάποια στιγμή δεν θα στραφούν εναντίον μας; Είναι όμως έτσι;

Διεθνές ψήφισμα

Κάθε φορά που γίνεται λόγος για τη χρήση της τεχνητής νοημοσύνης σε πολεμικές επιχειρήσεις, είτε στην Ουκρανία είτε στη Γάζα πιο πρόσφατα ή οπουδήποτε αλλού, διεγείρεται αυτόματα ένα ανθρώπινο αντανακλαστικό που επιζητεί εδώ και τώρα τον τερματισμό κάθε τέτοιας σκέψης. Εδώ και χρόνια υπάρχει ένα διαρκές ψήφισμα, το οποίο έχει εγκριθεί από αρκετά κράτη παγκοσμίως, σχετικά με την παγκόσμια απαγόρευση των φονικών αυτόνομων οπλικών συστημάτων ή αλλιώς των LAWs (Lethal Autonomous Weapons). Η καμπάνια ευαισθητοποίησης για τα λεγόμενα SlaughterBots έχει επιχειρήσει να κάνει ευρύτερα γνωστό το θέμα προκειμένου να πιεστούν ακόμη περισσότερες κυβερνήσεις να τα απαγορεύσουν, ενώ στην ιστοσελίδα www.stopkillerrobots.org μπορεί κάποιος να βρει άφθονο υλικό για τον ακτιβισμό και τις πολιτικές εναντίωσης στα συγκεκριμένα όπλα, καθώς και επιχειρηματολογία.

Ωστόσο υπάρχει σοβαρός αντίλογος. Στη μονογραφία του «Should We Ban Killer Robots?» («Πρέπει να απαγορεύσουμε τα φονικά ρομπότ;», εκδ. Polity, 2022), ο αναπληρωτής καθηγητής Διεθνών Σχέσεων και Πολιτικών Επιστημών στην αυστραλιανή Στρατιωτική Ακαδημία UNSW της Καμπέρας, Ντιν Μπέικερ, αποδομεί τα επιχειρήματα των αρνητών των «φονικών ρομπότ» και καταλήγει στο συμπέρασμα ότι μια διεθνής απαγόρευση των LAWs δεν θα ήταν σωστή. Στη συνέντευξη που παραχώρησε στην «Κ» ο κ. Μπέικερ εξηγεί γιατί δεν πρέπει να μας ανησυχούν τα αυτόνομα συστήματα, προβλέποντας ότι σε μερικά χρόνια από σήμερα θα είναι αδιανόητο να μη χρησιμοποιείται η τεχνητή νοημοσύνη στο πεδίο της μάχης.

Στην αρχή της αεροπορίας για στρατιωτική χρήση υπήρξε μια προσπάθεια να απαγορευτεί. Δεν μπορείς να ρίχνεις βόμβες σε ανθρώπους από αέρος, έλεγαν. Σήμερα είναι απολύτως φυσιολογικό. Η πρόβλεψή μου είναι ότι σε 10 ή 20 χρόνια η ιδέα της εκτέλεσης μιας στρατιωτικής επιχείρησης χωρίς τεχνητή νοημοσύνη θα είναι παράξενη. Θα έχουμε ξεχάσει όλες αυτές τις ανησυχίες.     

«Η συζήτηση για τα αυτόνομα όπλα αφορά συστήματα που είναι σε θέση να αναγνωρίζουν, να παρακολουθούν και να πλήττουν στόχους χωρίς περαιτέρω ανθρώπινη παρέμβαση», λέει ξεκινώντας τη συζήτησή μας. Δεν μιλάμε, επομένως, για την έλευση μηχανών με νοημοσύνη υπέρτερη της ανθρώπινης. «Κάποιες πλευρές αντιτίθενται στα αυτόνομα όπλα γιατί δεν εμπιστεύονται ότι θα είναι σε θέση να λειτουργούν εντός των παραμέτρων του διεθνούς δικαίου ή της ηθικής. Το ερώτημα που θέτουν είναι: Μπορούμε πραγματικά να έχουμε ένα σύστημα που θα είναι σε θέση να κάνει κρίσεις εντός των περιορισμών του διεθνούς ανθρωπιστικού δικαίου και της ηθικής του πολέμου; Εν μέρει αυτό μπορεί να είναι ένα τεχνικό ζήτημα το οποίο λύνεται. Εδώ θα μπορούσαμε να επικαλεστούμε την έννοια της περιορισμένης αυτονομίας σε ένα σύστημα υποβρύχιας άμυνας για παράδειγμα, όπου δεν υπάρχει περίπτωση να χτυπηθεί άμαχος πληθυσμός. Θα μπορούσαμε κάλλιστα να σκεφτούμε ένα αρκετά χαζό σύστημα να λειτουργεί αυτόνομα σε ένα τέτοιο περιβάλλον και να εξακολουθεί να είναι εντός των παραμέτρων που θέτει το διεθνές δίκαιο».

Ποιος λογοδοτεί;

Οσοι αποκρούουν την ιδέα των αυτόνομων όπλων διατυπώνουν ακόμη μία επιφύλαξη που στοχεύει απευθείας στη θεμελιώδη φύση τους, τονίζει ο Αυστραλός καθηγητής. «Πρόκειται για το ζήτημα της λογοδοσίας. Εδώ το ερώτημα είναι: Μπορούμε να χρησιμοποιήσουμε τα αυτόνομα όπλα με τέτοιο τρόπο ώστε κάποιος να μπορεί να λογοδοτήσει όταν κάτι πάει στραβά; Οι άνθρωποι αυτοί πιστεύουν ότι υπάρχει κάτι εγγενώς λάθος στο να επιτρέπεται σε μια μηχανή, έτσι το θέτουν συνήθως, να αποφασίσει αν θα σκοτώσει ένα ανθρώπινο ον ή όχι». Ο κ. Μπέικερ θεωρεί ότι το αυτόνομο οπλικό σύστημα είναι απλώς ένας μηχανισμός που εκτελεί μια απόφαση η οποία έχει ληφθεί από κάποιον άλλον, εν προκειμένω από έναν άνθρωπο που θα λογοδοτήσει.

Στην αρχή της αεροπορίας για στρατιωτική χρήση υπήρξε μια προσπάθεια να απαγορευτεί. Δεν μπορείς να ρίχνεις βόμβες σε ανθρώπους από αέρος, έλεγαν. Σήμερα είναι απολύτως φυσιολογικό. Η πρόβλεψή μου είναι ότι σε 10 ή 20 χρόνια η ιδέα της εκτέλεσης μιας στρατιωτικής επιχείρησης χωρίς τεχνητή νοημοσύνη θα είναι παράξενη. Θα έχουμε ξεχάσει όλες αυτές τις ανησυχίες.

Ο ίδιος υποστηρίζει ότι στην πραγματικότητα αυτά τα όπλα είναι πολύ πιο ακριβή από τα συμβατικά που χειρίζονται άνθρωποι. Επικαλείται τη διαχρονική χρήση ζώων στις μάχες, για να υπενθυμίσει ότι δεν είναι η πρώτη φορά που χρησιμοποιούμε στον πόλεμο μη ανθρώπινους παράγοντες. «Είναι ενδιαφέρον ότι πολλοί από τους επιστήμονες που εργάζονται στην τεχνητή νοημοσύνη μελετούν τα ζώα και την αλληλεπίδραση ανθρώπου – ζώου ως ένα μοντέλο που θα τους βοηθήσει να κατανοήσουν τη λειτουργία της. Σίγουρα πάντως ο σκύλος έχει μια πολύ πιο εξελιγμένη ικανότητα από σχεδόν κάθε αυτόνομο οπλικό σύστημα που έχουμε σήμερα –αλλά και στον κοντινό ορίζοντα– στη διάθεσή μας».

Το ίδιο θα μπορούσε να ειπωθεί ενδεχομένως και για τους ανθρώπους; «Υπάρχουν δύο απόψεις, και πάλι, στη συζήτηση. Η μία είναι ότι για να αποδεχθούμε αυτού του είδους τα συστήματα θα πρέπει να είναι τέλεια ή σχεδόν τέλεια. Η άλλη είναι ότι πρέπει απλώς να είναι καλύτερα από ένα ανθρώπινο ον. Αυτός όμως στην πραγματικότητα είναι ένας αρκετά χαμηλός πήχυς. Είναι αλήθεια ότι τα ανθρώπινα όντα δεν είναι σπουδαία σε πολλές καταστάσεις. Κουραζόμαστε, φοβόμαστε, πεινάμε, παίρνουμε κακές αποφάσεις. Η μηχανή δεν κουράζεται, δεν πεινάει και δεν φοβάται για τη ζωή της, και γι’ αυτό μπορεί να αναλάβει μεγαλύτερο ρίσκο. Αυτά τα συστήματα, υπό ορισμένες συνθήκες πάντοτε, θα μπορούσαν να λειτουργήσουν πολύ πιο ηθικά, αν μου επιτρέπετε να πω κάτι τέτοιο, γιατί το σύστημα δεν λαμβάνει ηθικές αποφάσεις. Είναι μηχανές που επεξεργάζονται έναν αλγόριθμο. Αλλά για να το θέσω διαφορετικά, αυτά τα συστήματα μπορούν να λειτουργήσουν εντός των ηθικών ορίων που θέλουμε να τους επιβάλουμε».

Μύθος και αλήθεια

Μήπως τα ρομπότ στον πόλεμο θα ήταν πιο ανθρώπινα;-1

Στη συζήτηση για τα αυτόνομα όπλα μπαίνουμε όλοι με αναφορές από την επιστημονική φαντασία. Εχουμε στον νου μας τον «Εξολοθρευτή» ή τον HAL της «Οδύσσειας του Διαστήματος». Ο πιο βάσιμος φόβος όλων μας είναι το πότε θα εμφανιστεί μια αληθινά σκεπτόμενη μηχανή που θα είναι σε θέση να έχει δικούς της στόχους και να κάνει τα δικά της σχέδια. «Να ξεκαθαρίσω», τονίζει ο κ. Μπέικερ, «ότι σήμερα έχουμε πλήρως αυτόνομα συστήματα. Είναι πολύ απλά μεν, αλλά είναι πλήρως αυτόνομα. Κάνουν έναν πολύ περιορισμένο αριθμό πραγμάτων και αυτό το πεδίο πρόκειται να αναπτυχθεί περαιτέρω. Η ανησυχία για τον “Εξολοθρευτή” είναι υπαρκτή, αλλά νομίζω ότι είμαστε πάρα πολύ μακριά από αυτό. Η πραγματική ανησυχία είναι αν θα μπορούμε να ελέγξουμε μια τέτοια μηχανή. Σε σχέση με τα οπλικά συστήματα πρέπει να πω ότι οι ένοπλες δυνάμεις δεν ενδιαφέρονται καθόλου για συστήματα που δεν μπορούν να ελέγξουν. Δεν τα θέλουν. Είναι το τελευταίο πράγμα που θέλουν. Ο στρατός είναι ένας πολύ ελεγχόμενος και ελεγκτικός οργανισμός. Συστήματα που μοιάζουν να είναι λίγο αμφισβητήσιμα είναι απίθανο να αγοραστούν από στρατιωτικές δυνάμεις, επειδή απλώς δεν τα θέλουν. Oχι για ηθικούς λόγους, αλλά γιατί θέλουν επιχειρησιακά να γνωρίζουν επακριβώς τι πρόκειται να κάνει αυτό το πράγμα. Γι’ αυτόν τον λόγο δεν ανησυχώ ιδιαίτερα».

Βεβαίως, όπως όλες οι τεχνολογίες, τα αυτόνομα όπλα θα μπορούσαν να χρησιμοποιηθούν με αντιδεοντολογικό τρόπο. «Κάθε σύστημα που χτίζουμε μπορεί να χρησιμοποιηθεί για κακό», λέει ο καθηγητής Μπέικερ, «δεν μπορούμε να το νομοθετήσουμε αυτό. Υπάρχουν κάποια όπλα και προσεγγίσεις στον πόλεμο που έχουμε αποφασίσει ότι είναι πολύ ευεπίφορα στην κατάχρηση και γι’ αυτό τα απαγορεύουμε. Η χρήση των δηλητηριωδών αερίων, για παράδειγμα, ή των ναρκών ξηράς. Αραγε εμπίπτει ένα αυτόνομο σύστημα σε αυτή την κατηγορία; Δεν είμαι πεπεισμένος. Νομίζω ότι τα αυτόνομα όπλα έχουν μεγάλες δυνατότητες να κάνουν πράγματα που θα μπορούσαν ενδεχομένως και να σώσουν ζωές, με ενδιαφέροντες και μη αναμενόμενους τρόπους. Προσωπικά ανησυχώ πολύ περισσότερο για τους ανθρώπους που παίρνουν αποφάσεις παρά για τα αυτόνομα συστήματα – αρκεί βέβαια να τα δημιουργήσουμε σωστά».

Τα αυτόνομα συστήματα, υπό ορισμένες συνθήκες πάντοτε, θα μπορούσαν να λειτουργήσουν πολύ πιο ηθικά, αν μου επιτρέπετε να πω κάτι τέτοιο, γιατί το σύστημα δεν λαμβάνει ηθικές αποφάσεις. Είναι μηχανές που επεξεργάζονται έναν αλγόριθμο. Αλλά για να το θέσω διαφορετικά, αυτά τα συστήματα μπορούν να λειτουργήσουν εντός των ηθικών ορίων που θέλουμε να τους επιβάλουμε.     

Σύμφωνα με τα λεγόμενά του, οι άνθρωποι έχουμε τη φυσική τάση να αντιμετωπίζουμε καθετί νέο που χρησιμοποιείται στον πόλεμο με φόβο και αποστροφή. «Στην αρχή της αεροπορίας για στρατιωτική χρήση υπήρξε μια προσπάθεια να απαγορευτεί. Δεν μπορείς να ρίχνεις βόμβες σε ανθρώπους από αέρος, έλεγαν τότε. Σήμερα είναι απολύτως φυσιολογικό. Το ίδιο συνέβη και με τους βαλλιστικούς πυραύλους και το ίδιο θα γίνει με τα αυτόνομα όπλα. Η πρόβλεψή μου είναι ότι σε 10 ή 20 χρόνια από σήμερα η ιδέα της εκτέλεσης μιας στρατιωτικής επιχείρησης χωρίς τεχνητή νοημοσύνη θα είναι παράξενη. Θα γίνει τόσο φυσιολογικό που θα έχουμε ξεχάσει όλες αυτές τις ανησυχίες. Η τεχνητή νοημοσύνη θα είναι παντού, γιατί είναι σαν τον ηλεκτρισμό».

Επιστροφή στο μέλλον

«Πώς θα μοιάζει το μέλλον του πολέμου;», ζητάω από τον κ. Μπέικερ να κοιτάξει στη γυάλινη σφαίρα του. «Νομίζω ότι θα μοιάζει εκπληκτικά πολύ με το παρελθόν του πολέμου. Δείτε τι συμβαίνει στην Ουκρανία. Διεξάγεται ένας πόλεμος χαρακωμάτων, επιπέδου Α΄ Παγκοσμίου Πολέμου. Πάνω του υπάρχουν στρώσεις, σύγχρονα συστήματα θωράκισης και πυροβολικού, και υπάρχει αεροπορική δύναμη. Αλλά υπάρχει και ακόμη ένα επίπεδο, ο πόλεμος στον κυβερνοχώρο, που τον κάνει λίγο πιο περίπλοκο. Τίποτε από όλα αυτά δεν αλλάζει θεμελιωδώς τη φύση ή ακόμη και τον χαρακτήρα του πολέμου. Νομίζω ότι απλώς κάνουμε περισσότερα πράγματα σε περισσότερες διαστάσεις. Πολλά όπλα είναι πολύ πιο φονικά από αυτά που είχαμε στο παρελθόν και σίγουρα είναι πολύ πιο ακριβή. Αλλά τίποτε από αυτά δεν αλλάζει τον πόλεμο ως οντότητα. Νομίζω ότι είμαστε πολύ μακριά από το να δούμε, για παράδειγμα, αυτόνομα συστήματα να αντικαθιστούν συστήματα που λειτουργούν από τον άνθρωπο. Αυτό που θα δούμε είναι ομάδες που θα αποτελούνται από ανθρώπους και μηχανές. Τα αυτόνομα συστήματα θα αρχίσουν να κάνουν κάποιες από τις πιο βρώμικες, επικίνδυνες και θανατηφόρες δουλειές, και θα αναλαμβάνουν μέρος του κινδύνου των ανθρώπων. Αλλά για πολύ καιρό ακόμη θα εξακολουθούν να υπάρχουν εκεί έξω άνθρωποι οι οποίοι θα πυροβολούνται».

Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή