ΝΙΚΟΣ ΕΥΣΤΑΘΙΟΥ

Deepfakes, ο βασιλιάς είναι γυμνός;

Deepfakes, ο βασιλιάς είναι γυμνός;

Η μόδα των παραποιημένων βίντεο αναπτύσσεται ταχύτατα. Μήπως όμως ανησυχούμε υπερβολικά;

Η πορεία των deepfakes μέσα στο 2020 μοιάζει με σκάρτο πυροτέχνημα που δεν έσκασε ποτέ. Το φαινόμενο των παραποιημένων βίντεο -τα οποία δημιουργούνται με τη χρήση τεχνητής νοημοσύνης, με την επεξεργασία φωτογραφικού αρχείου προσωπικοτήτων και δημιουργώντας εντυπωσιακά ρεαλιστικά αποτελέσματα- ξεκίνησε να αποκτά δυναμική το 2017, όταν και βαφτίστηκε επισήμως χάρη σε έναν χρήστη του Reddit. Πριν από τις φετινές αμερικανικές προεδρικές εκλογές και στον απόηχο της έξαρσης των fake news, νομοθέτες και ερευνητές προέβλεπαν πως τα deepfakes θα έπαιζαν κομβικό ρόλο στην ψηφοφορία και στον αποπροσανατολισμό της κοινής γνώμης. 

«Δεν θα μπορούμε να ξεχωρίσουμε την αλήθεια από το ψέμα», δήλωνε τον Ιανουάριο ο Άνταμ Σιφ, ο Δημοκρατικός πρόεδρος της Επιτροπής της αμερικανικής Βουλής για τις Υπηρεσίες Πληροφοριών, προειδοποιώντας για τσουνάμι επικίνδυνων ψευδών βίντεο. Η πραγματικότητα τον διέψευσε. «Όχι, πραγματικά όχι», απαντά ο Τζόρτζιο Πατρίνι, ιδρυτής της εταιρείας ανίχνευσης των deepfakes, Sensity, ερωτώμενος αν τα παραποιημένα βίντεο συνέβαλαν στην τεταμένη αμερικανική προεκλογική περίοδο. «Είναι όμορφο όταν η εταιρεία σου συμβάλλει στην αποκατάσταση της αλήθειας. Είναι ακόμα μεγαλύτερο ευτύχημα όταν δεν χρειάζεται καν να παρέμβει», καταλήγει.
Πράγματι, με εξαίρεση ένα μικρό στιγμιότυπο, στο οποίο ένα ψεύτικο βίντεο, που παρουσίαζε τον Τζο Μπάιντεν να κάνει μια σειρά από ντροπιαστικά λάθη στην ομιλία του, παραπλάνησε προς στιγμήν τα μέσα ενημέρωσης, φέτος τα deepfakes δεν δημιούργησαν το εκλογικό κομφούζιο που αναμενόταν. Ωστόσο δεν χωρά αμφιβολία πως η τεχνολογία είναι εδώ για να μείνει και πως ο πραγματικός κοινωνικός αντίκτυπός της δεν έχει ακόμη φανερωθεί. Αρκεί να σερφάρει κανείς για λίγα λεπτά στις πιο σκιώδεις αποχρώσεις του διαδικτύου, όπως το 4chan, για να εκπλαγεί από το εύρος, τον ρεαλισμό, αλλά και την προβληματική χρήση των σύγχρονων deepfakes. 

Ο εκδημοκρατισμός της παραποίησης

Τα σημερινά deepfakes δημιουργούνται σε υπολογιστές υψηλών επιδόσεων με ισχυρές κάρτες γραφικών και με υπολογιστική ισχύ στο cloud. «Αυτό σημαίνει πως ο χρόνος επεξεργασίας των εικόνων έχει πλέον συρρικνωθεί από αρκετά 24ωρα σε μερικές ώρες», σημειώνει ο Χ., ένας δημιουργός παραποιημένων βίντεο, ο οποίος μοιράζεται τις σκέψεις του με το «Κ» υπό την προϋπόθεση της ανωνυμίας. Παρότι, συμπληρώνει, ακόμα και με τη σημερινή τεχνολογία, χρειάζεται λεπτομερής επεξεργασία έτσι ώστε να δημιουργήσει κανείς ένα πραγματικά πειστικό deepfake, ο ίδιος κρίνει πως αρκετά σύντομα η δυνατότητα δημιουργίας παραπλανητικών βίντεο θα έχει πλέον «εκδημοκρατιστεί».

«Στο παρελθόν χρειαζόμασταν δεκάδες χιλιάδες φωτογραφικά αρχεία και δεδομένα για τη δημιουργία ενός deepfake και ως αποτέλεσμα η πλειονότητα των παραποιημένων βίντεο αφορούσε δημόσια πρόσωπα – διασημότητες, ηθοποιούς, πολιτικούς», αναφέρει ο Χ. Σήμερα, ωστόσο, τα bots τεχνητής νοημοσύνης που χρησιμοποιούνται σε εφαρμογές ανταλλαγής μηνυμάτων όπως το Telegram μπορούν να δημιουργήσουν ένα deepfake από μία μονάχα εικόνα, καθιστώντας ευκολότερη από ποτέ τη δημιουργία ψευδών βίντεο που απεικονίζουν απλούς πολίτες. 

Από τα fake news στην πορνογραφία

Η συντριπτική πλειοψηφία των σημερινών deepfakes, ωστόσο, δεν έχουν να κάνουν ούτε με πολιτική παραπληροφόρηση ούτε με χιουμοριστικό υλικό, αλλά με την πορνογραφία. «Θα έλεγα πως περίπου το 95% των deepfakes που θα συναντήσει κανείς στο διαδίκτυο είναι πορνογραφικού περιεχομένου», αναφέρει ο Χ., ενώ σημειώνει πως πιο δημοφιλείς «στόχοι» των παραποιημένων βίντεο τέτοιου τύπου είναι η Νάταλι Πόρτμαν, η Σκάρλετ Τζόχανσον και πρώτη -με σημαντική διαφορά- η Αλεξάντρια Οκάσιο-Κορτέζ. «Δεν υπάρχει αμφιβολία στο γιατί τη στοχοποιούν τόσο· η “εναλλακτική δεξιά” την απεχθάνεται», συμπληρώνει.

Η τρομακτική άνοδος της χρήσης παραποιημένου πορνογραφικού υλικού δημιουργεί έντονες ανησυχίες για το μέλλον των deepfakes, διατηρώντας παράλληλα μια ισχυρή δόση σεξισμού. «Ο μεγαλύτερος αριθμός των παραποιημένων, παραπλανητικών βίντεο χρησιμοποιείται για παρενόχληση, εξευτελισμό ή ακόμα και εκβιασμό γυναικών», αναφέρει χαρακτηριστικά η Sensity στην ετήσια έκθεσή της, προσθέτοντας πως η τεχνολογία σύντομα θα εξαπλωθεί στο φαινόμενο του λεγόμενου «revenge pornography» (πορνογραφία εκδίκησης). Η ευκολία με την οποία οι χρήστες θα μπορούν να δημιουργούν παραπλανητικά βίντεο σεξουαλικού περιεχομένου στοχοποιώντας τον οποιοδήποτε, απλά και μόνο με τν χρήση φωτογραφικού αρχείου από λογαριασμούς στο Ίνσταγκραμ και άλλα μέσα κοινωνικής δικτύωσης, συνθέτει μια ανατριχιαστική εικόνα για το μέλλον του διαδικτύου.

Φυσικά, όπως κάθε εκκολαπτόμενη τεχνολογία, παράλληλα με τις σκοτεινές τους πλευρές, τα deepfakes φανερώνουν και μερικές εφαρμογές οι οποίες είναι ανάλαφρες και συναρπαστικές. Ίσως το καλύτερο παράδειγμα εντός του 2020 ήταν η υπερρεαλιστική φιγούρα του Fred Sassy, ενός φανταστικού δημοσιογράφου από το Γουαϊόμινγκ, που πήρε σάρκα και οστά από τους δημιουργούς του «South Park», Τρέι Πάρκερ και Ματ Στόουν. Ο Sassy είναι μια υπερβολικά πειστική εναλλακτική εκδοχή του Ντόναλντ Τραμπ ως συνωμοσιολόγου δημοσιογράφου από την επαρχία, με εντελώς διαφορετική φωνή και προσωπικότητα από τον τέως Αμερικανό πρόεδρο. Το αποτέλεσμα είναι ξεκαρδιστικό και διόλου παραπλανητικό, καθώς από τα πρώτα δευτερόλεπτα η σάτιρα είναι ολοφάνερη. Η ιδέα του Fred Sassy έγινε πραγματικότητα χάρη στην πρωτοποριακή τεχνολογία της RoseBud, μιας νεοφυούς εταιρείας η οποία χρησιμοποιεί τα deepfakes στον χώρο της μόδας, επιτρέποντας στον εκάστοτε χρήστη που ξεφυλλίζει τους διαδικτυακούς καταλόγους να «προβάρει» τα ρούχα σε όποιο μοντέλο επιθυμεί.

Η κούρσα της ανίχνευσης

Είναι πλέον βέβαιο πως ένα αυστηρό ρυθμιστικό πλαίσιο πρέπει να στηθεί γρήγορα, για να αποτρέψει την κακόβουλη χρήση της εντυπωσιακής τεχνολογίας των deepfakes. Ωστόσο, οι λεπτομέρειες της προσέγγισης δεν έχουν ακόμη διαλευκανθεί. Πολλές πλατφόρμες κοινωνικών μέσων, όπως το Twitter και το Reddit, αλλά και η δημοφιλής πορνογραφική ιστοσελίδα Pornhub, απαγόρευσαν φέτος στους χρήστες να δημοσιεύουν deepfakes – ωστόσο ακριβώς στις ίδιες σελίδες συναντά κανείς συχνά την εκκολαπτόμενη τεχνολογία. Το νομικό πλαίσιο επίσης παραμένει νεφελώδες: παρόλο που ορισμένα deepfakes ενδέχεται να παραβιάζουν νόμους περί πνευματικών δικαιωμάτων, προστασίας δεδομένων ή δυσφήμησης, τα ίδια τα deepfakes από μόνα τους δεν είναι παράνομα – όπως ακριβώς δεν είναι παράνομη και η επεξεργασία φωτογραφιών μέσω του, παραδοσιακού πλέον, Photoshop.

Άλλο ένα πρόβλημα, το οποίο συναντά κανείς σε κάθε εκθετικά αυξανόμενη τεχνολογία, είναι το γεγονός πως οι μέθοδοι ανίχνευσης των deepfakes δεν μπορούν να συμβαδίσουν με τον ρυθμό της προόδου και εξέλιξής τους. Αρμόδια ρυθμιστικά όργανα, όπως η Europol και ο Οργανισμός Προηγμένων Ερευνητικών Έργων του Πενταγώνου, χρησιμοποιούν μικρές ενδείξεις -όπως παραμορφώσεις στον φωτισμό- για να αποκαλύψουν ένα deepfake. Ωστόσο, μόλις ανακαλυφθούν τα ψεγάδια, οι δημιουργοί deepfake «παραλαμβάνουν τη σκυτάλη», τροποποιώντας την τεχνολογία και διορθώνοντας τα ελαττώματα. «Τα άτομα πίσω από την κατάχρηση των deepfakes προσαρμόζουν συνεχώς τον τρόπο λειτουργίας τους, εκπαιδεύοντας τα μοντέλα τεχνητής νοημοσύνης και αποφεύγοντας τα μέτρα ανίχνευσης», αναφέρει η φετινή έκθεση της Europol, που δημοσιεύτηκε τον Νοέμβριο.

Οι συνέπειες της τεχνολογίας deepfake θα εξακολουθούν να ξεδιπλώνονται καθώς συνεχίζεται η μάχη μεταξύ της ανίχνευσης και της δημιουργίας ρεαλιστικών μοντέλων τεχνητής νοημοσύνης. Ένα μόνο πράγμα είναι βέβαιο: χωρίς καλύτερες μεθόδους ανίχνευσης και με τη σημερινή τους δυναμική, τα deepfakes θα μας βυθίσουν στα άδυτα της θάλασσας της σύγχρονης παραπληροφόρησης, όπου τα όρια μεταξύ ρεαλισμού και διαδικτυακής πλάνης θα είναι πλέον αδιευκρίνιστα.■