Τι επιπτώσεις θα έχει η νέα εικονική πραγματικότητα στις εκλογές, σε μια χρονιά που καλούνται να ψηφίσουν 4 δισ. άνθρωποι σε όλο τον κόσμο
Του Γιάννη Παλαιολόγου στην Καθημερινή
Στις 22 Ιανουαρίου, την ημέρα πριν από τις προκριματικές εκλογές στο Νιου Χαμσάιρ, το γραφείο του γενικού εισαγγελέα ανακοίνωσε ότι θα διεξαγάγει έρευνα για «παράνομη απόπειρα» παρακώλυσης της ψηφοφορίας μετά την αποκάλυψη ότι ένας αδιευκρίνιστος αριθμός ψηφοφόρων δέχθηκε αυτοματοποιημένο τηλεφώνημα (robocall) στο οποίο μια φωνή πανομοιότυπη με του Τζο Μπάιντεν τους παρότρυνε να μην προσέλθουν στις κάλπες.
«Παρότι η φωνή στο αυτοματοποιημένο τηλεφώνημα μοιάζει με αυτή του προέδρου Μπάιντεν, αυτό το μήνυμα μοιάζει να είναι προϊόν τεχνητής παραγωγής βάσει των αρχικών ενδείξεων», ανέφερε η ανακοίνωση, συμβουλεύοντας τους ψηφοφόρους να αγνοήσουν το περιεχόμενό του. Το μήνυμα περιελάμβανε τη λέξη «malarkey», την οποία χρησιμοποιεί συχνά ο Μπάιντεν, για να φανεί πιο αυθεντικό.
Μία ημέρα νωρίτερα, στην Τουρκία, ενόψει των δημοτικών εκλογών της 31ης Μαρτίου, κυκλοφόρησε παραποιημένο βίντεο στο οποίο ο υποστηριζόμενος από την αντιπολίτευση δήμαρχος Κωνσταντινούπολης Εκρέμ Ιμάμογλου επαινεί το κυβερνών AKP για το έργο το οποίο παρέλαβε όταν εξελέγη το 2019. Το επιτελείο του Ιμάμογλου κατηγόρησε ευθέως στελέχη του AKP στην Κωνσταντινούπολη για την παραγωγή του ψευδούς οπτικοακουστικού υλικού.
Το 2024 είναι η «μεγαλύτερη εκλογική χρονιά στην Ιστορία», σύμφωνα με το περιοδικό Economist. Σε χώρες με αθροιστικό πληθυσμό μεγαλύτερο από 4 δισ., οι πολίτες θα προσέλθουν στις κάλπες για να επιλέξουν τον επόμενο ηγέτη τους ή τις νέες αρχές της τοπικής αυτοδιοίκησης, σε διαδικασίες περισσότερο ή λιγότερο ελεύθερες και δίκαιες.
Οι εκλογικές αυτές αναμετρήσεις θα διεξαχθούν υπό τη σκιά μιας νέας απειλής για την ακεραιότητά τους. Είναι μεταξύ των πρώτων που θα λάβουν χώρα στην εποχή του ChatGPT. Η «παραγωγική» τεχνητή νοημοσύνη (generative AI), μεταξύ των πολλών εκπληκτικών ικανοτήτων της, έχει μια τρομακτική ευχέρεια στη δημιουργία αληθοφανών εικόνων και ήχων. Αν αναλογιστούμε το εύρος της παραπληροφόρησης που συνόδευσε την εξάπλωση της χρήσης των μέσων κοινωνικής δικτύωσης, είναι εύλογο ο κόσμος των λεγόμενων deepfakes να προκαλεί τρόμο. Πόσο πιο δύσκολος θα είναι πλέον ο διαχωρισμός μεταξύ της αλήθειας και του ψεύδους όταν οι αλγόριθμοι μπορούν να παράγουν τεχνητό οπτικοακουστικό υλικό πανομοιότυπο με το πραγματικό;
«Είναι μια ανησυχία που ακούω από πολλές πλευρές», λέει στην «Κ» ο Aντον Κόρινεκ, καθηγητής Οικονομικών στο Πανεπιστήμιο της Βιρτζίνια, non-resident fellow στο ινστιτούτο Brookings και επικεφαλής στο πεδίο των Οικονομικών της Τεχνητής Νοημοσύνης στο Center for the Governance of AI. «Η τεχνολογία είναι πλέον εδώ και τώρα τα πάντα θα εξαρτώνται από την ισορροπία μεταξύ των κακόβουλων παραγόντων που θα παράγουν παραπληροφόρηση και της επένδυσης που θα γίνει για τον εντοπισμό και την καταπολέμησή της».
Δυνητικά, σημειώνει ο Κόρινεκ, το 2024 μπορεί να υπάρξει σημαντική εξάπλωση της παραπληροφόρησης μέσω τεχνητής νοημοσύνης, για δύο λόγους: «Η πρόσφατη πρόοδος στην Τ.Ν. διευκολύνει σημαντικά την παραγωγή ιδιαίτερα πειστικών deepfakes και άλλων μορφών ψηφιακής παραπλάνησης. Οι τεχνολογίες αυτές είναι πλέον πολύ πιο προσβάσιμες, καθώς απαιτούν πολύ λιγότερες τεχνικές γνώσεις».
Δεύτερον, προσθέτει, «η ταχύτητα με την οποία υλικό παραγόμενο από την Τ.Ν. μπορεί να δημιουργηθεί και να διαδοθεί στα μέσα κοινωνικής δικτύωσης και σε άλλες ψηφιακές πλατφόρμες ενισχύει τον πιθανό αντίκτυπο τέτοιων εκστρατειών παραπληροφόρησης. Αντίθετα με παραδοσιακές μορφές προπαγάνδας, η παραπληροφόρηση που παράγεται από την Τ.Ν. μπορεί να προσαρμοστεί και να στοχεύσει σε συγκεκριμένες δημογραφικές ομάδες, ακόμη και σε συγκεκριμένα άτομα».
Καταθέτοντας τον Νοέμβριο σε φόρουμ που διοργάνωσε η Γερουσία των ΗΠΑ για την τεχνητή νοημοσύνη, η Τζέσικα Μπραντ, διευθύντρια πολιτικής του Artificial Intelligence & Emerging Technology Initiative του Brookings, ανέδειξε τον κίνδυνο «αυταρχικοί δρώντες να χρησιμοποιήσουν παραγωγική Τ.Ν. για να διαμορφώσουν την κοινή γνώμη εντός των κοινωνιών τις οποίες βάζουν στο στόχαστρο, ώστε να οξύνουν τον διχασμό ή να διασπείρουν τον μηδενισμό σχετικά με την ύπαρξη αντικειμενικής αλήθειας, αποδυναμώνοντας έτσι εκ των έσω τις δημοκρατικές κοινωνίες».
Αναφερόμενη ειδικά στα deepfakes, η Μπραντ είχε προβλέψει το ενδεχόμενο ενός ψευδούς robocall σαν αυτό με τη φωνή του Μπάιντεν στο Νιου Χαμσάιρ. Η νέα τεχνολογία, προειδοποίησε, μπορεί να χρησιμοποιηθεί από ξένες υπηρεσίες στην τελική ευθεία για τις προεδρικές εκλογές του Νοεμβρίου για να επηρεάσει το αποτέλεσμα μέσω ενός τεχνητού «October Surprise» (η φράση αναφέρεται σε γεγονότα που προκύπτουν τις τελευταίες εβδομάδες πριν από τις εκλογές και έχουν σημαντικό αντίκτυπο στους ψηφοφόρους). «Είναι σημαντικό ότι οι στόχοι μιας τέτοιας επιχείρησης δεν είναι απλώς οι υποψήφιοι μεγάλων πολιτικών κομμάτων, αλλά επίσης δημοσιογράφοι και αξιωματούχοι υπεύθυνοι για την εκλογική διαδικασία, που αποτελούν κι αυτοί θεσμούς της δημοκρατίας», τόνισε η Αμερικανίδα ειδικός.
«Αντίθετα με παραδοσιακές μορφές προπαγάνδας, η παραπληροφόρηση που παράγεται από τεχνητή νοημοσύνη μπορεί να προσαρμοστεί και να στοχεύσει σε συγκεκριμένες δημογραφικές ομάδες».
Ο Κόρινεκ δεν αισιοδοξεί για την ετοιμότητα του συστήματος να αντιμετωπίσει αυτό που έρχεται. «Η αίσθησή μου είναι πως παρότι κυβερνήσεις, εταιρείες τεχνολογίας και ανεξάρτητοι ερευνητές είναι ολοένα και πιο συνειδητοποιημένοι σχετικά με αυτές τις απειλές, δεν είναι πραγματικά προετοιμασμένοι», λέει στην «Κ». «Στις Ηνωμένες Πολιτείες έχουν γίνει προσπάθειες διάλυσης μηχανισμών μέσω των οποίων το κράτος ενημερώνει τις εταιρείες των μέσων κοινωνικής δικτύωσης για περιπτώσεις παραπληροφόρησης. Εταιρείες όμως όπως το Χ (πρώην Twitter) έχουν απολύσει μεγάλο μέρος των ομάδων ελέγχου του περιεχομένου. Κάποιες, όπως η Meta και η Alphabet (Google), είναι κάπως πιο έτοιμες, αλλά δεν έχουμε δει ακόμη πόσο επιτυχημένα θα αποδειχθούν τα μέτρα προφύλαξής τους. Ολες φοβούνται μην κατηγορηθούν για λογοκρισία».
Δυσδιάκριτα όρια
Είναι σαφές ότι ο πολλαπλασιασμός των deepfakes θα κάνει πολλούς ψηφοφόρους να πιστέψουν πράγματα που δεν ισχύουν. Προκύπτει όμως και το αντίστροφο πρόβλημα: στον κόσμο των deepfakes αυξάνεται γεωμετρικά ο σκεπτικισμός απέναντι στο αληθινό.
Οπως γράφει στο δοκίμιό του στους Financial Times ο Τιμ Χάρφορντ: «Σκεφθείτε το διαβόητο ηχητικό από το Access Hollywood, στο οποίο ο Ντόναλντ Τραμπ ακούγεται να καυχιέται για τις σεξουαλικές του επιθέσεις κατά γυναικών. Κυκλοφόρησε τον Οκτώβριο του 2016 και προκάλεσε πολιτική έκρηξη. Τότε τα deepfakes ηχητικά δεν ήταν μέρος της συζήτησης. Αν ήταν, ο Τραμπ θα μπορούσε εύκολα να είχε πει: “Δεν είναι η φωνή μου αυτή”. Το απλό γεγονός ότι μπορεί να υπάρχουν deepfakes δημιουργεί εντελώς νέες μορφές δυνατότητας διάψευσης».
Ισως ο Χάρφορντ δεν ήξερε ότι ο Τραμπ έχει ήδη υιοθετήσει την τακτική αυτή κατά την τρέχουσα προεκλογική εκστρατεία. Τον περασμένο μήνα, σε ανάρτησή του στο Truth Social, ισχυρίστηκε ότι βίντεο που τον δείχνει να μιλάει ακατάληπτα και να μπερδεύει το πού βρίσκεται είναι «ψευδές» και δημιουργήθηκε με τη χρήση τεχνητής νοημοσύνης. Αντίστοιχες γραμμές υπεράσπισης υιοθέτησαν υποστηρικτές ενός Ταϊβανέζου πολιτικού που φαίνεται να μπαίνει σε δωμάτιο ξενοδοχείου με μια γυναίκα που δεν είναι η σύζυγός του, αλλά και ένας Ινδός πολιτικός ο οποίος ακούγεται σε ένα ηχητικό να κατηγορεί το κόμμα του στο Ταμίλ Ναντού για σοβαρές οικονομικές ατασθαλίες.
Ευρωπαϊκή κινητοποίηση
Στην Ευρώπη, η εντεινόμενη ψηφιακή απειλή έγινε αισθητή την περασμένη εβδομάδα με την ανακοίνωση ότι ο επικεφαλής αξιωματούχος του Ευρωπαϊκού Κοινοβουλίου για την κυβερνοασφάλεια, Πασκάλ Παριντάν, θα παραιτηθεί πρόωρα από τη θέση του, εν μέσω κριτικής για το πόσο ευάλωτο παραμένει το Σώμα στους κινδύνους των νέων τεχνολογιών.
Με το βλέμμα στραμμένο στις εκλογές για το Κοινοβούλιο τον Ιούνιο, η Ευρωπαϊκή Επιτροπή εξέδωσε στις 12 Δεκεμβρίου σύσταση για την προστασία της εκλογικής διαδικασίας, μεταξύ άλλων από κακόβουλες ψηφιακές εκστρατείες επιρροής. Οπως δηλώνει πηγή της Κομισιόν στην «Κ», η διασφάλιση της ακεραιότητας των εκλογών είναι από τις βασικές προτεραιότητες του ενωσιακού νόμου για τις ψηφιακές υπηρεσίες (Digital Services Act ή DSA).
Σύμφωνα με την ίδια πηγή, η Επιτροπή «βρίσκεται σε συνεχή διάλογο με τις πολύ μεγάλες διαδικτυακές πλατφόρμες και τις πολύ μεγάλες διαδικτυακές μηχανές αναζήτησης για τη συλλογή πληροφοριών, προκειμένου να παρακολουθεί την αποτελεσματική εφαρμογή του DSA». Ο νόμος, σημειώνεται, απαιτεί από τις πλατφόρμες να αξιολογούν και να αντιμετωπίζουν τους κινδύνους που σχετίζονται με την προστασία των εκλογικών διαδικασιών, συμπεριλαμβανομένου του περιεχομένου που δημιουργείται από συστήματα τεχνητής νοημοσύνης. «Τις επόμενες εβδομάδες η Επιτροπή θα ξεκινήσει δημόσια διαβούλευση σχετικά με τις επικείμενες οδηγίες για τις μεγάλες διαδικτυακές πλατφόρμες και τη διαχείριση του περιεχομένου που συνδέεται με τις εκλογές», αναφέρει η πηγή της Κομισιόν.
Επιπλέον, ο νέος νόμος για την τεχνητή νοημοσύνη (AI Act) υποχρεώνει τους παραγωγούς deepfakes να ενημερώνουν ότι το περιεχόμενο που αναρτούν δεν είναι αληθινό και τους διαχειριστές chatbots να ενημερώνουν τους χρήστες τους ότι συνομιλούν με μηχανή αντί ανθρώπου. Παράλληλα, οι υπογράφοντες του Κώδικα Δεοντολογίας της Ε.Ε. για την Παραπληροφόρηση συμμετέχουν σε ομάδα εργασίας προκειμένου να καταλήξουν σε μέτρα για την αναχαίτιση του φαινομένου κατά την προεκλογική περίοδο.
Σκέψεις για παρατηρητήριο που θα αφορά την Ελλάδα
H Ελλάδα «τρέχει» κι αυτή για να θωρακιστεί θεσμικά απέναντι στη νέα απειλή – αλλά και να αποκτήσει το εξειδικευμένο προσωπικό που θα μπορεί να αντιμετωπίσει αποτελεσματικά την επερχόμενη καταιγίδα αληθοφανούς ψηφιακού ψεύδους. Μιλώντας στην «Κ», ο υπουργός Ψηφιακής Διακυβέρνησης Δημήτρης Παπαστεργίου παραδέχεται ότι «δεν μπορείς με παλιά όπλα να πολεμήσεις νέους εχθρούς».
Θα χρειαστεί συνεπώς, όπως λέει, να προσληφθούν ειδικοί με τις απαραίτητες γνώσεις για τον εντοπισμό και την έγκαιρη αναχαίτιση της νέας γενιάς παραπληροφόρησης. Σε θεσμικό επίπεδο, όπως αναφέρει ο υπουργός, η στρατηγική αντιμετώπισης του νέου κινδύνου πολιτικής χειραγώγησης της κοινής γνώμης, που προκύπτει με την παραγωγική τεχνητή νοημοσύνη, συνδυάζει την ενσωμάτωση στην εθνική νομοθεσία του DSA και τον νέο νόμο για την κυβερνοασφάλεια, που κατατέθηκε στη Βουλή την προπερασμένη εβδομάδα. Η ενσωμάτωση του DSA, σύμφωνα με τον κ. Παπαστεργίου, θα ψηφιστεί εντός του Μαρτίου.
Παράλληλα, όπως αποκαλύπτει στην «Κ», το υπουργείο Ψηφιακής Διακυβέρνησης βρίσκεται σε διαβουλεύσεις με το υπουργείο Εξωτερικών για τη σύσταση μιας μονάδας παρακολούθησης διεθνών εκστρατειών ψηφιακής παραπληροφόρησης που στοχεύουν την Ελλάδα. Σημειώνει ωστόσο ότι «η προσπάθεια αυτή δεν έχει ωριμάσει ακόμη».
Σύμφωνα με πηγή του υπουργείου Ψηφιακής Διακυβέρνησης, η βασική διαφορά που φέρνει το DSA είναι ότι ενισχύει τους μηχανισμούς εντοπισμού και επιταχύνει το «κατέβασμα» περιεχομένου κακόβουλης παραπληροφόρησης. Η κύρια ευθύνη ανήκει στις μεγάλες πλατφόρμες (Google, Facebook, κ.λπ.), αλλά σε κάθε χώρα θα υπάρχει ένας συντονιστής ψηφιακών υπηρεσιών (Digital Service Coordinator) που θα εποπτεύει τα ζητήματα αυτά και θα συνεργάζεται με τις αντίστοιχες Αρχές άλλων κρατών-μελών της Ε.Ε. Η συντονιστική αρχή στην Ελλάδα θα είναι η Εθνική Επιτροπή Τηλεπικοινωνιών και Ταχυδρομείων, συνεπικουρούμενη από το Εθνικό Συμβούλιο Ραδιοτηλεόρασης και την Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα.
Η ίδια πηγή αναφέρει ότι υπήρξε πίεση από την Κομισιόν προς τα κράτη-μέλη για επιτάχυνση της ενσωμάτωσης του DSA, ακριβώς λόγω των φόβων περί κακόβουλης χρήσης των νέων μορφών της τεχνητής νοημοσύνης ενόψει των ευρωεκλογών.
(Αναδημοσίευση από την Καθημερινή)
Εικόνα: «Μυστικός δείπνος των τριών», θα μπορούσε να λέει ο τίτλος. Αν η εικόνα είχε και ήχο, με τις φωνές των εικονιζομένων (και αν έλειπε και το σκόπιμα υπερβολικό στυλιζάρισμα) θα μπορούσε να είχε γίνει πιστευτή ως «πληροφορία». Ηδη η τεχνητή νοημοσύνη χρησιμοποιείται ως προπαγανδιστικό υπερόπλο για προεκλογικούς σκοπούς στις ΗΠΑ και στην Ευρώπη. [Ψηφιακό έργο με τίτλο «PowerPowerPower» της Δανάης Ισαρη με τη χρήση του AI προγράμματος Midjourney.]