1. Γνωστό από παλιά, το πρόβλημα της παραπληροφόρησης λαμβάνει σήμερα εντελώς νέες, πραγματικά εκρηκτικές, διαστάσεις λόγω της τεχνολογίας και, κυρίως, της τεχνητής νοημοσύνης.
Του Παναγιώτη Περάκη*
Ήδη από το 2016, με αφορμή την εκλογή Τραμπ, έγινε ευρύτερα αντιληπτό ότι η διάδοση ψευδών ειδήσεων –«fake news»- μέσω των social media, των οποίων πλέον η χρήση τους από τον πληθυσμό είχε ήδη από χρόνια γενικευθεί, μπορεί να φτάσει στο σημείο ακόμη και να νοθεύει ουσιωδώς τις δημοκρατικές διαδικασίες στο ισχυρότερο κράτος του πλανήτη και να διαμορφώνει κατά το δοκούν εξελίξεις παγκόσμιας σημασίας, όπως πράγματι αποδεδειγμένα συνέβη τότε στις προεδρικές εκλογές των ΗΠΑ, όπου εντελώς κατασκευασμένες «ειδήσεις», προερχόμενες από ψεύτικους λογαριασμούς που δημιουργήθηκαν ειδικά γι αυτόν τον σκοπό, με ενδεχόμενη μάλιστα ανάμειξη ξένων Υπηρεσιών, χρησιμοποιήθηκαν στοχευμένα για την χειραγώγηση κρίσιμης μερίδας ψηφοφόρων.
Σήμερα το πρόβλημα έχει οξυνθεί. Η σύγχρονη παραπληροφόρηση, το πιο επικίνδυνο είδος fake news, έχει το όνομα deepfake. Τo deepfake είναι αποτέλεσμα μιας μορφής τεχνητής νοημοσύνης που ονομάζεται deep learning (βαθιά μάθηση), η οποία, χρησιμοποιώντας υπαρκτά δεδομένα εικόνας και ήχου που αφορούν σε κάποιο πρόσωπο, μπορεί να δημιουργήσει πειστικές εικόνες (φωτογραφίες ή ακόμη και video) και ήχους προερχόμενους τάχα από το πρόσωπο αυτό, δηλαδή ψεύτικα ή κρίσιμα παραλλαγμένα γεγονότα με πρωταγωνιστή το πρόσωπο αυτό.
2. Η τεχνολογική αυτή δυνατότητα της τεχνητής νοημοσύνης δεν είναι βεβαίως πάντα κακόβουλη. Υπάρχουν περιπτώσεις που το deepfake χρησιμοποιείται για ψυχαγωγικούς σκοπούς ή για να κάνει καλύτερη την σχέση με την τέχνη (πχ χρησιμοποιείται συχνά σε μουσεία, δίνοντας «ζωή» σε γνωστούς πίνακες και εμφανίζοντας διάσημους καλλιτέχνες του μακρινού παρελθόντος να μιλούν για τα έργα τους) ή, ακόμη, και για ωφέλιμους σκοπούς (λχ οι απομιμήσεις φωνής για χρήση από ανθρώπους που την έχουν χάσει λόγω κάποιας ασθένειας).
Το ζήτημα όμως είναι η ολοένα αυξανόμενη κακόβουλη χρήση αυτής της τεχνολογίας. Στον διεθνή τύπο βρίσκει κανείς όλο και συχνότερα τέτοια περιστατικά με θύματα διάσημα πρόσωπα, όπως λχ ο Μπάρακ Ομπάμα, ο Πάπας ή η Ταίηλορ Σουίφτ. Πρόσφατα ο Mark Zuckerberg εμφανίστηκε τάχα να καυχιέται ότι έχει «τον απόλυτο έλεγχο των κλεμμένων δεδομένων δισεκατομμυρίων ανθρώπων». Το διαδίκτυο και οι πλατφόρμες των μέσων κοινωνικής δικτύωσης το τελευταίο διάστημα κατακλύζονται συνεχώς με αντίστοιχες εικόνες και βίντεο που μιμούνται πολύ πειστικά διάσημες προσωπικότητες και τις φωνές τους.
Φυσικά, δεν λείπουν τα περιστατικά εις βάρος και απλών ανθρώπων. Διαρκώς αυξανόμενα σε όλο τον κόσμο είναι τα περιστατικά απάτης με χρήση deepfake στη σημερινή μεταcovid εποχή, όπου οι επικοινωνίες και οι συναλλαγές γίνονται σε μεγάλο βαθμό ψηφιακά και όχι με φυσική παρουσία, διευκολύνοντας έτσι την παραπλάνηση με εικόνες ή φωνές προσώπων οι οποίες στην πραγματικότητα δεν προέρχονται από αυτά.
Και στην χώρα μας έχουν καταγραφεί αρκετές περιπτώσεις deepfakes, με γνωστότερες αυτές εις βάρος κάποιων δημοσιογράφων που εμφανίστηκαν να λένε πράγματα που ουδέποτε είπαν και του Γιάννη Αντετοκούμπο που εμφανίστηκε να δηλώνει ότι μοιράζει εκατομμύρια. Αρκετές είναι επίσης οι περιπτώσεις deepfake με σεξουαλικό περιεχόμενο, για σκοπούς εκφοβισμού, για εκβιασμούς, παράνομο στοιχηματισμό κλπ. Το 2023 η Δίωξη Ηλεκτρονικού Εγκλήματος ασχολήθηκε με 15 τέτοιες υποθέσεις παραπλανητικών βίντεο.
Γυρνώντας στη μεγάλη εικόνα και κοιτώντας το πρόβλημα από μια άλλη διάσταση, μπορούμε να πούμε ότι τα deepfakes διαθέτουν την ικανότητα να ξαναγράφουν την ιστορία, αλλάζοντάς την προς επιλεγμένες κατευθύνσεις, έχοντας έτσι την ικανότητα, παρουσιάζοντας παραμορφωμένη την πραγματικότητα και την ιστορική αφήγηση να διαβρώσουν την εμπιστοσύνη του κοινού στους θεσμούς,. Σε μια εποχή που ήδη η παραπληροφόρηση είναι ανεξέλεγκτη, αυτές οι δυνατότητες των deepfakes θεωρούνται οι πιο ανησυχητικές, αφού μπορούν εύκολα να χρησιμοποιηθούν ως εργαλείο για πολιτική χειραγώγηση, προπαγάνδα και υπονόμευση της δημοκρατικής διαδικασίας.
3. Οι περισσότερες από τις εικόνες deepfake έχουν πάρα πολλές ομοιότητες με την πραγματικότητα και οι ψεύτικες λεπτομέρειές τους είναι πραγματικά δυσδιάκριτες. Κοιτώντας τις, εύκολα μπορεί κανείς να πιστέψει ότι είναι αληθινές. Τις περισσότερες φορές χρειάζεται πραγματικά ενδελεχής παρατήρηση για να καταλάβει κάποιος την διαφορά, προσέχοντας επισταμένως στοιχεία όπως οι εναλλαγές των εικόνων, διαφορές στον φωτισμό, αυξομειώσεις στο background κλπ. Αυτό όμως δεν είναι καθόλου προφανές ούτε γίνεται από πολλούς, υπάρχουν μάλιστα και περιπτώσεις που χωρίς την χρήση τεχνικών μέσων η διαπίστωση αυτή είναι πρακτικά αδύνατη.
Η βάση του προβλήματος σχετίζεται και με το γεγονός ότι η συντριπτική πλειονότητα των ανθρώπων κοιτάζει επιδερμικά οτιδήποτε εμφανίζεται στα social media, μένοντας σε μια γρήγορη πρώτη εντύπωση της εικόνας που έχει κάθε φορά μπροστά του. Ακόμη και στα ειδησεογραφικά sites, πολύ περισσότερο στα άλλα posts, είναι αποδεδειγμένα διαπιστωμένο ότι η συντριπτική πλειοψηφία των αναγνωστών διαβάζει μόνο τον τίτλο, συχνά ανακριβή, χωρίς καθόλου να κοιτάζει (ακόμη λιγότερο, να διασταυρώνει) το κυρίως περιεχόμενο. Η επικράτηση αυτής της κουλτούρας, της εικόνας, ευνοεί στον μέγιστο βαθμό τον ρόλο των deepfakes και διευκολύνει την περαιτέρω εξάπλωσή τους.
Στην εξάπλωση των deepfakes πρέπει να ληφθεί υπ΄ όψιν και μια άλλη εξέλιξη. Μέχρι πρότινος για να μπορέσει κάποιος να χρησιμοποιήσει αυτή την τεχνολογία, πέρα από την «πρώτη ύλη» (πέρα δηλαδή από έναν ικανό αριθμό φωτογραφιών, βίντεο, ήχων αλλά και άλλα δεδομένα του προσώπου -στόχου), χρειαζόταν να έχει στη διάθεσή του έναν πανίσχυρο υπολογιστή καθώς και προηγμένο λογισμικό αξίας εκατομμυρίων. Σήμερα η πρόσβαση κάθε ενδιαφερόμενου στην σχετική τεχνολογία είναι πολύ πιο φτηνή και πιο εύκολη. Στο dark web και αλλού είναι διαθέσιμες τέτοιες εφαρμογές ή υπηρεσίες δημιουργίας deep fakes, σε τιμές που, ανάλογα τις δυνατότητές τους, μπορεί να ξεκινούν από 5 $ ανά video!
4. Τα προαναφερόμενα δεν περιγράφουν το σύνολο του προβλήματος διότι παραβλέπουν κάτι πολύ σημαντικό. Το γεγονός δηλαδή ότι η τεχνολογία καλπάζει, εξελίσσεται καθημερινά, ειδικά σε σχέση με την τεχνητή νοημοσύνη. Μιλώντας λοιπόν για deepfake και επιχειρώντας μια προβολή στο πολύ κοντινό μέλλον, η πιθανότερη κατά την άποψή μου εξέλιξη, που θα συνεπάγεται μια όχι απλά ποσοτική αλλά και ποιοτική εκθετική επιδείνωση της σχετικής απειλής, θα προέρχεται από τον συνδυασμό δύο δυνατοτήτων που η τεχνητή νοημοσύνη παρέχει: του deepfake με το profiling.
Το profiling είναι ήδη μια πολύ ανεπτυγμένη διεθνώς δραστηριότητα, στο πλαίσιο της οποίας δεδομένα που αφορούν ένα πρόσωπο, απ΄ οποιαδήποτε διαθέσιμη πηγή προερχόμενα (αναρτήσεις στα social media, ίχνη από τις περιηγήσεις του στο διαδίκτυο, πληροφορίες από cookies, δεδομένα απ΄ τη χρήση οικιακών συσκευών, δεδομένα από ελεύθερα προσβάσιμα δημόσια αρχεία, καταναλωτικές προτιμήσεις κλπ), φαινομενικά άσχετα μεταξύ τους, συνδυάζονται και αναλύονται με αυτοματοποιημένο τρόπο σε ασύλληπτες ποσότητες και ταχύτητες, με κατάληξη τον σχηματισμό του προφίλ του εν λόγω προσώπου, το οποίο εν συνεχεία μπορεί να χρησιμοποιηθεί ως πολύτιμο στοιχείο για διάφορες δραστηριότητες, σήμερα κυρίως για σκοπούς στοχευμένης διαφήμισης, αλλά όχι μόνο.
Είναι εύκολο λοιπόν να καταλάβει κανείς πόσο δραστικός και επικίνδυνος μπορεί να είναι αυτός ο συνδυασμός, του deepfake με το profiling. Με πολύ απλά λόγια, σημαίνει ότι πολύ σύντομα κάθε άνθρωπος θα βομβαρδίζεται από πειστικά ψέματα που θα είναι κατασκευασμένα ειδικά γι αυτόν, θα είναι προσαρμοσμένα ακριβώς στα δικά του γούστα και προδιαθέσεις ώστε να είναι στον μέγιστο βαθμό πειστικά. Αυτό άλλωστε ήδη συμβαίνει σε κάποιο βαθμό, αλλά βάσιμα μπορεί να πιθανολογηθεί πως θα πάρει πολύ μεγαλύτερες διαστάσεις.
5. Το ερώτημα είναι πώς αντιμετωπίζονται αυτοί οι κίνδυνοι. Η απάντηση είναι ότι χρειάζεται ένας συνδυασμός λύσεων.
Αντίθετα με ο,τι συνήθως συμβαίνει, η θέσπιση νόμων και απαγορεύσεων είναι εν προκειμένω το λιγότερο σημαντικό, δεδομένου ότι ήδη η κακόβουλη χρησιμοποίηση τέτοιων τεχνολογιών θεωρείται παράνομη και εμπίπτει σε πληθώρα υπαρχουσών σήμερα απαγορευτικών διατάξεων. Προφανώς υπάρχουν πάντα πράγματα που μπορεί το δίκαιο να ρυθμίσει καλύτερα, ιδίως προσαρμοζόμενο στην εξέλιξη της τεχνολογίας. Για παράδειγμα, στο ΗΒ, όπου σύμφωνα με τον νόμο για την ασφάλεια στο διαδίκτυο -Online Safety Act-, ο διαμοιρασμός deepfakes θεωρείται ήδη παράνομος, επίκειται νέα νομοθεσία που θα ποινικοποιεί αυστηρά την δημιουργία πορνογραφικού deepfake. Αντίστοιχες προβλέψεις υπάρχουν σε αρκετά κράτη μέλη της ΕΕ. Γενικότερα στο νομικό επίπεδο, αυτό που άμεσα θα μπορούσε να προταθεί είναι η θέσπιση της υποχρέωσης οποιοσδήποτε αναρτά και, γενικότερα, χρησιμοποιεί περιεχόμενο (εικαστικό, ηχητικό, οτιδήποτε) που είναι δημιούργημα τεχνητής νοημοσύνης, να είναι υποχρεωμένος κάθε φορά να το δηλώνει, με σχετική ένδειξη.
Πολύ μεγάλο βάρος στην αντιμετώπιση του φαινομένου και των απειλών που συνεπάγεται, σε όλη την σχετική κλίμακα, είτε δηλαδή αυτές αφορούν ιδιώτες είτε την ίδια τη δημοκρατία και τις διαδικασίες της, πέφτει φυσικά στην Πολιτεία και στους μηχανισμούς της. Λόγω της σοβαρότητας των δυνητικών απειλών, το deepfake μπορεί μάλιστα να εμπίπτει όχι μόνο στις παραδοσιακά αρμόδιες διωκτικές Αρχές (κυρίως δηλαδή, μιλώντας για την Ελλάδα, στην Δίωξη Ηλεκτρονικού Εγκλήματος, που είναι η εξειδικευμένη για τις περιπτώσεις αυτές υπηρεσία της Ελληνικής Αστυνομίας), αλλά και σε άλλες Αρχές και Υπηρεσίες, που είναι επιφορτιζόμενες με την κυβερνοασφάλεια ή ακόμη και με την κρατική ασφάλεια κάθε χώρας. Πρόσφατα στην Ελλάδα είχαμε μια θετική εξέλιξη, την δημιουργία της Εθνικής Αρχής Κυβερνοασφάλειας, όπου, αντίθετα με ο,τι δυστυχώς συμβαίνει συνήθως στην χώρα μας, επικεφαλής της ορίστηκε ο Μιχάλης Μπλέτσας, ένας διακεκριμένος Έλληνας επιστήμονας του εξωτερικού, με βαθιά γνώση της τεχνολογίας και ειδικά της τεχνητής νοημοσύνης.
Σε ευρωπαϊκό επίπεδο, ενόψει των ευρωεκλογών, η ΕΕ προετοιμάζεται για την αντιμετώπιση τέτοιων περιστατικών, έχοντας συστήσει την Ομάδα Συνεργασίας NIS, αποτελούμενη από εκπροσώπους των κρατών μελών της ΕΕ, της Ευρωπαϊκής Επιτροπής και του ENISA, του Οργανισμού της ΕΕ για την Κυβερνοασφάλεια, του οποίου ο εκτελεστικός διευθυντής πρόσφατα αναγνώρισε ότι η αξιοπιστία των εκλογικών διαδικασιών της ΕΕ εξαρτάται από τις υποδομές ασφάλειας στον κυβερνοχώρο και από την ακεραιότητα και τη διαθεσιμότητα των πληροφοριών. Από τον Οκτώβριο του 2023, άλλωστε, ο ENISA τόνισε τις δυνητικές επιπτώσεις των chatbots τεχνητής νοημοσύνης και της χειραγώγησης πληροφοριών στις εκλογές, οι οποίες εδώ και ήδη μια δεκαετία έχουν γίνει συχνός στόχος επιθέσεων στον κυβερνοχώρο σε διάφορες χώρες.
Οι λύσεις όμως για την αντιμετώπιση του φαινομένου θα έρθουν κυρίως από την ίδια την τεχνολογία, με εφαρμογές τεχνητής νοημοσύνης που θα εντοπίζουν άμεσα και αποτελεσματικά περιπτώσεις deepfakes. Ήδη η Meta, η Microsoft η OpenAI και 17 άλλες εταιρείες τεχνολογίας έχουν συμφωνήσει να συνεργαστούν για την αντιμετώπιση του παραπλανητικού περιεχομένου τεχνητής νοημοσύνης, με στόχευση τα deepfakes.
Ενόψει ειδικά των ευρωεκλογών του Ιουνίου, η Meta ανακοίνωσε επιπροσθέτως την σύσταση μιας νέας ομάδας προκειμένου να αντιμετωπίσει την παραπληροφόρηση που δημιουργείται με τη βοήθεια της τεχνητής νοημοσύνης, έχοντας δηλώσει ότι από τον τρέχοντα μήνα Μάϊο 2024 θα διαθέτει αποτελεσματική τεχνολογία αναγνώρισης ύποπτου περιεχομένου deepfake. Αντίστοιχη δράση ανακοίνωσε ότι αναλαμβάνει και η πλατφόρμα κοινωνικής δικτύωσης TikTok.
Πέρα όμως από τις ευρωεκλογές, το βέβαιο είναι ότι ο πλέον αποτελεσματικός τρόπος για την αντιμετώπιση των deepfakes είναι η ίδια η τεχνολογία, με εφαρμογές -ήδη υπάρχουν κάποιες, που εξελίσσονται συνεχώς- που θα εντοπίζουν πιθανές απειλές και θα μετριάζουν το περιεχόμενό τους σε πραγματικό χρόνο. Tεχνολογικοί κολοσσοί όπως η Meta, η Microsoft, η Google και η OpenAI έχουν κάνει τέτοιες δεσμεύσεις. Είναι προφανές ότι πρέπει να υπάρξει συντονισμένη δράση και πίεση, τόσο από την επιστημονική κοινότητα όσο και από τις κυβερνήσεις, ώστε οι σχετικές τεχνολογίες να αναπτυχθούν άμεσα, να είναι γενικά διαθέσιμες και πλήρως αποτελεσματικές.
Τέλος, μαζί με τα παραπάνω, απαραίτητη φυσικά είναι και η ευαισθητοποίηση του κοινού. Πρέπει όλοι να μάθουμε να ελέγχουμε την εγκυρότητα των πληροφοριών που συναντάμε στον ψηφιακό κόσμο, ιδίως μάλιστα αυτών που λαμβάνουμε, και να διατηρούμε τις αμφιβολίες μας. Ν’ αναζητούμε πολλαπλές πηγές και να προσπαθούμε να διασταυρώσουμε ο,τι εμφανίζεται ως είδηση ή γεγονός. Όπως και να μην υιοθετούμε άκριτα και να μην κοινοποιούμε περιεχόμενο για την προέλευση του οποίου δεν είμαστε βέβαιοι. Η ψηφιακή αλήθεια δεν είναι σίγουρα αλήθεια.
Παναγιώτης Περάκης
Δικηγόρος, εξειδικευμένος σε θέματα νέων τεχνολογιών