Έχουμε συνηθίσει να διαβάζουμε καθημερινά καινούριες πληροφορίες και άρθρα γνώμης σχετικά με την Τεχνητή Νοημοσύνη (ΤΝ), συνήθως συνοδευόμενα από βροχή από κλισέ και προφητείες που θα έκαναν την Κασσάνδρα να φαίνεται σαν κωμική ηθοποιός: από τα ρομπότ που έρχονται και μας παίρνουν τις δουλειές μέχρι πολεμικές μηχανές που κάποια στιγμή θα αποκτήσουν συνείδηση και θα κατακτήσουν την ανθρωπότητα.
Του Κώστα Καρπούζη
Τους τελευταίους μήνες, η εφαρμογή που έχει τραβήξει την προσοχή της δημοσιότητας είναι το ChatGPT, ένα τελευταίας γενιάς chatbox (δηλαδή μια ψηφιακή μηχανή που μιμείται ανθρώπινους διαλόγους, απαντώντας σε μικρά κείμενα που της δίνουμε) που δημιούργησε η αμερικανική εταιρία OpenAI και που πρόλαβε η Microsoft να «καπαρώσει» ήδη από το 2020.
Πριν μιλήσουμε για το πώς μπορεί μια τέτοια τεχνολογία να επηρεάσει την καθημερινότητά μας, πρέπει πρώτα να περιγράψουμε το τι μπορεί να κάνει και (κυρίως) τι δε μπορεί να κάνει, τουλάχιστον αυτή τη στιγμή.
Το ChatGPT ανήκει στην κατηγορία των Παραγωγικών αλγορίθμων ΤΝ (Generative AI) που σημαίνει ότι δεν αποσκοπεί στο να ταξινομήσει ένα κείμενο ή μια εικόνα σε μια κατηγορία (όπως, για παράδειγμα, κάνει το κινητό μας με τη λειτουργία face unlock, χρησιμοποιώντας την εικόνα του προσώπου μας), ούτε να εντοπίσει μια πληροφορία μέσα σε ένα σύνολο από κείμενα και ιστοσελίδες, όπως κάνουν οι αλγόριθμοι μιας μηχανής αναζήτησης.
Με δεδομένο το κείμενο που του δίνουμε (π.χ., «φτιάξουμε ένα παραμύθι για μικρά παιδιά, εμπνευσμένο από την Οδύσσεια»), το ChatGPT θα δημιουργεί ακολουθίες από λέξεις, οι οποίες θα μοιάζουν όσο το δυνατόν περισσότερο με τα κείμενα με τα οποία έχει εκπαιδευτεί (ιστοσελίδες, βιβλία, ιστολόγια, κείμενα από Wikipedia, κλπ.), αλλά δε θα είναι ίδιες με αυτά. Αυτό, πρακτικά, σημαίνει ότι δεν έχει δυνατότητα να αναζητήσει πληροφορίες από συγκεκριμένες ιστοσελίδες (δεν είναι δηλαδή μηχανή αναζήτησης, όπως το Google), δε μπορεί να κάνει λογικές πράξεις ή να εξάγει λογικά συμπεράσματα, θα δυσκολευτεί πολύ να λύσει προβλήματα Φυσικής ή Μαθηματικών (και μάλλον θα δώσει λάθος αποτέλεσμα), και δε θα μπορεί να στηρίξει την απάντησή του σε μια συγκεκριμένη πηγή πληροφοριών (π.χ., ένα άρθρο από ένα website ή μια επιστημονική δημοσίευση).
Τελικά, αυτό που μπορεί να κάνει μια τέτοια μηχανή είναι το να απαντά σε κείμενα που της δίνουμε (τα λεγόμενα prompts) με την ίδια επιτυχία που θα το έκανε ένας πολύ καλά διαβασμένος μαθητής, με πολύ υψηλή αυτοπεποίθηση, που έχει όμως παπαγαλίσει την ύλη που διάβασε: σε γενικές γραμμές οι απαντήσεις του θα είναι σωστές, σίγουρα θα είναι πειστικές, αλλά θα απαιτούν ενδελεχή έλεγχο σε ό,τι αφορά στην επιστημονική και λογική τους αλήθεια. Αυτό έγινε αντιληπτό με ιδιαίτερα οδυνηρό τρόπο όταν ο δημοφιλής ιστότοπος CNET άρχισε να πειραματίζεται με άρθρα που έγραφε το ChatGPT, χωρίς τον έλεγχο ή την παρέμβαση κάποιου δημοσιογράφου, και κατέληξε να δημοσιεύει άρθρα με χρηματοοικονομικές συμβουλές, στα οποία όμως ο τόκος υπολογιζόταν με εμφανώς λανθασμένο τρόπο.
Αυτή η αστοχία του ChatGPT απλά μας υπενθυμίζει, όχι τους περιορισμούς του, αλλά τον σκοπό για τον οποίο δημιουργήθηκε. Η επιτυχία που είχε ο αλγόριθμος όταν κλήθηκε να απαντήσει σε θέματα εξετάσεων σε μια ευρεία γκάμα από Αμερικανικά πανεπιστήμια, από Ιατρική μέχρι Οικονομικά και Διοίκηση Επιχειρήσεων, δεν αποδεικνύει ότι οι μηχανές θα υποκαταστήσουν τους μαθητές ή τους καθηγητές, αλλά ότι οι γνώσεις που ζητάμε από τους μαθητές και τους φοιτητές μας απλά απαιτούν την απομνημόνευση τεράστιων όγκων κειμένων και λίγη ως ανύπαρκτη κριτική και δημιουργική ικανότητα. Αν, αντί για την παράθεση ορισμών και ημερομηνιών, οι εξετάσεις μας καλούσαν τους φοιτητές να λύσουν ένα απλό πρόβλημα ή να παραθέσουν τη δική τους γνώμη, τεκμηριώνοντάς την με συγκεκριμένες πηγές, το ChatGPT θα έγραφε σίγουρα κάτω από τη βάση. Το ίδιο ισχύει και για τους άλλους τομείς που νιώθουν ότι απειλούνται από την Παραγωγική ΤΝ, όπως είναι οι κειμενογράφοι σε μια διαφημιστική εταιρία ή οι δημοσιογράφοι σε ένα ειδησεογραφικό μέσο: αν τα κείμενά μας είναι το ίδιο ξεχωριστά ή ενδιαφέροντα με αυτά που παράγει το ChatGPT, τότε μάλλον μοιάζουν υπερβολικά με οτιδήποτε μπορούμε ήδη να διαβάσουμε στο διαδίκτυο και δεν έχουν να προσφέρουν κάτι ουσιαστικό.
Αυτό που σίγουρα θα επηρεάσουν τεχνολογίες σαν το ChatGPT είναι ο τρόπος με τον οποίο αλληλεπιδρούμε με την πληροφορία που ήδη είναι δημόσια διαθέσιμη – ένας αστερίσκος εδώ είναι ότι, νομικά και ηθικά, η διαθεσιμότητα ενός κειμένου στο internet δε σημαίνει ότι κάποιος μπορεί να το χρησιμοποιήσει για ένα δικό του προϊόν, αλλά αυτό ξεφεύγει από το θέμα που περιγράφουμε εδώ. Αυτό σημαίνει ότι, όταν ψάχνουμε για μια πληροφορία στο internet, για παράδειγμα μια συνταγή μαγειρικής, αντί για μια λίστα από συγκεκριμένες ιστοσελίδες, σε λίγο καιρό θα παίρνουμε την συνταγή σε μορφή κειμένου ή ακόμα και βίντεο που θα δημιουργείται δυναμικά τη στιγμή που το ζητάμε. Δε θα μπορούμε να «ρωτάμε» το ChatGPT για το ποιο είναι το καλύτερο εστιατόριο για να επισκεφθούμε ή το καλύτερο Πανεπιστήμιο για να στείλουμε τα παιδιά μας, γιατί κάτι τέτοιο απαιτεί ένα συστηματικό ορισμό του πώς υπολογίζω τι είναι καλύτερο κι αυτό είναι κάτι που δε μπορεί να κάνει ένας τέτοιος αλγόριθμος. Ούτε πρόκειται να αντικαταστήσει έναν γιατρό ή έναν δικηγόρο, καθώς, όπως είπαμε, οι απαντήσεις του δεν είναι εγγυημένα ορθές, ούτε περιέχονται σε κάποιο πανεπιστημιακό εγχειρίδιο ή νομικό κείμενο.
Στο πλαίσιο αυτό, δε μπορούμε και να παραβλέψουμε το παγκόσμιο ενδιαφέρον για τις τεχνολογίες σαν το ChatGPT, καθώς τα ποσά που έχουν επενδυθεί τα τελευταία χρόνια σε νεοφυείς επιχειρήσεις που δραστηριοποιούνται στον τομέα μετριούνται πλέον σε τρισεκατομμύρια δολάρια (!) Εκτός από τη Microsoft, η οποία όπως αναφέραμε έχει επενδύσει σημαντικά ποσά στη συγκεκριμένη τεχνολογία, αναμένουμε άμεσα και την απάντηση της Google, στην επερχόμενη εκδήλωσή της στο Παρίσι στις 8 Φεβρουαρίου. Εκεί περιμένουμε να δούμε μια αντίστοιχη εφαρμογή που θα δουλεύει σαν chatbot, αλλά θα έχει και την πρόσθετη δυνατότητα αναφοράς σε συγκεκριμένη πηγή στο internet, βελτιώνοντας κατά πολύ με αυτόν τον τρόπο τη χρηστικότητα των αποτελεσμάτων της, είτε σαν ερευνητικό εργαλείο, είτε σαν βοήθημα για έναν δημοσιογράφο. Παράλληλα, οι Παραγωγικές τεχνολογίες αρχίζουν να ξεφεύγουν από την παραγωγή κειμένων και αριστεύουν στην παραγωγή εικόνων με βάση κείμενο ή ακόμα και ήχων και μουσικής, διευκολύνοντας και επιταχύνοντας έτσι την εργασία των επαγγελματιών στη Δημιουργική βιομηχανία ή όσους διαχειρίζονται και επεξεργάζονται πληροφορίες. Θα καταφέρει τελικά να μας πάρει τη δουλειά η Παραγωγική Τεχνητή Νοημοσύνη; Μάλλον όχι, αλλά μπορεί να το κάνει ένας δημιουργός που, μαζί με τη δική του φαντασία και κριτική σκέψη, θα έχει καταφέρει να δαμάσει την ισχύ αυτών των αλγορίθμων.
Κώστας Καρπούζης, Επίκουρος καθηγητής στο Τμήμα Επικοινωνίας, Μέσων και Πολιτισμού