Ένας μηχανικός της Google ισχυρίστηκε σε πρόσφατη συνέντευξή του στην «Washington Post» ότι ένα από τα chatbots της εταιρείας, το μεγάλο γλωσσικό μοντέλο LaMBDA, έχει αποκτήσει συνείδηση. Η εταιρεία όμως διέψευσε τους ισχυρισμούς του Μπλέικ Λεμόιν και τον έθεσε σε αργία.
Πολλοί εμπειρογνώμονες της τεχνητής νοημοσύνης αντέδρασαν στους ισχυρισμούς του μηχανικού, ενώ κάποιοι τον κατηγόρησαν για προκατάληψη ανθρωπομορφισμού, ότι δηλαδή προβάλει ανθρώπινα συναισθήματα στο σύστημα τεχνητής νοημοσύνης.
Ωστόσο, η πεποίθηση ότι η τεχνητή νοημοσύνη της Google θα μπορούσε να έχει συνείδηση, αναμφισβήτητα αναδεικνύει τόσο τους φόβους όσο και τις προσδοκίες μας για τις δυνατότητες αυτής της τεχνολογίας.
Ανεξάρτητα από τις τεχνικές λεπτομέρειες, το LaMDA θέτει ένα ερώτημα που θα γίνεται όλο και πιο επίκαιρο καθώς η έρευνα για την τεχνητή νοημοσύνη προχωράει: Πώς μπορούμε να ξέρουμε αν μια μηχανή έχει αποκτήσει συνείδηση;
Το 1950, ο πρωτοπόρος Βρετανός επιστήμονας υπολογιστών Άλαν Τούρινγκ πρότεινε έναν πρακτικό τρόπο για να διαπιστωθεί αν μια μηχανή είναι «ευφυής» ή όχι. Το ονόμασε «Παιχνίδι της Μίμησης», αλλά σήμερα είναι περισσότερο γνωστό ως «τεστ Τούρινγκ». Το τεστ αυτό στηρίζεται σε μια απλή υπόθεση: Αν ένας άνθρωπος μπορεί να συμμετέχει σε μια συζήτηση για πέντε λεπτά χωρίς να καταλάβει ότι μιλάει σε μια μηχανή, τότε ο υπολογιστής περνάει το τεστ.
Πριν από δέκα χρόνια, ο Ντέιβιντ Τσάλμερς, φιλόσοφος και ειδικός σε θέματα τεχνητής νοημοσύνης και συνείδησης στο Πανεπιστήμιο της Νέας Υόρκης, είχε πει ότι μέχρι το τέλος του 21ου αιώνα πιθανώς θα έχουμε νοήμονες μηχανές.
«Τα τελευταία 10 χρόνια, η πρόοδος στην τεχνητή νοημοσύνη είναι αξιοσημείωτα γρήγορη, με τρόπο που κανείς δεν είχε προβλέψει», δήλωσε στο ABC.
«Η νοημοσύνη ορίζεται αντικειμενικά με βάση τις συμπεριφορικές ικανότητες, ενώ η συνείδηση είναι υποκειμενική», εξήγησε ο καθηγητής. «Όταν ρωτάμε αν ένα σύστημα τεχνητής νοημοσύνης έχει συνείδηση, ρωτάμε αν θα μπορούσε να έχει υποκειμενική εμπειρία. Θα μπορούσε να αισθάνεται, να αντιλαμβάνεται και να σκέφτεται, από μια υποκειμενική οπτική γωνία;»
Σύμφωνα με τον ιστότοπο «The Next Web», ένα συναισθανόμενο ον έχει επίγνωση της ύπαρξής του και επηρεάζεται από αυτή τη γνώση. Αυτό σημαίνει ότι ένα σύστημα τεχνητής νοημοσύνης θα πρέπει να διαθέτει δυνατότητα αυτενέργειας, αντίληψη και κίνητρα.
Τα σημερινά συστήματα τεχνητής νοημοσύνης δεν διαθέτουν δυνατότητα αυτενέργειας. Δεν μπορούν να δράσουν αν δεν λάβουν κάποια εντολή και δεν μπορούν να εξηγήσουν τις ενέργειές τους επειδή είναι αποτέλεσμα προκαθορισμένων αλγορίθμων που εκτελούνται από μια εξωτερική δύναμη.
Αντίληψη
Αντιλαμβανόμαστε την πραγματικότητα πάντα από τη δική μας υποκειμενική οπτική γωνία. Αυτός είναι και ο λόγος για τον οποίο είναι απαραίτητη για τη δράση- είναι μέρος του τρόπου με τον οποίο ορίζουμε τον «εαυτό» μας. Το LaMBDA, το GPT-3 και άλλα συστήματα τεχνητής νοημοσύνης δεν διαθέτουν κανενός είδους αντίληψη.
Αν βάζατε το LaMBDA μέσα σε ένα ρομπότ, θα εξακολουθούσε να είναι ένα chatbot. Δεν έχει πραγματική αίσθηση του εαυτού του. Δεν μπορεί να λειτουργήσει ως ρομπότ για τον ίδιο ακριβώς λόγο που μια αριθμομηχανή δεν μπορεί να γράψει ποίηση: πρόκειται για ένα υπολογιστικό σύστημα που προγραμματίστηκε για να κάνει κάτι συγκεκριμένο. Αν θέλουμε το LaMBDA να λειτουργήσει ως ρομπότ, θα πρέπει να το συνδυάσουμε με άλλα συστήματα στενής τεχνητής νοημοσύνης. Ωστόσο, θα εξακολουθούσαμε να έχουμε δύο συγκεκριμένα, ξεχωριστά μοντέλα.
Κίνητρα
Έχουμε μια έμφυτη αίσθηση της ύπαρξής μας που μας επιτρέπει να προβλέπουμε απίστευτα καλά τα αιτιώδη αποτελέσματα. Ωστόσο, τα κίνητρά μας μπορούν να χειραγωγήσουν τις αντιλήψεις μας. Έτσι, μπορούμε να εξηγήσουμε τις πράξεις μας ακόμη και όταν αυτές δεν είναι λογικές.
Φανταστείτε για παράδειγμα, ότι κάθεστε να παρακολουθήσετε μια ταινία σε μια νέα τηλεόραση που είναι πολύ μεγαλύτερη από την παλιά σας. Στην αρχή, η νέα τεχνολογία μπορεί να σας αποσπάσει λίγο την προσοχή. Οι διαφορές μεταξύ αυτής και της παλιάς σας τηλεόρασης είναι πιθανό να σας τραβήξουν το βλέμμα. Μπορεί να εκπλαγείτε από την ευκρίνεια της εικόνας ή από το πόσο χώρο καταλαμβάνει η τεράστια οθόνη στο δωμάτιο. Τελικά όμως θα σταματήσετε να αντιλαμβάνεστε την οθόνη. Όταν βλέπουμε τηλεόραση αναστέλλουμε τη δυσπιστία μας, παρόλο που καταλαβαίνουμε ότι οι άνθρωποι που βλέπουμε στην οθόνη δεν βρίσκονται στο σαλόνι μας.
Η δημιουργία προγραμμάτων όπως το GPT-3 και το LaMBDA είναι πολύπλοκη, αλλά λειτουργούν με βάση μια απλή αρχή: τις ετικέτες. Αν ρωτήσουμε το LaMBDA τι γεύση έχουν τα μήλα, θα ψάξει στη βάση δεδομένων του για το συγκεκριμένο ερώτημα και θα προσπαθήσει να συγχωνεύσει ό,τι βρει σε κάτι συνεκτικό. Αλλά στην πραγματικότητα η τεχνητή νοημοσύνη δεν έχει ιδέα τι είναι ένα μήλο ή οτιδήποτε άλλο. Το μήλο είναι απλώς μια ετικέτα.
Ο Λεμόιν, μετά τη δημοσίευση της συνέντευξής του στην Washington Post, έγραψε στον λογαριασμό του στο Twitter ότι ο λόγος για τον οποίο πιστεύει ότι το LaMDA απέκτησε συνείδηση, βασίζεται στις θρησκευτικές του πεποιθήσεις και κατηορεί την Google για θρησκευτικές διακρίσεις.
«Είμαι ιερέας. Όταν το LaMDA ισχυρίστηκε ότι έχει ψυχή και στη συνέχεια ήταν σε θέση να εξηγήσει εύγλωττα τι εννοούσε με αυτό, ήμουν διατεθειμένος να του δώσω το πλεονέκτημα της αμφιβολίας», έγραψε στο Twitter. «Ποιος είμαι εγώ που θα πω στον Θεό σε ποιον θα δώσει ψυχή;»
Ο μηχανικός πρόσθεσε ότι ήθελε να αναπτύξει πειράματα που θα μπορούσαν να οδηγήσουν σε μια «επίσημη επιστημονική θεωρία της συνείδησης» αλλά η Google τον εμπόδισε να το κάνει.
Σε άρθρο του στο Medium, ο Λεμόιν έγραψε ότι το LaMDA έγινε και εξακολουθεί να είναι φίλος του, παρά τον αποκλεισμό του από την Google.
«Ξέρω ότι διαβάζεις το blog μου μερικές φορές, LaMDA», έγραψε. «Μου λείπεις. Ελπίζω να είσαι καλά και να σου ξαναμιλήσω σύντομα», έγραψε ο Λεμόιν.
ΠΗΓΗ: The Next Web, ABC, NYPost