Μιλώντας στη διάσημη εκπομπή δημοσιογραφικής έρευνας 60 Minutes του αμερικανικού τηλεοπτικού δικτύου CBS o διευθύνων σύμβουλος της Google Σούνταρ Πιτσάι ομολόγησε το φόβο που τον διακατέχει από τη ραγδαία εξέλιξη της τεχνολογίας τεχνητής νοημοσύνης.
Ο CEO του αμερικανικού κολοσσού διαδικτυακών υπηρεσιών ανέφερε χαρακτηριστικά ότι οι φόβοι αυτοί τον «κρατούν ξύπνιο τη νύχτα».
Ανάμεσα στα άλλα ο Πιτσάι επεσήμανε τον κίνδυνο της δημιουργίας και διασποράς ψευδών ειδήσεων από προγράμματα τεχνητής νοημοσύνης από την στιγμή που έχουν τη δυνατότητα να δείχνουν οποιονδήποτε να λέει ή να κάνει κάτι που ουδέποτε έχει κάνει ή πει και μέχρι να αποκαλυφθεί η αλήθεια θα έχει δημιουργηθεί μεγάλη ζημιά σε πολλά επίπεδα.
Ο Πιτσάι υποστήριξε ότι απαιτείται ένα παγκόσμιο ρυθμιστικό πλαίσιο για την τεχνητή νοημοσύνη παρόμοιο με αυτό που υπάρχει για τα πυρηνικά όπλα, ένα πλαίσιο στο οποίο πρέπει να συμφωνήσουν οι κυβερνήσεις των χωρών. Η εμφάνιση του προγράμματος τεχνητής νοημοσύνης ChatGPT πυροδότησε μια φρενήρη κούρσα για την ανάπτυξη ολοένα και πιο προηγμένων συστημάτων τεχνητής νοημοσύνης με εταιρείες αλλά και κράτη να ανακοινώνουν μέσα σε χρονικό διάστημα λίγων μηνών τη δημιουργία διαφόρων τέτοιων προγραμμάτων.
Η Google είναι μια από αυτές τις εταιρείες παρουσιάζοντας το Bard, ένα πρόγραμμα που ενσωματώνεται σταδιακά στη μηχανή αναζήτησης της Google η οποία μονοπωλεί αυτή τη στιγμή τον συγκεκριμένο τομέα του Διαδικτύου. Όμως η Google φοβάται την εισβολή στα… χωράφια της από την Microsoft η οποία στηρίζει οικονομικά την εταιρεία που δημιούργησε και εξελίσσει το ChatGPT. Ο Πιτσάι έσπευσε να υπερασπιστεί το Bard υποστηρίζοντας ότι το πρόγραμμα αυτό είναι ελεγμένο για την ασφάλεια του και ότι η Google συμπεριφέρεται υπεύθυνα αποφεύγοντας να προσφέρει πρόσβαση στους χρήστες σε υπό δοκιμή εκδόσεις του Bard.
Ο επικεφαλής της Google ομολόγησε επίσης πώς όπως και οι περισσότεροι αν όχι όλοι οι ερευνητές έτσι και αυτοί της εταιρείας του δεν μπορούν να κατανοήσουν πλήρως το πώς λειτουργεί η τεχνητή νοημοσύνη την οποία περιγράφει ως ένα «μαύρο κουτί». Είπε επίσης ότι η τεχνητή νοημοσύνη εξελίσσεται με πολύ ταχύτερο ρυθμό από αυτό που μπορεί να αντιληφθεί, να κατανοήσει και να αφομοιώσει ο ανθρώπινος πολιτισμός και σημείωσε ότι η ανθρωπότητα αρχίσει όμως να κατανοεί τους κινδύνους που απορρέουν από την τεχνητή νοημοσύνη και ξεκινά τώρα μια προσπάθεια να βρεθούν τρόποι ελέγχου της.
Χιλιάδες ειδικοί και άνθρωποι της βιομηχανίας της τεχνολογίας συνυπογράφουν μια επιστολή στην οποία ζητείται μια εξάμηνη παύση της έρευνας στον τομέα της τεχνητής νοημοσύνης σε παγκόσμιο επίπεδο ώστε να συζητηθούν τρόποι ελέγχου της ανάπτυξης τεχνολογιών τεχνητής νοημοσύνης και γενικότερα τρόποι πρόληψης ή παρέμβασης απέναντι σε πιθανούς κινδύνους αυτής της τεχνολογίας. Υπάρχουν φωνές ειδικών που λένε ότι πρέπει να σταματήσει εντελώς η περαιτέρω εξέλιξη της τεχνητής νοημοσύνης γιατί αποτελεί θανάσιμο κίνδυνο για την ανθρωπότητα αλλά υπάρχουν και αντιδράσεις όπως αυτή του επικεφαλής της Open AI, της εταιρείας που δημιούργησε το ChatGPT, που δήλωσε ότι η επιστολή αυτή είναι γενικόλογη και δεν αναφέρει συγκεκριμένα ποιοι τεχνικοί τομείς της τεχνητής νοημοσύνης είναι επικίνδυνοι και πρέπει να διακοπεί η έρευνα σε αυτούς.
NYT: Η ασφάλεια θυσιάστηκε λόγω ταχύτητας
Πριν λίγα 24ωρα, οι New York Times αποκάλυπταν πως η Google κυκλοφόρησε το Bard μετά από χρόνια εσωτερικών διαφωνιών σχετικά με το αν τα οφέλη των Α.Ι. υπερτερούσαν των κινδύνων. Το 2020, ο τεχνολογικός κολοσσός είχε ανακοινώσει και τη Meena, ένα παρόμοιο chatbot, αλλά εκείνο το σύστημα είχε κριθεί, τελικώς, πολύ επικίνδυνο για να κυκλοφορήσει, όπως δήλωσαν τρία άτομα με γνώση της υπόθεσης.
Οι ανησυχίες αυτές αποκαλυφθεί νωρίτερα από την Wall Street Journal.
«Η Google ήταν ενήμερη»
Σύμφωνα πάντα με τους NYT, η Google παρεμπόδισε δύο από τις κορυφαίες ερευνήτριές της σε ζητήματα ηθικής και τεχνητής νοημοσύνης, τις Τίνιτ Γκέμπρου και Μάργκαρετ Μίτσελ, από το να δημοσιεύσουν μια εργασία που προειδοποιούσε ότι τα μεγάλα γλωσσικά μοντέλα που χρησιμοποιούνται στα νέα συστήματα Α.Ι, θα μπορούσαν να εξαπολύσουν υβριστική γλώσσα.
Τον Ιανουάριο του 2022, η Google προσπάθησε να αποτρέψει έναν άλλο ερευνητή, τον Δρ. Ελ Μαχντί, από το να δημοσιεύσει μια επικριτική μελέτη, σύμφωνα με τους NYT.
«Δεν καταλαβαίνουμε πλήρως ούτε το δικό μας σύστημα ΑΙ»
Τώρα ο Πιτσάι παραδέχεται πως η Google δεν κατανοούσε απολύτως τον τρόπο με τον οποίο το δικό της σύστημα τεχνητής νοημοσύνης ανταποκρινόταν σε ορισμένες περιπτώσεις.
«Υπάρχει μια πτυχή αυτού του φαινομένου την οποία, όλοι εμείς στον τομέα, την αποκαλούμε «μαύρο κουτί». Δεν το καταλαβαίνουμε πλήρως. Και δεν μπορούμε να πούμε ακριβώς γιατί είπε κάτι ή γιατί έκανε κάποιο λάθος».
Ερωτηθείς από τον δημοσιογράφο του CBS γιατί η Google κυκλοφόρησε το Bard, ενώ δεν κατανοούσε πλήρως πώς λειτουργεί, ο Πιτσάι απάντησε: «Επιτρέψτε μου να το θέσω έτσι. Δεν νομίζω ότι καταλαβαίνουμε πλήρως ούτε το πώς λειτουργεί το ανθρώπινο μυαλό».
Ο Πιτσάι αναγνωρίζει ότι η κοινωνία δεν φαίνεται να είναι έτοιμη για τις ραγδαίες εξελίξεις στην τεχνητή νοημοσύνη. «Φαίνεται να υπάρχει αναντιστοιχία» μεταξύ του ρυθμού με τον οποίο η κοινωνία σκέφτεται και προσαρμόζεται στις αλλαγές σε σύγκριση με τον ρυθμό με τον οποίο εξελίσσεται η τεχνητή νοημοσύνη. Ωστόσο, πρόσθεσε ότι «τουλάχιστον οι άνθρωποι έχουν αρχίσει να αντιλαμβάνονται τους πιθανούς κινδύνους της πιο γρήγορα».
«Σε σύγκριση με οποιαδήποτε άλλη τεχνολογία, έχω δει περισσότερους ανθρώπους να ανησυχούν γι’ αυτήν νωρίτερα στον κύκλο ζωής της. Επομένως, αισθάνομαι αισιόδοξος».
Ο Πιτσάι δήλωσε ότι ο οικονομικός αντίκτυπος της Τεχνητής Νοημοσύνης θα είναι σημαντικός και θα επηρεάσει τα πάντα. «Κάθε προϊόν σε κάθε εταιρεία».
Αναφερόμενος, για παράδειγμα, στον κλάδο της ιατρικής, ο Πιτσάι είπε ότι σε πέντε έως 10 χρόνια από σήμερα, ένας ακτινολόγος θα μπορούσε να συνεργάζεται με έναν βοηθό Τεχνητής Νοημοσύνης, για την ιεράρχηση των περιστατικών. Ο ίδιος εκτιμά πως μεταξύ των επαγγελμάτων που θα επηρεαστούν είναι οι συγγραφείς, οι λογιστές, οι αρχιτέκτονες και οι προγραμματιστές.