Μια ομάδα νυν και πρώην υπαλλήλων της OpenAI δημοσίευσε ανοιχτή επιστολή την Τρίτη περιγράφοντας τις ανησυχίες για την έλλειψη εποπτείας της ταχύτατα αναπτυσσόμενης βιομηχανίας της τεχνητής νοημοσύνης αλλά και την απουσία προστασίας όσων θέλουν να μιλήσουν γι αυτό το θέμα.
«Οι εταιρείες τεχνητής νοημοσύνης έχουν ισχυρούς λόγους να αποφεύγουν την αποτελεσματική εποπτεία και δεν πιστεύουμε ότι οι εξατομικευμένες δομές εταιρικής διακυβέρνησης επαρκούν για να το αλλάξουν αυτό», έγραψαν οι εργαζόμενοι.
OpenAI, Google, Microsoft, META και άλλες εταιρείες ηγούνται του ράλι της τεχνητής νοημοσύνης – μια αγορά που προβλέπεται να ξεπεράσει το 1 τρισεκατομμύριο δολάρια μέσα στην τρέχουσα δεκαετία – καθώς πολλοί κλάδοι σπεύδουν να προσθέσουν chatbot που υποστηρίζονται από AI για να μην μείνουν πίσω στον ανταγωνισμό.
Οι νυν και πρώην υπάλληλοι έγραψαν ότι οι εταιρείες τεχνητής νοημοσύνης δεν δημοσιοποιούν «ουσιώδεις πληροφορίες» σχετικά με το τι μπορεί να κάνει η τεχνολογία τους, την έκταση των μέτρων ασφαλείας που έχουν λάβει και τα επίπεδα κινδύνου που έχει η τεχνολογία για διαφορετικούς τύπους βλάβης.
«Κατανοούμε επίσης τους σοβαρούς κινδύνους που ενέχουν αυτές οι τεχνολογίες», έγραψαν, προσθέτοντας ότι οι εταιρείες «επί του παρόντος έχουν μόνο αδύναμες υποχρεώσεις να μοιραστούν ορισμένες από αυτές τις πληροφορίες με τις κυβερνήσεις και καμία με την κοινωνία των πολιτών. Δεν πιστεύουμε ότι όλοι μπορούν να βασιστούν για να το μοιραστούν οικειοθελώς».
Η επιστολή περιγράφει επίσης τις ανησυχίες των υφιστάμενων και των πρώην εργαζομένων σχετικά με την ανεπαρκή προστασία των πληροφοριοδοτών για τον κλάδο της τεχνητής νοημοσύνης, λέγοντας ότι χωρίς αποτελεσματική κυβερνητική εποπτεία, οι εργαζόμενοι βρίσκονται σε μια σχετικά μοναδική θέση να φέρουν τις εταιρείες υπόλογες.
«Οι ευρείες συμφωνίες εμπιστευτικότητας μάς εμποδίζουν να εκφράσουμε τις ανησυχίες μας, εκτός από τις ίδιες τις εταιρείες που ενδέχεται να αποτυγχάνουν να αντιμετωπίσουν αυτά τα ζητήματα», έγραψαν οι υπογράφοντες. «Οι συνήθεις προστασίες των πληροφοριοδοτών είναι ανεπαρκείς επειδή επικεντρώνονται στην παράνομη δραστηριότητα, ενώ πολλοί από τους κινδύνους που μας απασχολούν δεν έχουν ακόμη ρυθμιστεί».
Η επιστολή ζητά από τις εταιρείες τεχνητής νοημοσύνης να δεσμευτούν να μην συνάπτουν ή να επιβάλλουν συμφωνίες μη απαξίωσης. να δημιουργήσει ανώνυμες διαδικασίες για νυν και πρώην υπαλλήλους για να εκφράσουν τις ανησυχίες τους στο διοικητικό συμβούλιο μιας εταιρείας, στις ρυθμιστικές αρχές και σε άλλους· να υποστηρίξει μια κουλτούρα ανοιχτής κριτικής· και να μην ανταποκρίνονται στις καταγγελίες του κοινού εάν αποτύχουν οι εσωτερικές διαδικασίες αναφοράς.
Τέσσερις ανώνυμοι υπάλληλοι του OpenAI και επτά πρώην, μεταξύ των οποίων οι Daniel Kokotajlo, Jacob Hilton, William Saunders, Carroll Wainwright και Daniel Ziegler, υπέγραψαν την επιστολή. Οι υπογράφοντες ήταν επίσης η Ramana Kumar, η οποία εργάστηκε στο παρελθόν στο Google DeepMind, και ο Neel Nanda, ο οποίος εργάζεται επί του παρόντος στο Google DeepMind και στο παρελθόν εργαζόταν στο Anthropic. Τρεις διάσημοι επιστήμονες υπολογιστών, γνωστοί για την πρόοδο του τομέα της τεχνητής νοημοσύνης, ενέκριναν επίσης την επιστολή: ο Geoffrey Hinton, ο Yoshua Bengio και ο Stuart Russell.
Ένας εκπρόσωπος του OpenAI είπε στο CNBC: «Συμφωνούμε ότι η αυστηρή συζήτηση είναι ζωτικής σημασίας δεδομένης της σημασίας αυτής της τεχνολογίας και θα συνεχίσουμε να συνεργαζόμαστε με τις κυβερνήσεις, την κοινωνία των πολιτών και άλλες κοινότητες σε όλο τον κόσμο». Η εταιρεία, η οποία υποστηρίζεται από τη Microsoft, διαθέτει μια ανώνυμη τηλεφωνική γραμμή ακεραιότητας, καθώς και μια Επιτροπή Ασφάλειας και Ασφάλειας με επικεφαλής τα μέλη του διοικητικού συμβουλίου και τους ηγέτες του OpenAI, είπε ο εκπρόσωπος.
Η Microsoft αρνήθηκε να σχολιάσει.
Τον Μάιο, το OpenAI οπισθοχώρησε σε μια αμφιλεγόμενη απόφαση να αναγκάσει τους πρώην υπαλλήλους να επιλέξουν μεταξύ της υπογραφής μιας συμφωνίας μη απαξίωσης που δεν θα έληγε ποτέ και της διατήρησης των ιδίων κεφαλαίων τους στην εταιρεία. Ένα εσωτερικό σημείωμα, το οποίο προβλήθηκε από το CNBC, στάλθηκε σε πρώην υπαλλήλους και κοινοποιήθηκε με νυν.
Το σημείωμα, που απευθυνόταν σε κάθε πρώην υπάλληλο, ανέφερε ότι τη στιγμή της αποχώρησης του ατόμου από το OpenAI, «ίσως να είχατε ενημερωθεί ότι έπρεπε να εκτελέσετε μια γενική συμφωνία αποδέσμευσης που περιλάμβανε μια διάταξη μη απαξίωσης προκειμένου να διατηρήσετε το Κτηδεμένο Μονάδες [της καθαρής θέσης].”
«Λυπούμαστε απίστευτα που αλλάζουμε αυτή τη γλώσσα μόνο τώρα. δεν αντικατοπτρίζει τις αξίες μας ή την εταιρεία που θέλουμε να είμαστε», είπε εκπρόσωπος του OpenAI στο CNBC εκείνη την εποχή.
Η ανοιχτή επιστολή της Τρίτης ακολουθεί επίσης την απόφαση της OpenAI τον Μάιο να διαλύσει την ομάδα της, η οποία επικεντρώθηκε στους μακροπρόθεσμους κινδύνους της τεχνητής νοημοσύνης, μόλις ένα χρόνο μετά την ανακοίνωση του ομίλου, επιβεβαίωσε στο CNBC τότε άτομο που γνωρίζει την κατάσταση.
Το άτομο, που μίλησε υπό τον όρο της ανωνυμίας, είπε ότι ορισμένα από τα μέλη της ομάδας επανατοποθετούνται σε άλλες ομάδες εντός της εταιρείας.
Η ομάδα διαλύθηκε αφού οι ηγέτες της, ο συνιδρυτής του OpenAI, Ilya Sutskever και ο Jan Leike, ανακοίνωσαν την αποχώρησή τους από την startup τον Μάιο. Ο Leike έγραψε σε μια ανάρτηση στο X ότι η «κουλτούρα και οι διαδικασίες ασφάλειας του OpenAI έχουν πάρει πίσω μέρος στα λαμπερά προϊόντα».
Ο Διευθύνων Σύμβουλος Sam Altman δήλωσε στο X ότι λυπήθηκε που είδε τον Leike να φεύγει και ότι η εταιρεία είχε περισσότερη δουλειά να κάνει. Αμέσως μετά, ο συνιδρυτής του OpenAI Greg Brockman δημοσίευσε μια δήλωση που αποδίδεται στους Brockman και Altman στο X, βεβαιώνοντας ότι η εταιρεία «έχει αυξήσει την επίγνωση των κινδύνων και των ευκαιριών του AGI, ώστε ο κόσμος να μπορεί να προετοιμαστεί καλύτερα για αυτό».
«Έγινα μέλος γιατί πίστευα ότι το OpenAI θα ήταν το καλύτερο μέρος στον κόσμο για να κάνω αυτή την έρευνα», έγραψε ο Leike στο X . «Ωστόσο, διαφωνώ με την ηγεσία του OpenAI σχετικά με τις βασικές προτεραιότητες της εταιρείας εδώ και αρκετό καιρό, μέχρι που τελικά φτάσαμε σε ένα οριακό σημείο».
Ο Leike έγραψε ότι πιστεύει ότι πολύ περισσότερο από το εύρος ζώνης της εταιρείας θα πρέπει να επικεντρωθεί στην ασφάλεια, την παρακολούθηση, την ετοιμότητα, την ασφάλεια και τον κοινωνικό αντίκτυπο.
«Αυτά τα προβλήματα είναι πολύ δύσκολο να διορθωθούν και ανησυχώ ότι δεν βρισκόμαστε σε τροχιά για να φτάσουμε εκεί», έγραψε. «Τους τελευταίους μήνες η ομάδα μου πλέει κόντρα στον άνεμο. Μερικές φορές παλεύαμε για [υπολογιστικούς πόρους] και γινόταν όλο και πιο δύσκολο να πραγματοποιηθεί αυτή η κρίσιμη έρευνα».
Ο Leike πρόσθεσε ότι η OpenAI πρέπει να γίνει μια «πρώτη εταιρεία AGI στην ασφάλεια».
«Η κατασκευή πιο έξυπνων από τον άνθρωπο μηχανών είναι μια εγγενώς επικίνδυνη προσπάθεια», έγραψε. «Το OpenAI επωμίζεται μια τεράστια ευθύνη εκ μέρους όλης της ανθρωπότητας. Αλλά τα τελευταία χρόνια, η κουλτούρα και οι διαδικασίες ασφάλειας έχουν πάρει πίσω τη θέση των λαμπερών προϊόντων».
Οι υψηλού προφίλ αποχωρήσεις έρχονται μήνες αφότου το OpenAI πέρασε από μια κρίση ηγεσίας που αφορούσε τον Altman.
Τον Νοέμβριο, το διοικητικό συμβούλιο του OpenAI ανέτρεψε τον Άλτμαν, λέγοντας σε μια δήλωση ότι ο Άλτμαν δεν ήταν «συνεπώς ειλικρινής στις επικοινωνίες του με το διοικητικό συμβούλιο».
Το θέμα φαινόταν να γίνεται πιο περίπλοκο κάθε μέρα, με τη Wall Street Journal και άλλα μέσα ενημέρωσης να ανέφεραν ότι ο Sutskever εκπαίδευσε την εστίασή του στη διασφάλιση ότι η τεχνητή νοημοσύνη δεν θα βλάψει τους ανθρώπους, ενώ άλλοι, συμπεριλαμβανομένου του Altman, ήταν πιο πρόθυμοι να προχωρήσουν στην παράδοση νέα τεχνολογία.
Η απομάκρυνση του Άλτμαν προκάλεσε παραιτήσεις ή απειλές για παραιτήσεις, συμπεριλαμβανομένης μιας ανοιχτής επιστολής που υπογράφηκε σχεδόν από όλους τους υπαλλήλους του OpenAI, και σάλο από επενδυτές, συμπεριλαμβανομένης της Microsoft . Μέσα σε μια εβδομάδα, ο Altman επέστρεψε στην εταιρεία και τα μέλη του διοικητικού συμβουλίου Helen Toner, Tasha McCauley και Sutskever, που είχαν ψηφίσει υπέρ της αποπομπής του Altman, ήταν εκτός. Ο Sutskever παρέμεινε στο προσωπικό εκείνη την εποχή, αλλά όχι πλέον με την ιδιότητά του ως μέλους του διοικητικού συμβουλίου. Ο Άνταμ Ντ′ Άντζελο, ο οποίος είχε επίσης ψηφίσει για την εκδίωξη του Άλτμαν, παρέμεινε στο διοικητικό συμβούλιο.
Τον Μάιο, το OpenAI κυκλοφόρησε ένα νέο μοντέλο τεχνητής νοημοσύνης και την επιτραπέζια έκδοση του ChatGPT, μαζί με μια ενημερωμένη διεπαφή χρήστη και δυνατότητες ήχου, την τελευταία προσπάθεια της εταιρείας να επεκτείνει τη χρήση του δημοφιλούς chatbot της. Μια εβδομάδα αφότου το OpenAI έκανε το ντεμπούτο του στη σειρά των ηχητικών φωνών, η εταιρεία ανακοίνωσε ότι θα τραβήξει μια από τις φωνές του viral chatbot, που ονομάζεται «Sky».
Το “Sky” δημιούργησε διαμάχη επειδή έμοιαζε με τη φωνή της ηθοποιού Scarlett Johansson στο “Her”, μια ταινία για την τεχνητή νοημοσύνη. Η σταρ του Χόλιγουντ ισχυρίστηκε ότι το OpenAI έκοψε τη φωνή της, παρόλο που αρνήθηκε να αφήσει την εταιρεία να τη χρησιμοποιήσει.
Πηγή: CNBC