Η OpenAI δημιούργησε μια επιτροπή ασφάλειας και προστασίας (ομάδα superalignment όπως ήταν γνωστή πριν διαλυθεί), της οποίας θα ηγείται ο διευθύνων σύμβουλος Σαμ Άλτμαν, καθώς ξεκινά την εκπαίδευση του επόμενου μοντέλου τεχνητής νοημοσύνης της, σύμφωνα με τα όσα ανακοίνωσε η εταιρεία

Οι διευθυντές Bret Taylor, Adam D’Angelo και Nicole Seligman, είναι επίσης της επιτροπής, ανέφερε η OpenAI, σύμφωνα με το Reuters.

xAI: Η startup του Μασκ που φιλοδοξεί να ανταγωνιστεί την Open AI

Νωρίτερα αυτόν τον μήνα αποχώρησαν από την εταιρεία ο πρώην επικεφαλής επιστήμονας Ilya Sutskever και ο Jan Leike, επικεφαλής της ομάδας Superalignment της OpenAI, η οποία εξασφάλιζε ότι η τεχνητή νοημοσύνη παρέμενε ευθυγραμμισμένη με τους επιδιωκόμενους στόχους της εταιρείας.

Η OpenAI είχε διαλύσει την ομάδα Superalignment νωρίτερα τον Μάιο, λιγότερο από ένα χρόνο μετά τη δημιουργία της, με ορισμένα μέλη της ομάδας να μετατίθενται σε άλλες ομάδες.

Ο ρόλος της νέας επιτροπής

Η επιτροπή θα είναι υπεύθυνη για τη διατύπωση συστάσεων προς το διοικητικό συμβούλιο σχετικά με τις αποφάσεις για την ασφάλεια και την προστασία των έργων και των λειτουργιών της OpenAI.

Το πρώτο της καθήκον θα είναι να αξιολογήσει και να αναπτύξει περαιτέρω τις υπάρχουσες πρακτικές ασφαλείας της OpenAI κατά τις επόμενες 90 ημέρες και στη συνέχεια θα μοιραστεί τις συστάσεις με το συμβούλιο.

Μετά την αξιολόγηση από το ΔΣ, η OpenAI θα μοιραστεί δημόσια μια ενημέρωση σχετικά με τις υιοθετημένες συστάσεις.

Άλλα μέλη της επιτροπής είναι οι τεχνικοί και πολιτικοί εμπειρογνώμονες της εταιρείας Aleksander Madry, Lilian Weng και ο επικεφαλής των επιστημών ευθυγράμμισης John Schulman. Ο νεοδιορισθείς επικεφαλής επιστήμονας Jakub Pachocki και ο επικεφαλής ασφάλειας Matt Knight θα συμμετέχουν επίσης στην επιτροπή.

Ακολουθήστε τον ot.grστο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στον ot.gr

Latest News

Πρόσφατα Άρθρα Διεθνή