
Η OpenAI ανακοίνωσε τη Δευτέρα ότι η Επιτροπή Ασφάλειας και Ασφάλειας, την οποία παρουσίασε η εταιρεία τον Μάιο καθώς αντιμετώπιζε επικρίσεις σχετικά με τις διαδικασίες ασφαλείας, γίνεται πλέον ανεξάρτητη επιτροπή εποπτείας του διοικητικού συμβουλίου.
Πρόεδρος της ομάδας θα είναι ο Ζίκο Κόλτερ, διευθυντής του τμήματος μηχανικής μάθησης στη σχολή επιστήμης υπολογιστών του Πανεπιστημίου Carnegie Mellon. Άλλα μέλη είναι ο Άνταμ Ντ’ Άντζελο, μέλος του διοικητικού συμβουλίου της OpenAI και συνιδρυτής της Quora, ο πρώην επικεφαλής της NSA και μέλος του διοικητικού συμβουλίου Πολ Νακασόν και η Νικόλ Σέλιγκμαν, πρώην εκτελεστική αντιπρόεδρος της Sony.
Ανταγωνίστρια της OpenAI ιδρύει ο Ίλια Σατσκέβερ
Η επιτροπή θα επιβλέπει «τις διαδικασίες ασφάλειας που καθοδηγούν την ανάπτυξη μοντέλων της OpenAI», ανέφερε η εταιρεία. Πρόσφατα ολοκλήρωσε την επισκόπηση των 90 ημερών αξιολογώντας τις διαδικασίες και τις δικλείδες ασφαλείας της OpenAI και στη συνέχεια έκανε συστάσεις στο συμβούλιο. Η OpenAI δημοσιεύει τα ευρήματα της ομάδας ως δημόσια ανάρτηση.
Η OpenAI και ο νέος γύρος επενδύσεων
Η OpenAI, η startup που βρίσκεται πίσω από τα εργαλεία τεχνητής νοημοσύνης ChatGPT και το SearchGPT έχοντας την υποστήριξη κολοσσών όπως η Microsoft, επιδιώκει επί του παρόντος έναν γύρο χρηματοδότησης που θα αποτιμήσει την εταιρεία σε περισσότερα από 150 δισεκατομμύρια δολάρια, σύμφωνα με πηγές του CNBC.
Η Thrive Capital ηγείται του γύρου και σχεδιάζει να επενδύσει 1 δισεκατομμύριο δολάρια, ενώ η Tiger Global σχεδιάζει να συμμετάσχει επίσης. Η Microsoft, η Nvidia και η Apple φέρεται να βρίσκονται επίσης σε συνομιλίες για πρόσθετες επενδύσεις.
Οι πέντε βασικές συστάσεις
Οι πέντε βασικές συστάσεις της επιτροπής περιελάμβαναν την ανάγκη δημιουργίας ανεξάρτητης διακυβέρνησης για την ασφάλεια, την ενίσχυση των μέτρων ασφαλείας, τη διαφάνεια σχετικά με το έργο της OpenAI, τη συνεργασία με εξωτερικούς οργανισμούς. και να ενοποιήσει τα πλαίσια ασφαλείας της εταιρείας.
Την περασμένη εβδομάδα, το OpenAI κυκλοφόρησε το o1, μια έκδοση προεπισκόπησης του νέου μοντέλου τεχνητής νοημοσύνης που επικεντρώνεται στη συλλογιστική και την «λύση σκληρών προβλημάτων».
Η εταιρεία είπε ότι η επιτροπή «εξέτασε τα κριτήρια ασφάλειας που χρησιμοποίησε η OpenAI για να αξιολογήσει την καταλληλότητα του o1 ώστε να λανσαριστεί», καθώς και τα αποτελέσματα αξιολόγησης ασφάλειας.
Η επιτροπή «μαζί με το πλήρες συμβούλιο, θα ασκεί επίβλεψη των λανσαρισμάτων μοντέλων, συμπεριλαμβανομένης της εξουσίας να καθυστερεί την κυκλοφορία μέχρι να αντιμετωπιστούν οι ανησυχίες για την ασφάλεια».
Οι ανησυχίες για την ασφάλεια
Ενώ η OpenAI βρισκόταν σε λειτουργία υπερ-ανάπτυξης από τα τέλη του 2022, όταν κυκλοφόρησε το ChatGPT, είναι ταυτόχρονα γεμάτο διαμάχες και αποχωρήσεις υψηλού επιπέδου εργαζομένων, με ορισμένους νυν και πρώην υπαλλήλους να ανησυχούν ότι η εταιρεία αναπτύσσεται πολύ γρήγορα για να λειτουργεί με ασφάλεια.
Τον Ιούλιο, Δημοκρατικοί γερουσιαστές έστειλαν επιστολή στον διευθύνοντα σύμβουλο της OpenAI, Σαμ Άλτμαν, σχετικά με «ερωτήσεις για το πώς η OpenAI αντιμετωπίζει τις αναδυόμενες ανησυχίες για την ασφάλεια». Τον προηγούμενο μήνα, μια ομάδα νυν και πρώην υπαλλήλων της OpenAI δημοσίευσε ανοιχτή επιστολή που περιγράφει ανησυχίες σχετικά με την έλλειψη εποπτείας και την απουσία προστασίας από τους καταγγέλλοντες για όσους θέλουν να μιλήσουν.
Τον Μάιο, ένα πρώην μέλος του διοικητικού συμβουλίου τηςOpenAI, μιλώντας για την προσωρινή απομάκρυνση του Άλτμαν τον Νοέμβριο, είπε ότι έδωσε στο διοικητικό συμβούλιο «ανακριβείς πληροφορίες σχετικά με τον μικρό αριθμό επίσημων διαδικασιών ασφαλείας που είχε εφαρμόσει η εταιρεία» σε πολλές περιπτώσεις.
Εκείνο τον μήνα, η εταιρεία αποφάσισε να διαλύσει την ομάδα της που επικεντρώθηκε στους μακροπρόθεσμους κινδύνους της τεχνητής νοημοσύνης μόλις ένα χρόνο μετά την ανακοίνωση του ομίλου. Οι ηγέτες της ομάδας, Ίλια Σάτσκεβερ και Γιαν Λέικε, ανακοίνωσαν την αποχώρησή τους από την OpenAI τον Μάιο. Ο Λέικε έγραψε σε ανάρτηση στο X ότι η «κουλτούρα και οι διαδικασίες ασφάλειας της OpenAI έχουν πάρει πίσω ένα μέρος από τη λάμψη των προϊόντων».


Latest News

Πώς η τεχνητή νοημοσύνη αλλάζει για τα καλά τα logistics - Ο ρόλος των ρομπότ
Η πολυεθνική εταιρεία logistics DHL χρησιμοποιεί τη ρομποτική και την τεχνητή νοημοσύνη στις αποθήκες της

Προχωρά την ανάπτυξη των δικών της AI μικροτσίπ η Meta Platforms
Η Meta Platforms έχει ξεκινήσει μια μικρή παραγωγή του τσιπ και σχεδιάζει να την αυξήσει για χρήση σε ευρεία κλίμακα, αν η δοκιμή πάει καλά

Η καλά κρυμμένη «συνταγή» της τεχνητής νοημοσύνης - Πώς οι εταιρείες παράγουν φθηνές λύσεις
Πόσο κοστίζει να ξεκινήσεις μια εταιρεία στην τεχνητή νοημοσύνη; - Η απάντηση κάθε μέρα όλο και λιγότερο

H Foxconn κατασκευάζει το FoxBrain, το δικό της μοντέλο τεχνητής νοημοσύνης
Στην προσπάθεια της Foxconn, συμμετείχε και η Nvidia παρεχοντας υποστήριξη μέσω του υπερυπολογιστή της στην Ταϊβάν και με τεχνικές συμβουλές

Γκάζι πατάει η Meta για ΑΙ με φωνητικές λειτουργίες
Βελτιωμένα χαρακτηριστικά εισάγει η Meta καθώς στοιχηματίζει στην τεχνολογία που οδηγεί την ανάπτυξη των λεγόμενων «πρακτόρων» AI

Νέο εμπόδιο για την Apple - Καθυστερεί τις υπηρεσίες AI στο iPhone
Η εξέλιξη αυτή σηματοδοτεί την τελευταία από μια σειρά οπισθοδρομήσεων στον οδικό χάρτη λογισμικού της Apple

Φρένο στις προσπάθειες Μασκ να αποτρέψει την OpenAI να γίνει κερδοσκοπική οντότητα
Δικαστής στην Καλιφόρνια αποφάσισε ότι ο Ίλον Μασκ δεν μπορεί να προχωρήσει στις νομικές προσπάθειές του να εμποδίσει την OpenAI να μετατραπεί σε κερδοσκοπική οντότητα.

Data Centers κατασκευάζει η Microsoft στις σκανδιναβικές χώρες
Η Microsoft αλλάζει στρατηγική στην κατασκευή των Data Centers και πλέον επιλέγει περιοχές με προσιτή και «καθαρή» ενέργεια

Η Google δοκιμάζει νέα μηχανή αναζήτησης
Το πειραματικό «ΑΙ Mode», προς το παρόν διαθέσιμο μόνο στους συνδρομητές του Google One AI Premium, προσφέρει περιλήψεις των αποτελεσμάτων αναζήτησης μαζί με σχετικούς συνδέσμους.

Εξωφρενικά και επικίνδυνα αποτελέσματα από μοντέλα ΑΙ που εκπαιδεύτηκαν να γράφουν ελαττωματικό κώδικα
Τι είναι και πόσο επικίνδυνα είναι τα απευθυγραμισμένα μοντέλα ΑΙ