Ένας χάκερ άρπαξε λεπτομέρειες σχετικά με τις τεχνολογίες AI του OpenAI στις αρχές του περασμένου έτους,
Οι Νιου Γιορκ Ταιμς
έχουν αναφερθεί. Ο κυβερνοεγκληματίας φέρεται να διέλυσε ευαίσθητες πληροφορίες από ένα φόρουμ συζήτησης όπου οι εργαζόμενοι συζητούσαν για τα τελευταία μοντέλα της εταιρείας.
Οι Νιου Γιορκ Ταιμς
ήταν σιωπηλός για την πηγή αυτής της είδησης, ισχυριζόμενος ότι «δύο άτομα που γνώριζαν το περιστατικό» έριξαν τα κουκιά. Ωστόσο, υποστηρίζουν ότι ο κυβερνοεγκληματίας παραβίασε μόνο το φόρουμ — όχι τα βασικά συστήματα που τροφοδοτούν τους αλγόριθμους και το πλαίσιο τεχνητής νοημοσύνης του OpenAI.
Το
OpenAI φέρεται να αποκάλυψε το χακάρισμα στους υπαλλήλους κατά τη διάρκεια μιας ολικής συνάντησης τον Απρίλιο του 2023. Ενημέρωσε επίσης το διοικητικό συμβούλιο. Ωστόσο, στελέχη του OpenAI αποφάσισαν να μην κοινοποιήσουν τις ειδήσεις δημόσια.
ΔΕΙΤΕ ΕΠΙΣΗΣ:
Το OpenAI φέρεται να σχεδιάζει να εμποδίσει την πρόσβαση στην Κίνα. Οι κινεζικές εταιρείες τεχνητής νοημοσύνης μπορεί να καλύψουν το κενό.
Για
τί το OpenAI κράτησε κρυφή την παραβίαση;
Σύμφωνα με
Οι Νιου Γιορκ Ταιμς
το OpenAI δεν αποκάλυψε το hack στο κοινό επειδή ήταν πληροφορίες σχετικά με τους πελάτες
δεν
κλεμμένο.
Η εταιρεία επίσης δεν μοιράστηκε την παραβίαση με το FBI ή άλλες οντότητες επιβολής του νόμου.
Mashable Light Speed
«Τα στελέχη δεν θεώρησαν το περιστατικό απειλή για την εθνική ασφάλεια επειδή πίστευαν ότι ο χάκερ ήταν ιδιώτης χωρίς γνωστούς δεσμούς με ξένη κυβέρνηση», ανέφερε η εφημερίδα.
Οι Νιου Γιορκ Ταιμς’
πηγές αναφέρουν ότι ορισμένοι υπάλληλοι του OpenAI εξέφρασαν φόβο ότι αντίπαλοι με έδρα την Κίνα θα μπορούσαν να κλέψουν τα μυστικά τεχνητής νοημοσύνης της εταιρείας, προκαλώντας απειλή για την εθνική ασφάλεια των ΗΠΑ.
Ο Leopold Aschenbrenner, ηγέτης της ομάδας υπερευθυγράμμισης του OpenAI (μια μονάδα που επικεντρώθηκε στη διασφάλιση ότι η τεχνητή νοημοσύνη δεν θα ξεφύγει από τον έλεγχο) εκείνη την εποχή, φέρεται να μοιράστηκε τα ίδια συναισθήματα σχετικά με τη χαλαρή ασφάλεια και το ότι είναι εύκολος στόχος για ξένους εχθρούς.
είπε ο Aschenbrenner
απολύθηκε στις αρχές του έτους
για κοινή χρήση ενός εσωτερικού εγγράφου με τρεις εξωτερικούς ερευνητές για “ανατροφοδότηση”. Υπονοεί ότι η απόλυσή του ήταν άδικη. σάρωνε το έγγραφο για τυχόν ευαίσθητες πληροφορίες, προσθέτοντας ότι είναι φυσιολογικό για τους υπαλλήλους του OpenAI να απευθυνθούν σε άλλους ειδικούς για μια δεύτερη γνώμη.
Ωστόσο,
Οι Νιου Γιορκ Ταιμς
επισημαίνει ότι μελέτες που πραγματοποιήθηκαν από την Anthropic και την OpenAI αποκαλύπτουν ότι η τεχνητή νοημοσύνη «δεν είναι σημαντικά πιο επικίνδυνη» από τις μηχανές αναζήτησης όπως η Google.
Ωστόσο, οι εταιρείες τεχνητής νοημοσύνης θα πρέπει να διασφαλίσουν ότι η ασφάλειά τους είναι αυστηρή.
Οι νομοθέτες πιέζουν για ρυθμίσεις
που επιβάλλουν βαριά πρόστιμα σε εταιρείες με τεχνολογίες τεχνητής νοημοσύνης που προκαλούν κοινωνική βλάβη.
Θέματα
Τεχνητή Νοημοσύνη
OpenAI
VIA:
mashable.com

0