Οι Νιου Γιορκ Ταιμς
έχει αναφέρει
ότι στις αρχές του 2023, ένας χάκερ απέκτησε πρόσβαση στα εσωτερικά συστήματα ανταλλαγής μηνυμάτων του OpenAI και έκλεψε πληροφορίες σχετικά με τις τεχνολογίες τεχνητής νοημοσύνης της εταιρείας. Η εταιρεία αποκάλυψε το περιστατικό στους εργαζόμενους αλλά όχι στο κοινό ή στις αρχές επιβολής του νόμου.
Ο χάκερ κατάφερε να κλέψει πληροφορίες από συζητήσεις σε διαδικτυακό φόρουμ για υπαλλήλους του OpenAI, όπου μίλησαν για τις τελευταίες τεχνολογίες. Ευτυχώς για την εταιρεία, ο χάκερ δεν κατάφερε να εισβάλει σε συστήματα όπου στεγάζονται και
εκπα
ιδεύονται μοντέλα GPT.
Δύο πηγές που μετέφεραν αυτές τις πληροφορίες στους New York Times είπαν ότι ορισμένοι υπάλληλοι του OpenAI είχαν αναφέρει
χαρακτηριστικά
ότι τέτοιες επιθέσεις θα μπορούσαν να χρησιμοποιηθούν από χώρες όπως η
Κίνα
για να κλέψουν τεχνολογία AI. Τελικά, αυτό θα μπορούσε να θέσει σε κίνδυνο την εθνική ασφάλεια των
ΗΠΑ
.
Όταν ενημερώθηκαν για το περιστατικό, ορισμένοι υπάλληλοι έθεσαν επίσης ερωτήματα σχετικά με το πόσο σοβαρά έπαιρνε η εταιρεία την ασφάλεια. Λέγεται επίσης ότι έχουν προκύψει διαχωρισμοί μεταξύ των εργαζομένων σχετικά με τους κινδύνους της τεχνητής νοημοσύνης.
Σχετικά με το περιστατικό, ένας πρώην διευθυντής τεχνικού προγράμματος OpenAI έγραψε ένα σημείωμα στο διοικητικό συμβούλιο της εταιρείας λέγοντας ότι η εταιρεία δεν έκανε αρκετά για να σταματήσει την κλοπή μυστικών από ξένους αντιπάλους. Διευθυντής ήταν ο Leopold Aschenbrenner, ο οποίος αναφέρθηκε στην παραβίαση της ασφάλειας σε ένα podcast. Απολύθηκε από το OpenAI για διαρροή πληροφοριών εκτός της εταιρείας και υποστηρίζει ότι αυτή η απόλυση είχε πολιτικά κίνητρα.
Η αποκάλυψη ότι το OpenAI παραβιάστηκε και ότι αυτό προκάλεσε διχασμό μεταξύ των εργαζομένων απλώς προσθέτει στον αυξανόμενο κατάλογο των προβλημάτων στην εταιρεία. Έχουμε δει τον CEO Sam Altman να τσακώνεται με ένα προηγούμενο διοικητικό συμβούλιο και να βγαίνει στην κορυφή. Πιο πρόσφατα, αρκετοί ερευνητές ασφάλειας τεχνητής νοημοσύνης εγκατέλειψαν την εταιρεία λόγω διαφωνιών σχετικά με την υπερευθυγράμμιση, όπου βρίσκονται μέθοδοι για τον έλεγχο της υπερευφυούς τεχνητής νοημοσύνης από τον άνθρωπο.
Σύμφωνα με εξέχουσες προσωπικότητες στον τομέα της τεχνητής νοημοσύνης, όπως η Daniela Amodei, συνιδρυτής της Anthropic, εάν κλαπούν τα τελευταία σχέδια γενετικής τεχνητής νοημοσύνης, δεν θα αποτελούσε μεγάλη απειλή για την εθνική ασφάλεια. Ωστόσο, καθώς αυτή η τεχνολογία γίνεται πιο ικανή, τότε αυτό θα μπορούσε να αλλάξει.
VIA:
NeoWin.net

0