Το
OpenAI
έχει αναπτύξει μια εσωτερική κλίμακα για τη χαρτογράφηση της προόδου των μεγάλων γλωσσικών μοντέλων του που κινούνται προς την τεχνητή γενική νοημοσύνη (AGI), σύμφωνα με μια έκθεση από
Bloomberg
.
AGI συνήθως σημαίνει
AI
με ανθρώπινη νοημοσύνη και θεωρείται ο ευρύς στόχος για τους προγραμματιστές AI. Σε προηγούμενες αναφορές, το OpenAI όρισε το AGI ως «ένα εξαιρετικά αυτόνομο σύστημα που ξεπερνά τους ανθρώπους στις περισσότερες οικονομικά πολύτιμες εργασίες». Αυτό είναι ένα σημείο πολύ πέρα από τις τρέχουσες δυνατότητες AI. Αυτή η νέα κλίμακα στοχεύει να παρέχει ένα δομημένο πλαίσιο για την παρακολούθηση των εξελίξεων και τον καθορισμό σημείων αναφοράς σε αυτήν την επιδίωξη.
Η κλίμακα που εισήγαγε το OpenAI αναλύει την πρόοδο σε πέντε επίπεδα ή ορόσημα στην πορεία προς το AGI. Το ChatGPT και τα ανταγωνιστικά του
chatbots
είναι Level 1. Το OpenAI ισχυρίστηκε ότι βρίσκεται στο χείλος του επιπέδου 2, το οποίο θα ήταν ένα σύστημα AI ικανό να ταιριάξει έναν άνθρωπο με ένα διδακτορικό όταν πρόκειται για την επίλυση βασικών προβλημάτων. Αυτό μπορεί να είναι μια αναφορά στο GPT-5, για το οποίο ο Διευθύνων Σύμβουλος του OpenAI Sam Altman είπε ότι θα είναι ένα «σημαντικό άλμα προς τα
εμπ
ρός». Μετά το Επίπεδο 2, τα επίπεδα γίνονται όλο και πιο περίπλοκα. Το Επίπεδο 3 θα ήταν ένας πράκτορας τεχνητής νοημοσύνης ικανός να χειρίζεται εργασίες για εσάς χωρίς να είστε εκεί, ενώ ένα AI επιπέδου 4 θα εφεύρει στην πραγματικότητα νέες ιδέες και έννοιες. Στο Επίπεδο 5, η τεχνητή νοημοσύνη δεν θα είναι μόνο σε θέση να αναλάβει καθήκοντα για ένα άτομο αλλά για ολόκληρους οργανισμούς.
Ανεβαίνω επίπεδο
Η ιδέα του επιπέδου έχει νόημα για το OpenAI ή για οποιονδήποτε προγραμματιστή. Στην πραγματικότητα, ένα ολοκληρωμένο πλαίσιο όχι μόνο βοηθά το OpenAI εσωτερικά, αλλά μπορεί επίσης να θέσει ένα καθολικό πρότυπο που θα μπορούσε να εφαρμοστεί για την αξιολόγηση άλλων μοντέλων AI.
Ωστόσο, η επίτευξη του AGI δεν πρόκειται να γίνει αμέσως. Προηγούμενα σχόλια του Altman και άλλων στο OpenAI υποδηλώνουν μόλις πέντε χρόνια, αλλά τα χρονοδιαγράμματα διαφέρουν σημαντικά μεταξύ των ειδικών. Το ποσό της απαιτούμενης υπολογιστικής ισχύος και οι οικονομικές και τεχνολογικές προκλήσεις είναι σημαντικές.
Αυτό είναι πάνω από τα ερωτήματα ηθικής και ασφάλειας που πυροδότησε η AGI. Υπάρχει κάποια πολύ πραγματική ανησυχία για το τι θα σήμαινε η τεχνητή νοημοσύνη σε αυτό το επίπεδο για την κοινωνία. Και οι πρόσφατες κινήσεις του OpenAI μπορεί να μην καθησυχάσουν κανέναν. Τον Μάιο, η εταιρεία διέλυσε την ομάδα ασφαλείας της μετά την αποχώρηση του ηγέτη της και συνιδρυτή του OpenAI, Ilya Sutskever. Ο υψηλού επιπέδου ερευνητής Jan Leike παραιτήθηκε επίσης, επικαλούμενος ανησυχίες ότι η κουλτούρα ασφαλείας του OpenAI αγνοήθηκε. Παρόλα αυτά, προσφέροντας ένα δομημένο πλαίσιο, το OpenAI στοχεύει να θέσει συγκεκριμένα σημεία αναφοράς για τα μοντέλα του και αυτά των ανταγωνιστών του και ίσως να μας βοηθήσει όλους να προετοιμαστούμε για αυτό που έρχεται.
VIA:
TechRadar.com/

0