Ένα νομοσχέδιο της
Καλιφόρνια
που επιχειρεί να ρυθμίσει μεγάλα μοντέλα τεχνητής νοημοσύνης στα σύνορα δημιουργεί μια δραματική αντιπαράθεση για το μέλλον της τεχνητής νοημοσύνης. Για χρόνια, η τεχνητή νοημοσύνη χωρίζεται σε
“
accel
” και “decel”
. Τα accels θέλουν η τεχνητή νοημοσύνη να προοδεύει γρήγορα – να κινείται γρήγορα και να σπάει τα πράγματα – ενώ τα decels θέλουν να επιβραδύνει η ανάπτυξη της τεχνητής νοημοσύνης για χάρη της ανθρωπότητας. Η μάχη στράφηκε στο εθνικό προσκήνιο όταν
Το διοικητικό συμβούλιο του OpenAI ανέτρεψε για λίγο τον Sam Altman
πολλοί από τους οποίους έχουν έκτοτε
χωρίσει από την εκκίνηση
στο όνομα της ασφάλειας της τεχνητής νοημοσύνης. Τώρα ένα νομοσχέδιο της Καλιφόρνια κάνει αυτόν τον αγώνα πολιτικό.
Τι είναι το SB 1047;
SB 1047
είναι ένα νομοσχέδιο της πολιτείας της Καλιφόρνια που θα καθιστούσε τους μεγάλους παρόχους μοντέλων τεχνητής νοημοσύνης – όπως οι Meta, OpenAI, Anthropic και Mistral – υπεύθυνοι για τους δυνητικά καταστροφικούς κινδύνους των συστημάτων τεχνητής νοημοσύνης τους. Το νομοσχέδιο, που συντάχθηκε από τον πολιτειακό γερουσιαστή Scott Wiener, πέρασε από τη Γερουσία της Καλιφόρνια τον Μάιο και
ξεπέρασε ένα άλλο σημαντικό εμπόδιο
να γίνει νόμος αυτή την εβδομάδα.
Γιατί να με νοιάζει;
Λοιπόν, θα μπορούσε να γίνει ο πρώτος πραγματικός κανονισμός τεχνητής νοημοσύνης στις ΗΠΑ με όλα τα δόντια, και συμβαίνει στην Καλιφόρνια, όπου βρίσκονται όλες οι μεγάλες εταιρείες τεχνητής νοημοσύνης.
Λουκάνικο
περιγράφει το νομοσχέδιο
ως καθορισμός «σαφών, προβλέψιμων, κοινών προτύπων ασφάλειας για τους προγραμματιστές των μεγαλύτερων και ισχυρότερων συστημάτων AI». Δεν το βλέπουν όλοι έτσι όμως. Πολλοί στη Silicon Valley κρούουν τον κώδωνα του κινδύνου ότι αυτός ο νόμος θα σκοτώσει την εποχή της τεχνητής νοημοσύνης πριν ξεκινήσει.
Τι κάνει πραγματικά το SB 1047;
Το SB 1047 καθιστά τους παρόχους μοντέλων τεχνητής νοημοσύνης υπεύθυνους για οποιεσδήποτε «κρίσιμες βλάβες», επισημαίνοντας συγκεκριμένα τον ρόλο τους στη δημιουργία «συμβάντων μαζικών ατυχημάτων». Όσο παράξενο κι αν φαίνεται, είναι μεγάλο γιατί η Silicon Valley έχει αποφύγει ιστορικά τις περισσότερες ευθύνες για τις βλάβες της. Το νομοσχέδιο εξουσιοδοτεί τον Γενικό Εισαγγελέα της Καλιφόρνια να λάβει νομικά μέτρα εναντίον αυτών των εταιρειών εάν ένα από τα μοντέλα τεχνητής νοημοσύνης τους προκαλέσει σοβαρή βλάβη στους Καλιφορνέζους.
Το SB 1047 περιλαμβάνει επίσης μια διάταξη «απενεργοποίησης» η οποία απαιτεί ουσιαστικά από τις εταιρείες τεχνητής νοημοσύνης να δημιουργήσουν έναν διακόπτη kill για ένα
μοντέλο
AI σε περίπτωση έκτακτης ανάγκης.
Το νομοσχέδιο δημιουργεί επίσης το «Frontier Model Division» εντός του Οργανισμού Κυβερνητικών Επιχειρήσεων της Καλιφόρνια. Αυτή η ομάδα θα «παρέχει καθοδήγηση» σε αυτούς τους διασυνοριακούς παρόχους μοντέλων τεχνητής νοημοσύνης σχετικά με τα πρότυπα ασφαλείας με τα οποία θα πρέπει να συμμορφώνεται κάθε εταιρεία. Εάν οι επιχειρήσεις δεν λάβουν υπόψη τις συστάσεις του Τμήματος, θα μπορούσαν να μηνυθούν και να αντιμετωπίσουν αστικές ποινές.
Ποιος υποστηρίζει αυτό το νομοσχέδιο;
Εκτός από τον γερουσιαστή Wiener, δύο εξέχοντες ερευνητές τεχνητής νοημοσύνης που μερικές φορές αποκαλούνται «Νονοί της τεχνητής νοημοσύνης», ο Geoffrey Hinton και ο Yoshua Bengio, έβαλαν τα ονόματά τους σε αυτό το νομοσχέδιο. Αυτοί οι δύο διαδραμάτισαν πολύ σημαντικό ρόλο στην έκδοση προειδοποιητικών κλήσεων σχετικά με τους κινδύνους της τεχνητής νοημοσύνης.
Γενικότερα, αυτό το νομοσχέδιο ευθυγραμμίζεται με την προοπτική decel, η οποία πιστεύει ότι η τεχνητή νοημοσύνη έχει σχετικά μεγάλη πιθανότητα να βάλει τέλος στην ανθρωπότητα και θα πρέπει να ρυθμιστεί ως τέτοια. Οι περισσότεροι από αυτούς τους ανθρώπους είναι ερευνητές τεχνητής νοημοσύνης και δεν προσπαθούν ενεργά να εμπορευματοποιήσουν ένα προϊόν τεχνητής νοημοσύνης αφού, ξέρετε, πιστεύουν ότι μπορεί να βάλει τέλος στην ανθρωπότητα.
Το νομοσχέδιο χρηματοδοτείται από το Κέντρο για την Ασφάλεια AI, του οποίου ηγείται ο
Dan Hendrycks
. Η ομάδα του δημοσίευσε ένα
ανοιχτή επιστολή τον Μάιο του 2023
λέγοντας ότι ο κίνδυνος της τεχνητής νοημοσύνης για ανθρώπινη εξαφάνιση πρέπει να λαμβάνεται τόσο σοβαρά όσο οι πυρηνικοί πόλεμοι ή οι πανδημίες. Υπεγράφη από τον Sam Altman, τον Bill Gates, τον Grimes και πολλούς σημαντικούς ανθρώπους της
τεχνολογία
ς. Είναι μια ομάδα με επιρροή και βασικός παράγοντας στην προώθηση αυτού του νομοσχεδίου.
Τον Μάρτιο του 2023, οι decels ζήτησαν α
«Παύση» σε όλη την ανάπτυξη AI
για την υλοποίηση υποδομών ασφαλείας. Αν και ακούγεται ακραίο, υπάρχουν πολλοί έξυπνοι άνθρωποι στην κοινότητα της τεχνητής νοημοσύνης που πιστεύουν πραγματικά ότι η τεχνητή νοημοσύνη θα μπορούσε να βάλει τέλος στην ανθρωπότητα. Η ιδέα τους είναι ότι εάν υπάρχει οποιαδήποτε πιθανότητα η τεχνητή νοημοσύνη να βάλει τέλος στην ανθρωπότητα, μάλλον θα πρέπει να το ρυθμίσουμε αυστηρά, για κάθε ενδεχόμενο.
Οτι έχει νόημα. Ποιος είναι λοιπόν κατά του SB 1047;
Εάν είστε στο X, νιώθετε ότι όλοι στη Silicon Valley είναι εναντίον του SB 1047. Οι επιχειρηματίες κεφαλαίων επιχειρηματικού κινδύνου, οι ιδρυτές startup, οι ερευνητές τεχνητής νοημοσύνης και οι ηγέτες της κοινότητας τεχνητής νοημοσύνης ανοιχτού κώδικα μισούν αυτό το νομοσχέδιο. Γενικά θα κατηγοριοποιούσα αυτούς τους ανθρώπους ως επιτάχυνση, ή τουλάχιστον, εκεί προσγειώνονται σε αυτό το θέμα. Πολλοί από αυτούς ασχολούνται με την τεχνητή νοημοσύνη, αλλά κάποιοι είναι και ερευνητές.
Το γενικό συναίσθημα είναι ότι το SB 1047 θα μπορούσε να αναγκάσει τους παρόχους μοντέλων τεχνητής νοημοσύνης όπως η Meta και η Mistral να περιορίσουν ή να σταματήσουν εντελώς τις προσπάθειές τους στον ανοιχτό κώδικα. Αυτό το νομοσχέδιο τις καθιστά υπεύθυνες για κακούς παράγοντες που χρησιμοποιούν τα μοντέλα τεχνητής νοημοσύνης τους και αυτές οι εταιρείες ενδέχεται να μην αναλάβουν αυτήν την ευθύνη λόγω των δυσκολιών της επιβολής περιορισμών στη γενετική τεχνητή νοημοσύνη και της ανοιχτής φύσης των προϊόντων.
«Θα σκοτώσει εντελώς, θα συντρίψει και θα επιβραδύνει το οικοσύστημα startup ανοιχτού κώδικα», δήλωσε η Anjney Midha, Γενικός Συνεργάτης και Διευθυντής του Διοικητικού Συμβουλίου της Mistral της A16Z, σε συνέντευξή της στο Gizmodo. «Αυτό το νομοσχέδιο μοιάζει με την προσπάθεια να περιοριστεί η πρόοδος στο τυπογραφείο, σε αντίθεση με την εστίαση στο σημείο που θα έπρεπε να είναι, που είναι οι χρήσεις του τυπογραφείου».
«Ο ανοιχτός κώδικας είναι η καλύτερη ελπίδα μας να παραμείνουμε μπροστά, συγκεντρώνοντας διαφανείς δοκιμές ασφάλειας για αναδυόμενα μοντέλα, αντί να αφήνουμε μερικές ισχυρές εταιρείες να ελέγχουν την τεχνητή νοημοσύνη με μυστικότητα», δήλωσε ο Ion Stoica, καθηγητής Επιστήμης Υπολογιστών στο Berkeley και εκτελεστικός πρόεδρος της Databricks. συνέντευξη.
Οι Midha και Stoica δεν είναι οι μόνοι που θεωρούν τη ρύθμιση της τεχνητής νοημοσύνης ως υπαρξιακή για τη βιομηχανία. Η τεχνητή νοημοσύνη ανοιχτού κώδικα έχει τροφοδοτήσει την πιο ακμάζουσα σκηνή startup της Silicon Valley εδώ και χρόνια. Οι αντίπαλοι του SB 1047 λένε ότι το νομοσχέδιο θα ωφελήσει τους κλειστούς κατεστημένους φορείς της Big Tech αντί για αυτό το ακμάζον, ανοιχτό οικοσύστημα».
«Πραγματικά το βλέπω ως έναν τρόπο για να εμποδίσω την ανάπτυξη AI ανοιχτού κώδικα, ως μέρος μιας ευρύτερης στρατηγικής για την επιβράδυνση της τεχνητής νοημοσύνης», δήλωσε ο Jeremy Nixon, δημιουργός του AGI House, το οποίο χρησιμεύει ως κόμβος για τα hackathons AI ανοιχτού κώδικα της Silicon Valley. “Το νομοσχέδιο προέρχεται από μια κοινότητα που ενδιαφέρεται πολύ να σταματήσει την τεχνητή νοημοσύνη γενικά.”
Αυτό ακούγεται πραγματικά τεχνικό. Μπορούν οι νομοθέτες να τα κάνουν όλα σωστά;
Είναι απολύτως τεχνικό, και αυτό έχει δημιουργήσει κάποια προβλήματα. Το SB 1047 ισχύει μόνο για μοντέλα με «μεγάλα» όρια, αλλά πόσο μεγάλο είναι; Το νομοσχέδιο το ορίζει ως μοντέλα τεχνητής νοημοσύνης που έχουν εκπαιδευτεί σε 10^26 FLOPS και κοστίζουν περισσότερα από 100 εκατομμύρια δολάρια για την εκπαίδευση, ένα συγκεκριμένο και πολύ μεγάλο ποσό υπολογιστικής ισχύος σύμφωνα με τα σημερινά πρότυπα. Το πρόβλημα είναι ότι η τεχνητή νοημοσύνη αναπτύσσεται πολύ γρήγορα και τα μοντέλα τελευταίας τεχνολογίας από το 2023 φαίνονται μικροσκοπικά σε σύγκριση με τα πρότυπα του 2024. Το να κολλάτε μια σημαία στην άμμο δεν λειτουργεί καλά για ένα χωράφι που κινείται τόσο γρήγορα.
Δεν είναι επίσης σαφές εάν είναι ακόμη δυνατό να αποτραπεί πλήρως η κακή συμπεριφορά των συστημάτων AI. Η αλήθεια είναι ότι δεν γνωρίζουμε πολλά για το πώς λειτουργούν τα LLM και τα σημερινά κορυφαία μοντέλα τεχνητής νοημοσύνης από τα OpenAI, Anthropic και Google είναι συνεχώς jailbroken. Αυτός είναι ο λόγος για τον οποίο ορισμένοι ερευνητές λένε ότι οι ρυθμιστικές αρχές πρέπει να επικεντρωθούν στους κακούς παράγοντες, όχι στους παρόχους μοντέλων.
«Με την τεχνητή νοημοσύνη, πρέπει να ρυθμίσετε την περίπτωση χρήσης, τη δράση και όχι τα ίδια τα μοντέλα», είπε ο Ravid Shwartz Ziv, Επίκουρος Καθηγητής που μελετά την τεχνητή νοημοσύνη στο NYU μαζί με τον Yann Lecunn, σε μια συνέντευξη. «Οι καλύτεροι ερευνητές στον κόσμο μπορούν να αφιερώσουν άπειρο χρόνο σε ένα μοντέλο τεχνητής νοημοσύνης και οι άνθρωποι εξακολουθούν να μπορούν να το κάνουν jailbreak».
Ένα άλλο τεχνικό κομμάτι αυτού του νομοσχεδίου σχετίζεται με μοντέλα τεχνητής νοημοσύνης ανοιχτού κώδικα. Εάν μια startup πάρει το Llama 3 της Meta, ένα από τα πιο δημοφιλή μοντέλα τεχνητής νοημοσύνης ανοιχτού κώδικα, και το προσαρμόσει ώστε να είναι κάτι επικίνδυνο, εξακολουθεί η Meta να είναι υπεύθυνη για αυτό το μοντέλο τεχνητής νοημοσύνης;
Προς το παρόν, ο Llama του Meta δεν πληροί το όριο για ένα «καλυμμένο μοντέλο», αλλά πιθανότατα θα το κάνει στο μέλλον. Σύμφωνα με αυτό το νομοσχέδιο, φαίνεται ότι σίγουρα θα μπορούσε να θεωρηθεί υπεύθυνος ο Meta. Υπάρχει μια προειδοποίηση ότι εάν ένας προγραμματιστής ξοδέψει περισσότερο από το 25% του κόστους για να εκπαιδεύσει το Llama 3 για τελειοποίηση, αυτός ο προγραμματιστής είναι πλέον υπεύθυνος. Τούτου λεχθέντος, οι πολέμιοι του νομοσχεδίου εξακολουθούν να βρίσκουν αυτήν την άδικη και όχι τη σωστή προσέγγιση.
Γρήγορη ερώτηση: Είναι η AI στην πραγματικότητα ελεύθερη ομιλία;
Ασαφές. Πολλοί στην κοινότητα της τεχνητής νοημοσύνης βλέπουν την τεχνητή νοημοσύνη ανοιχτού κώδικα ως ένα είδος ελευθερίας του λόγου (γι’ αυτό ο Midha το αποκαλούσε τυπογραφείο). Η υπόθεση είναι ότι ο κώδικας που βρίσκεται κάτω από ένα μοντέλο AI είναι μια μορφή έκφρασης και οι έξοδοι του μοντέλου είναι επίσης εκφράσεις. Ο Κώδικας έχει υπαχθεί ιστορικά στην Πρώτη Τροποποίηση σε αρκετές περιπτώσεις.
Τρεις καθηγητές νομικής μάλωναν
άρθρο της Lawfare
ότι τα μοντέλα AI δεν είναι ακριβώς η ελευθερία του λόγου. Πρώτον, λένε ότι τα βάρη που συνθέτουν ένα μοντέλο AI δεν είναι γραμμένα από ανθρώπους αλλά δημιουργούνται μέσω τεράστιων λειτουργιών μηχανικής μάθησης. Οι άνθρωποι μόλις και μετά βίας μπορούν να τα διαβάσουν.
Όσον αφορά τα αποτελέσματα των μοντέλων συνοριακής τεχνητής νοημοσύνης, αυτά τα συστήματα διαφέρουν λίγο από τους αλγόριθμους των μέσων κοινωνικής δικτύωσης, που έχουν θεωρηθεί ότι εμπίπτουν στην Πρώτη Τροποποίηση στο παρελθόν. Τα μοντέλα AI δεν έχουν ακριβώς άποψη, λένε πολλά πράγματα. Για αυτόν τον λόγο, αυτοί οι καθηγητές νομικής λένε ότι το SB 1047 ενδέχεται να μην προσκρούει στην Πρώτη Τροποποίηση.
Λοιπόν τι ακολουθεί;
Το νομοσχέδιο κινείται προς μια γρήγορη ψηφοφορία τον Αύγουστο που θα στείλει το νομοσχέδιο στο γραφείο του κυβερνήτη Gavin Newsom. Πρέπει να ξεπεράσει μερικά ακόμη βασικά εμπόδια για να φτάσει εκεί, και ακόμη και τότε, ο Newsom μπορεί να μην το υπογράψει λόγω πίεσης από τη Silicon Valley. Ένας μεγάλος εμπορικός όμιλος τεχνολογίας μόλις έστειλε στον Newsom ένα γράμμα λέγοντάς του να μην υπογράψει το SB 1047.
Ωστόσο, η Newsom μπορεί να θέλει να δημιουργήσει ένα προηγούμενο για το έθνος στο AI. Εάν το SB 1047 τεθεί σε ισχύ, θα μπορούσε να αλλάξει ριζικά το τοπίο της τεχνητής νοημοσύνης στην Αμερική.
Διόρθωση, 25 Ιουνίου:
Μια προηγούμενη έκδοση αυτού του άρθρου δεν όριζε τι είναι οι «κρίσιμες βλάβες». Ανέφερε επίσης ότι το Llama 3 της Meta θα μπορούσε να επηρεαστεί, αλλά το μοντέλο AI δεν είναι αρκετά μεγάλο αυτή τη στιγμή. Πιθανότατα θα επηρεαστεί στο μέλλον. Τέλος, το Frontier Model Division μεταφέρθηκε στην Κυβερνητική Υπηρεσία Επιχειρήσεων της Καλιφόρνια και όχι στο Τμήμα Τεχνολογίας. Αυτή η ομάδα δεν έχει καμία εξουσία επιβολής αυτή τη στιγμή.
VIA:
gizmodo.com
0