Αρχική






news





Η εντροπία ως κλειδί αποκρυπτογράφησης των παραισθήσεων της τεχνητής νοημοσύνης

Η εντροπία ως κλειδί αποκρυπτογράφησης των παραισθήσεων της τεχνητής νοημοσύνης





Τι πρέπει να ξέρετε

  • Εκτός από το απόρρητο και την

    , οι ψευδαισθήσεις και η διάδοση παραπληροφόρησης είναι από τους μεγαλύτερους αποτρεπτικούς παράγοντες που εμποδίζουν την τεχνητή νοημοσύνη να προχωρήσει.
  • Μια νέα μελέτη αξιοποιεί τη σημασιολογική εντροπία για να αξιολογήσει την ποιότητα και τις διαφορετικές έννοιες των παραγόμενων αποτελεσμάτων για να προσδιορίσει την ποιότητα των αποκρίσεων και να εντοπίσει ίχνη παραισθήσεων.
  • Ωστόσο, η σημασιολογική εντροπία απαιτεί περισσότερη υπολογιστική ισχύ και πόρους, συμπεριλαμβανομένου του χρόνου.

Η τεχνητή νοημοσύνη φέρνει επανάσταση στον τρόπο με τον οποίο οι άνθρωποι αλληλεπιδρούν με το διαδίκτυο, κάτι που δεν ταιριάζει με τους εκδότες, τους ιστότοπους και τους συγγραφείς. Αυτό οφείλεται στο ότι τα chatbots AI

κλέβω

Αναπτύξτε πληροφορίες από άρθρα που έχουν ερευνηθεί ενδελεχώς και δημιουργήστε επιμελημένες και ακριβείς απαντήσεις σε ερωτήματα. Το ζήτημα έχει προσγειώσει κορυφαίους παίκτες στο τοπίο της τεχνητής νοημοσύνης, συμπεριλαμβανομένων των OpenAI και Microsoft, στους διαδρόμους της δικαιοσύνης για ζητήματα παραβίασης πνευματικών δικαιωμάτων.

Όπως ίσως γνωρίζετε, τα chatbot AI όπως το ChatGPT και το Microsoft Copilot βασίζονται σε μεγάλο βαθμό σε περιεχόμενο που προστατεύεται από πνευματικά δικαιώματα για τις απαντήσεις τους. Είναι ενδιαφέρον ότι ο Διευθύνων Σύμβουλος του OpenAI,

Altman, παραδέχτηκε ότι είναι αδύνατο να αναπτυχθούν εργαλεία παρόμοια με το ChatGPT χωρίς περιεχόμενο που προστατεύεται από πνευματικά δικαιώματα. Ο κατασκευαστής του ChatGPT υποστήριξε ότι ο νόμος περί πνευματικών δικαιωμάτων δεν απαγορεύει την εκπαίδευση μοντέλων AI χρησιμοποιώντας υλικό που προστατεύεται από πνευματικά δικαιώματα.


Ίσως είναι πιο ενδιαφέρον, ενώ εργαλεία όπως το Copilot και το ChatGPT εξακολουθούν να αναζητούν δεδομένα από διαδικτυακές πηγές, εξακολουθούν να υπάρχουν αναφορές για παραισθήσεις, διάδοση παραπληροφόρησης ή ξεκάθαρη παρουσίαση εσφαλμένων πληροφοριών. Όταν εκκινείτε το Copilot στα

, θα βρείτε μια δήλωση αποποίησης ευθύνης που θα υποδεικνύει “Το Copilot χρησιμοποιεί AI. Ελέγξτε για λάθη”.

Σύμφωνα με μια νέα μελέτη, μια ομάδα ερευνητών της Οξφόρδης φαίνεται ότι έχει βρει έναν τρόπο να ξεπεράσει αυτό το κρίσιμο ζήτημα. Ο Copilot έχει εντοπιστεί να διαδίδει παραπληροφόρηση σχετικά με τις επικείμενες προεδρικές εκλογές των ΗΠΑ, με τους ερευνητές να υποδεικνύουν ότι το πρόβλημα είναι συστημικό αφού καθιέρωσαν ένα μοτίβο. Με την επικράτηση τέτοιων κρίσιμων ζητημάτων και τα βαθιά ψεύτικα, περισσότεροι χρήστες διατηρούν επιφυλάξεις σχετικά με την τεχνολογία και παίρνουν ό,τι βλέπουν με λίγο αλάτι.

Ο καθηγητής Yarin Gal λέει:


«Η λήψη απαντήσεων από LLMs είναι φθηνή, αλλά η αξιοπιστία είναι το μεγαλύτερο εμπόδιο. Σε καταστάσεις όπου η αξιοπιστία έχει σημασία, ο υπολογισμός της σημασιολογικής αβεβαιότητας είναι ένα μικρό τίμημα».

Η παραπληροφόρηση συνεχίζει να επικρατεί με την ταχεία υιοθέτηση του AI


Η σημασιολογική εντροπία βοηθά στον εντοπισμό παραισθήσεων AI, αλλά απαιτεί περισσότερη υπολογιστική ισχύ.


(Πίστωση εικόνας: Bing Image Creator)

Σύμφωνα με τον πρώην CEO του

, Jack Dorsey:


“Μην εμπιστεύεστε, επαληθεύστε. Πρέπει να το ζήσετε μόνοι σας. Και πρέπει να μάθετε μόνοι σας. Αυτό θα είναι τόσο κρίσιμο καθώς μπαίνουμε σε αυτήν τη φορά τα επόμενα πέντε ή 10 χρόνια λόγω του τρόπου με τον οποίο δημιουργούνται οι εικόνες , βαθιά ψεύτικα και βίντεο δεν θα ξέρετε κυριολεκτικά τι είναι αληθινό και τι είναι ψεύτικο.

Ο Dorsey προσθέτει ότι σύντομα όλα θα είναι σαν προσομοίωση καθώς τα μοντέλα τεχνητής νοημοσύνης και τα chatbot γίνονται πιο εξελιγμένα. Ωστόσο, οι ερευνητές της Οξφόρδης τουλάχιστον έχουν βρει έναν τρόπο να ξεπεράσουν το ζήτημα, όπως τονίζεται στην έκθεσή τους:


“Με προηγούμενες προσεγγίσεις, δεν ήταν δυνατό να διακρίνουμε τη διαφορά μεταξύ ενός μοντέλου που είναι αβέβαιο για το τι να πει από το ότι είναι αβέβαιο για το πώς να το πει. Αλλά η νέα μας μέθοδος το ξεπερνά αυτό.”

Η ψευδαίσθηση chatbot με τεχνητή νοημοσύνη είναι ένα ευρύ θέμα, αλλά οι ερευνητές το χωρίζουν σε δύο μέρη — «Θέλουμε να επικεντρωθούμε σε περιπτώσεις όπου το LLM είναι λάθος χωρίς λόγο (σε αντίθεση με το λάθος επειδή, για παράδειγμα, εκπαιδεύτηκε με κακά δεδομένα ),» ανέφερε ο Δρ Sebastian Farquhar, από το Τμήμα Επιστήμης Υπολογιστών του Πανεπιστημίου της Οξφόρδης μιλώντας στο

Euronews Next

.

Η μελέτη περιελάμβανε τον έλεγχο των ποικίλων σημασιών των απαντήσεων που παράγονται μέσω της σημασιολογικής εντροπίας, η οποία υπερβαίνει την αλληλουχία των λέξεων. Η σημασιολογική εντροπία μπορεί να καθορίσει τη διαφορά στις έννοιες των εξόδων που παράγονται. Εάν η ανάλυση ανιχνεύσει υψηλό επίπεδο σημασιολογικής εντροπίας, ουσιαστικά σημαίνει ότι υπάρχει τεράστια διαφορά στο νόημα των παραγόμενων εξόδων.

Σύμφωνα με τον Δρ Sebastian Farquhar:


«Όταν ένα LLM δημιουργεί μια απάντηση σε μια ερώτηση, πρέπει να απαντήσει πολλές φορές. Στη συνέχεια συγκρίνετε τις διαφορετικές απαντήσεις μεταξύ τους. Στο παρελθόν, οι άνθρωποι δεν είχαν διορθωθεί για το γεγονός ότι στη φυσική γλώσσα υπάρχουν πολλοί διαφορετικοί τρόποι να πούμε το ίδιο πράγμα. Αυτό είναι διαφορετικό από πολλές άλλες καταστάσεις μηχανικής εκμάθησης όπου τα αποτελέσματα του μοντέλου είναι σαφή.”

Η έρευνα διεξήχθη σε έξι μοντέλα, συμπεριλαμβανομένου του GPT-4 του OpenAI. Τα ευρήματα των ερευνητών δείχνουν ότι η σημασιολογική εντροπία είναι πιο αποτελεσματική και αποτελεσματική στον εντοπισμό ερωτήσεων που επιλέγονται από αναζητήσεις Google, τεχνικές βιοϊατρικές ερωτήσεις και πολλά άλλα σε σύγκριση με άλλες μεθόδους επιρρεπείς σε λανθασμένες απαντήσεις.

Το μόνο μειονέκτημα της σημασιολογικής εντροπίας είναι ότι απαιτεί περισσότερη υπολογιστική ισχύ και πόρους.

VIA:

WindowsCentral








Marizas Dimitris


Marizas Dimitris

TechWar.GR — Ειδήσεις Τεχνολογίας, Gadgets, Ψυχαγωγία


Αφοσιωμένος λάτρης κινητών Samsung, ο Δημήτρης έχει εξελίξει μια ιδιαίτερη σχέση με τα προϊόντα της εταιρίας, εκτιμώντας τον σχεδιασμό, την απόδοση και την καινοτομία που προσφέρουν. Γράφοντας και διαβάζοντας τεχνολογικά νέα από όλο τον κόσμο.

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ


Ακύρωση απάντησης



εισάγετε το σχόλιό σας!

παρακαλώ εισάγετε το όνομά σας εδώ