Αρχική






news





Η Τεχνολογία των Επισκοπήσεων AI της Google: Αξιοποίηση των Λαθών για Καινοτόμα…

Η Τεχνολογία των Επισκοπήσεων AI της Google: Αξιοποίηση των Λαθών για Καινοτόμα Αποτελέσματα





Η

άρχισε να κυκλοφορεί το

Overviews τον Μάιο και, γρήγορα, τα άγρια ​​λάθη μπορεί να έγιναν viral, ιδιαίτερα συμπεριλαμβανομένου ενός παραδείγματος όπου η Google πρότεινε στους χρήστες να βάλουν κόλλα στην πίτσα τους. Τώρα, το AI Overviews έχει αρχίσει να χρησιμοποιεί άρθρα σχετικά με αυτήν την ιογενή κατάσταση για να… συνεχίσει να λέει στους ανθρώπους να βάζουν κόλλα στην πίτσα.



Από την πρώτη μέρα, η Google έχει δηλώσει ξεκάθαρα ότι η τεχνητή νοημοσύνη στην Αναζήτηση, που τώρα ονομάζεται «Επισκόπηση AI», μπορεί να καταλήξει να συγκεντρώνει πληροφορίες που δεν είναι πλήρως ακριβείς. Αυτό εμφανίστηκε ξεκάθαρα καθώς η λειτουργικότητα κυκλοφόρησε ευρέως, καθώς τα Overviews έβγαλαν σαρκαστικές ή σατιρικές πληροφορίες ως σίγουρα γεγονότα. Το πιο ιογενές παράδειγμα ήταν η Google που έλεγε στους χρήστες να βάλουν κόλλα στην πίτσα τους για να βοηθήσουν το τυρί να παραμείνει στη θέση του, ακολουθώντας αυτή τη σύσταση ένα σχόλιο του Reddit δεκαετιών που ήταν ξεκάθαρα σάτιρα.

Έκτοτε, η Google υπερασπίστηκε το Overviews, λέγοντας ότι η συντριπτική πλειοψηφία είναι ακριβείς και εξηγώντας ότι τα πιο ιογενή λάθη προήλθαν από ερωτήματα που είναι πολύ σπάνια. Οι επισκοπήσεις AI έχουν αρχίσει να εμφανίζονται

μακριά

λιγότερο συχνά από αυτά τα δημόσια λάθη, εν μέρει καθώς η Google δεσμεύτηκε να λάβει μέτρα κατά ανακριβών ή επικίνδυνων πληροφοριών. Αυτό περιελάμβανε τη μη εμφάνιση Επισκόπησης AI σε ερωτήματα που ενεργοποιούσαν τη σύσταση να βάλετε κόλλα στην πίτσα.

Ήταν

εντόπισε ο Colin McMillen

, ένας προγραμματιστής στο Bluesky, ότι η Google το συνιστούσε ακόμα, ωστόσο, αλλά με νέο τρόπο. Κατά την αναζήτηση “πόση κόλλα για να προσθέσετε στην πίτσα”, διαπιστώθηκε ότι το AI Overviews παρείχε ενημερωμένες πληροφορίες σχετικά με το θέμα, αυτή τη φορά προερχόμενες από τα ίδια άρθρα ειδήσεων που είχαν καλύψει το ιογενές λάθος της Google.

Το χείλος

επιβεβαίωσε τα ίδια αποτελέσματα χθες (με ένα Επιλεγμένο απόσπασμα ακόμη και χρησιμοποιώντας τις πληροφορίες), αλλά φαίνεται ότι έκτοτε έχουν απενεργοποιηθεί από την Google, καθώς δεν μπορέσαμε να λάβουμε Επισκόπηση AI για αυτό το ερώτημα ή παρόμοια.



Εικόνα: Colin McMillen στο Bluesky


Σύμφωνα με την εξήγηση της Google για τα σπάνια ερωτήματα που παρέχει εσφαλμένες πληροφορίες, είναι λογικό ότι αυτό θα συνέβαινε σε αυτό το ακόμη πιο σπάνιο ερώτημα.

Αλλά, πρέπει;

Αυτή είναι η σημαντική ερώτηση και, ευτυχώς, η Google φαίνεται να συνεχίζει να ασχολείται με την υπόθεση και να αποτρέπει αυτά τα λάθη από το να παραμείνουν. Ωστόσο, το βασικό πρόβλημα που δείχνει αυτή η κατάσταση είναι ότι οι Επισκοπήσεις AI είναι πρόθυμες να αντλήσουν πληροφορίες που είναι ξεκάθαρα στο πλαίσιο ότι είναι λανθασμένες ή σάτιρες. Όταν η Google ξεκίνησε για πρώτη φορά αυτή την προσπάθεια, αντιμετωπίσαμε το ενδεχόμενο της τεχνητής νοημοσύνης της Google να αντλεί πληροφορίες από άρθρα και ιστότοπους που δημιουργήθηκαν από την τεχνητή νοημοσύνη αρχικά, αλλά φαίνεται ότι η ανθρώπινη επαφή στο διαδικτυακό περιεχόμενο θα είναι εξίσου δύσκολη για την τεχνητή νοημοσύνη. ταξινομήσετε.



Ακολουθήστε τον Ben:


Twitter/X

,

Νήματα

και

Ίνσταγκραμ

VIA:

9to5google.com








Marizas Dimitris


Marizas Dimitris

TechWar.GR — Ειδήσεις Τεχνολογίας, Gadgets, Ψυχαγωγία


Αφοσιωμένος λάτρης κινητών Samsung, ο Δημήτρης έχει εξελίξει μια ιδιαίτερη σχέση με τα προϊόντα της εταιρίας, εκτιμώντας τον σχεδιασμό, την απόδοση και την καινοτομία που προσφέρουν. Γράφοντας και διαβάζοντας τεχνολογικά νέα από όλο τον κόσμο.

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ


Ακύρωση απάντησης



εισάγετε το σχόλιό σας!

παρακαλώ εισάγετε το όνομά σας εδώ