Η
Slack
έχει τεθεί υπό πολιορκία για τη χρήση δεδομένων πελατών για την εκπαίδευση των παγκόσμιων μοντέλων τεχνητής νοημοσύνης και των γενετικών πρόσθετων τεχνητής νοημοσύνης. Σίγουρα, η απαίτηση από τους χρήστες να εξαιρεθούν με μη αυτόματο τρόπο μέσω email φαίνεται ύπουλη (η αποφυγή του email δεν είναι η ουσία του Slack;), αλλά η εφαρμογή ανταλλαγής μηνυμάτων δεν φέρει όλη την ευθύνη εδώ. Οι πιο δημοφιλείς εφαρμογές στο χώρο εργασίας έχουν όλες ενσωματώσει την τεχνητή νοημοσύνη στα προϊόντα τους, συμπεριλαμβανομένων των Slack AI, Jira AI-Powered Virtual Agent και Gemini for Google Workspace. Οποιοσδήποτε χρησιμοποιεί τεχνολογία σήμερα – ειδικά για εργασία – θα πρέπει να υποθέσει ότι τα δεδομένα του θα χρησιμοποιηθούν για την εκπαίδευση της τεχνητής νοημοσύνης. Γι’ αυτό εναπόκειται σε άτομα και εταιρείες να αποφύγουν την κοινή χρήση ευαίσθητων δεδομένων με εφαρμογές τρίτων. Οτιδήποτε λιγότερο είναι αφελές και ριψοκίνδυνο.
Συνιδρυτής και CTO της Nightfall AI.
Μην εμπιστεύεσαι κανέναν
Υπάρχει ένα έγκυρο επιχείρημα που κυκλοφορεί στο διαδίκτυο ότι η πολιτική εξαίρεσης του Slack δημιουργεί ένα επικίνδυνο προηγούμενο για άλλες εφαρμογές SaaS να επιλέγουν αυτόματα τους πελάτες να μοιράζονται δεδομένα με μοντέλα AI και LLM. Οι ρυθμιστικοί φορείς πιθανότατα θα το εξετάσουν, ειδικά για εταιρείες που εργάζονται σε τοποθεσίες που προστατεύονται από τους Γενικούς Κανονισμούς Προστασίας Δεδομένων (αλλά όχι από τον Νόμο της Καλιφόρνια για την Προστασία των Καταναλωτών, ο οποίος επιτρέπει στις επιχειρήσεις να επεξεργάζονται προσωπικά δεδομένα χωρίς άδεια έως ότου ένας χρήστης εξαιρεθεί). Μέχρι τότε, οποιοσδήποτε χρησιμοποιεί τεχνητή νοημοσύνη – την οποία η IBM εκτιμά ότι είναι πάνω από το 40% των επιχειρήσεων – θα πρέπει να υποθέσει ότι οι κοινές πληροφορίες θα χρησιμοποιηθούν για την εκπαίδευση μοντέλων.
Θα μπορούσαμε να βουτήξουμε στην ηθική της εκπαίδευσης της τεχνητής νοημοσύνης σε επιχειρηματικές ιδέες δισεκατομμυρίων δολαρίων ατόμων που ζωντανεύουν στα νήματα Slack, αλλά σίγουρα κάποιος στο
Διαδίκτυο
το έχει ήδη γράψει. Αντίθετα, ας εστιάσουμε σε αυτό που είναι πραγματικά σημαντικό: αν τα μοντέλα AI του Slack εκπαιδεύονται ή όχι στα ευαίσθητα δεδομένα των χρηστών του. Αυτό σημαίνει στοιχεία προσωπικής ταυτοποίησης (PII), όπως αριθμούς κοινωνικής ασφάλισης, ονόματα, διευθύνσεις ηλεκτρονικού ταχυδρομείου και αριθμούς τηλεφώνου. προσωπικές πληροφορίες
υγεία
ς (PHI)· ή μυστικά και διαπιστευτήρια που μπορούν να αποκαλύψουν PII, PHI και άλλες πολύτιμες πληροφορίες για τις επιχειρήσεις και τους πελάτες. Αυτό είναι σημαντικό γιατί εάν η τεχνητή νοημοσύνη εκπαιδεύεται σε αυτές τις πληροφορίες, δημιουργεί κινδύνους για έκθεση σε ευαίσθητα δεδομένα, άμεσες επιθέσεις έγχυσης, κατάχρηση μοντέλων και πολλά άλλα. Και αυτά είναι τα πράγματα που μπορούν να κάνουν ή να καταστρέψουν μια εταιρεία.
Ενώ οι ενημερωμένες αρχές απορρήτου του Slack αναφέρουν, «Για οποιοδήποτε μοντέλο που θα χρησιμοποιηθεί ευρέως σε όλους τους πελάτες μας, δεν κατασκευάζουμε ούτε εκπαιδεύουμε αυτά τα μοντέλα με τέτοιο τρόπο ώστε να μπορούν να μάθουν, να απομνημονεύσουν ή να μπορούν να αναπαράγουν μέρος του Πελάτη Δεδομένα», οι εταιρείες θα πρέπει να αναλάβουν να διασφαλίσουν ότι τα ευαίσθητα δεδομένα τους δεν έρχονται σε επαφή με μοντέλα AI τρίτων. Να πώς.
Υιοθετήστε ένα μοντέλο κοινής ευθύνης
Δεν είναι η πρώτη φορά που τίθεται το ερώτημα ποιος έχει το βάρος της ασφάλειας, ο πάροχος υπηρεσιών ή ο χρήστης της τεχνολογίας. Στην πραγματικότητα, ήταν ένα τόσο σημαντικό θέμα συζήτησης κατά τη διάρκεια της μαζικής μετανάστευσης στο cloud που το Εθνικό Ινστιτούτο Προτύπων και Τεχνολογίας (NIST) κατέληξε σε μια απάντηση. Είναι ένα πλαίσιο που ορίζει με σαφήνεια τις ευθύνες των παρόχων υπηρεσιών cloud (CSP) και των καταναλωτών cloud για να διασφαλίσουν ότι και τα δύο μέρη συμβάλλουν στην ασφάλεια και τη συμμόρφωση. Αυτό ονομάζεται μοντέλο κοινής ευθύνης cloud και λειτουργεί καλά για περισσότερο από μια δεκαετία.
Το ίδιο μοντέλο κοινής ευθύνης μπορεί να εφαρμοστεί εάν αντικαταστήσετε το Slack (ή οποιαδήποτε άλλη εφαρμογή SaaS που χρησιμοποιεί AI) για το CSP. Η Slack θα πρέπει να είναι υπεύθυνη για την ασφάλεια της υποκείμενης υποδομής, της πλατφόρμας και των υπηρεσιών της και οι πελάτες της Slack θα πρέπει να είναι υπεύθυνοι για την ασφάλεια των ευαίσθητων εταιρικών και πελατών τους δεδομένων. Σε αυτό το μοντέλο, ακολουθούν ορισμένοι τρόποι με τους οποίους οι πελάτες του Slack μπορούν να διασφαλίσουν ότι τα ευαίσθητα δεδομένα δεν χρησιμοποιούνται για την εκπαίδευση του AI του Slack.
– Χρησιμοποιήστε ένα ανθρώπινο τείχος προστασίας. Οι εργαζόμενοι είναι η πρώτη γραμμή
άμυνα
ς έναντι ευαίσθητων δεδομένων που εισέρχονται σε μια εφαρμογή τρίτων όπως το Slack. Αν και η τακτική εκπαίδευση σε θέματα ασφάλειας είναι σημαντική, συνδυάζεται καλύτερα με μια λύση που εντοπίζει πιθανές παραβιάσεις πολιτικής και επιτρέπει στους υπαλλήλους να αφαιρούν ή να κρυπτογραφούν ευαίσθητα δεδομένα πριν από την κοινή χρήση. – Φιλτράρισμα εισόδων. Ο καλύτερος τρόπος για να αποτρέψετε την εισαγωγή ευαίσθητων δεδομένων στο μοντέλο τεχνητής νοημοσύνης του Slack είναι να μην τα μοιραστείτε εξαρχής με το Slack. Οι εταιρείες θα πρέπει να χρησιμοποιούν μια λύση που παρεμποδίζει τα εξερχόμενα μηνύματα Slack και καθαρίζει ή κρυπτογραφεί ευαίσθητα δεδομένα προτού κοινοποιηθούν με το Slack. – Μην κοινοποιείτε ποτέ μυστικά, κλειδιά ή διαπιστευτήρια στο Slack. Τουλάχιστον, αυτές οι πληροφορίες θα πρέπει να κρυπτογραφούνται και να αποθηκεύονται και να μοιράζονται χρησιμοποιώντας έναν διαχειριστή κωδικών πρόσβασης ή θησαυροφυλάκιο. Επιπλέον, οι εταιρείες θα πρέπει να αξιοποιήσουν τις συμβουλές για τη χρήση ανθρώπινου τείχους προστασίας και φιλτραρίσματος εισόδων παραπάνω για να διασφαλίσουν ότι αυτά τα κλειδιά για το βασίλειο δεν θα κοινοποιηθούν κατά λάθος μέσω του Slack (ή του email ή του GitHub — είδαμε πώς πάει).
Ίσως η κοινότητα των Hacker
News
να είναι δικαίως εξοργισμένη που δεν ήξερε ότι έπρεπε να εξαιρεθεί από το να επιτρέψει στο Slack να χρησιμοποιεί τα δεδομένα του για να εκπαιδεύσει τα παγκόσμια μοντέλα AI και το Slack AI. Και για όσους επιλέγουν να εξαιρεθούν τώρα, εξακολουθούν να υπάρχουν πολλά αναπάντητα ερωτήματα όπως το εάν τα δεδομένα τους θα διαγραφούν αναδρομικά από τα μοντέλα του Slack και ποιες επιπτώσεις συμμόρφωσης μπορεί να έχουν αυτό. Αυτό σίγουρα έχει προκαλέσει συζητήσεις σχετικά με τη διαφάνεια σχετικά με την εκπαίδευση μοντέλων τεχνητής νοημοσύνης σε αίθουσες συνεδριάσεων ή κανάλια Slack (πολύ σύντομα;) σε ολόκληρο τον κλάδο και είναι πιθανό να δούμε περισσότερες εταιρείες να ενημερώνουν τις πολιτικές απορρήτου τους τους επόμενους μήνες για να αποτρέψουν παρόμοιες αντιδράσεις χρηστών σε Ο Slack εμφανίστηκε αυτή την εβδομάδα.
Ανεξάρτητα από το τι λένε αυτές οι πολιτικές, ο καλύτερος τρόπος για να αποτρέψετε την εκπαίδευση τεχνητής νοημοσύνης στα ευαίσθητα δεδομένα σας είναι να αποφύγετε εξαρχής την έκθεσή τους.
Παρουσιάσαμε το καλύτερο λογισμικό κρυπτογράφησης.
Αυτό το άρθρο δημιουργήθηκε ως μέρος του καναλιού Expert Insights της TechRadarPro, όπου παρουσιάζουμε τα καλύτερα και πιο έξυπνα μυαλά στον κλάδο της τεχνολογίας σήμερα. Οι απόψεις που εκφράζονται εδώ είναι αυτές του συγγραφέα και δεν είναι απαραίτητα αυτές της TechRadarPro ή της Future plc. Αν ενδιαφέρεστε να συνεισφέρετε, μάθετε περισσότερα εδώ:
https://www.techradar.com/news/submit-your-story-to-techradar-pro
VIA:
TechRadar.com/

0