
Είναι όλο και πιο δύσκολο να αποφευχθούν τεχνητές τεχνολογίες (AI), καθώς γίνεται πιο συνηθισμένη. Το κύριο παράδειγμα είναι η αναζήτηση για το Google, αποδεικνύοντας τις απαντήσεις του AI. Η ασφάλεια του AI είναι πιο σημαντική από ό, τι όταν -σε αυτόν τον αιώνα τεχνολογικής ευρείας χρήσης. Έτσι, ως χρήστης του AI, πώς μπορείτε να χρησιμοποιήσετε με ασφάλεια το γενετικό AI (Gen AI);
Επίσης: Γι ‘αυτό πρέπει να αγνοήσετε το 99% των εργαλείων τεχνητής νοημοσύνης – και τι τέσσερα χρησιμοποιώ κάθε μέρα
Carnegie Computer School -Mellon. Βοηθός για τις επιστήμες των υπολογιστών του καθηγητή Marten SAP και Sherry Tongshuang Wu εισήλθε στο στάδιο SXSW για να ενημερώσει τους ανθρώπους για τις αδυναμίες των μεγάλων γλωσσικών μοντέλων (LLMS), του τύπου του μοντέλου μηχανικής μάθησης που στέκεται πίσω από τα δημοφιλή γενετικά εργαλεία της τεχνητής νοημοσύνης, όπως το ChatGPT και πώς οι άνθρωποι μπορούν να χρησιμοποιήσουν πιο αποτελεσματικά αυτές τις τεχνολογίες.
“Είναι υπέροχα, και είναι παντού, αλλά στην πραγματικότητα δεν είναι τέλεια”, δήλωσε ο Sap.
Οι ρυθμίσεις που μπορείτε να εισαγάγετε στην καθημερινή σας αλληλεπίδραση με το AI είναι απλές. Θα σας προστατεύσουν από τις ατέλειες του AI και θα σας βοηθήσουν να πάρετε περισσότερα από τις συνομιλίες του AI, συμπεριλαμβανομένων πιο ακριβών απαντήσεων. Συνεχίστε να διαβάζετε για να μάθετε περίπου πέντε πράγματα που μπορείτε να κάνετε για να βελτιστοποιήσετε τη χρήση του AI, σύμφωνα με τους ειδικούς.
1. Δώστε στο AI τις καλύτερες οδηγίες
Από τις δυνατότητες του AI, οι άνθρωποι χρησιμοποιούν συχνά υποτιμημένες, μικρότερες ενδείξεις, όπως η επικοινωνία με έναν φίλο. Το πρόβλημα είναι ότι, σύμφωνα με τις οδηγίες του συστήματος AI, μπορεί να αντλήσει εσφαλμένα την αξία του κειμένου σας εσφαλμένα, αφού δεν έχουν αρκετές ανθρώπινες δεξιότητες που θα τους επιτρέψουν να διαβάσουν μεταξύ των γραμμών.
Προκειμένου να απεικονίσουν αυτό το πρόβλημα, στη συνεδρίαση SAP και WU τους είπαν στο Chatbot ότι διαβάζουν ένα εκατομμύριο βιβλία και το chat bot το πήρε κυριολεκτικά αντί να καταλάβει ότι το άτομο ήταν υπερβολικό. Η SAP μοιράστηκε ότι στη μελέτη του ανακάλυψε ότι η σύγχρονη LLM προσπαθεί να κατανοήσει τους μη -επισημασμένους δεσμούς κυριολεκτικά περισσότερο από το 50% των περιπτώσεων.
Επίσης: Μπορεί η δημιουργικότητα του AI Superghact χωρίς κλοπή καλλιτεχνών;
Ο καλύτερος τρόπος για να αντιμετωπίσετε αυτό το πρόβλημα είναι να διευκρινίσετε τις συμβουλές σας χρησιμοποιώντας πιο προφανείς απαιτήσεις που αφήνουν λιγότερο χώρο για ερμηνεία ή σφάλμα. Ο Wu πρότεινε να σκεφτόμαστε τα bots chat ως βοηθούς, να τους διδάσκουν σαφώς για το τι θέλετε να κάνετε. Παρά το γεγονός ότι αυτή η προσέγγιση μπορεί να απαιτεί περισσότερη δουλειά κατά τη σύνταξη μιας υπαινιγμού, το αποτέλεσμα πρέπει να πληροί τις απαιτήσεις σας περισσότερο.
2. Δύο φορές ελέγξτε τις απαντήσεις σας
Εάν κάποτε χρησιμοποιήσατε μια συνομιλία -BOSS AI, γνωρίζετε ότι παραισθούν, γεγονός που περιγράφει το συμπέρασμα των λανθασμένων πληροφοριών. Οι ψευδαισθήσεις μπορούν να εμφανιστούν με τον ίδιο τρόπο ή εμφανίζοντας πραγματικά λανθασμένες απαντήσεις, συνοψίζοντας εσφαλμένα αυτές τις πληροφορίες ή συγκατάθεση με τα ψευδή γεγονότα που διαιρούνται από τον χρήστη.
Η SAP δήλωσε ότι οι ψευδαισθήσεις εμφανίζονται από 1% έως 25% των περιπτώσεων για συνολική καθημερινή χρήση. Το επίπεδο των ψευδαισθήσεων είναι ακόμη υψηλότερο για πιο εξειδικευμένες περιοχές, όπως ο νόμος και η ιατρική, η οποία υπερβαίνει το 50%. Αυτές οι ψευδαισθήσεις είναι δύσκολο να παρατηρηθούν, επειδή εκπροσωπούνται με τέτοιο τρόπο ώστε να ακούγεται εύλογο, ακόμα κι αν δεν έχουν νόημα.
Επίσης: Οι πράκτορες τεχνητής νοημοσύνης δεν είναι μόνο βοηθοί: πώς αλλάζουν το μέλλον της εργασίας σήμερα
Τα μοντέλα συχνά επιβεβαιώνουν τις απαντήσεις τους χρησιμοποιώντας δείκτες όπως “είμαι βέβαιος”, ακόμη και στην πρόταση εσφαλμένων πληροφοριών. Το ερευνητικό άρθρο, που αναφέρθηκε στην παρουσίαση, δηλώνει ότι τα μοντέλα AI ήταν σίγουροι, αλλά λανθασμένα σε σχέση με τις απαντήσεις τους στο 47% των περιπτώσεων.
Ως αποτέλεσμα, ο καλύτερος τρόπος για την προστασία από τις ψευδαισθήσεις είναι να ελέγξετε τις απαντήσεις σας δύο φορές. Ορισμένες τακτικές περιλαμβάνουν τα cross -results των αποτελεσμάτων σας από εξωτερικές πηγές, όπως το Google ή τα πρακτορεία ειδήσεων που εμπιστεύεστε ή ζητάτε ξανά από το μοντέλο χρησιμοποιώντας διάφορες συνθέσεις για να δείτε αν η ίδια απάντηση προκαλεί AI.
Παρόλο που μπορεί να είναι δελεαστικό να λαμβάνετε βοήθεια chatgpt σε θέματα που γνωρίζετε ελάχιστα, είναι ευκολότερο να προσδιορίσετε τα σφάλματα εάν οι συμβουλές σας παραμένουν στον τομέα της εμπειρίας σας.
3. Κρατήστε τα δεδομένα που σας ενδιαφέρουν ιδιωτικά
Τα εργαλεία Gen AI μαθαίνουν μεγάλους όγκους. Απαιτούν επίσης δεδομένα για να συνεχίσουν την κατάρτιση και να γίνουν έξυπνα, πιο αποτελεσματικά μοντέλα. Ως αποτέλεσμα, τα μοντέλα χρησιμοποιούν συχνά τα αποτελέσματά τους για περαιτέρω εκπαίδευση.
Επίσης: Αυτό το νέο πρότυπο AI μετρά πόσα μοντέλα βρίσκονται
Το πρόβλημα είναι ότι τα μοντέλα συχνά απορρίπτουν τα εκπαιδευτικά τους δεδομένα στις απαντήσεις τους, πράγμα που σημαίνει ότι τα προσωπικά σας στοιχεία μπορούν να χρησιμοποιηθούν στις απαντήσεις κάποιου, υποβάλλοντας τα προσωπικά σας δεδομένα σε άλλους. Υπάρχει επίσης κίνδυνος κατά τη χρήση εφαρμογών ιστού, επειδή τα προσωπικά σας στοιχεία αφήνουν την επεξεργασία της συσκευής σας σε ένα σύννεφο, το οποίο έχει συνέπειες για την ασφάλεια.
Ο καλύτερος τρόπος για να διατηρηθεί η καλή υγιεινή της τεχνητής νοημοσύνης είναι να αποφευχθεί η ανταλλαγή εμπιστευτικών ή προσωπικών δεδομένων με LLMS. Θα υπάρξουν ορισμένες περιπτώσεις όταν η βοήθεια που θέλετε να συμπεριλάβετε τη χρήση προσωπικών δεδομένων. Μπορείτε επίσης να επεξεργαστείτε αυτά τα δεδομένα για να βεβαιωθείτε ότι θα λάβετε βοήθεια χωρίς κίνδυνο. Πολλά εργαλεία AI, συμπεριλαμβανομένου του CHATGPT, έχουν παραμέτρους που επιτρέπουν στους χρήστες να αρνούνται να συλλέγουν δεδομένα. Η άρνηση είναι πάντα μια καλή επιλογή, ακόμη και αν δεν σχεδιάζετε να χρησιμοποιήσετε εμπιστευτικά δεδομένα.
4. Δείτε πώς μιλάτε για LLMS
Οι δυνατότητες των συστημάτων AI και η δυνατότητα επικοινωνίας με αυτά τα εργαλεία χρησιμοποιώντας μια φυσική γλώσσα ανάγκασαν μερικούς ανθρώπους να υπερεκτιμούν τη δύναμη αυτών των bots. Ο ανθρωπομορφισμός, ή η απόδοση των ανθρώπινων χαρακτηριστικών, είναι μια ολισθηρή πλαγιά. Εάν οι άνθρωποι σκέφτονται για αυτά τα συστήματα AI ως ανθρώπινα κεκλιμένα, μπορούν να τους εμπιστευτούν περισσότερο από την ευθύνη και τα δεδομένα.
Επίσης: Γιατί το νέο AI στα εργαλεία πράκτορα αλλάζει τον τρόπο με τον οποίο κωδικοποιείτε
Σύμφωνα με τους εμπειρογνώμονες, ένας από τους τρόπους για να βοηθήσει να μαλακώσει αυτό το πρόβλημα είναι να σταματήσει να αποδίδει ανθρώπινα χαρακτηριστικά σε μοντέλα AI. Αντί να λέει: “Το μοντέλο πιστεύει ότι θέλετε μια ισορροπημένη απάντηση”, η SAP προσέφερε την καλύτερη εναλλακτική λύση: “Το μοντέλο έχει σχεδιαστεί για να δημιουργεί ισορροπημένες απαντήσεις με βάση τα δεδομένα εκπαίδευσης του”.
5. Σκεφτείτε καλά πότε να χρησιμοποιήσετε LLMS
Αν και μπορεί να φαίνεται ότι αυτά τα μοντέλα μπορούν να βοηθήσουν με σχεδόν κάθε εργασία, υπάρχουν πολλές περιπτώσεις όταν δεν μπορούν να παρέχουν καλύτερη βοήθεια. Αν και οι δοκιμές είναι διαθέσιμες, καλύπτουν μόνο ένα μικρό μερίδιο του τρόπου με τον οποίο οι χρήστες αλληλεπιδρούν με το LLMS.
Επίσης: Ακόμη και τα εργαλεία τεχνητής νοημοσύνης Premium στρεβλώνουν τα νέα και την εξόριστη παραγωγή – αυτό είναι το χειρότερο
Το LLMS μπορεί επίσης να μην λειτουργεί καλύτερα για όλους. Εκτός από τις ψευδαισθήσεις που συζητήθηκαν παραπάνω, καταγράφηκαν περιπτώσεις όταν η LLM λαμβάνει ρατσιστικές αποφάσεις ή υποστηρίζει τις προκαταλήψεις του Δυτικού Κεντρικού. Αυτές οι προκαταλήψεις δείχνουν ότι τα μοντέλα μπορεί να είναι ακατάλληλα για βοήθεια σε πολλές περιπτώσεις χρήσης.
Ως αποτέλεσμα, η λύση πρέπει να είναι προσεκτική και προσεκτική όταν χρησιμοποιείτε LLMS. Αυτή η προσέγγιση περιλαμβάνει μια αξιολόγηση της επίδρασης της χρήσης LLM για να προσδιοριστεί εάν αυτή είναι η σωστή λύση στο πρόβλημά σας. Είναι επίσης χρήσιμο να βλέπετε ποια μοντέλα επιτυγχάνουν σε ορισμένα καθήκοντα και χρησιμοποιείτε το καλύτερο μοντέλο για τις απαιτήσεις σας.