
Αν και η τεχνολογία του AI, ικανή να καταγράψει τον κόσμο, περιορίζεται στη λογοτεχνία και τις ταινίες της επιστημονικής φαντασίας, η υπάρχουσα τεχνητή νοημοσύνη είναι ικανή για αδίκημα, όπως η δημιουργία ψευδαισθήσεων, η διδασκαλία αυτών των ανθρώπων και η χρήση του έργου άλλων ανθρώπων για τη δημιουργία νέων αποτελεσμάτων. Πώς αυτά τα μειονεκτήματα αντιστοιχούν στην ταχεία αποδοχή του AI;
Αυτό το ζήτημα μελετήθηκε προσεκτικά στο SXSW και οι περισσότερες από τις συνεδρίες που σχετίζονται με το AI είτε άγγιξαν είτε βυθίστηκαν βαθιά στην ασφάλεια του AI. Οι ηγέτες της εταιρείας από την IBM, τη Meta, τη Microsoft και την Adobe για να καλέσουν μερικοί είχαν μια ιδέα για το μέλλον του AI. Ομοφωνία; Αυτό δεν είναι όλο το θάνατο και το σκοτάδι.
Επιπλέον: Η Microsoft είναι σκεπτικιστής AGI, αλλά υπάρχει τάση με OpenAI;
“II χρειάζεται τον καλύτερο πράκτορα PR. Όλα όσα έχουμε μάθει από την επιστημονική φαντασία “, δήλωσε η Hannah Elsakr, ιδρυτής της Firefly για επιχειρήσεις στο Adobe. “Πιστεύουμε ότι ο AI πρόκειται να συλλάβει τη ζωή μας. Αυτός δεν είναι ο σκοπός αυτού.
Ανεξάρτητα από την ομάδα, οι ηγέτες ορισμένων από τις μεγαλύτερες τεχνολογικές εταιρείες συζήτησαν τρία κοινά θέματα για το πώς η ασφάλεια και η ευθύνη στη μελλοντική τεχνολογία. Αυτό που έπρεπε να πουν μπορούν να βοηθήσουν στην ανακούφιση των προβλημάτων σας.
1. Η χρήση των θεμάτων χρήσης
Δεν μπορεί να αμφισβητηθεί ότι τα συστήματα AI είναι λανθασμένα. Συχνά παραισθώνουν και περιλαμβάνουν προκαταλήψεις στις απαντήσεις τους. Ως αποτέλεσμα, πολλοί ανησυχούν ότι η συμπερίληψη συστημάτων AI στο χώρο εργασίας θα κάνει σφάλματα σε εσωτερικές διαδικασίες, επηρεάζοντας αρνητικά τους εργαζόμενους, τους πελάτες και τις επιχειρήσεις.
Το κλειδί για την άμβλυνση αυτού του προβλήματος είναι η διεξοδική εξέταση του έργου που μεταβιβάζετε στο AI. Για παράδειγμα, η Sarah Berd, CPO υπεύθυνη AI στη Microsoft, αναζητά επιλογές χρήσης που είναι κατάλληλες για το γεγονός ότι η τεχνολογία μπορεί να κάνει σήμερα.
“Θέλετε να βεβαιωθείτε ότι έχετε το σωστό εργαλείο για εργασία, οπότε δεν χρειάζεται να χρησιμοποιήσετε AI για κάθε εφαρμογή”, δήλωσε ο Bird. “Υπάρχουν και άλλες περιπτώσεις όταν, ίσως, δεν πρέπει ποτέ να χρησιμοποιήσουμε το AI.”
Ένα παράδειγμα χρήσης του AI, το οποίο μπορεί να είναι δυσάρεστο, είναι να το χρησιμοποιήσετε για την πρακτική της πρόσληψης. Πολλές μελέτες έχουν δείξει ότι το AI έχει αναφαίρετες προκαταλήψεις που την καθιστούν προτιμώμενες εθνικότητες, εκπαιδευτική εμπειρία και σεξ στα αποτελέσματά τους. Ως αποτέλεσμα, η IBM έπαψε να χρησιμοποιεί τεχνητές πράκτορες νοημοσύνης για να φιλτράρει και την επιλογή των διαδικασιών και αντ ‘αυτού χρησιμοποίησε τον πράκτορα για να βοηθήσει τους υποψηφίους με πιθανούς ρόλους εργασίας.
“Δεν μπορώ να τονίσω τη σημασία της πραγματικά να βεβαιωθώ ότι η επιλογή σας για την AI και τους πράκτορες είναι κατάλληλο για την εταιρεία και τον πολιτισμό σας”, δήλωσε ο Nickle Lamore, επικεφαλής υπάλληλος της IBM.
Επίσης: 5 γρήγοροι τρόποι για να διαμορφώσετε τη χρήση του AI σας για τα καλύτερα αποτελέσματα – και πιο ασφαλή εμπειρία
Αν και το II μπορεί να εκτελέσει πολλά καθήκοντα, αυτό δεν σημαίνει ότι πρέπει. Η κατανόηση των περιορισμών και των δυνάμεων της τεχνολογίας είναι το κλειδί για να διασφαλιστεί ότι οι χρήστες έχουν το καλύτερο δυνατό αποτέλεσμα από την εφαρμογή του AI και την αποφυγή παγίδων.
2. Άτομα εδώ για να μείνουν
Καθώς τα συστήματα AI γίνονται πιο πνευματικά και αυτόνομα, οι άνθρωποι είναι φυσικά ανησυχούν από το δυναμικό της τεχνολογίας, προκειμένου να επηρεάσουν αρνητικά την εργασία, καθιστώντας τους ανθρώπους να αντικατασταθούν περισσότερο. Παρ ‘όλα αυτά, όλοι οι ηγέτες των επιχειρήσεων συμφώνησαν ότι αν και το II θα αλλάξει το έργο, όπως το γνωρίζουμε, αυτό δεν θα το αντικαταστήσει απαραιτήτως.
“Το AI επιτρέπει στους ανθρώπους να κάνουν περισσότερα από ό, τι πριν, όχι απαραίτητα μια αντικατάσταση χονδρικής”, δήλωσε η Ella Irwin, επικεφαλής της γενετικής ασφάλειας του AI στο Meta. «Θα αντικατασταθούν κάποιες θέσεις εργασίας; Ναι, αλλά, όπως στην περίπτωση οποιωνδήποτε άλλων τεχνολογιών όπως το Διαδίκτυο, θα δούμε πώς αναπτύσσονται νέες θέσεις εργασίας και θα δούμε άτομα που χρησιμοποιούν αυτήν την τεχνολογία και θα κάνουν το έργο τους διαφορετικά από πριν.
Επίσης: Ως πολλαπλασιασμένοι πράκτορες AI, αυτό γίνεται το νέο τμήμα HR
Οι ηγέτες και οι εμπειρογνώμονες σε ολόκληρο το συνέδριο συζήτησαν συχνά παραλληλίες μεταξύ του AI και άλλων τεχνολογιών μετασχηματισμού όπως το Διαδίκτυο, επειδή μοιράζονται τόσες πολλές ομοιότητες. Για παράδειγμα, μόλις το Διαδίκτυο αντικατέστησε το ρολόι στη βιβλιοθήκη, νέες βαθιές μελέτες από το Google ή το OpenAI μπορούν τώρα να πάρουν ένα ρολόι σε λίγα λεπτά.
“Σκεφτείτε το όπως με το e -mail ή τα κινητά τηλέφωνα ή στο διαδίκτυο – AI – αυτό είναι ένα όργανο, το AI είναι μια πλατφόρμα, κάθε εργασία μεταμορφώθηκε από αυτό”, δήλωσε ο Lamore.
3. Το Trust User θα είναι ένα από τα μεγαλύτερα προβλήματα
Όταν συζητάμε για τα εμπόδια στην ανάπτυξη τεχνητής νοημοσύνης, τα εμπόδια που πιστεύουν οι άνθρωποι, όπως συνήθως περιλαμβάνουν την τεχνική ανάπτυξη μοντέλων AI, δηλαδή πώς τα μοντέλα μπορούν να κατασκευαστούν ασφαλέστερα, ταχύτερα και φθηνότερα. Παρ ‘όλα αυτά, μέρος της συζήτησης, που συχνά παραμένει στο μάθημα, είναι η διάθεση των καταναλωτών.
Στο SXSW, συζητήθηκε ο ρόλος του καταναλωτή, διότι, τελικά, αυτά τα μοντέλα θα είναι χρήσιμα μόνο και θα μετασχηματίζουν εάν οι άνθρωποι τους εμπιστεύονται αρκετά για να εξετάσουν το ζήτημα της δοκιμής τους.
“Το AI είναι τόσο αξιόπιστο όσο οι άνθρωποι τον εμπιστεύονται – αν δεν τον εμπιστεύεστε, είναι άχρηστο. Εάν τον εμπιστεύεστε, μπορείτε να ξεκινήσετε την υιοθέτησή του “, δήλωσε ο Lavanya, επικεφαλής της εμπιστοσύνης και της ασφάλειας στο Heygen.
Επίσης: Μπορεί η δημιουργικότητα του AI Superghact χωρίς κλοπή καλλιτεχνών;
Όπως αναφέρθηκε παραπάνω, οι τεχνολογίες μετασχηματισμού, όπως το Διαδίκτυο, ένα σύννεφο ή ακόμα και μια αριθμομηχανή, αντιμετωπίστηκαν με διακυμάνσεις. Ο Irwin χρησιμοποίησε ένα παράδειγμα χρεωστικής κάρτας για να απεικονίσει αυτή την ιδέα, όπως μετά την έναρξη, οι άνθρωποι ανησυχούσαν για το τι σήμαινε για την ασφάλεια των κεφαλαίων τους.
“Χάρη σε κάθε νέα τεχνολογία, αυτή η αρχική αντίδραση των πολιτικών στην αγορά από τους καταναλωτές της αγοράς, η οποία βασίζεται λίγο περισσότερο στον φόβο”, πρόσθεσε ο Irwin από το Meta.
Για να ξεπεραστούν αυτό το εμπόδιο, οι εταιρείες πρέπει να παραμείνουν διαφανείς στα μοντέλα τους, για το πώς εκπαιδεύτηκαν, η πολιτική με κόκκινες ομάδες, προσεγγίσεις ασφαλείας και πολλά άλλα. Σε αυτή την κατεύθυνση, έχει ήδη συμβεί μια ώθηση και όλο και περισσότερες εταιρείες πρόσθεσαν χάρτες μοντέλων στις απελευθερώσεις τους.