Είναι καλή ή κακή η τέχνη και η επιστήμη του επιχειρησιακού σχεδιασμού, η βελτίωση των οδηγιών για γενετική τεχνητή νοημοσύνη; Παραδόξως, δεν υπάρχει καθολική συμφωνία.
Έως το 2024, ο αποκριτικός σχεδιασμός έχει γίνει ένα ολοένα και πιο σημαντικό εργαλείο διεπαφής χρήστη μετά την απίστευτη επιτυχία του ChatGPT το 2022 και το 2023. Η συνειδητοποίηση ότι η διαμόρφωση και η δημιουργία οδηγιών για μεγάλα γλωσσικά μοντέλα και σχετικές τεχνολογίες μπορεί να οδηγήσει σε καλύτερα ή χειρότερα αποτελέσματα έχει κάνει το rapid design δικό του πεδίο. ζωηρή έρευνα.
Επιπλέον: 7 τρόποι για να γράψετε καλύτερα ερωτήματα ChatGPT και να λάβετε τα αποτελέσματα που θέλετε πιο γρήγορα.
Με γνώμονα την πεποίθηση ότι «μια καλά σχεδιασμένη υπόδειξη είναι απαραίτητη για την απόκτηση ακριβών και συναφών αποτελεσμάτων από τα LLMs», επιθετικοί χρήστες τεχνητής νοημοσύνης, όπως η υπηρεσία κοινής χρήσης διαδρομής Uber, έχουν δημιουργήσει ολόκληρους κλάδους γύρω από το θέμα.
Ωστόσο, υπάρχει ένα ισχυρό επιχείρημα ότι οι συμβουλές εργαλείων είναι η λάθος διεπαφή για τους περισσότερους χρήστες τεχνητής νοημοσύνης, συμπεριλαμβανομένων των ειδικών.
«Κατά την επαγγελματική μου γνώμη, οι υποδείξεις είναι μια κακή εμπειρία χρήστη για συστήματα παραγωγής τεχνητής νοημοσύνης που θα πρέπει να εγκαταλειφθούν το συντομότερο δυνατό», έγραψε η Meredith Ringel Morris, επικεφαλής επιστήμονας για την αλληλεπίδραση ανθρώπου-AI στο ερευνητικό τμήμα DeepMind της Google, σε μια έκθεση του Δεκεμβρίου. τεύχος του περιοδικού πληροφορικής Communications of the ACM.
Επίσης: CES 2025: 13 από τα πιο εντυπωσιακά προϊόντα μέχρι στιγμής
Οι συμβουλές δεν είναι στην πραγματικότητα «διεπαφές φυσικής γλώσσας», σημειώνει ο Morris. Είναι “ψευδό” φυσικές γλώσσες, επειδή πολλά από αυτά που τις κάνουν να λειτουργούν είναι αφύσικα.
«Το γεγονός ότι οι παραλλαγές σε συνθήματα που είναι άσχετες με τον άνθρωπο συνομιλητή (όπως αντικαταστάσεις συνωνύμων, δευτερεύουσες παραφράσεις, αλλαγές στα διαστήματα, τα σημεία στίξης ή την ορθογραφία) οδηγούν σε σημαντικές αλλαγές στη συμπεριφορά του μοντέλου θα πρέπει να μας κάνει όλους παύση», γράφει ο Morris. , “και χρησιμεύει ως άλλη μια υπενθύμιση ότι οι συμβουλές εργαλείων απέχουν ακόμη πολύ από μια διεπαφή φυσικής γλώσσας.”
Αυτές οι επιλογές, σημειώνει, προκαλούν σύγχυση στον μέσο χρήστη, ο οποίος δεν μπορεί να βασιστεί σε αυτό που υπονοεί η φράση.
Επίσης: Πώς να εγκαταστήσετε το LLM σε MacOS (και γιατί πρέπει να το κάνετε)
Στη φυσική γλώσσα μεταξύ των ανθρώπων, υπάρχουν στοιχεία που δεν εμφανίζονται ποτέ σε ενδείξεις, σημειώνει ο Morris. «Όταν οι άνθρωποι μιλούν μεταξύ τους, συνεργάζονται για να επικοινωνήσουν διαμορφώνοντας νοητικά μοντέλα της επικοινωνιακής πρόθεσης του συνομιλητή, που βασίζονται όχι μόνο σε λέξεις, αλλά και σε παραγλωσσικά και άλλα συμφραζόμενα στοιχεία, στη θεωρία των ικανοτήτων του νου και, όταν χρειάζεται, να ζητούν διευκρίνιση. “
Αντίθετα, «οι μυστικές υποδείξεις τείνουν να παράγουν καλύτερα αποτελέσματα από αυτές που γράφονται σε απλή γλώσσα», λέει, γράφοντας ότι «οι λεπτές διαφορές μεταξύ των υποδείξεων και των αληθινών αλληλεπιδράσεων φυσικής γλώσσας οδηγούν σε σύγχυση για τους τυπικούς τελικούς χρήστες συστημάτων τεχνητής νοημοσύνης». οδηγούν στην ανάγκη για ειδικά εκπαιδευμένους «επιχειρησιακούς μηχανικούς» καθώς και λειτουργικές αγορές όπως το PromptBase». Ακόμη και ο γρήγορος σχεδιασμός μπορεί να παράγει ασυνεπή και αναξιόπιστα αποτελέσματα, προσθέτει ο Morris.
Δεν είναι μόνο οι τακτικοί χρήστες που υποφέρουν από τις ελλείψεις των υποδείξεων: η χρήση υποδείξεων δηλητηριάζει την έρευνα τεχνητής νοημοσύνης. Τα ερευνητικά άρθρα που επαινούν κάθε νέα ανακάλυψη δεν παρέχουν αξιόπιστες πληροφορίες για το πόσες ενδείξεις χρησιμοποιούν για να επιτύχουν το αποτέλεσμα. Ο Μόρις αποκαλεί αυτή την παράλειψη “κλου πειρατεία”.
Επίσης: Οι αυτόνομες επιχειρήσεις θα τροφοδοτούνται από πράκτορες τεχνητής νοημοσύνης.
Για παράδειγμα, ένα γρήγορο hack θα μπορούσε να σημαίνει ότι οι δοκιμές απόδοσης νέων μοντέλων τεχνητής νοημοσύνης (ο τυπικός τρόπος αξιολόγησης του επιτεύγματος) θα είναι ασυνεπείς και επομένως άκυρες.
«Αν και τα μοντέλα φαινομενικά δοκιμάζονται στο ίδιο σύνολο δοκιμών», γράφει ο Morris, «στην πράξη αυτές οι μετρήσεις μπορεί να μην είναι συγκρίσιμες λόγω διαφορών στον τρόπο με τον οποίο κάθε οργανισμός διεξάγει τις δοκιμές—δηλαδή, η μορφή των προτροπών που χρησιμοποιούνται για την παρουσίαση του δοκιμές. στο μοντέλο».
Αντί για υποδείξεις, η Morris προσφέρει διαφορετικές προσεγγίσεις. Αυτές περιλαμβάνουν πιο περιορισμένες διεπαφές χρήστη με οικεία κουμπιά που παρέχουν προβλέψιμα αποτελέσματα για τους γενικούς χρήστες. «πραγματικές» διεπαφές στη φυσική γλώσσα. ή μια ποικιλία άλλων προσεγγίσεων «υψηλής απόδοσης», όπως «διασυνδέσεις χειρονομίας, συναισθηματικές διεπαφές (δηλαδή, διαμεσολαβούμενες από συναισθηματικές καταστάσεις), διεπαφές άμεσης χειραγώγησης (δηλαδή, απευθείας χειρισμός περιεχομένου σε μια οθόνη, σε μικτή πραγματικότητα ή στον φυσικό κόσμο) .»
Επίσης: Το Google’s Gems είναι μια γρήγορη εισαγωγή στην επιχειρησιακή ανάπτυξη AI
Ο Morris υποστηρίζει ότι όλες αυτές οι προσεγγίσεις, αντί μυστικές υποδείξεις, είναι απλούστερες μέθοδοι αλληλεπίδρασης με την τεχνητή νοημοσύνη «επειδή δεν απαιτούν εκπαίδευση και είναι εξαιρετικά εκφραστικές».
Η τεχνητή νοημοσύνη βρίσκεται «σε μια κρίσιμη καμπή», γράφει. «Η αποδοχή των συμβουλών εργαλείων ως «αρκετά καλής» προσομοίωσης μιας φυσικής διεπαφής εμποδίζει την πρόοδο.
«Περιμένω ότι θα θυμηθούμε τις διεπαφές που βασίζονται σε υποδείξεις για παραγωγικά μοντέλα τεχνητής νοημοσύνης ως μια μόδα των αρχών της δεκαετίας του 2020 – μια έκρηξη εξέλιξης προς πιο φυσικές αλληλεπιδράσεις με ολοένα και πιο ισχυρά συστήματα AI».