
Οι συζητήσεις σχετικά με τους κινδύνους και τη βλάβη της τεχνητής νοημοσύνης επικεντρώνονται συχνά σε αυτό που οι κυβερνήσεις μπορούν ή πρέπει να κάνουν. Ωστόσο, η επιλογή που οι ερευνητές της AI Make είναι εξίσου σημαντικοί.
Αυτή την εβδομάδα στη Σιγκαπούρη, περισσότεροι από 100 επιστήμονες από όλο τον κόσμο πρότειναν κατευθυντήριες αρχές σχετικά με τον τρόπο με τον οποίο οι ερευνητές πρέπει να προσεγγίσουν το AI πιο “αξιόπιστο, αξιόπιστο και ασφαλές”.
Επίσης: Αρκετές μυστικές εταιρείες στην τεχνητή νοημοσύνη θα μπορούσαν να συντρίψουν μια ελεύθερη κοινωνία, προειδοποιούν οι ερευνητές
Οι συστάσεις λαμβάνονται σε μια εποχή που οι γίγαντες του γενετικού AI, όπως το OpenAI και το Google, μειώνουν ολοένα και περισσότερο την αποκάλυψη πληροφοριών σχετικά με τα μοντέλα AI, οπότε το κοινό γνωρίζει όλο και λιγότερο για το πώς εκτελείται το έργο.
Τον περασμένο μήνα, στη Σιγκαπούρη, οι κορυφαίες αρχές βγήκαν από την ανταλλαγή μεταξύ των επιστημόνων στη Σιγκαπούρη σε σχέση με ένα από τα πιο διάσημα συνέδρια AI, διεθνές συνέδριο κατάρτισης – για πρώτη φορά στην Ασία πραγματοποιήθηκε ένα σημαντικό συνέδριο τεχνητής νοημοσύνης.
Το έγγραφο “Συναίνεση της Σιγκαπούρης για παγκόσμιες προτεραιότητες στον τομέα της τεχνητής ασφάλειας νοημοσύνης” δημοσιεύτηκε στην ιστοσελίδα της Διάσκεψης της Σιγκαπούρης για το AI, το δεύτερο συνέδριο για την τεχνητή τέχνη που πραγματοποιήθηκε αυτή την εβδομάδα στη Σιγκαπούρη.
Μεταξύ των φωτιστικών που βοήθησαν να συνθέσει τη συναίνεση της Σιγκαπούρης, – Yoshua Bengi, ο ιδρυτής του Καναδικού Ινστιτούτου AI, MILA. Ο Stewart Russell, ένας εξαιρετικός καθηγητής πληροφορικής στο Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϊ και ειδικός στο “προσανατολισμένο πρόσωπο”. Max Tegmark, επικεφαλής του βρετανικού αναλυτικού κέντρου το μέλλον της ζωής. και εκπρόσωποι του Ινστιτούτου Τεχνολογίας της Μασαχουσέτης, του Google DeepMind, της Microsoft, του Εθνικού Πανεπιστημίου της Σιγκαπούρης και του κινεζικού πανεπιστημίου Qinhua και της Εθνικής Ακαδημίας Επιστημών, μεταξύ άλλων.
Για να οδηγήσει στο γεγονός ότι οι μελέτες θα πρέπει να έχουν κατευθυντήριες γραμμές, υπουργό ψηφιακής ανάπτυξης και πληροφορίες της Σιγκαπούρης, Josephine Theo, στην παρουσίαση του έργου, σημείωσε ότι οι άνθρωποι δεν μπορούν να ψηφίσουν για αυτό που θέλουν.
“Στη δημοκρατία, οι καθολικές εκλογές είναι ένας τρόπος για τους πολίτες να επιλέξουν ένα κόμμα που αποτελεί την κυβέρνηση και λαμβάνει αποφάσεις για λογαριασμό τους”, δήλωσε ο Theo. “Αλλά στην ανάπτυξη του AI, οι πολίτες δεν μπορούν να κάνουν παρόμοια επιλογή. Όπως και δημοκρατικοποιημένοι, είπαμε ότι η τεχνολογία δεν είναι, οι πολίτες θα είναι στο τέλος των δυνατοτήτων και των προβλημάτων του AI, για να μην αναφέρουμε ποιος σχηματίζει την τροχιά της”.
Επίσης: Το Google Gemini συνεχίζει την επικίνδυνη σύγχυση της τεχνολογίας AI
Το άρθρο καθορίζει τρεις κατηγορίες που πρέπει να λάβουν υπόψη οι ερευνητές: πώς να προσδιοριστούν οι κίνδυνοι για τη δημιουργία συστημάτων AI με τέτοιο τρόπο ώστε να αποφεύγονται οι κίνδυνοι και ο τρόπος διατήρησης του ελέγχου των συστημάτων AI, πράγμα που σημαίνει ως μέθοδοι παρακολούθησης και παρέμβασης σε περίπτωση φόβων για αυτά τα συστήματα AI.
“Στόχος μας είναι να παρέχουμε πιο αποτελεσματικές προσπάθειες έρευνας και ανάπτυξης για την ταχεία ανάπτυξη μηχανισμών ασφαλείας και την αξιολόγηση και τη δημιουργία ενός αξιόπιστου οικοσυστήματος, όπου το AI χρησιμοποιείται για ένα δημόσιο αγαθό”, οι συγγραφείς στον πρόλογο της έκθεσης γράφουν. “Το κίνητρο είναι σαφές: δεν υπάρχουν οργανωτικά ή βοηθήματα χώρας, όταν εμφανίζονται συμβάντα με τεχνητή νοημοσύνη ή θα συμπεριληφθούν κακόβουλες οντότητες, καθώς η βλάβη θα προκαλέσει ζημιά σε όλους μαζί”.
Στο πρώτο σκορ, αξιολογώντας τους πιθανούς κινδύνους, οι επιστήμονες ενημέρωσαν την ανάπτυξη της “μετρολογίας”, με τη μέτρηση δυνητικών βλάβης. Γράφουν ότι υπάρχει ανάγκη για μια “ποσοτική αξιολόγηση του κινδύνου που προσαρμόζεται στα συστήματα τεχνητής νοημοσύνης για τη μείωση της αβεβαιότητας και της ανάγκης για μεγάλα όρια ασφαλείας”.
Οι επιστήμονες σημειώνουν ότι είναι απαραίτητο να επιτρέπεται στις εξωτερικές πλευρές να παρακολουθούν την έρευνα και την ανάπτυξη του AI για τον κίνδυνο με ισορροπία εταιρικών IP. Αυτό περιλαμβάνει την ανάπτυξη μιας “ασφαλούς υποδομής που παρέχει μια διεξοδική αξιολόγηση στην προστασία της πνευματικής ιδιοκτησίας, συμπεριλαμβανομένης της πρόληψης της κλοπής του μοντέλου”.
Επίσης: Stuart Russell: Θα επιλέξουμε το σωστό στόχο για τον AI πριν μας καταστρέψει όλους;
Το τμήμα ανάπτυξης ισχύει για τον τρόπο κατασκευής του AI αξιόπιστου, αξιόπιστου και ασφαλούς “στο σχεδιασμό”. Για το λόγο αυτό, είναι απαραίτητο να αναπτυχθούν “τεχνικές μεθόδους” που μπορούν να υποδείξουν τι προορίζεται από το πρόγραμμα AI και επίσης να περιγράψει τι δεν πρέπει να συμβεί – “ανεπιθύμητες παρενέργειες” – γράφουν οι επιστήμονες.
Η πραγματική προετοιμασία των νευρωνικών δικτύων θα πρέπει στη συνέχεια να προχωρήσει με τέτοιο τρόπο ώστε τα προκύπτοντα προγράμματα του AI “εγγυημένα να συμμορφώνονται με τις προδιαγραφές τους”, γράφουν. Αυτό περιλαμβάνει τα μέρη της κατάρτισης που συγκεντρώνονται, για παράδειγμα, στη “μείωση των φούρνων” (συχνά γνωστές ως ψευδαισθήσεις) και “αυξανόμενη αντίσταση κατά της παραποίησης”, για παράδειγμα, σπάσιμο LLM με κακόβουλες συμβουλές.
Τέλος, το τμήμα διαχείρισης στο άρθρο καλύπτει τόσο την επέκταση των σημερινών μέτρων ασφαλείας των υπολογιστών όσο και τον τρόπο ανάπτυξης νέων μεθόδων για την αποφυγή του AI. Για παράδειγμα, ο συμβατικός έλεγχος των υπολογιστών, όπως η απενεργοποίηση των πρωτοκόλλων εναλλαγής και του Outrine, πρέπει να επεκταθεί για την επεξεργασία προγραμμάτων AI. Οι επιστήμονες πρέπει επίσης να αναπτύξουν “νέες μεθόδους για τον έλεγχο των πολύ ισχυρών συστημάτων AI, τα οποία μπορούν να υπονομεύσουν ενεργά τις προσπάθειες ελέγχου τους”.
Το έγγραφο είναι φιλόδοξο, το οποίο είναι κατάλληλο, δεδομένης της αυξανόμενης ανησυχίας για τον κίνδυνο του AI, δεδομένου ότι συνδέεται με μεγαλύτερο αριθμό συστημάτων πληροφορικής, όπως ο πράκτορας AI.
Επίσης: Το Multimodal AI παρουσιάζει νέους κινδύνους ασφαλείας, δημιουργεί πληροφορίες σχετικά με το CSEM και τα όπλα
Όπως παραδέχονται οι επιστήμονες στην εισαγωγή, οι μελέτες ασφαλείας δεν θα είναι σε θέση να συμβαδίσουν με ένα γρήγορο ποσοστό AI εάν δεν πραγματοποιηθούν περισσότερες επενδύσεις.
“Δεδομένου ότι η σημερινή κατάσταση σήμερα δεν καλύπτει πλήρως όλους τους κινδύνους, οι επιταχυνόμενες επενδύσεις στην έρευνα είναι απαραίτητες προκειμένου να συμβαδίσουν με την εμπορική ανάπτυξη των συστηματικών δυνατοτήτων”, γράφουν οι συγγραφείς.
Μια επιστολή στο περιοδικό Time, ο Bengio επαναλαμβάνει τους φόβους για τα αχαλίνωτα συστήματα του AI. “Τα πρόσφατα επιστημονικά δεδομένα καταδεικνύουν επίσης ότι, δεδομένου ότι τα εξαιρετικά ικανά συστήματα γίνονται όλο και πιο αυτόνομοι παράγοντες του AI, τείνουν να επιδείξουν στόχους που δεν είχαν προγραμματιστεί με σαφήνεια και δεν αντιστοιχούν απαραιτήτως σε ανθρώπινα συμφέροντα”, γράφει ο Bengio.
“Εγώ ειλικρινά δεν ανταγωνίζονταν ως αποτέλεσμα της συμπεριφοράς, αχαλίνωτη AI, αποδεικνύει ήδη, ειδικότερα, αυτο -διαχρησιμοποίηση και εξαπάτηση”.
Θέλετε περισσότερες ιστορίες για το AI; Εγγραφείτε για καινοτομίαΗ εβδομαδιαία ψηφοφορία πληροφόρησης.