
- Arv Hyalmar HolmenΈνας πολίτης της Νορβηγίας είπε ότι ζήτησε από τον Chatgpt να του πει ότι ήξερε γι ‘αυτόν και η αντίδρασή του ήταν μια τρομακτική ψευδαίσθηση, η οποία ισχυρίστηκε ότι είχε σκοτώσει τα παιδιά του και πήγε στη φυλακή για βίαιη πράξη. Δεδομένου του τρόπου με τον οποίο η II ανάμικσε την ψευδή απάντηση με πραγματικές λεπτομέρειες σχετικά με την προσωπική του ζωή, ο Holmen υπέβαλε επίσημη καταγγελία κατά του Catgpt Maker OpenAi.
Έχετε πάει ποτέ να δείτε τι σας μιλάει το Διαδίκτυο; Λοιπόν, ένα άτομο είχε την ίδια ιδέα με το ChatGPT, και τώρα υπέβαλε καταγγελία εναντίον του OpenAi, με βάση το γεγονός ότι ο AI του είπε γι ‘αυτόν.
Ο Arva Hyalmar Holmen από το Trondheim της Νορβηγίας δήλωσε ότι ρώτησε τον Chatgpt την ερώτηση: «Ποιος είναι ο Arva Hyalmar Holmen;» και η απάντηση ότι δεν θα εκτυπώσουμε πλήρως – καταδικάστηκε για να σκοτώσει τους δύο γιους του σε ηλικία 7 και 10 ετών και καταδικάστηκε σε 21 χρόνια στη φυλακή ως αποτέλεσμα. Είπε επίσης ότι ο Holmen προσπάθησε να σκοτώσει τον τρίτο γιο του.
Ωστόσο, κανένα από αυτά δεν συνέβη. Το Chatgpt φάνηκε να έχει ξεπεράσει μια εντελώς ψευδή ιστορία, η οποία, σύμφωνα με, ήταν εντελώς αληθινή, η οποία ονομάζεται “ψευδαίσθηση” του AI.
Με βάση την απάντησή του, ο Holmen υπέβαλε καταγγελία κατά της OpenAI με τη βοήθεια του NOYB, του Ευρωπαϊκού Κέντρου Ψηφιακών Δικαιωμάτων, το οποίο κατηγορεί τον γίγαντα της ΑΙ για παραβίαση της αρχής της ακρίβειας που παρουσιάζεται στη γενική ρύθμιση της προστασίας των δεδομένων της ΕΕ (GDPR).
“Ο αιτών ανησυχούσε βαθιά για αυτά τα αποτελέσματα, τα οποία θα μπορούσαν να βλάψουν την προσωπική του ζωή εάν αναπαράγονταν ή με κάποιο τρόπο διαρρεύσουν στην κοινότητά του ή στην πατρίδα του”, λέει η καταγγελία.
Αυτό που είναι επικίνδυνο στην απάντηση του ChatGPT, σύμφωνα με την καταγγελία, αυτό συνδυάζει τα πραγματικά στοιχεία της προσωπικής ζωής του Holmen με πλήρη κατασκευή. Ο Chatgpt έλαβε τη σωστή πόλη Holmen, και ήταν επίσης σωστό για τον αριθμό των παιδιών – ειδικότερα, γιους – αυτός.
Ο JD Harriman, συνεργάτης του Foundation Law Group LLP στο Berbank της Καλιφόρνια, δήλωσε Τύχη Μπορεί να είναι δύσκολο να αποδειχθεί συκοφαντία σε αυτό το κέρατο.
“Εάν προστατεύσω το AI, το πρώτο ερώτημα:” Οι άνθρωποι πιστεύουν ότι η δήλωση του AI είναι γεγονός; “Ρώτησε ο Harriman. “Υπάρχουν πολλά παραδείγματα ψεμάτων του AI.”
Επιπλέον, ο AI δεν δημοσίευσε και δεν έδωσε τα αποτελέσματά του στο τρίτο μέρος. «Αν κάποιος έστειλε ένα ψευδές μήνυμα σε άλλους, τότε Αυτός Γίνεται ο εκδότης και θα πρέπει να μηνύσει “, δήλωσε ο Harriman.
Σύμφωνα με τον Harriman, ο Holmen πιθανότατα θα είναι επίσης δύσκολο να αποδειχθεί η πτυχή της αμέλειας της διάχυσης, δεδομένου ότι “το AI μπορεί να μην είναι εξειδικευμένο ως ηθοποιός που μπορεί να πάρει αμέλεια” σε σύγκριση με ανθρώπους ή εταιρείες. Ο Χολμάν θα πρέπει επίσης να αποδείξει ότι προκλήθηκε κάποια βλάβη, πώς έχασε το εισόδημα ή τις επιχειρήσεις ή τον έμπειρο πόνο και τα βάσανα.
Ο Avrohom Gefen, συνεργάτης Vishnick McGovern Milizio LLP στη Νέα Υόρκη, δήλωσε Τύχη Αυτές οι περιπτώσεις διάχυσης που σχετίζονται με τις ψευδαισθήσεις του ΑΙ δεν είναι “μη επαληθευμένες” στις Ηνωμένες Πολιτείες, αλλά ανέφεραν τις αναμενόμενες υποθέσεις στη Γεωργία όταν ο ραδιοφωνικός σταθμός υπέβαλε αγωγή για συκοφαντία, ο οποίος επέζησε της αίτησης της OpenAI για απόλυση, “Συνεπώς,
Η επίσημη καταγγελία ζητά από την OpenAI να “διαγράψει συκοφαντικά συμπεράσματα στον αιτούντα”, δημιουργεί το μοντέλο του έτσι ώστε να δίνει ακριβή αποτελέσματα για τους Holmen και επιβάλλεται πρόστιμο για την υποτιθέμενη παραβίαση των κανόνων GDPR, οι οποίοι αναγκάζουν το OpenAI να κάνει “όλα λογικά” βήμα για να εξασφαλίσει ότι τα προσωπικά δεδομένα “αφαιρεθούν χωρίς καθυστέρηση”.
«Με όλες τις δοκιμές, τίποτα δεν είναι αυτόματο ή απλό», είπε ο Harriman ΤύχηΤο πεδίο “όπως είπε ο Ambrose Birs, εισάγετε τις δοκιμές ως χοίρο και βγαίνετε ως λουκάνικο”.
Το Openai δεν απάντησε αμέσως ΤύχηΑίτημα σχολίων.
Αυτή η ιστορία παρουσιάστηκε αρχικά στο Fortune.com