
Ο Visya Balasubramanian ήξερε ότι υπήρχε πρόβλημα.
Ο γενικός διευθυντής του Pindrop, Pindrop Information Security, 300 άνθρωποι, λέει ότι η ομάδα μίσθωσης του ήρθε σε αυτόν με ένα παράξενο δίλημμα: άκουσαν περίεργους ήχους και τονικές ανωμαλίες κατά τη διάρκεια απομακρυσμένων συνεντεύξεων με υποψηφίους εργασίας.
Ο Balasubramaniyan πίστευε αμέσως ότι αυτό το πρόβλημα θα μπορούσε να είναι οι ερωτηθέντες που χρησιμοποιούν την τεχνολογία Deepfake AI για να συγκαλύψουν την αληθινή του προσωπικότητα. Όμως, σε αντίθεση με τις περισσότερες άλλες εταιρείες, η Pindrop κατείχε μια μοναδική θέση ως οργανισμός που καθορίζει την απάτη για να εξερευνήσει το ίδιο το μυστικό.
Για να το καταλάβει αυτό, η εταιρεία δημοσίευσε έναν κατάλογο κενών θέσεων για τον ανώτερο προγραμματιστή. Στη συνέχεια χρησιμοποίησε τη δική του τεχνολογία για να σαρώσει τους υποψηφίους για πιθανές κόκκινες σημαίες. “Αρχίσαμε να δημιουργούμε αυτά τα χαρακτηριστικά ανίχνευσης όχι μόνο για τηλεφωνήματα, αλλά και για συνέδρια, όπως η κλίμακα και οι ομάδες”, λέει ΤύχηΤο πεδίο “Από τότε που βρίσκουμε απειλές, θέλαμε να φάμε το δικό μας σκυλί, έτσι να μιλήσουμε και πολύ γρήγορα είδαμε τον πρώτο υποψήφιο στο Deepfake”.
Από τις 827 γενικές αιτήσεις για τη θέση του προγραμματιστή, η ομάδα διαπίστωσε ότι περίπου 100 ή περίπου 12,5%το έκανε αυτό χρησιμοποιώντας ψεύτικες προσωπικότητες. “Αυτό χτυπήθηκε από το μυαλό μας”, λέει ο Balasubramanian. “Δεν ήταν ποτέ πριν, και σας λέει, όπως σε έναν απομακρυσμένο κόσμο, γίνεται όλο και περισσότερο πρόβλημα.”
Η Pindrop δεν είναι η μόνη εταιρεία που λαμβάνει μια ροή εφαρμογών εργασίας που συνδέονται με μια ψεύτικη προσωπικότητα. Παρά το γεγονός ότι αυτό εξακολουθεί να αποτελεί πρόβλημα, περίπου το 17% των διαχειριστών μίσθωσης έχουν ήδη συναντήσει υποψηφίους που χρησιμοποιούν την τεχνολογία Deepfake για να αλλάξουν τις συνεντεύξεις βίντεο, σύμφωνα με την εξέταση Promate Proptate Platform Genius. Και ένας ιδρυτής της εκκίνησης είπε πρόσφατα Τύχη Ότι περίπου το 95% του βιογραφικού που λαμβάνει ανήκει στους μηχανικούς της Βόρειας Κορέας που προσποιούνται Αμερικανούς. Δεδομένου ότι η τεχνολογία AI συνεχίζει να προχωράει σε ένα γρήγορο βίντεο, οι ηγέτες των επιχειρήσεων και του προσωπικού πρέπει να προετοιμαστούν για αυτή τη νέα στροφή για το ήδη αντίστοιχο τοπίο στρατολόγησης και να είναι έτοιμοι να συναντήσουν τον επόμενο υποψήφιο στο Deepfake AI, το οποίο θα εμφανιστεί στη συνέντευξη.
“Η θεωρία μου είναι τώρα στο γεγονός ότι αν είμαστε εντυπωσιακοί, όλοι το παίρνουν με ένα χτύπημα”, λέει ο Balasubramanian.
Black Mirror Reality για διαχειριστές πρόσληψης
Μερικοί υποψήφιοι για εργασία στο Deepfake προσπαθούν απλώς να αποκτήσουν αρκετές θέσεις εργασίας ταυτόχρονα για να αυξήσουν το εισόδημά τους. Αλλά υπάρχουν ενδείξεις ότι το παιχνίδι έχει περισσότερες κακές δυνάμεις που μπορούν να οδηγήσουν σε μεγάλες συνέπειες για τους ακούσιους εργοδότες.
Το 2024, η εταιρεία CrowsDtrike Cybersecurity απάντησε σε περισσότερες από 300 περιπτώσεις εγκληματικής δραστηριότητας που σχετίζονται με το διάσημο Chollima, μια μεγάλη βόρεια κορεατική οργανωμένη εγκληματική ομάδα. Περισσότερο από το 40% αυτών των περιστατικών ελήφθησαν για τους εργαζόμενους στον τομέα της πληροφορικής που προσλήφθηκαν υπό ψεύτικη προσωπικότητα.
“Το μεγαλύτερο μέρος του εισοδήματος που φέρνουν από αυτές τις ψεύτικες θέσεις εργασίας πηγαίνει κατευθείαν στο πρόγραμμα όπλων στη Βόρεια Κορέα”, λέει ο Adam Meyers, ανώτερος αντιπρόεδρος των επιχειρήσεων κατά της χώρας του εχθρού. “Στόχος είναι στη σύνδεση, πληροφορίες σχετικά με την πιστωτική κάρτα και τα δεδομένα της εταιρείας.”
Και τον Δεκέμβριο του 2024, 14 πολίτες της Βόρειας Κορέας κατηγορήθηκαν σχετικά με έναν δόλιο εργαζόμενο πληροφορικής. Έχουν κατηγορηθεί για την Vonzania για έξι χρόνια για έξι χρόνια για έξι χρόνια. Το Υπουργείο Δικαιοσύνης ισχυρίζεται επίσης ότι ορισμένοι από αυτούς τους υπαλλήλους απειλούσαν επίσης τις εμπιστευτικές πληροφορίες της εταιρείας, εκτός εάν ο εργοδότης τους πληρώσει ένα τέλος εκβιασμού.
Για να πιάσω βαθιά
Ο Dawid Moczadło, συνιδρυτής της εταιρείας ασφάλειας δεδομένων Security Lab, δημοσίευσε πρόσφατα ένα βίντεο στο LinkedIn Interview, το οποίο έκανε με έναν υποψήφιο στο Deepfake AI, το οποίο χρησιμεύει ως κύρια τάξη σε πιθανές κόκκινες σημαίες.
Ο ήχος και το βίντεο σχετικά με την κλήση του Zoom δεν ήταν αρκετά συγχρονισμένο και η ποιότητα του βίντεο του φαινόταν επίσης. “Όταν ένα άτομο μετακόμισε και μίλησε, μπορούσα να δω διαφορετική σκίαση στο δέρμα του και φαινόταν πολύ ομαδοποιημένο, πολύ περίεργο”, λέει ο Mokzadeso ΤύχηΠεδίο
Ωστόσο, οι περισσότερες φήμες όταν ο Mokzadlo ζήτησε από τον υποψήφιο να κρατήσει το χέρι του μπροστά στο πρόσωπό του, αρνήθηκε. Ο Mokzadlo υποπτεύεται ότι το φίλτρο που χρησιμοποιείται για να δημιουργήσει μια ψευδή εικόνα θα αρχίσει να αποτυγχάνει αν συμβεί αυτό, όπως και στο Snapchat, εκθέτοντας το αληθινό του πρόσωπο.
“Πριν συμβεί αυτό, απλά δώσαμε στους ανθρώπους το πλεονέκτημα της αμφιβολίας ότι ίσως η κάμερά τους είναι σπασμένη”, λέει ο Mokzadlo. “Αλλά μετά από αυτό, αν δεν έχουν πραγματική κάμερα, θα σταματήσουμε εντελώς [the interview].
Αυτός είναι ένας περίεργος νέος κόσμος για τους ηγέτες του προσωπικού και των διαχειριστών προσλήψεων, αλλά υπάρχουν και άλλα σημάδια που μπορούν να ακολουθήσουν νωρίτερα στη διαδικασία των συνεντεύξεων που μπορούν να σώσουν τους κύριους πονοκεφάλους τους αργότερα.
Οι υποψήφιοι στο Deepfake συχνά χρησιμοποιούν το AI για να δημιουργήσουν ψεύτικα προφίλ LinkedIn που φαίνονται πραγματικά, αλλά δεν έχουν αρκετές κρίσιμες πληροφορίες στην ιστορία της απασχόλησής τους ή έχουν πολύ λίγη δραστηριότητα ή λίγες συνδέσεις, σημειώνει ο Meyers.
Όταν πρόκειται για το στάδιο της συνέντευξης, αυτοί οι υποψήφιοι συχνά συχνά δεν μπορούν να απαντήσουν στις κύριες ερωτήσεις σχετικά με τη ζωή και την εργασιακή τους εμπειρία. Για παράδειγμα, ο Mokzadlo λέει ότι πρόσφατα συνέντευξη από τον υποψήφιο στο Deepfake, ο οποίος ανέφερε αρκετούς διάσημους οργανισμούς για το βιογραφικό τους σημείωμα, αλλά δεν μπορούσε να μοιραστεί λεπτομερείς πληροφορίες σχετικά με αυτές τις εταιρείες.
Οι εργοδότες θα πρέπει επίσης να αναζητούν νέους υπαλλήλους που ζητούν από το φορητό υπολογιστή τους να σταλούν σε ένα μέρος που είναι διαφορετικό από τη διεύθυνση του σπιτιού. Μερικοί άνθρωποι ελέγχουν τις “εκμεταλλεύσεις φορητών υπολογιστών”, στα οποία διατηρούν αρκετούς υπολογιστές ανοιχτές και εργάζονται έτσι ώστε οι άνθρωποι εκτός της χώρας να μπορούν να εισέλθουν στο σύστημα εξ αποστάσεως.
Τέλος, οι μιμητές των εργαζομένων δεν είναι συνήθως οι καλύτεροι εργαζόμενοι. Συχνά δεν περιλαμβάνουν τις κάμερες τους κατά τη διάρκεια των συναντήσεων, δικαιολογούν τον εαυτό τους για να κρύψουν τα πρόσωπά τους ή ακόμα και να χάσουν το έργο.
Ο Mokzadlo λέει ότι είναι πολύ πιο προσεκτικός στην πρόσληψη τώρα και εισήγαγε νέες διαδικασίες στη διαδικασία. Για παράδειγμα, πληρώνει για το γεγονός ότι οι υποψήφιοι πηγαίνουν στο γραφείο της εταιρείας, τουλάχιστον για μια ολόκληρη μέρα πριν από την πρόσληψή τους. Αλλά ξέρει ότι δεν μπορούν όλοι να αντέξουν οικονομικά να είναι τόσο προσεκτικοί.
“Είμαστε σε αυτό το περιβάλλον όπου οι υπεύθυνοι προσλήψεων λαμβάνουν χιλιάδες εφαρμογές”, λέει ο Mokzadlo. “Και όταν υπάρχουν μεγαλύτερη πίεση σε αυτούς για να προσλάβουν ανθρώπους, είναι πιο πιθανό να χάσουν από αυτά τα σημάδια έγκαιρων προειδοποιήσεων και να δημιουργήσουν αυτή την τέλεια καταιγίδα ευκαιριών για χρήση”.
Αυτή η ιστορία παρουσιάστηκε αρχικά στο Fortune.com