ΑΝΑΖΗΤΗΣΗ
SHARE IT
Η εποχή της ψηφιακής εξαπάτησης έχει φτάσει, φέρνοντας μαζί της ένα κύμα εξελιγμένων απατών που εκμεταλλεύονται τη δύναμη της τεχνητής νοημοσύνης. Σήμερα, οποιοσδήποτε έχει σύνδεση στο διαδίκτυο μπορεί να χρησιμοποιήσει προηγμένα νευρωνικά δίκτυα για να δημιουργήσει εκπληκτικά ρεαλιστικές πλαστογραφίες βίντεο και ήχου, ευρέως γνωστές ως deepfakes. Οι κυβερνοεγκληματίες απαιτούν μια εκπληκτικά μικρή ποσότητα δεδομένων για να εκτελέσουν αυτές τις επιθέσεις. Χρειάζονται μόλις τρία έως πέντε δευτερόλεπτα ήχου για να μιμηθούν τέλεια τη φωνή ενός ατόμου, μαζί με μερικές μόνο φωτογραφίες για να δημιουργήσουν έναν πειστικό κλώνο βίντεο. Καθώς αυτή η τεχνολογία γίνεται όλο και πιο προσιτή, κανείς δεν παραμένει απρόσβλητος από την απειλή της υποκλοπής της προσωπικής του ταυτότητας για δόλιους σκοπούς.
Οι απατεώνες συγκεντρώνουν σχολαστικά το υλικό τους από μια μεγάλη ποικιλία δημόσια διαθέσιμου διαδικτυακού περιεχομένου, σαρώνοντας επαγγελματικά διαδικτυακά σεμινάρια, δημόσιες ροές στα μέσα κοινωνικής δικτύωσης και ηχογραφημένες ομιλίες. Σε ορισμένα ανατριχιαστικά σενάρια, αυτοί οι κακόβουλοι δράστες μπορεί ακόμη και να καλέσουν απευθείας τους στόχους τους, κρατώντας τους απασχολημένους σε συζήτηση για όσο ακριβώς χρειάζεται ώστε να καταγράψουν δείγματα φωνής υψηλής ποιότητας. Ωστόσο, το απόλυτο τζακ ποτ για αυτούς τους εγκληματίες είναι η παραβίαση ενός λογαριασμού εφαρμογής ανταλλαγής μηνυμάτων που περιέχει έναν θησαυρό από προσωπικά φωνητικά μηνύματα και βίντεο. Οπλισμένοι με αυτά τα κλεμμένα δεδομένα, στρέφονται σε εξελιγμένες γεννήτριες όπως το HeyGen και το ElevenLabs, ή ακόμα και σε απλά bots του Telegram, για να δημιουργήσουν εξατομικευμένα μηνύματα τόσο αυθεντικά που οι περισσότεροι άνθρωποι δεν μπορούν να τα ξεχωρίσουν από την πραγματικότητα. Αυτό το τεχνολογικό τέχνασμα συνδυάζεται συχνά με τακτικές κοινωνικής μηχανικής. Για παράδειγμα, ένας απατεώνας μπορεί να προσομοιώσει μια ζωντανή βιντεοκλήση με κακή σύνδεση, ακολουθούμενη από ένα προηχογραφημένο βίντεο deepfake που εκλιπαρεί για επείγουσα οικονομική βοήθεια λόγω μιας κατασκευασμένης έκτακτης ανάγκης, κατευθύνοντας το πανικόβλητο θύμα να στείλει χρήματα σε ένα μη ανιχνεύσιμο πορτοφόλι κρυπτονομισμάτων.
Παρά τον κινηματογραφικό ρεαλισμό αυτών των κλώνων που δημιουργούνται από την τεχνητή νοημοσύνη, αρκετές οπτικές ενδείξεις μπορούν να σας βοηθήσουν να ξεσκεπάσετε ένα deepfake. Μία από τις πιο εξόφθαλμες ασυνέπειες σχετίζεται με τον φωτισμό και τις σκιές. Τα deepfakes συνήθως αποτυγχάνουν να υπακούσουν στους νόμους της φυσικής, με αποτέλεσμα να μην ταιριάζουν οι κατευθύνσεις των σκιών μεταξύ του ανθρώπινου υποκειμένου και του περιβάλλοντος χώρου. Επιπλέον, θα πρέπει πάντα να δίνετε μεγάλη προσοχή στις άκρες του προσώπου και στη γραμμή των μαλλιών. Οι αλγόριθμοι που χρησιμοποιούνται για την επικάλυψη ενός κλωνοποιημένου προσώπου αφήνουν συχνά πίσω τους θολά όρια, εικονοστοιχεία που τρεμοπαίζουν ή περίεργες χρωματικές αλλαγές. Τα μάτια προδίδουν επίσης συχνά τη μηχανή. Ένα deepfake μπορεί να ανοιγοκλείνει τα μάτια του πολύ γρήγορα, καθόλου, ή να εμφανίζει ένα άψυχο βλέμμα. Επιπλέον, ο τέλειος συγχρονισμός των χειλιών παραμένει ένα σημαντικό εμπόδιο για τη δημιουργία μέσω τεχνητής νοημοσύνης. Ακόμη και μια μικροσκοπική καθυστέρηση κλάσματος του δευτερολέπτου μεταξύ του ηχητικού κομματιού και της κίνησης των χειλιών είναι αισθητή, ειδικά όταν το ψηφιακό υποκείμενο δυσκολεύεται να σχηματίσει φυσικά τα ακριβή σχήματα που απαιτούνται για την προφορά συγκεκριμένων συμφώνων όπως το m, το f ή το t.
Η κριτική ακρόαση είναι εξίσου σημαντική με την προσεκτική παρατήρηση. Ενώ οι φωνές τεχνητής νοημοσύνης παλαιότερης γενιάς ακούγονταν ξεκάθαρα ρομποτικές, οι σύγχρονες εκδοχές είναι πιο ομαλές αλλά εξακολουθούν να κρύβουν θεμελιώδη ελαττώματα. Μια συνθετική φωνή στερείται συχνά τον φυσικό ανθρώπινο τονισμό, ακούγεται ασυνήθιστα επίπεδη ή κρύβει έναν διακριτικά ηλεκτρονικό τόνο. Μπορεί επίσης να παραλείπει εντελώς τα μικροσκοπικά ανθρώπινα στοιχεία της οργανικής ομιλίας, όπως η βαθιά αναπνοή ή οι μικροσκοπικές παύσεις συνομιλίας. Πέρα από την απλή όραση και ακοή, οι διαδραστικές δοκιμές συμπεριφοράς είναι ίσως η πιο ισχυρή άμυνα κατά τη διάρκεια μιας ζωντανής βιντεοκλήσης. Το να ζητήσετε από τον καλούντα να γυρίσει το κεφάλι του εντελώς στο πλάι συνήθως καταστρέφει την ψηφιακή ψευδαίσθηση αμέσως, καθώς τα περισσότερα μοντέλα deepfake βασίζονται σε μεγάλο βαθμό σε δεδομένα μετωπικού πορτρέτου, προκαλώντας έντονη παραμόρφωση του πλευρικού προφίλ. Η τεχνολογική νεοφυής επιχείρηση Metaphysic.ai, διάσημη για τα viral deepfakes του Tom Cruise, επισημαίνει την περιστροφή του κεφαλιού ως το απόλυτο τεστ αντοχής. Ομοίως, αν ζητήσετε από το άτομο να κουνήσει το χέρι του ακριβώς μπροστά από το πρόσωπό του, αυτό θα έχει συχνά ως αποτέλεσμα η τεχνητή νοημοσύνη να δυσκολευτεί να αποδώσει σωστά τα αντικείμενα που επικαλύπτονται, δημιουργώντας ένα περίεργο εφέ φαντάσματος.
Εάν ποτέ έχετε έστω και την παραμικρή υποψία ότι επικοινωνείτε με έναν ψηφιακό κλώνο, η απόλυτη καλύτερη πορεία δράσης είναι να κλείσετε αμέσως τη γραμμή και να επικοινωνήσετε με το άτομο μέσω μιας εντελώς διαφορετικής, επαληθευμένης μεθόδου. Οι απατεώνες ευδοκιμούν δημιουργώντας μια ψευδή αίσθηση πανικού, επομένως η άρνηση να βιαστείτε να στείλετε χρήματα είναι ένα ζωτικό μέτρο προστασίας. Για να υπερασπιστείτε προληπτικά τη δική σας ψηφιακή ταυτότητα, περιορίστε αυστηρά τη δημόσια πρόσβαση στις προσωπικές σας φωτογραφίες και βίντεο σε όλες τις πλατφόρμες κοινωνικής δικτύωσης. Ενισχύστε την προσωπική σας ασφάλεια εφαρμόζοντας έλεγχο ταυτότητας δύο παραγόντων όπου είναι δυνατόν. Τέλος, αφιερώστε χρόνο για να εκπαιδεύσετε τα μέλη της οικογένειάς σας, δημιουργήστε μια μυστική οικογενειακή κωδική λέξη για πραγματικές καταστάσεις έκτακτης ανάγκης και εξετάστε το ενδεχόμενο να χρησιμοποιήσετε εξειδικευμένα εργαλεία ανίχνευσης τεχνητής νοημοσύνης όπως τα Undetectable AI, Illuminarty, Deepware, Sensity AI ή Hive Moderation για να βοηθήσετε στον διαχωρισμό του συγκεκριμένου γεγονότος από την τρομακτική ψηφιακή μυθοπλασία.
MORE NEWS FOR YOU