Στο άρθρο αυτό θα ασχοληθούμε με τα Deepfakes. ‘Ενα εντυπωσιακό τεχνολογικό επίτευγμα, που έφερε η τεχνητή νοημοσύνη, το οποίο ισορροπεί ανάμεσα στην καινοτομία και το έγκλημα. Από τη ψυχαγωγία μέχρι τις πολιτικές καμπάνιες και την οικονομική απάτη, τα Deepfakes βρίσκονται πλέον παντού.
Μάθετε πώς να προστατεύσετε τον εαυτό σας και τους αγαπημένους σας
Μάθετε για το πώς οι απατεώνες, χρησιμοποιόντας την τεχνητή νοημοσύνη, κλωνοποιούν πρόσωπα και φωνές, αλλά και τους τρόπους για να προστατευθείτε από τέτοιου είδους παγίδες.
Τι είναι τα Deepfakes
Με απλά λόγια, τα Deepfakes είναι αρχεία (εικόνας, video ή ήχου) τα οποία έχουν δημιουργηθεί ή παραποιηθεί με τη χρήση τεχνητής νοημοσύνης και τεχνικών μηχανικής μάθησης. Είναι τόσο ρεαλιστικά, που καθιστούν εξαιρετικά δύσκολο τον διαχωρισμό του αληθινού από το ψεύτικο.
Ο όρος «Deepfake» προέρχεται από τον συνδυασμό των λέξεων «deep learning» (υποσύνολο της μηχανικής μάθησης) και «fake» (ψεύτικο).
Για να δημιουργηθεί Deepfake υλικό, όπου κάποιος εμφανίζεται να λέει ή να κάνει πράγματα που ουδέποτε είπε ή έκανε, απαιτούνται φωτογραφίες – video ή μόλις 5 δευτερόλεπτα (!) από τη φωνή του ατόμου που θέλει κανείς να τοποθετήσει σε αυτό που θα δημιουργήσει.
Το αποτέλεσμα; Εικόνες, video και ηχητικά αποσπάσματα, που μιμούνται με εκπληκτική ακρίβεια πραγματικά πρόσωπα και καταστάσεις.
Μπορείτε πλέον να εμπιστεύεστε τα μάτια και τα αυτιά σας;
Η τεχνολογία πίσω από την απάτη
Η τεχνολογία πίσω από αυτά τα ψηφιακά δημιουργήματα βασίζεται κυρίως σε ένα σύστημα δύο νευρωνικών δικτύων. Τα οποία μιμούνται τη λειτουργία του ανθρώπινου εγκεφάλου, ιδιαίτερα όσον αφορά τον τρόπο που οι νευρώνες συνδέονται και ανταλλάσσουν πληροφορίες.
Στη προκειμένη περίπτωση «ανταγωνίζονται» το ένα το άλλο. Το ένα δίκτυο προσπαθεί να δημιουργήσει μια ψεύτικη εικόνα, ενώ το άλλο προσπαθεί να εντοπίσει αν είναι αληθινή ή όχι.
Μέσα από αυτή τη συνεχή διαδικασία δοκιμών και «αυτοβελτίωσης», τα Deepfakes προσπαθούν να γίνουν όλο και πιο πειστικά, μέχρι να μην μπορεί να εντοπιστεί το λάθος.
Κίνδυνοι και πραγματικές επιπτώσεις
Η χρήση των Deepfakes, που πλέον δεν περιορίζεται μόνο σε διασκεδαστικά video στο Instagram και το TikTok, έχουν επιπτώσεις που μπορεί να είναι καταστροφικές:
- Οικονομική απάτη: Το 2019, διευθύνων σύμβουλος εταιρείας ενέργειας στο Ηνωμένο Βασίλειο εξαπατήθηκε μέσω deepfake φωνής, που μιμούταν τον διευθύνοντα σύμβουλο της μητρικής εταιρείας στη Γερμανία, οδηγώντας στην πληρωμή σχεδόν 220.000 ευρώ σε κυβερνοεγκληματίες.
– Το 2023, υπάλληλος στον τομέα των οικονομικών, στο Χονγκ Κονγκ, μετέφερε 25 εκατομμύρια δολάρια σε απατεώνες, αφού συμμετείχε σε μια βιντεοκλήση όπου όλοι οι συνάδελφοί του και ο οικονομικός διευθυντής ήταν Deepfakes!
- Εκβιασμοί: Υπάρχουν πάμπολλες περιπτώσεις, ανά τον κόσμο, όπου δημιουργήθηκε πλαστό περιεχόμενο, για τον εκφοβισμό ανηλίκων ή τη δυσφήμιση δημόσιων προσώπων.
- Deepfake Phishing: Οι απατεώνες μπορούν πλέον να κλωνοποιήσουν τη φωνή ενός αγαπημένου προσώπου, με μόλις 3-5 δευτερόλεπτα ηχητικού δείγματος, ζητώντας επειγόντως χρήματα για μια υποτιθέμενη ανάγκη μέσω τηλεφωνικών κλήσεων.
Πώς να αναγνωρίσετε ένα Deepfake
Παρά την υψηλή τεχνολογία, υπάρχουν ακόμη σημάδια που προδίδουν την ψηφιακή πλαστογραφία. Αν υποψιάζεστε ότι κάτι δεν πάει καλά, εστιάστε στις παρακάτω ενδείξεις:
Οπτικές ενδείξεις
- Αφύσικο ανοιγοκλείσιμο ματιών: Οι άνθρωποι ανοιγοκλείνουν τα μάτια 10-20 φορές το λεπτό. Τα Deepfakes συχνά το κάνουν πολύ σπάνια, πολύ συχνά ή ασύγχρονα.
- Μη συγχρονισμός χειλιών: Ακόμη και τα κορυφαία εργαλεία AI δυσκολεύονται να συγχρονίσουν τέλεια την ομιλία με την κίνηση των χειλιών, ειδικά σε σύμφωνα όπως τα «m», «f» και «t».
- Μαλλιά: Δώστε προσοχή στη γραμμή των μαλλιών. Τα Deepfakes συχνά εμφανίζουν θόλωμα, τρεμόπαιγμα ή αφύσικες μεταβάσεις χρώματος σε αυτή τη περιοχή.
- Παράξενες εκφράσεις: Το πρόσωπο μπορεί να μοιάζει σαν να έχει κάνει «botox». Επίσης, τα Deepfakes είναι δύσκολο να μιμηθούν συναισθήματα. Οι εκφράσεις μπορεί να μην αλλάζουν ανάλογα με τη συζήτηση, τα χαμόγελα να φαίνονται παγωμένα και οι μικρές ρυτίδες και πτυχώσεις, που εμφανίζονται φυσικά στο πρόσωπο όταν εκφράζουμε συναισθήματα, να απουσιάζουν.
- Προβλήματα στον φωτισμό: Οι σκιές στο πρόσωπο μπορεί να μην ταιριάζουν με τον περιβάλλοντα φωτισμό ή οι αντανακλάσεις στα μάτια να διαφέρουν μεταξύ του αριστερού και του δεξιού οφθαλμού.
Ακουστικές ενδείξεις
- Ρομποτική χροιά: Η φωνή μπορεί να ακούγεται επίπεδη ή να έχει μια ελαφριά ηλεκτρονική παραμόρφωση.
- Έλλειψη ανάσας: Οι άνθρωποι κάνουν μικρές παύσεις για να αναπνεύσουν ή έχουν μικρές ατέλειες στην ομιλία (π.χ. βήχας). Τα AI ηχητικά συχνά στερούνται αυτών των στοιχείων.
Χρήσιμες συμβουλές
Σε περιπτώσεις τηλεφωνικής επικοινωνίας, εάν για οποιοδήποτε λόγο έχετε έστω και την παραμικρή υποψία ότι δεν μιλάτε με πραγματικό άνθρωπο, αλλά με Deepfake δημιούργημα, ακολουθήστε τις παρακάτω χρήσιμες συμβουλές:
- Ορίστε έναν οικογενειακό «κωδικό»: Συμφωνήστε με τους δικούς σας ανθρώπους, εκ των προτέρων, μια μυστική λέξη/φράση που θα χρησιμοποιείτε μόνο σε περιπτώσεις έκτακτης ανάγκης, για να επιβεβαιώνετε την ταυτότητα σας.
- Δύσκολες ερωτήσεις: Εναλλακτικά, κάντε μια ερώτηση που μόνο το πραγματικό άτομο θα μπορούσε να γνωρίζει. Για παράδειγμα: «γιατί έχω αυτό το σημάδι στο πόδι μου;» ή «πού πήγαμε διακοπές πριν από τρία χρόνια;». Ένας Deepafake δεν θα μπορέσει ποτέ να απαντήσει, σε κάτι που δεν γνωρίζει ή δεν έχει την πληροφορία.
- Μην πιέζεστε: Οι απατεώνες χρησιμοποιούν το αίσθημα του κατεπείγοντος. Αν κάποιος σας ζητάει χρήματα «ΤΩΡΑ», τερματίστε την επικοινωνία και καλέστε εσείς το άτομο που αφορούσε την κλήση, στον αριθμό που γνωρίζετε ή μέσω άλλης εφαρμογής από αυτήν που σας κάλεσαν.
- Περιορίστε την έκθεσή σας: Οι απατεώνες συλλέγουν υλικό από δημόσιες πηγές και τέτοιες θεωρούνται τα προφίλ μας στα social media, όταν δεν είναι «κλειδωμένα». Για τον λόγο αυτό ρυθμίστε τα προφίλ σας ως ιδιωτικά (private). Όσο λιγότερο δημόσιο υλικό (video/φωνή) υπάρχει, τόσο πιο δύσκολο είναι για έναν αλγόριθμο να σας κλωνοποιήσει ψηφιακά.
- Χρησιμοποιήστε 2FA: Ο έλεγχος ταυτότητας δύο παραγόντων (2FA) καθιστά πολύ δυσκολότερη την παραβίαση των λογαριασμών σας, ακόμη και αν οι απατεώνες χρησιμοποιήσουν τη μορφή σας.
- Σε περιπτώσεις βιντεοκλήσεων: Εάν πρόκειται για βιντεοκλήση, μία από τις πιο αξιόπιστες μεθόδους ελέγχου, σε πραγματικό χρόνο, είναι να ζητήσετε από τον συνομιλητή σας να στρέψει το κεφάλι του τελείως στο πλάι. Τα περισσότερα Deepfakes (μέχρι σήμερα) βασίζονται σε μετωπικές φωτογραφίες (πορτρέτου), με αποτέλεσμα σε πλάγια όψη συχνά να εμφανίζουν παραμόρφωση ή «σπάσιμο» της εικόνας.
- Αυθόρμητες κινήσεις: Εναλλακτικά ζητήστε από το άτομο, κατά τη βιντεοκλήση, να κάνει μια αυθόρμητη ενέργεια, όπως να κουνήσει το χέρι του μπροστά από το πρόσωπό του, να καλύψει τα μάτια με τα χέρια του, ή να δείξει κάτι μέσα στο χώρο όπου βρίσκεται. Τα Deepfakes δυσκολεύονται να εκτελέσουν τέτοιες αυθόρμητες κινήσεις.
Εάν πέσατε θύμα αυτού του είδους απάτης, με υλικό που σας αφορά, καταγράψτε όλα τα στοιχεία (screenshots, ημερομηνία, πλατφόρμα), ενημερώστε αμέσως τις Αρχές και αναφέρετε (report) το περιεχόμενο στην αντίστοιχη πλατφόρμα (Facebook, YouTube, Instagram κλπ) για την άμεση αφαίρεσή του.
Συμπέρασμα
Στην εποχή μας, η παραπληροφόρηση και η προπαγάνδα διαθέτουν πλέον «δυνατά εργαλεία» πραγμάτωσης των στόχων τους, τα Deepfakes. Τα οποία σε συνδυασμό με τη διαδικτυακή δυνατότητα εκθετικού πολλαπλασιασμού περιεχομένου μπορούν να εξαπλωθούν ραγδαία.
Πλέον το αληθινό καταγγέλλεται ως ψεύτικο
και το ψευδές γίνεται δεκτό ως αληθές
Για τους επιστήμονες αποτελεί πραγματικό αγώνα δρόμου, ενάντια στο χρόνο και την εξέλιξη της τεχνολογίας, η προσπάθεια να δημιουργήσουν αξιόπιστα εργαλεία τα οποία θα ανιχνεύουν επιτυχώς τα Deepfakes και θα παρέχουν ασφάλεια σε όλους.
Όμως η τεχνολογία αυτή έχει εξελιχθεί τόσο, ώστε μπορεί να ξεγελάσει όχι μόνο την ανθρώπινη όραση – αντίληψη, αλλά και τους αλγόριθμους που έχουν δημιουργηθεί για να ανιχνεύουν πλαστό περιεχόμενο.
Να είστε προσεκτικοί…
👉 Δείτε: Πώς η ΕΥΠ παρακολουθεί τα κινητά μας
- Η εικόνα του άρθρου δημιουργήθηκε με χρήση τεχνητής νοημοσύνης
