Μήπως «πρωταγωνιστείτε» σε video χωρίς να το ξέρετε;

Η τεχνολογία προχωρά με γρήγορα βήματα, και η τεχνητή νοημοσύνη ήδη κάνει την εμφάνισή της σε πολλούς τομείς, αλλά δυστυχώς πάντα θα υπάρχουν και εκείνοι που θα επιδιώξουν να εκμεταλλευτούν την τεχνολογία για ίδιον όφελος, πολλές φορές βλάπτοντας και συνανθρώπους τους.

Έτσι, μετά τους «κλασικούς» εκβιασμούς με φωτογραφίες και video που θα θέλαμε να μην έχουμε τραβήξει στο παρελθόν, μετά τα περιβόητα ransomware που «κλειδώνουν» τον υπολογιστή μας και μας ζητούν λύτρα σε bitcoin για να μας στείλουν (εάν μας στείλουν) το «κλειδί» για να τον «ξεκλειδώσουμε», έχουμε πλέον τις deepfake φωτογραφίες και τα deepfake βίντεο, όπου πρωταγωνιστής είναι συνήθως ο στόχος του επιτήδειου...

Τα deepfake βίντεο προέρχονται από τη λέξη deep (βαθιά) από τη «βαθιά μάθηση» και fake (ψεύτικο). Η βαθιά μάθηση είναι μια προηγμένη μέθοδος τεχνητής νοημοσύνης (AI) που χρησιμοποιεί πολλαπλά επίπεδα αλγορίθμων μηχανικής εκμάθησης για την εξαγωγή δυνατοτήτων προοδευτικά υψηλότερου επιπέδου από μη δομημένα δεδομένα, όπως είναι το ανθρώπινο πρόσωπο.

Για παράδειγμα, ένα AI πρόγραμμα μπορεί να συλλέξει δεδομένα όχι μόνο με το πρόσωπό σας, αλλά και σχετικά με τις φυσικές σας κινήσεις. Πού θα τα βρει αυτά; Δε χρειάζεται να «προσπαθήσει» πολύ, καθώς εμείς οι ίδιοι «φροντίζουμε» να τα δημοσιοποιούμε μέσα από τα social media...

Αυτά τα δεδομένα μπορούν, στη συνέχεια να υποβληθούν, σε επεξεργασία προκειμένου να δημιουργηθεί ένα βίντεο deepfake μέσω ενός GAN (Generative Adversarial Network). Αυτό είναι ένα άλλο είδος εξειδικευμένου συστήματος μηχανικής μάθησης. Δύο νευρωνικά δίκτυα χρησιμοποιούνται για να ανταγωνίζονται μεταξύ τους για την εκμάθηση των χαρακτηριστικών ενός σετ εκπαίδευσης (για παράδειγμα, φωτογραφίες προσώπων) και στη συνέχεια για τη δημιουργία νέων δεδομένων με τα ίδια χαρακτηριστικά (νέες «φωτογραφίες»).

Τί σημαίνει αυτό στην πράξη; Ότι ένας επιτήδειος με καλή γνώση στο χειρισμό αυτών των τεχνολογιών (τόσο σχετικά τα προγράμματα, όσο και τα σχετικά GAN, υπάρχουν διαθέσιμα, είτε στο εμπόριο, είτε σε χώρους όπως είναι τα πανεπιστήμια) εάν χρησιμοποιήσει το «υλικό» που εσείς «ανεβάζετε» στα social media με τον εαυτό σας πρωταγωνιστή, είναι σε θέση να δημιουργήσει τόσο φωτογραφίες, όσο και video με πρωταγωνιστή εσάς, τα οποία φυσικά δε θα έχουν καμία σχέση με την πραγματικότητα, ωστόσο θα είναι αρκετά (έως και πολύ) αληθοφανή ώστε να σας βάλουν σε… μπελάδες.

Τα πρώιμα βίντεο deepfake φαίνονταν γελοία, αλλά η τεχνολογία έχει εξελιχθεί αρκετά ώστε τέτοια μέσα να γίνουν τρομακτικά πειστικά. Ένα από τα πιο αξιοσημείωτα παραδείγματα τρομακτικά πειστικού deepfake από το 2018 ήταν ο ψεύτικος Μπαράκ Ομπάμα που μιλούσε για τα deepfakes. Στα μέσα του 2019, είδαμε ένα σύντομο βίντεο του ψεύτικου Mark Zuckerberg να είναι αξιοπερίεργα ειλικρινής σχετικά με την τρέχουσα κατάσταση απορρήτου.

Για να καταλάβετε πόσο καλή έχει γίνει η τεχνολογία, παρακολουθήστε το βίντεο που δημιούργησε ο ιμπρεσιονιστής Jim Meskimen, σε συνεργασία με τον καλλιτέχνη deepfake Sham00k. Ο πρώτος ήταν υπεύθυνος για τις φωνές και ο δεύτερος εφάρμοσε τα πρόσωπα περίπου 20 διασημοτήτων στο βίντεο χρησιμοποιώντας λογισμικό deepfake. Το αποτέλεσμα πιθανότατα θα σας αφήσει με το στόμα ανοιχτό…

Η συγκεκριμένη τεχνολογία δεν αναπτύχθηκε φυσικά για «κακούς» σκοπούς. Ίσα ίσα που μπορεί να αποτελέσει ένα πολύ «δυνατό» εργαλείο για τις διωκτικές Αρχές, για παράδειγμα, οι οποίες θα μπορούν να «προβλέψουν» την αλλαγή εμφάνισης ενός καταζητούμενου και έτσι να έχουν περισσότερες πιθανότητες σύλληψής του.

Κάποιοι όμως σκέφτηκαν ότι μπορεί να αποτελέσει και ένα μέσο εκβιασμού για πρόσωπα που μπορούν να τα «βάλουν» να λένε ότι θέλουν αυτοί…

Η εταιρεία παρακολούθησης deepfake «Sensity», αποκάλυψε ότι είχε ανακαλύψει μια τεράστια επιχείρηση διάδοσης γυμνών εικόνων γυναικών που δημιουργούνται από AI και, σε ορισμένες περιπτώσεις, ανηλίκων κοριτσιών. Οι χρήστες είχαν τη δυνατότητα να στέλνουν στο bot τη φωτογραφία μιας γυναίκας που ήθελαν να δουν γυμνή. Στη συνέχεια, το bot δημιουργούσε ένα ψεύτικο γυμνό σώμα στο οποίο ενσωμάτωνε την αρχική εικόνα της εν λόγω γυναίκας.

Η Sensity ανέφερε πέρυσι ότι το 96% των βίντεο deepfake online ήταν μη συναινετική πορνογραφία.

Πώς μπορούμε να προστατευθούμε;

Στο εξωτερικό αρκετές χώρες προσαρμόζουν τη νομοθεσία τους ώστε να αντιμετωπίζει τις απειλές των βίντεο deepfake. Για παράδειγμα, στην πολιτεία της Καλιφόρνια, έχουν ψηφιστεί δύο νομοσχέδια που καθιστούν παράνομες πτυχές του Deepfake (το AB-602 απαγόρευσε τη χρήση σύνθεσης ανθρώπινης εικόνας για πορνογραφία χωρίς τη συγκατάθεση των ανθρώπων που απεικονίζονται και το AB-730 απαγόρευσε τη εκμετάλλευση εικόνων πολιτικών υποψηφίων εντός 60 ημερών από τις εκλογές).

Οι εταιρείες ψηφιακής ασφάλειας έρχονται συνεχώς με περισσότερους και καλύτερους αλγόριθμους ανίχνευσης. Αυτοί αναλύουν την εικόνα του βίντεο και εντοπίζουν τις μικροσκοπικές παραμορφώσεις που δημιουργούνται στη διαδικασία «πλαστογράφησης».

Για παράδειγμα, οι τρέχοντες συνθέτες deepfake διαμορφώνουν ένα δισδιάστατο πρόσωπο και, στη συνέχεια, το παραμορφώνουν ώστε να ταιριάζει με την τρισδιάστατη προοπτική του βίντεο. Κοιτάζοντας προς τα που δείχνει η μύτη είναι ένας βασικός τρόπος ανίχνευσης.

Τα βίντεο deepfake βρίσκονται ακόμη σε ένα στάδιο όπου μπορείτε να εντοπίσετε μόνοι σας τα σημάδια. Μπορείτε να αναζητήσετε τα χαρακτηριστικά ενός βίντεο Deepfake, όπως η αδέξια κίνηση, οι αλλαγές στον φωτισμό από το ένα πλαίσιο στο άλλο, οι αλλαγές στον τόνο του δέρματος, το παράξενο ή καθόλου ανοιγόκλεισμα ματιών, τα χείλη που δεν συγχρονίζονται με την ομιλία ή άλλα ψηφιακά αντικείμενα στην εικόνα.

Καθώς στην Ελλάδα δεν υπάρχει, προς το παρόν, νομοθεσία «προσαρμοσμένη» στην αντιμετώπιση των κακόβουλων φωτογραφιών και βίντεο deepfake, εάν διαπιστώσετε δημόσια ανάρτηση τέτοιων φωτογραφιών ή βίντεο που θεωρείτε ότι σας δημιουργούν πρόβλημα, θα πρέπει να απευθυνθείτε στη δίωξη ηλεκτρονικού εγκλήματος της ΕΛΑΣ.

ΣΧΟΛΙΑ

Το Documento σέβεται όλες τις απόψεις, οι οποίες ωστόσο απηχούν αποκλειστικά και μόνον τη γνώμη των χρηστών. Διατηρούμε το δικαίωμά μας να μην αναρτούμε υβριστικά σχόλια και διαφημίσεις. Σχόλια που παραπέμπουν με ενεργό link σε άλλα sites δεν θα δημοσιεύονται. Χρήστες που δεν σέβονται αυτούς τους κανόνες θα αποκλείονται.