Είναι γνωστό πως το διαδίκτυο έχει την καλή του πλευρά. Την άμεση ενημέρωση, για παράδειγμα. Ή το να μπορείς να βρεις οτιδήποτε θες μέσα σε ελάχιστα δευτερόλεπτα και πολλά άλλα. Είναι, όμως, και γνωστό πως το διαδίκτυο έχει και την κακή του, την σκοτεινή του, πλευρά. Μπορεί να γίνει εργαλείο στα χέρια κάθε απατεώνα και κάθε κακοποιού.
Μέχρι τώρα ένα από τα μεγαλύτερα «αγκάθια» του internet είναι τα fake news. Υπάρχουν αυτά που είναι κακοστημένα και γίνονται εύκολα αντιληπτά αλλά υπάρχουν και αυτά που έχουν στηθεί με τόσο αριστοτεχνικό τρόπο που δύσκολα μπορείς να καταλάβεις που αρχίζει και που τελειώνει το ψέμα.
Επειδή, ωστόσο, το internet εξελίσσεται όσο προχωράει και η τεχνολογία, φαίνεται, πως σε ότι αφορά το κομμάτι της ενημέρωσης τα δύσκολα είναι μπροστά μας. Ήδη από τις αρχές της περασμένης χρόνιας έχουν αρχίσει να κάνουν ολοένα και πιο συχνά την εμφάνισή τους τα deepfakes τα οποία ήρθαν για να μείνουν και να κάνουν τα fake news να μοιάζουν με παιχνιδάκι.
Τι είναι ακριβώς ένα “deepfake”;
Μια νέα τεχνολογική απειλή μεγέθυνε αυτό το άγχος. Τα deepfakes, ψεύτικα μέσα που τροφοδοτούνται από τεχνητή νοημοσύνη, αναπτύσσουν γρήγορα την ικανότητα να παραμορφώνουν την πραγματικότητα και να κατασκευάζουν ψεύτικες εμπειρίες με ανησυχητική αληθοφάνεια.
https://twitter.com/Webwise_Ireland/status/1730255370998661563
Ουσιαστικά μιλάμε για ηχητικά ή βίντεο, όπου κάποιος εμφανίζεται να λέει ή να κάνει πράγματα που ουδέποτε είπε ή έκανε!
Από το ροζ βίντεο της Σκάρλετ Γιόχανσον μέχρι την απόπειρα πραξικοπήματος στην Γκαμπόν, έχουν την ικανότητα να μπερδεύουν την αλήθεια με το ψέμα επικίνδυνα. Για όποιον φοβάται την απώλεια της ταυτότητας και την απώλεια του εαυτού του μέσω της νόσου Αλτσχάιμερ, τα deepfakes θέτουν σε κίνδυνο την ιερότητα των αναμνήσεών μας.
Λάζαρος Καραούλης στον ΕΤ: «Φέρνουμε την Τεχνητή Νοημοσύνη στον Δήμο Αθηναίων»
Η εξελιγμένη τεχνητή νοημοσύνη συνθέτει το αρχικό υλικό – φωτογραφίες, βίντεο, φωνές – σε νέες, παραποιημένες εκδοχές που φαίνονται αληθινές. Με εκθετικές βελτιώσεις στην ποιότητα, τα deepfakes προσομοιώνουν πλέον εκφράσεις και συμπεριφορές με ανατριχιαστική ακρίβεια, καθιστώντας σχεδόν αδύνατη την επαλήθευση της αυθεντικότητας, δίνοντας ζωή σε ψευδή γεγονότα.
Οι διασημότερες γνωστές περιπτώσεις
Η τεράστια πλειοψηφία (96%) αυτών των βίντεο είναι πορνογραφικού περιεχομένου. Ένας πολύ μικρότερος αριθμός βίντεο βάζει στο στόχαστρο πολιτικούς ή γνωστούς επιχειρηματίες. Είναι ενδεικτικό πως ένα 2% των deepfake βίντεο που εντόπισε η έρευνα στο YouTube εμφανίζουν προσωπικότητες από τον επιχειρηματικό χώρο.
Όπως αναφέραμε και παραπάνω από τους πρώτους που ένιωσαν στο πετσί τους το τι κακό μπορεί να προκαλέσουν τα deepfake ήταν η ηθοποιός Scarlett Johansson. Σε ανάλογου περιεχομένου βίντεο είχαν πρωταγωνιστήσει και η Ολλανδή τηλεοπτική παρουσιάστρια Dionne Stax αλλά και η η Ινδή δημοσιογράφος Rana Ayyub. Και στις τρεις περιπτώσεις το αποτέλεσμα είναι ίδιο. Τα βίντεο τα είδαν εκατομμύρια άνθρωποι και αν και κατέβηκαν από τις πλατφόρμες που είχαν αναρτηθεί πλέον οι περισσότεροι πιστεύουν πως όντως οι γυναίκες αυτές πρωταγωνιστούσαν σε ροζ βίντεο.
Θα πρέπει να αναφερθεί, μάλιστα, πως στην περίπτωση της Ινδής δημοσιογράφου η δημιουργία του deepfake βίντεο έγινε ως προϊόν εκβιασμού προκειμένου να σταματήσει να ερευνά το βιασμό και τη δολοφονία ενός οκτάχρονου κοριτσιού από το Κασμίρ!
Όπως εύκολα αντιλαμβάνεται κανείς, ωστόσο, δεν είναι όλα τα deepfake… ροζ. Σύμφωνα με τη Wall Street Journal, ένας Βρετανός διευθυντής επιχείρησης έπεσε θύμα ενός audio deep fake και νομίζοντας ότι είχε μιλήσει με το διευθυντή μιας ουγγρικής εταιρείας, ενέκρινε την αποστολή 250.000 λιρών σε λογαριασμό που του δόθηκε.
Θύματα deepfake έχουν πέσει επίσης η πρόεδρος της αμερικανικής Βουλής Νάνσι Πελόζι (τροποποιήθηκε η φωνή της και επιβραδύνθηκαν οι χειρονομίες της, κατά τη διάρκεια πραγματικών ομιλιών της, με τρόπο που να εμφανίζεται μεθυσμένη) αλλά και ο πρώην και ο νυν πρόεδρος των ΗΠΑ. Στο διαδίκτυο εύκολα μπορεί να βρει κάποιος τα fake videos και του Ομπάμα και του Τραμπ.
Η πιο εξωφρενική, εξοργιστική και επικίνδυνη περίπτωση, ωστόσο, έρχεται από τη μακρινή Γκαμπόν, όπου η μακρά απουσία του προέδρου σε συνδυασμό με ένα πιθανώς deepfake βίντεο, έπεισε τις ένοπλες δυνάμεις ότι ο Πρόεδρος έχει πεθάνει, ή δεν είναι σε θέση να ασκήσει τα καθήκοντά του. Αυτό είχε ως αποτέλεσμα στις αρχές Ιανουαρίου του 2019 μονάδες του στρατού να καταλάβουν τη δημόσια ραδιοφωνία και τηλεόραση.
Οι επικεφαλής αξιωματικοί τους έκανα εκτενή αναφορά στην κατάσταση που προκαλούν τα προβλήματα υγείας του προέδρου Αλί Μπονγκό και δήλωσαν πως οι ίδιοι αναλαμβάνουν τις τύχες της χώρας. Ενάμιση χρόνο μετά, κανείς ειδικός δεν έχει αποφανθεί με βεβαιότητα αν το βίντεο ήταν αυθεντικό ή όχι. Το πραξικόπημα πάντως απέτυχε, και ο Μπονγκό που σταδιακά άρχισε να κάνει και πάλι δημόσιες εμφανίσεις, παραμένει πρόεδρος της χώρας.
Υπάρχει λύση απέναντι στα deepfakes;
Οι επιπτώσεις των deepfakes στην οικονομία, την πολιτική, το έγκλημα και την επικοινωνία είναι δυνητικά τεράστιες.
Στην πραγματικότητα, ωστόσο, αν και μέχρι στιγμής αυτοί που φαίνεται να είναι στο στόχαστρο είναι οι επώνυμοι (από δημοσιογράφους και ηθοποιούς, μέχρι πολιτικούς και οικονομικούς παράγοντες), οι απλοί άνθρωποι είναι αυτοί που κινδυνεύουν πολύ περισσότερο και αυτό γιατί προφανώς και δεν έχουν την ίδια ευκολία στο να βρουν τρόπους να αμυνθούν απέναντι σε τέτοιου είδους επιθέσεις.
Κάποιοι ερευνητές έχουν ήδη δημιουργήσει κάποια συστήματα ανίχνευσης deepfake υλικού, τα οποία εξετάζουν στοιχεία όπως ο φωτισμός, οι σκιάσεις, οι κινήσεις του προσώπου προκειμένου να καθοριστεί η γνησιότητα του περιεχομένου.
Κανένα από τα πρόσωπα που βλέπετε δεν είναι υπαρκτό. Όλα είναι δημιούργημα ηλεκτρονικού υπολογιστή με τη μέθοδο του deepfake. Οι ερευνητές αυτοί θεωρούν πως επειδή ακριβώς τα deepfakes βασίζονται στην τεχνολογία της τεχνητής νοημοσύνης, κάποιοι πιστεύουν ότι στην τεχνητή νοημοσύνη μπορεί να βρίσκεται η λύση στο πρόβλημα. Μια άλλη λύση που επίσης προκρίνεται σε αυτή τη φάση, είναι η προσθήκη ενός είδους φίλτρου στο αρχείο μιας εικόνας έτσι ώστε να «κλειδώνει» μην μπορεί να χρησιμοποιηθεί για την δημιουργία deepfake περιεχομένου. Αναμφισβήτητα, πάντως, πρόκειται για μια ακόμα μεγάλη πρόκληση.
Σε μια πρόσφατη έκθεσή του, το ερευνητικό Ινστιτούτο Brookings συνοψίζει ως εξής το εύρος των πολιτικών και κοινωνικών κινδύνων που αντιπροσωπεύουν τα deepfakes: «διαστρέβλωση του δημοκρατικού διαλόγου, χειραγώγηση εκλογικών διαδικασιών, απόσυρση της εμπιστοσύνης στους θεσμούς, φθορά του δημοσιογραφικού λόγου, διεύρυνση των κοινωνικών διαχωρισμών, υπονόμευση της δημόσιας ασφάλειας».
Ειδήσεις σήμερα
Πώς να προστατευτείτε από χάκερς – Έξυπνα tips για την ασφάλεια των συσκευών σας
Οι 10 επαναστατικές ανατροπές που «έφερε» η Τεχνητή Νοημοσύνη
Viral η «βουτιά θανάτου» που έκανε ο…τελευταίος των Βίκινγκ – Δείτε το Βίντεο