«Σήμερα, τα deepfakes έχουν συχνά να κάνουν με σεξουαλικό περιεχόμενο ή πολιτική παραπληροφόρηση. Από την στιγμή που η Τεχνητή Νοημοσύνη αναπτύσσεται με ταχύτητα και κάνει πολύ ευκολότερη την κατασκευή των deepfakes, απαιτούνται ασφαλιστικές δικλείδες», αναφέρεται στο κείμενο της επιστολής που συντάχθηκε από τον Αντριου Κριντς (Andrew Critch), ερευνητή στην AI στο Πανεπιστήμιο του Berkley.
From deepfakes to other forms of disinformation, Yoshua Bengio, Canada CIFAR AI Chair @Mila_Quebec and co-director of our Learning in Machine & Brains program, shares his biggest AI-related concerns for 2024 in this @CBCNews piece: https://t.co/DRpdztifE5
ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ21/12/2024|08:00Λάζαρος Καραούλης στον ΕΤ: «Φέρνουμε την Τεχνητή Νοημοσύνη στον Δήμο Αθηναίων»
— CIFAR (@CIFAR_News) February 6, 2024
Τα deepfakes είναι ρεαλιστικές αλλά κατασκευασμένες εικόνες, ηχητικό υλικό και βίντεο που δημιουργούνται από αλγορίθμους της Τεχνητής Νοημοσύνης και οι πρόσφατες εξελίξεις στην τεχνολογία τα κάνει όλο και περισσότερο δυσδιάκριτα από το περιεχόμενο που έχει δημιουργηθεί από τον άνθρωπο. Στην επιστολή με τίτλο «Disrupting the Deepfake Supply Chain» (Για την Διακοπή της Εφοδιαστικής Αλυσίδας των Deepfakes), διατυπώνονται προτάσεις για τον τρόπο ρυθμιστικής πλαισίωσης των deepfakes. Ανάμεσά τους, η πλήρης ποινικοποίηση της deepfake παιδικής πορνογραφίας, η θέσπιση ποινικών κυρώσεων για οποιοδήποτε άτομο δημιουργεί εσκεμμένα ή διευκολύνει την διασπορά επιβλαβών deepfakes και η διατύπωση απαίτησης από τις εταιρείες Τεχνητής Νοημοσύνης να λαμβάνουν μέτρα ώστε να προλαμβάνουν την χρήση των προϊόντων τους στην δημιουργία επιβλαβών deepfakes.
Μέχρι σήμερα το πρωί, περισσότεροι από 400 πρόσωπα προερχόμενα από τον πανεπιστημιακό χώρο, τον χώρο της ψυχαγωγίας και της πολιτικής είχαν υπογράψει το κείμενο.
Στους υπογράφοντες περιλαμβάνονται ο Στίβεν Πίνκερ (Steven Pinker), καθηγητής Ψυχολογίας του Harvard, ο Τζόι Μπουολαμβίνι (Joy Buolamwini), ιδρυτής της Algorithmic Justice League, δύο πρώην πρόεδροι της Εσθονίας, ερευνητές του DeepMind της Google και ερευνητής της OpenAI.
Η διασφάλιση ότι τα συστήματα της Τεχνητής Νοημοσύνης δεν θα βλάψουν την κοινωνία υπήρξε προτεραιότητα για τις ρυθμιστικές αρχές από όταν η εταιρεία OpenAI εγκαινίασε το ChatGPT στο τέλος του 2022. Για τους κινδύνους που προέρχονται από την Τεχνητή Νοημοσύνη έχουν διατυπωθεί πολλές προειδοποιήσεις από προσωπικότητες, όπως ήταν η επιστολή του Ιλον Μασκ τον περασμένο χρόνο που ζητούσε εξάμηνο μορατόριουμ στην ανάπτυξη ισχυρότερων από το μοντέλο GPT-4 συστημάτων.
Ειδήσεις σήμερα
Όσκαρ τραγουδιού – Διπλό φαβορί η «Barbie»
«Οικολογικός» φόρος στην Χαβάη – 25 δολάρια για κάθε τουρίστα
PISA: Στις εξετάσεις μαθητών «μπαίνουν» τα Αγγλικά και οι Ψηφιακές Δεξιότητες