Τα ηχητικά αρχεία deepfakes και οι φάρσες με ΤΝ αποτελούν απειλή για τις εκλογές σε όλο τον κόσμο

Εικόνα που δημιουργήθηκε με το Dalle-3 από το OpenArt.

Σήμερα, σχεδόν όλοι μπορούν να δημιουργήσουν εγγραφές ήχου ή εικόνας διασημοτήτων ή απλών ανθρώπων, οι οποίοι ενεργούν και μιλάνε όπως δε θα έκαναν ποτέ, με τη χρήση απλού και ευρέως διαθέσιμου λογισμικού τεχνητής νοημοσύνης (ΤΝ). Τα δικαιώματα των ανθρώπων, των οποίων οι φωνές και οι εικόνες οικειοποιούνται, θα πρέπει να προστατεύονται πιο σοβαρά. Μεγάλες επιχειρήσεις τεχνολογίας συνεργάστηκαν σε μια ιστορική προσπάθεια να σταματήσουν την κατάχρηση της ΤΝ στις επερχόμενες εκλογές σε όλο τον κόσμο.  

Τα deepfakes συνεχίζουν να εξελίσσονται, κάθε φορά με καλύτερη, πιο πειστική ποιότητα και πιο κοντά στην πραγματικότητα. Ο μεγάλος αριθμός εκλογών σε όλο τον κόσμο το 2024 εγείρει το ζήτημα της ενσωμάτωσης της τεχνητής νοημοσύνης σε αυτές τις εκλογικές διαδικασίες, η οποία θα μπορούσε να υπονομεύσει την ακεραιότητα των εκλογών. Η χειραγώγηση των ψηφοφόρων από «deepfakes» είναι μία από τις κύριες συζητήσεις σε πολλές χώρες του κόσμου, οι οποίες προετοιμάζονται για τις εκλογές. Περίπου 4 δισεκατομμύρια άνθρωποι θα προσέλθουν στις κάλπες σε περισσότερες από 50 διαφορετικές χώρες. Ακαδημαϊκοί, δημοσιογράφοι και πολιτικοί έχουν εκφράσει την ανησυχία τους για τη χρήση περιεχομένου, που δημιουργήθηκε από την ΤΝ στο πλαίσιο επιχείρησης πολιτικής επιρροής. 

Ωστόσο, το περιεχόμενο που δημιουργείται από την ΤΝ θα έχει επίσης μεγαλύτερο αντίκτυπο στην κοινωνική μας ζωή. Πρόσφατα, οι περιπτώσεις που έγιναν ευρέως γνωστές αφορούσαν διασημότητες, αλλά δεδομένης της ταχύτητας με την οποία εξελίσσονται τα deepfakes, θα έχουμε deepfake βίντεο απλών ανθρώπων, που δεν είναι διασημότητες ή πολιτικοί και που δεν προσελκύουν το δημόσιο ενδιαφέρον με τη δουλειά τους ή τις δραστηριότητές τους. Αυτό θα αποτελέσει μια πολύ σοβαρή απειλή για τις κοινωνίες, γι’ αυτό και είναι πολύ σημαντικό να υπάρξουν συλλογικές πρωτοβουλίες κατά της εξαπάτησης που δημιουργείται από την ΤΝ.

Μελέτες περιπτώσεων πρόσφατων deepfakes

Τα «deepfakes» ή η χειραγώγηση που δεν βασίζεται στην ΤΝ και ονομάζεται «cheapfakes», δεν είναι κάτι νέο και υπάρχει εδώ και αρκετό καιρό. Ωστόσο, με τον αντίκτυπο του ChatGPT στην εξάπλωση της ΤΝ σε ένα πιο ευρύ κοινό, δισεκατομμύρια δολάρια επενδύθηκαν σε εταιρείες ΤΝ το τελευταίο έτος. Η ανάπτυξη προγραμμάτων που διευκολύνουν την παραγωγή τους, ιδιαίτερα των deepfakes, έχει πολλαπλασιάσει τη χρήση της τεχνητής νοημοσύνης για την παραγωγή deepfakes που στοχεύουν στο κοινό. Ακόμη και σήμερα, επιπλέον της παραποίησης βίντεο, έχουν υπάρξει περιπτώσεις όπου έχει παραχθεί ένα ηχητικό deepfake, το οποίο είναι ακόμη πιο εύκολο να δημιουργηθεί.

Το deepfake ηχητικό μήνυμα του προέδρου των ΗΠΑ Τζο Μπάιντεν, που διανεμήθηκε στο Νιου Χάμσαϊρ για να ενθαρρύνει τους πολίτες να μην ψηφίσουν στις προκριματικές εκλογές της πολιτείας, έφτασε σε περισσότερους από 20 000 ανθρώπους. Το άτομο που προκάλεσε αυτή τη χειραγώγηση και το οποίο πληρώθηκε 150 δολάρια για την παραγωγή της, ο Steve Kramerδήλωσε ότι ήταν μια πράξη πολιτικής ανυπακοής, με στόχο να επιστήσει την προσοχή στους κινδύνους, που συνδέονται με την τεχνητή νοημοσύνη στην πολιτική και την ανάγκη για τη ρύθμισή της.

Το deepfake αρχείο ήχου του Σλοβάκου πολιτικού Michal Simecka είναι άλλο ένα σημαντικό παράδειγμα, το οποίο δείχνει το βαθμό στον οποίο τα deepfakes μπορούν να αποτελέσουν κίνδυνο για τη δημοκρατία. Ένα ηχογραφημένο φωνητικό μήνυμα ανέβηκε στο Facebook 48 ώρες πριν τις εκλογές της Σλοβακίας, φαινομενικά του Simecka να συζητάει για εκλογική απάτη με τη δημοσιογράφο Monika Todova. Το deepfake ηχητικό του δημάρχου του Λονδίνου, Sadiq Khan, είναι ένα παράδειγμα, το οποίο που θα μπορούσε να έχει σοβαρές πολιτικές και κοινωνικές επιπτώσεις. Στις αρχές Νοεμβρίου του 2023, ένα deepfake ηχητικό του Khan έγινε ευρέως γνωστό, όταν φαινόταν να προσβάλλει την Ημέρα Εκεχειρίας (εορτασμός για το τέλος του Α΄Παγκόσμιου πολέμου) και να απαιτεί να δοθεί προτεραιότητα στις πορείες υπέρ της Παλαιστίνης. 

Εκτός από deepfakes ηχητικά με πρωταγωνιστές πολιτικούς, τα deepfakes βίντεο με διασημότητες συνεχίζουν να κυκλοφορούν στο διαδίκτυο. Υπάρχουν, για παράδειγμα, deepfakes βίντεο του διάσημου ηθοποιού του Χόλιγουντ Tom Hanks, στα οποία μία εκδοχή ΤΝ του προωθεί ένα οδοντιατρικό πρόγραμμα, ή του διάσημου Αμερικανού YouTuber MrBeast, που φαίνεται να οργανώνει «τη μεγαλύτερη κλήρωση iPhone 15 στον κόσμο».

Τα deepfakes της τραγουδίστριας Taylor Swift που δημοσιεύτηκαν στις αρχές του έτους σε αρκετές πλατφόρμες κοινωνικών δικτύων  – X (πρώην Twitter), Instagram, Facebook και Reddit – έγιναν επίσης ευρέως γνωστά. Πριν αφαιρεθεί από το X, ένα deepfake της Swift είχε περισσότερες από 45 εκατομμύρια θεάσεις κατά τη διάρκεια των 17 περίπου ωρών που παρέμεινε στην πλατφόρμα.

Μια συλλογική πρωτοβουλία κατά της παραγόμενης με ΤΝ εξαπάτησης 

Η Συμφωνία Τεχνολογίας για την Καταπολέμηση της Παραπλανητικής Χρήσης της ΤΝ στις Εκλογές του 2024, η οποία ανακοινώθηκε κατά τη διάρκεια του Συνεδρίου Ασφαλείας του Μονάχου, βλέπει 20 μεγάλους παίχτες, συμπεριλαμβανομένων των Adobe, Google, Microsoft, OpenAI, Snap Inc. και Meta, να δεσμεύονται να χρησιμοποιήσουν τεχνολογίες αιχμής για τον εντοπισμό και την αντιμετώπιση επιβλαβούς περιεχομένου, που παράγεται από ΤΝ και αποσκοπεί στην παραπλάνηση των ψηφοφόρων, καθώς και να υποστηρίξουν τις προσπάθειες, που ευνοούν την ευαισθητοποίηση του κοινού, της παιδείας στα μέσα ενημέρωσης και της ανθεκτικότητας σε ολόκληρη την κοινωνία. Αυτή είναι η πρώτη φορά που 20 διαφορετικές εταιρείες δεσμεύονται από κοινού κατά της παραγόμενης από την ΤΝ εξαπάτησης. 

Οι εταιρείες που συμμετέχουν ανέλαβαν οκτώ συγκεκριμένες δεσμεύσεις για τον μετριασμό των κινδύνων, που συνδέονται με παραπλανητικό εκλογικό περιεχόμενο που παράγεται από την ΤΝ. Αυτή η πρωτοβουλία μεταξύ του τεχνολογικού τομέα και της ΤΝ στοχεύει σε εικόνες, βίντεο και ήχους που παράγονται με ΤΝ και θα μπορούσαν να παραπλανήσουν τους ψηφοφόρους σχετικά με τους υποψηφίους, τους εκλογικούς αξιωματούχους και τη διαδικασία της ψηφοφορίας. Ωστόσο, δεν απαιτεί την πλήρη απαγόρευση τέτοιου περιεχομένου.

Ξεκινήστε τη συζήτηση

Συντάκτες, παρακαλώ σύνδεση »

Οδηγίες

  • Όλα τα σχόλια ελέγχονται. Μην καταχωρείτε το σχόλιο σας πάνω από μία φορά γιατί θα θεωρηθεί spam.
  • Παρακαλούμε, δείξτε σεβασμό στους άλλους. Σχόλια τα οποία περιέχουν ρητορική μίσους, προσβολές ή προσωπικές επιθέσεις δεν θα καταχωρούνται.