Του Αλκη Καλλιαντζίδη, Οικονομολόγου, [email protected] www.kalkis.eu
Η επικίνδυνη χρήση της τεχνολογίας «deepfake» σε βάρος της Λεπέν όχι μόνο την αποδαιμονοποιεί αλλά και την θυματοποιεί στα μάτια των Γάλλων
Τι είναι η τεχνολογία του deepfake και ποιοι θα μπορούσαν να την κάνουν χρήση ;
Η είδηση ήρθε από το γαλλικό ειδησεογραφικό κανάλι BFMTV το οποίο βρήκε στην πλατφόρμα Χ (πρώην Twitter) και το μετέδωσε ένα πλαστό βίντεο το οποίο έδειχνε την κ. Μαρίν Λεπέν να απευθύνει τις πρωτοχρονιάτικες ευχές της στους Γάλλους δήθεν στα ρωσικά. Ο ανόητος πολιτικάντικος στόχος του δράστη, Loic Signor, αιρετού εκπροσώπου του κόμματος του Μακρόν «Αναγέννηση» ήταν να θίξει στα μάτια των Γάλλων τον γνωστό φιλοπουτινισμό της αλλά με έναν βαθύτατα ψευδή και παραμορφωμένο τρόπο. Με αυτόν που οι Αμερικανοί αποκαλούν «deepfake» ο οποίος αξιοποιεί την Τεχνητή Νοημοσύνη σε βάρος του θιγομένου, εν προκειμένω σε βάρος της κ. Λεπέν. Έτσι συγκεκριμένα ο Loic Signor κατασκεύασε ένα βίντεο που δείχνει την κ. Λεπέν να εκφωνεί, από το γραφείο της αρχίζοντας στα γαλλικά το πρωτοχρονιάτικο μήνυμά της, το οποίο ελάχιστα δευτερόλεπτα αμέσως μετά ακούγεται στα ρωσικά, όπως μπορούμε να δούμε στο ακόλουθο λινκ του ιστοτόπου Valleurs : ΕΔΩ
Κάτι φυσικά που προκάλεσε μια κατακραυγή στο χώρο των Μακρονιστών και φυσικά μια κρυφή ικανοποίηση στους Λεπενιστές οι οποίοι επί 40 χρόνια παλεύουν να «από-δαιμονοποιηθούν», δηλαδή να αποτινάξουν την ακροδεξιά αγριότητά τους. Και σε πολύ μεγάλο βαθμό το έχουν επιτύχει, ώστε να προηγούνται σήμερα καθαρά στις δημοσκοπήσεις και στο εύλογο ερώτημα πια στον μέσο ψηφοφόρο : «δηλαδή θα ψηφίζατε την κ. Λεπέν στις επόμενες εκλογές ;». Η αυθόρμητη πια απάντησή του είναι : «γιατί όχι;» (pourquoi pas ?).
Με αφορμή όμως το παραπάνω συμβάν, είναι χρήσιμο να δούμε : Τι είναι η τεχνολογία του deepfake και ποιοι θα μπορούσαν να κάνουν χρήση ;
Σε έναν κόσμο όπου η αυθεντικότητα των πληροφοριών βρίσκεται ήδη σε κίνδυνο, η εμφάνιση της τεχνολογίας των deepfakes προσθέτει ένα επιπλέον επίπεδο πολυπλοκότητας της κατάστασης. Τα βίντεο ή οι ηχογραφήσεις, που χειραγωγούνται κακοβούλως από τις τεχνικές της τεχνητής νοημοσύνης, όπως έκανε ο Loic Signor, μπορούν να κάνουν τους ανθρώπους (την κ. Λεπέν π.χ.) να φαίνεται ότι λένε ή κάνουν πράγματα που δεν είπαν ή δεν έκαναν ποτέ. Ένα τεχνολογικό επίτευγμα δηλαδή που μας συναρπάζει όσο και μας προκαλεί ανησυχία.
Τα «Deepfakes», εργαλεία παραπληροφόρησης
Αυτή η τεχνολογία, η οποία εμφανίστηκε στα μέσα της δεκαετίας του 2010, χρησιμοποιεί νευρωνικά δίκτυα για την ανάλυση και την αναπαραγωγή προτύπων ανθρώπινης συμπεριφοράς, όπως λένε οι ειδικοί. Με αρκετά δεδομένα, ένα deepfake μπορεί να δημιουργήσει σχεδόν τέλειες απομιμήσεις, καθιστώντας δύσκολη τη διάκριση μεταξύ αληθινού και ψεύτικου.
Κατά τις πρώτες εφαρμογές τους, τα deepfakes συνδέθηκαν κυρίως με χιουμοριστικές ή καλλιτεχνικές χρήσεις (σε τηλεοπτικές ή ραδιοφωνικές εκπομπές π.χ.). Ωστόσο, η πιθανότητα να προκαλέσουν βλάβη σε στοχευμένα πρόσωπα είναι τεράστια. Μπορούν να χρησιμοποιηθούν :
@ για παραπληροφόρηση,
@ για επηρεασμό της κοινής γνώμης,
@ για παραποίηση στοιχείων,
@ ή ακόμη και για παρενόχληση στον κυβερνοχώρο.
Για παράδειγμα, ένα deepfake θα μπορούσε να δείχνει έναν πολιτικό ηγέτη να κάνει εμπρηστικές δηλώσεις, απειλώντας την πολιτική σταθερότητα.
Πώς μπορούμε να προστατεύσουμε τα άτομα από την ψευδή έκθεσή τους, δίχως να παρεμποδίζουμε την ελευθερία έκφρασης και την τεχνολογική καινοτομία;
Για τις δυτικές αστικές δημοκρατίες, ο εντοπισμός των deepfakes αποτελεί μια πρόκληση. Αν και αναπτύσσονται εργαλεία για την αναγνώρισή τους, η τεχνολογική πρόοδος κάνει τα deepfakes όλο και πιο εξελιγμένα. Οι ειδικοί προτείνουν να δίδεται προσοχή σε απειροελάχιστες λεπτομέρειες στα βίντεό τους, όπως και σε ανωμαλίες στις κινήσεις του προσώπου ή σε ασυνέπειες στην ομιλία του χειραγωγούμενου ατόμου.
Αυτή η τεχνολογία εγείρει ηθικά και νομικά ζητήματα.
Πρέπει να ρυθμιστεί η δημιουργία και η διανομή των deepfakes ;
Πώς μπορούν να προστατευθούν τα άτομα από την ψευδή έκθεσή τους, χωρίς να παρεμποδίζεται η ελευθερία έκφρασης και η τεχνολογική καινοτομία ;
Οι απαντήσεις δεν είναι απλές και απαιτούν μια λεπτή ισορροπία.
Τα «Deepfakes» δεν είναι απλώς μια απειλή
Πράγματι τα Deepfakes δεν είναι απλώς μια απειλή.
Προσφέρουν δυνατότητες στον τομέα της ψυχαγωγίας και της εκπαίδευσης, για παράδειγμα, καθιστώντας δυνατή την «ανάσταση ιστορικών προσώπων» ή τη βελτίωση της εκμάθησης γλωσσών. Αυτή είναι ιδιαίτερα η πρόκληση για τις χιουμοριστικές εκπομπές, όπως π.χ. «Mitsi Var» ή «Ράδιο Αρβύλα», στις οποίες παρέχεται φωνή και κίνηση σε διάφορες στοχευμένες προσωπικότητες :
@ της πολιτικής,
@ της τηλεόρασης,
@ του ραδιοφώνου,
@ του αθλητισμού,
@ ή και απλών ανθρώπων που βλέπουμε κάθε εβδομάδα ή κάθε μέρα στις λαϊκές αγορές.
Συμπερασματικά : η υπεύθυνη χρήση των «deepfakes» παραμένει μια σημαντική πρόκληση, αντιπροσωπεύοντας τόσο μια αξιοσημείωτη τεχνολογική πρόοδο όσο και μια κοινωνική πρόκληση.