ENISA: Η Τεχνητή Νοημοσύνη αποσταθεροποιητικός παράγοντας για τις Ευρωεκλογές

- Advertisement -

Ο φόβος ότι τα νέα ισχυρά μοντέλα Τεχνητής Νοημοσύνης θα μπορούσαν να χρησιμοποιηθούν για να διαταράξουν τις εκλογικές διαδικασίες δεν είναι μοναδικός στην Ευρώπη. [Tero Vesalainen/Shutterstock]

Ο ENISA, ο οργανισμός της ΕΕ για την κυβερνοασφάλεια, προειδοποίησε ότι τα νέα ισχυρά μοντέλα τεχνητής νοημοσύνης ενδέχεται να αποτελέσουν αποσταθεροποιητικό παράγοντα στις εκλογές της ΕΕ τον ερχόμενο Ιούνιο, καθώς είναι σοβαρό το ενδεχόμενο κακόβουλοι φορείς να τα χρησιμοποιήσουν για εκστρατείες χειραγώγησης πληροφοριών σε ευρεία κλίμακα.

Η προειδοποίηση έρχεται στο πλαίσιο του “Threat Landscape 2023“, όπου ο οργανισμός για την κυβερνοασφάλεια καταγράφει τις τρέχουσες τάσεις σε ετήσια βάση. Στο επίκεντρο βρίσκονται οι πιθανές διαταραχές που σχετίζονται με τα AI chatbots, όπως το γνωστό ChatGPT και κάθε μορφή χειραγώγησης πληροφοριών που παράγεται με τεχνητή νοημοσύνη.

«Η εμπιστοσύνη στην εκλογική διαδικασία της ΕΕ θα εξαρτηθεί σε κρίσιμο βαθμό από την ικανότητά μας να βασιζόμαστε σε ασφαλείς υποδομές στον κυβερνοχώρο και στην ακεραιότητα και διαθεσιμότητα των πληροφοριών. Τώρα, εναπόκειται σε εμάς να διασφαλίσουμε ότι θα λάβουμε τα απαραίτητα μέτρα για την επίτευξη αυτού του ευαίσθητου αλλά ουσιαστικού στόχου για τις δημοκρατίες μας», δήλωσε ο εκτελεστικός διευθυντής του ENISA, Juhan Lepassaar.

Ο φόβος ότι τα νέα ισχυρά μοντέλα Τεχνητής Νοημοσύνης θα μπορούσαν να χρησιμοποιηθούν για να διαταράξουν τις εκλογικές διαδικασίες δεν είναι μοναδικός στην Ευρώπη. Καθώς πλησιάζουν οι εκλογές στις Ηνωμένες Πολιτείες και το Ηνωμένο Βασίλειο, οι εμπειρογνώμονες έχουν προειδοποιήσει για τον κίνδυνο να γίνουν viral εικόνες ή βίντεο που έχουν δημιουργηθεί με τεχνητή νοημοσύνη, καθώς και για τα προπαγανδιστικά bots που λειτουργούν με αυτή.

Τα μοντέλα τεχνητής νοημοσύνης είναι ιδιαίτερα σημαντικά για την ψυχολογική χειραγώγηση, τη λεγόμενη κοινωνική μηχανική, χάρη στην ικανότητά τους να παράγουν κείμενο που μοιάζει με αληθινό ή αυθεντικές εικόνες και βίντεο που αντικαθιστούν την ομοιότητα ενός ατόμου με ένα άλλο, γνωστά ως deepfakes.

Η έκθεση του ENISA σημειώνει ότι, από τη δημόσια κυκλοφορία του ChatGPT [η πρώιμη δοκιμαστική έκδοση του έγινε τον Νοέμβριο του 2022], η Τεχνητή Νοημοσύνη αποτελεί τον κύριο μοχλό καινοτομίας στην κοινωνική μηχανική, ιδίως χάρη στην ικανότητα της τεχνολογίας να παράγει κείμενο που μιμείται μια νόμιμη πηγή και να κάνει κλωνοποίηση φωνής και εξόρυξη δεδομένων με βάση την ΤΝ.

Τον Μάρτιο, το Euractiv ανέφερε ότι η Europol, αρμόδια για την επιβολή του νόμου, είχε επισημάνει τις πιθανές εγκληματικές χρήσεις των γεννητικών συστημάτων τεχνητής νοημοσύνης όπως το ChatGPT για διαδικτυακές απάτες και άλλα εγκλήματα στον κυβερνοχώρο.

Ο ENISA έγραψε ότι «η τάση υποδηλώνει ότι η γενεσιουργός τεχνητή νοημοσύνη παρέχει μια οδό στους φορείς απειλών για να δημιουργούν εξελιγμένες και στοχευμένες επιθέσεις με ταχύτητα και κλίμακα», προσθέτοντας ότι αναμένει «πιο στοχευμένες επιθέσεις κοινωνικής μηχανικής με χρήση τεχνολογίας βασισμένης στην τεχνητή νοημοσύνη στο μέλλον».

Η κλωνοποίηση φωνής, η διαδικασία δηλαδή συνθετικής αναπαραγωγής της φωνής ενός ατόμου από λίγα μόνο δευτερόλεπτα ενός βίντεο που δημοσιεύονται στα μέσα κοινωνικής δικτύωσης, αναφέρεται ως αυξανόμενη απειλή. Για παράδειγμα, θα μπορούσε να χρησιμοποιηθεί για να παραποιηθεί η φωνή ενός μέλους της οικογένειας και να ζητηθούν λύτρα ή για να δυσφημιστεί δημοσίως ένας πολιτικός.

«Η ανατρεπτική υιοθέτηση της δημιουργικής ΤΝ και των AI chatbots αλλάζει γρήγορα το τοπίο των απειλών, όπου η ικανότητα ανίχνευσης περιεχομένου που δημιουργείται από ΤΝ ή αλληλεπίδρασης που βασίζεται σε ΤΝ καθίσταται επείγον», προειδοποιεί η έκθεση.

Τα chatbots με τεχνητή νοημοσύνη, όπως το ChatGPT της OpenAI και το Bard της Google, μπορεί επίσης να υπόκεινται σε χειραγώγηση των συνόλων δεδομένων, για παράδειγμα, για να αμαυρώσουν έναν επιχειρηματικό ή πολιτικό ανταγωνιστή στις απαντήσεις του συστήματος.

Εν τω μεταξύ, οι υπεύθυνοι χάραξης πολιτικής της ΕΕ έχουν ολοκληρώσει την Πράξη για την Τεχνητή Νοημοσύνη, τον πρώτο ολοκληρωμένο κανονισμό στον κόσμο για την Τεχνητή Νοημοσύνη. Ωστόσο, ο τρόπος αντιμετώπισης της δημιουργικής τεχνητής νοημοσύνης και των deepfakes παραμένει ακόμη σε μεγάλο βαθμό μια ανοιχτή συζήτηση.

Το ζήτημα των deepfakes ήρθε στο προσκήνιο στην Ισπανία, όπου η τεχνική δημιουργίας εικόνων χρησιμοποιήθηκε για την παραγωγή ψεύτικων γυμνών φωτογραφιών έφηβων κοριτσιών.

Η πρώτη δοκιμή ενός deepfake που έφερε ανατροπή σε μια εκλογική αναμέτρηση έγινε νωρίτερα φέτος στην Τουρκία, όπου ένας από τους κύριους υποψηφίους για τις προεδρικές εκλογές αποσύρθηκε από την κούρσα μετά την κυκλοφορία μιας ψεύτικης ταινίας ερωτικού περιεχομένου.

Luca Bertuzzi | EURACTIV.com

spot_img

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Διαβάστε ακόμα

Stay Connected

2,900ΥποστηρικτέςΚάντε Like
2,767ΑκόλουθοιΑκολουθήστε
38,200ΣυνδρομητέςΓίνετε συνδρομητής
- Advertisement -

Τελευταία Άρθρα