Οι επιχειρησιακοί κίνδυνοι της τεχνητής νοημοσύνης σε βιολογικές επιθέσεις μεγάλης κλίμακας

- Advertisement -

Αποτελέσματα μιας μελέτης Red-Team (Red -Team Kόκκινη- Oμάδα είναι μια ομάδα που προσποιείται ότι είναι εχθρός, επιχειρεί μια φυσική ή ψηφιακή εισβολή εναντίον μιας οργάνωσης).

Christopher A. MoutonCaleb LucasElla Guest

Η ταχεία πρόοδος της τεχνητής νοημοσύνης (AI) έχει εκτεταμένες επιπτώσεις σε πολλούς τομείς, συμπεριλαμβανομένης της ανησυχίας σχετικά με την πιθανή ανάπτυξη βιολογικών όπλων. Αυτή η πιθανή εφαρμογή της τεχνητής νοημοσύνης εγείρει ιδιαίτερες ανησυχίες επειδή είναι προσβάσιμη σε μη κρατικούς φορείς και άτομα. Η ταχύτητα με την οποία εξελίσσονται οι τεχνολογίες τεχνητής νοημοσύνης συχνά ξεπερνά την ικανότητα της κυβερνητικής ρυθμιστικής εποπτείας, οδηγώντας σε ένα πιθανό κενό στις υπάρχουσες πολιτικές και κανονισμούς.

Σε αυτήν την έκθεση, οι συγγραφείς μοιράζονται τα τελικά αποτελέσματα μιας μελέτης σχετικά με τους πιθανούς κινδύνους από τη χρήση μεγάλων γλωσσικών μοντέλων (LLM) στο πλαίσιο επιθέσεων με βιολογικά όπλα. Διεξήγαγαν μια άσκηση εμπειρογνωμόνων κατά την οποία σε ομάδες ερευνητών που έπαιζαν ρόλους ως κακοήθεις μη κρατικοί φορείς ανατέθηκαν ρεαλιστικά σενάρια και επιφορτίστηκαν με τον σχεδιασμό μιας βιολογικής επίθεσης. Ορισμένες ομάδες είχαν πρόσβαση σε ένα LLM (large language model, μεγάλων γλωσσικών μοντέλων)  μαζί με το Διαδίκτυο και σε άλλες παρασχέθηκε μόνο πρόσβαση στο Διαδίκτυο. Οι συγγραφείς προσπάθησαν να εντοπίσουν πιθανούς κινδύνους που ενέχει η κακή χρήση του LLM, να δημιουργήσουν πληροφορίες πολιτικής για τον μετριασμό τυχόν κινδύνων και να συμβάλουν στην υπεύθυνη ανάπτυξη του LLM. Τα ευρήματα δείχνουν ότι η χρήση της υπάρχουσας γενιάς LLM δεν άλλαξε μετρήσιμα τον λειτουργικό κίνδυνο μιας τέτοιας επίθεσης.

Σημαντικά ευρήματα

Αυτή η έρευνα που περιλαμβάνει πολλαπλά LLM δείχνει ότι ο σχεδιασμός επίθεσης με βιολογικά όπλα βρίσκεται επί του παρόντος πέρα από τα όρια των δυνατοτήτων των LLM ως βοηθητικών εργαλείων. Οι συγγραφείς δεν βρήκαν στατιστικά σημαντική διαφορά στη βιωσιμότητα των σχεδίων που δημιουργούνται με ή χωρίς βοήθεια LLM.

Αυτή η έρευνα δεν μέτρησε την απόσταση μεταξύ του υπάρχοντος ορίου ικανότητας LLM και της γνώσης που απαιτείται για τον σχεδιασμό επίθεσης με βιολογικά όπλα.

Δεδομένης της ταχείας εξέλιξης της τεχνητής νοημοσύνης, είναι συνετό να παρακολουθούνται οι μελλοντικές εξελίξεις στην τεχνολογία LLM και οι πιθανοί κίνδυνοι που συνδέονται με την εφαρμογή της στον σχεδιασμό επιθέσεων με βιολογικά όπλα.

Αν και οι συγγραφείς εντόπισαν αυτό που ονομάζουν ατυχή αποτελέσματα από LLM (με τη μορφή προβληματικών απαντήσεων σε προτροπές), αυτά τα αποτελέσματα γενικά αντικατοπτρίζουν πληροφορίες που είναι άμεσα διαθέσιμες στο διαδίκτυο, υποδηλώνοντας ότι τα LLM δεν αυξάνουν ουσιαστικά τους κινδύνους που σχετίζονται με τον σχεδιασμό επίθεσης με βιολογικά όπλα.

Για να ενισχύσουν πιθανή μελλοντική έρευνα, οι συγγραφείς θα στόχευαν να αυξήσουν την ευαισθησία αυτών των δοκιμών επεκτείνοντας τον αριθμό των LLM που δοκιμάστηκαν, εμπλέκοντας περισσότερους ερευνητές και αφαιρώντας τις μη χρήσιμες πηγές μεταβλητότητας στη διαδικασία δοκιμών. Αυτές οι προσπάθειες θα συμβάλουν στη διασφάλιση ακριβέστερης αξιολόγησης των πιθανών κινδύνων και θα προσφέρουν έναν προληπτικό τρόπο διαχείρισης της εξελισσόμενης δυναμικής μέτρων-αντίμετρων.

RAND_RRA2977-2

www.rand.org

 

spot_img

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Διαβάστε ακόμα

Stay Connected

2,900ΥποστηρικτέςΚάντε Like
2,767ΑκόλουθοιΑκολουθήστε
37,300ΣυνδρομητέςΓίνετε συνδρομητής
- Advertisement -

Τελευταία Άρθρα