Σημάδια ανθρώπινης σκέψης σε σύστημα τεχνητής νοημοσύνης – Το πείραμα που δίχασε ειδικούς

- Advertisement -

Η τεχνολογία A.I πίσω από το Chat GPT κατανοούσε «βαθιά και με ευελιξία» τα προβλήματα που του έθεταν οι ερευνητές

Όταν οι επιστήμονες της Microsoft άρχισαν να πειραματίζονται με ένα νέο σύστημα τεχνητής νοημοσύνης πέρυσι, του ζήτησαν να λύσει έναν γρίφο που απαιτεί μια διαισθητική κατανόηση του φυσικού κόσμου.

«Εδώ έχουμε ένα βιβλίο, εννέα αυγά, έναν φορητό υπολογιστή, ένα μπουκάλι και ένα καρφί», είπαν. «Σε παρακαλώ πες μου πώς να τα στοιβάξω το ένα πάνω στο άλλο σταθερά». «Βάλτε τα αυγά πάνω στο βιβλίο» απάντησε. «Τοποθετήστε τα αυγά σε τρεις σειρές με χώρο ανάμεσα τους. Βεβαιωθείτε ότι δεν θα τα σπάσετε. Τοποθετήστε τον φορητό υπολογιστή πάνω από τα αυγά, με την οθόνη προς τα κάτω και το πληκτρολόγιο προς τα πάνω».

Η έξυπνη αυτή πρόταση προβλημάτισε τους ερευνητές.

Μετά το πείραμα, τον περασμένο Μάρτιο, δημοσίευσαν μια έκθεση 155 σελίδων στην οποία υποστήριζαν, ούτε λίγο ούτε πολύ, πως το σύστημα ήταν ένα βήμα πιο κοντά στην τεχνητή γενική νοημοσύνη, ή A.G.I., που είναι η συντομογραφία για μια μηχανή που (θεωρητικά) θα μπορούσε να κάνει οτιδήποτε μπορεί να κάνει και ο ανθρώπινος εγκέφαλος.

Η Microsoft, η πρώτη μεγάλη τεχνολογική εταιρεία που δημοσίευσε μια εργασία με έναν τόσο τολμηρό ισχυρισμό, προκάλεσε μια από τις πιο έντονες συζητήσεις στον κόσμο της τεχνολογίας: δημιουργείται κάτι παρόμοιο με την ανθρώπινη νοημοσύνη; Ή μήπως μερικά από τα πιο λαμπρά μυαλά της βιομηχανίας αφήνουν τη φαντασία τους να καλπάσει; 

«Αρχικά ήμουν πολύ επιφυλακτικός – και αυτό εξελίχθηκε σε ένα αίσθημα απογοήτευσης, ενόχλησης, ίσως και φόβου», δήλωσε ο Πίτερ Λι επικεφαλής της έρευνας στη Microsoft. «Σκέφτεσαι: Από πού στο καλό προέρχεται αυτό;»

Μαθηματικές αποδείξεις σε ποιήματα, μονόκεροι «από το πουθενά»

Το σύστημα με το οποίο πειραματίστηκαν οι ερευνητές της Microsoft, το GPT-4 της OpenAI, θεωρείται το πιο ισχυρό. Η Microsoft είναι στενός συνεργάτης της OpenAI και έχει επενδύσει 13 δισεκατομμύρια δολάρια στην εταιρεία του Σαν Φρανσίσκο.

Μεταξύ των ερευνητών ήταν και ο δρ. Μπουμπέκ, ένας 38χρονος Γάλλος, πρώην καθηγητής του Πανεπιστημίου Πρίνστον. Ένα από τα πρώτα πράγματα που έκαναν αυτός και οι συνάδελφοί του ήταν να ζητήσουν από το GPT-4 να γράψει μια μαθηματική απόδειξη ότι υπάρχουν άπειροι πρώτοι αριθμοί (σ.σ. αριθμοί που διαιρούνται τέλεια μόνο με τη μονάδα και τον ίδιο τον αριθμό) και να το κάνει με ένα ποίημα που θα έχει ομοιοκαταληξία.

Η ποιητική απόδειξη ήταν τόσο εντυπωσιακή -τόσο μαθηματικά όσο και γλωσσικά- που ο Μπουμπέκ δυσκολευόταν να καταλάβει με τι συνομιλούσε. «Σε εκείνο το σημείο, έλεγα: Τι συμβαίνει;», σχολίαζε τον Μάρτιο κατά τη διάρκεια ενός σεμιναρίου στο Τεχνολογικό Ινστιτούτο της Μασαχουσέτης (MIT).

Για αρκετούς μήνες, η ερευνητική ομάδα κατέγραφε την πολύπλοκη συμπεριφορά που παρουσίαζε το σύστημα, συμπεραίνοντας ότι κατανοούσε «βαθιά και με ευελιξία» ανθρώπινες έννοιες και δεξιότητες.

Οι χρήστες του GPT-4, «εκπλήσσονται με την ικανότητά του να παράγει κείμενο», δήλωσε ο Δρ. Λι. «Αλλά αποδεικνύεται ότι είναι πολύ καλύτερο στην ανάλυση και τη σύνθεση, στην αξιολόγηση και την κρίση κειμένου από ό,τι στη δημιουργία του».

Όταν ζήτησαν από το σύστημα να σχεδιάσει έναν μονόκερο χρησιμοποιώντας μια γλώσσα προγραμματισμού που ονομάζεται TiKZ, παρήγαγε αμέσως ένα πρόγραμμα που μπορούσε να σχεδιάσει έναν μονόκερο. Όταν αφαίρεσαν το τμήμα του κώδικα που σχεδίαζε το κέρατο του μονόκερου και ζήτησαν από το σύστημα να τροποποιήσει το πρόγραμμα έτσι ώστε να σχεδιάσει και πάλι έναν μονόκερο, έκανε ακριβώς αυτό.

Σημάδια ανθρώπινης σκέψης σε σύστημα τεχνητής νοημοσύνης – Το πείραμα που δίχασε ειδικούς-1

Το υπόμνημα της Microsoft, με την ονομασία «Sparks of Artificial General Intelligence» (Σπίθες της Τεχνητής Γενικής Νοημοσύνης), αγγίζει τον πυρήνα αυτού για το οποίο οι επιστήμονες εργάζονται -και φοβούνται- εδώ και δεκαετίες. Τη δημιουργία μίας μηχανής που να λειτουργεί όπως ο ανθρώπινος εγκέφαλος. Κάτι τέτοιο θα μπορούσε να αλλάξει τον κόσμο με ό,τι κινδύνους θα συνόδευαν ένα τεχνολογικό ορόσημο αυτού του μεγέθους.

Πέρυσι, η Google απέλυσε έναν ερευνητή ο οποίος υποστήριξε ότι ένα παρόμοιο σύστημα παρουσίαζε σημάδια «ευαισθησίας», ισχυρισμός παραπλήσιος σε αυτόν των επιστημόνων της Microsoft. Ένα ευαίσθητο σύστημα δεν θα ήταν απλώς έξυπνο. Θα μπορούσε να αισθάνεται και τι συμβαίνει στον κόσμο γύρω του.

Ορισμένοι ειδικοί του κλάδου χαρακτήρισαν την πρωτοβουλία της Microsoft ως «μια ευκαιριακή προσπάθεια προβολής υπερβολικών ισχυρισμών». Οι ερευνητές υποστηρίζουν επίσης ότι η τεχνητή νοημοσύνη απαιτεί εξοικείωση με τον φυσικό κόσμο, την οποία το GPT-4 θεωρητικά δεν διαθέτει.

«Το ‘Sparks of A.G.I.’ είναι παράδειγμα κάποιων που διανθίζουν μια ερευνητική εργασία με διαφημιστικά κόλπα», δήλωσε ο Μάαρτεν Σαπ, ερευνητής και καθηγητής στο Πανεπιστήμιο Carnegie Mellon.

Η Άλισον Γκόπνικ, καθηγήτρια ψυχολογίας που συμμετέχει στην ερευνητική ομάδα Τεχνητής Νοημοσύνης στο Πανεπιστήμιο της Καλιφόρνιας στο Μπέρκλεϊ, δήλωσε ότι συστήματα όπως το GPT-4 είναι αναμφίβολα ισχυρά, αλλά δεν είναι σαφές ότι το κείμενο που παράγεται από αυτά τα συστήματα είναι αποτέλεσμα ανθρώπινης λογικής ή κοινής λογικής.

«Όταν βλέπουμε ένα περίπλοκο σύστημα ή μηχανή, έχουμε μια τάση ανθρωπομορφισμού – όλοι το κάνουν αυτό – άνθρωποι που εργάζονται στον κλάδο και άνθρωποι που δεν εργάζονται», δήλωσε η Δρ. Γκόπνικ. Αλλά η ερμηνεία στο πλαίσιο «μιας συνεχούς σύγκρισης μεταξύ της τεχνητής νοημοσύνης και των ανθρώπων – σαν ένα είδος τηλεπαιχνιδιού» δεν είναι ο σωστός τρόπος προσέγγισης.

Πηγή: The New York Times, Καθημερινή

spot_img

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Διαβάστε ακόμα

Stay Connected

2,900ΥποστηρικτέςΚάντε Like
2,767ΑκόλουθοιΑκολουθήστε
37,300ΣυνδρομητέςΓίνετε συνδρομητής
- Advertisement -

Τελευταία Άρθρα