Η τεχνολογία A.I πίσω από το Chat GPT κατανοούσε «βαθιά και με ευελιξία» τα προβλήματα που του έθεταν οι ερευνητές
Όταν οι επιστήμονες της Microsoft άρχισαν να πειραματίζονται με ένα νέο σύστημα τεχνητής νοημοσύνης πέρυσι, του ζήτησαν να λύσει έναν γρίφο που απαιτεί μια διαισθητική κατανόηση του φυσικού κόσμου.
Η έξυπνη αυτή πρόταση προβλημάτισε τους ερευνητές.
Μετά το πείραμα, τον περασμένο Μάρτιο, δημοσίευσαν μια έκθεση 155 σελίδων στην οποία υποστήριζαν, ούτε λίγο ούτε πολύ, πως το σύστημα ήταν ένα βήμα πιο κοντά στην τεχνητή γενική νοημοσύνη, ή A.G.I., που είναι η συντομογραφία για μια μηχανή που (θεωρητικά) θα μπορούσε να κάνει οτιδήποτε μπορεί να κάνει και ο ανθρώπινος εγκέφαλος.
«Αρχικά ήμουν πολύ επιφυλακτικός – και αυτό εξελίχθηκε σε ένα αίσθημα απογοήτευσης, ενόχλησης, ίσως και φόβου», δήλωσε ο Πίτερ Λι επικεφαλής της έρευνας στη Microsoft. «Σκέφτεσαι: Από πού στο καλό προέρχεται αυτό;»
Μαθηματικές αποδείξεις σε ποιήματα, μονόκεροι «από το πουθενά»
Το σύστημα με το οποίο πειραματίστηκαν οι ερευνητές της Microsoft, το GPT-4 της OpenAI, θεωρείται το πιο ισχυρό. Η Microsoft είναι στενός συνεργάτης της OpenAI και έχει επενδύσει 13 δισεκατομμύρια δολάρια στην εταιρεία του Σαν Φρανσίσκο.
Η ποιητική απόδειξη ήταν τόσο εντυπωσιακή -τόσο μαθηματικά όσο και γλωσσικά- που ο Μπουμπέκ δυσκολευόταν να καταλάβει με τι συνομιλούσε. «Σε εκείνο το σημείο, έλεγα: Τι συμβαίνει;», σχολίαζε τον Μάρτιο κατά τη διάρκεια ενός σεμιναρίου στο Τεχνολογικό Ινστιτούτο της Μασαχουσέτης (MIT).
Για αρκετούς μήνες, η ερευνητική ομάδα κατέγραφε την πολύπλοκη συμπεριφορά που παρουσίαζε το σύστημα, συμπεραίνοντας ότι κατανοούσε «βαθιά και με ευελιξία» ανθρώπινες έννοιες και δεξιότητες.
Οι χρήστες του GPT-4, «εκπλήσσονται με την ικανότητά του να παράγει κείμενο», δήλωσε ο Δρ. Λι. «Αλλά αποδεικνύεται ότι είναι πολύ καλύτερο στην ανάλυση και τη σύνθεση, στην αξιολόγηση και την κρίση κειμένου από ό,τι στη δημιουργία του».
Το υπόμνημα της Microsoft, με την ονομασία «Sparks of Artificial General Intelligence» (Σπίθες της Τεχνητής Γενικής Νοημοσύνης), αγγίζει τον πυρήνα αυτού για το οποίο οι επιστήμονες εργάζονται -και φοβούνται- εδώ και δεκαετίες. Τη δημιουργία μίας μηχανής που να λειτουργεί όπως ο ανθρώπινος εγκέφαλος. Κάτι τέτοιο θα μπορούσε να αλλάξει τον κόσμο με ό,τι κινδύνους θα συνόδευαν ένα τεχνολογικό ορόσημο αυτού του μεγέθους.
Πέρυσι, η Google απέλυσε έναν ερευνητή ο οποίος υποστήριξε ότι ένα παρόμοιο σύστημα παρουσίαζε σημάδια «ευαισθησίας», ισχυρισμός παραπλήσιος σε αυτόν των επιστημόνων της Microsoft. Ένα ευαίσθητο σύστημα δεν θα ήταν απλώς έξυπνο. Θα μπορούσε να αισθάνεται και τι συμβαίνει στον κόσμο γύρω του.
Ορισμένοι ειδικοί του κλάδου χαρακτήρισαν την πρωτοβουλία της Microsoft ως «μια ευκαιριακή προσπάθεια προβολής υπερβολικών ισχυρισμών». Οι ερευνητές υποστηρίζουν επίσης ότι η τεχνητή νοημοσύνη απαιτεί εξοικείωση με τον φυσικό κόσμο, την οποία το GPT-4 θεωρητικά δεν διαθέτει.
«Το ‘Sparks of A.G.I.’ είναι παράδειγμα κάποιων που διανθίζουν μια ερευνητική εργασία με διαφημιστικά κόλπα», δήλωσε ο Μάαρτεν Σαπ, ερευνητής και καθηγητής στο Πανεπιστήμιο Carnegie Mellon.
Η Άλισον Γκόπνικ, καθηγήτρια ψυχολογίας που συμμετέχει στην ερευνητική ομάδα Τεχνητής Νοημοσύνης στο Πανεπιστήμιο της Καλιφόρνιας στο Μπέρκλεϊ, δήλωσε ότι συστήματα όπως το GPT-4 είναι αναμφίβολα ισχυρά, αλλά δεν είναι σαφές ότι το κείμενο που παράγεται από αυτά τα συστήματα είναι αποτέλεσμα ανθρώπινης λογικής ή κοινής λογικής.
«Όταν βλέπουμε ένα περίπλοκο σύστημα ή μηχανή, έχουμε μια τάση ανθρωπομορφισμού – όλοι το κάνουν αυτό – άνθρωποι που εργάζονται στον κλάδο και άνθρωποι που δεν εργάζονται», δήλωσε η Δρ. Γκόπνικ. Αλλά η ερμηνεία στο πλαίσιο «μιας συνεχούς σύγκρισης μεταξύ της τεχνητής νοημοσύνης και των ανθρώπων – σαν ένα είδος τηλεπαιχνιδιού» δεν είναι ο σωστός τρόπος προσέγγισης.
Πηγή: The New York Times, Καθημερινή