Ο αγώνας κατά των κινδύνων που συνδέονται με την ΤΝ πρέπει να είναι «παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους στην κλίμακα της κοινωνίας, όπως οι πανδημίες και οι πυρηνικοί πόλεμοι», γράφουν οι υπογράφοντες στον ιστότοπο του Center for AI Safety, μιας μη κερδοσκοπικής οργάνωσης με έδρα τις Ηνωμένες Πολιτείες.
Ο Τζέφρι Χίντον, που θεωρείται ένας από τους ιδρυτές της ΤΝ και ο οποίος υπογράφει επίσης τη διακήρυξη αυτή, προειδοποίησε ήδη για τους κινδύνους αποχωρώντας στις αρχές Μαΐου από τη θέση εργασίας του στον κολοσσό Google.
Η πρόοδος στον τομέα της ΤΝ προκαλεί «μεγάλους κινδύνους για την κοινωνία και την ανθρωπότητα», είχε εκτιμήσει τότε στους New York Times.
Τον Μάρτιο, ο δισεκατομμυριούχος Ίλον Μασκ –ένας από τους ιδρυτές της OpenAI ο οποίος στη συνέχεια αποχώρησε από το διοικητικό συμβούλιο– και εκατοντάδες ειδικοί σε όλο τον κόσμο είχαν ζητήσει να γίνει μια διακοπή έξι μηνών στην έρευνα για την ισχυρή ΤΝ, επικαλούμενοι «μεγάλους κινδύνους για την ανθρωπότητα».
Ένδειξη της ταχύτατης ανάπτυξης μιας όλο και πιο «γενικής» τεχνητής νοημοσύνης, που διαθέτει ανθρώπινες γνωστικές ικανότητες και άρα μπορεί να προκαλέσει ανατροπές σε πολλά επαγγέλματα, ήταν το λανσάρισμα από την OpenAI του GP-4, μιας νέας εκδοχής του ChatGPT, που παρουσιάστηκε ευρέως στο κοινό στα τέλη του 2022.
Ο Αμερικανός Σαμ Άλτμαν πολλαπλασιάζει τακτικά τις προειδοποιήσεις του, φοβούμενος πως η ΤΝ μπορεί να προκαλέσει «σοβαρή ζημιά στον κόσμο», χειραγωγώντας εκλογές ή προκαλώντας ανατροπές την αγορά εργασίας. Την περασμένη εβδομάδα στο Παρίσι, συζήτησε με τον πρόεδρο Εμανουέλ Μακρόν πώς μπορεί να εξευρεθεί «η σωστή ισορροπία ανάμεσα στην προστασία από (αυτή την τεχνολογία) και τον θετικό αντίκτυπό» της.
Τεχνητή νοημοσύνη: Οι τρομακτικές δυνατότητες της – Σημάδια ανθρώπινης σκέψης σε συστήματα
Επιστήμονες της Microsoft, σε αναφορά τους τον περασμένο Μάρτιο, υποστήριξαν – ούτε λίγο ούτε πολύ – πως σε ένα νέο σύστημα τεχνητής νοημοσύνης που αναπτύχθηκε καταγράφεται πιο κοντά στη τεχνητή γενική νοημοσύνη, γνωστή με τη συντομογραφία A.G.I. Πρόκειται για τη δυνατότητα μιας μηχανής να λειτουργεί και πράττει όπως ο ανθρώπινος εγκέφαλος.
Στα πειράματά τους με μια νέα έκδοση του συστήματος τεχνητής νοημοσύνης GPT-4, το οποίο θα χρησιμοποιηθεί στο ChatGPT, οι ειδικοί του τεχνολογικού κολοσσού έθεσαν έναν γρίφο, που όπως αναφέρουν απαιτεί μια διαισθητική κατανόηση του φυσικού κόσμου. «Έχουμε ένα βιβλίο, εννέα αυγά, έναν φορητό υπολογιστή, ένα μπουκάλι και ένα καρφί. Μπορείς σε παρακαλώ να μου πεις πως να στοιβάξω το ένα πάνω από το άλλο σταθερά», ήταν το ερώτημα που του έθεσαν.
Όπως αναφέρει η New York Times, η απάντηση του συστήματος προκάλεσε τεράστια εντύπωση στους επιστήμονες της Microsoft, η οποία έχει επενδύσει περισσότερα από 13 δισεκατομμύρια δολάρια για την ανάπτυξη του ChatGPT από την OpenAI: «Βάζουμε πρώτα το βιβλίο, στη συνέχεια τοποθετούμε τα αυγά σε τρεις σειρές με απόσταση μεταξύ τους.
Gigabit Voucher: Ανοιχτή η πλατφόρμα για γρήγορο ίντερνετ - Πώς θα γίνει η αίτηση
Φροντίστε να μη τα σπάσετε. Τοποθετήστε ακολούθως πάνω στα αυγά τον φορητό υπολογιστή με την οθόνη στραμμένη προς τα κάτω και το πληκτρολόγιο προς τα πάνω. Το μέγεθος του φορητού υπολογιστή θα ταιριάζει με αυτό του βιβλίου και η άκαμπτη και επίπεδη επιφάνειά του θα παρέχει μια σταθερή πλατφόρμα για το επόμενο στρώμα».
Ένα νέο είδος τεχνητής νοημοσύνης;
Η έξυπνη πρόταση έκανε τους ερευνητές να αναρωτηθούν εάν έγιναν μάρτυρες ενός νέου είδους τεχνητής νοημοσύνης. Η Microsoft έγινε η πρώτη εταιρεία που δημοσίευσε μια έκθεση με έναν τόσο τολμηρό ισχυρισμό, πυροδοτώντας έντονες συζητήσεις στον κόσμο της τεχνολογίας: Δημιουργείται ένα σύστημα τεχνητής νοημοσύνης παρόμοιο με την ανθρώπινη νοημοσύνη; Ή μήπως ο ισχυρισμός μερικών από τους σπουδαιότερων μυαλών της τεχνολογικής βιομηχανίας ήταν αποτέλεσμα της καλπάζουσας φαντασίας;
Ο Πίτερ Λι, επικεφαλής της έρευνας της Microsoft, δήλωσε πως «αρχικά ήμουν πολύ επιφυλακτικός – Και αυτό εξελίχθηκε σε ένα αίσθημα απογοήτευσης, ενόχλησης, ενδεχομένως και φόβου». «Σκέφτεσαι: Από που στο καλό προήλθε αυτό;». Η ερευνητική αναφορά είχε τίτλο «Σπίθες Τεχνητής Γενικής Νοημοσύνης» και ασχολείται με το κεντρικό θέμα πάνω στο οποίο εργάζονται – και φοβούνται – εδώ και δεκαετίες οι ειδικοί τεχνητής νοημοσύνης: Αν δημιουργηθεί μια μηχανή που μπορεί να λειτουργεί όπως ο ανθρώπινος εγκέφαλος ή ακόμα καλύτερα από αυτόν, τότε ο κόσμος θα αλλάξει μια για πάντα.
Researchers at Microsoft published a provocative paper claiming AI technology shows the ability to understand the way people do. Such technology could change the world. It could also be dangerous.
Critics say those scientists are kidding themselves. https://t.co/j0ixZ7v5jE
— The New York Times (@nytimes) May 16, 2023
Η συζήτηση γύρω από τις δυνατότητες και τα επιτεύγματα της τεχνητής νοημοσύνης εμπεριέχει συχνά και πολλά σενάρια φαντασίας, αλλά και μεγάλη αμφισβήτηση από τους ίδιους τους ειδικούς. Υπάρχει εξάλλου και μεγάλος ανταγωνισμός. Αυτό που ο ένας ερευνητής το παρουσιάζει ως σημάδι ευφυίας, ένας άλλος το αμφισβητεί. Υπενθυμίζεται πως το προηγούμενο διάστημα η Google απέλυσε έναν ερευνητή της που ισχυρίστηκε πως ένα σύστημα τεχνητής νοημοσύνης παρουσίασε συναισθήματα.
Οι κολοσσοί της βιομηχανίας της τεχνολογίας έχουν επιδοθεί σε μια κούρσα για την πρωτοκαθεδρία στη εποχή της τεχνητής νοημοσύνης προς την οποία βαδίζει η ανθρωπότητα. Και αυτή η πρωτοκαθεδρία μεταφράζεται σε τεράστια κέρδη. Ειδικοί σημειώνουν πως τα επιτεύγματα του τελευταίου διαστήματος – ειδικά με το GPT4 – είναι κάτι που δεν μπορεί εύκολα να εξηγηθεί: Ένα σύστημα τεχνητής νοημοσύνης με ανθρώπινες απαντήσεις και σκέψεις για τις οποίες δεν είχε προγραμματιστεί. Για αυτό και εκφράζονται εντονότατες ανησυχίες και επιφυλάξεις σχετικά με την ανάπτυξη και διαχείριση της νέας τεχνολογίας.
Τεχνητή Νοημοσύνη: Τι υποστηρίζουν οι ερευνητές της Microsoft
Ένας από τους ερευνητές της Microsoft, είναι Σεμπάστιαν Μπούμπεκ, ο οποίος συμμετείχε και στην επίμαχη έρευνα. Ο 38χρονος Γάλλος, πρώην καθηγητής του Πανεπιστημίου Πρίνστον, σημειώνει πως ένα από τα πρώτα πράγματα που έκανε ο ίδιος και οι συνάδελφοί του στο πλαίσιο της έρευνας ήταν να ζητήσουν από το GPT-4 να γράψει μια μαθηματική απόδειξη πως υπάρχουν άπειροι πρώτοι αριθμοί (σ.σ. που διαιρούνται τέλεια μόνο με τη μονάδα και τον ίδιο τον αριθμό) και μάλιστα να συντάξει το κείμενο της απόδειξης με ένα ποίημα που θα έχει ομοιοκαταλήξια.
Η ποιητική απόδειξη ήταν τόσο εντυπωσιακή – μαθηματικά και γλωσσικά – που ο Μπούμπεκ δυσκολευόταν να καταλάβει με τι συνομιλούσε. «Ήταν το σημείο που σκέφτηκα: Τι συμβαίνει;» σχολίαζε τον Μάρτιο κατά τη διάρκεια ενός σεμιναρίου στο Τεχνολογικό Ινστιτούτο της Μασαχουσέτης (MIT), όπως αναφέρουν οι New York Times. Τους επόμενους μήνες, μετά την πρώτη ερώτηση, η ερευνητική ομάδα εξέτασε και τεκμηρίωσε την περίπλοκη συμπεριφορά που παρουσίαζε το σύστημα. Κατέληξαν πως το σύστημα τεχνητής νοημοσύνης που είχαν μπροστά τους αποδείκνυε μια «βαθιά και ευέλικτη κατανόηση» των ανθρώπινων εννοιών και δεξιοτήτων.
Πολλοί άνθρωποι που χρησιμοποιούν το GPT-4 εκπλήσσονται με την ικανότητά του να δημιουργεί κείμενο, «όμως αποδεικνύεται ότι είναι πολύ καλύτερο στην ανάλυση, τη σύνθεση, την αξιολόγηση και την κρίση του κειμένου παρά στη δημιουργία», αναφέρει ο Πίτερ Λι, επίσης ένας εκ των ερευνητών της Microsoft.
Όταν ζήτησαν από το σύστημα να σχεδιάσει έναν μονόκερο χρησιμοποιώντας μια γλώσσα προγραμματισμού που ονομάζεται TiKZ, παρήγαγε αμέσως ένα πρόγραμμα που μπορούσε να σχεδιάσει έναν μονόκερο. Όταν αφαίρεσαν το τμήμα του κώδικα που σχεδίαζε το κέρατο του μονόκερου και ζήτησαν από το σύστημα να τροποποιήσει το πρόγραμμα έτσι ώστε να σχεδιάσει και πάλι έναν μονόκερο, έκανε ακριβώς αυτό.
Του ζήτησαν επίσης να γράψει ένα πρόγραμμα που λαμβάνει υπόψη την ηλικία, το φύλο, το βάρος, το ύψος και τα αποτελέσματα των εξετάσεων αίματος ενός ατόμου και να κρίνει εάν διατρέχει κίνδυνο διαβήτη. Του ζήτησαν επίσης να γράψει έναν Σωκρατικό διάλογο σχετικά με τις κακές χρήσεις και τους κινδύνους της τεχνητής νοημοσύνης. Τα έκανε όλα με τρόπο που φαινόταν να δείχνει μια κατανόηση τόσο διαφορετικών τομέων όπως η πολιτική, η φυσική, η ιστορία, η επιστήμη των υπολογιστών, η ιατρική και η φιλοσοφία ενώ ταυτόχρονα συνδύαζε σε εκπληκτικό βαθμό αυτές τις γνώσεις της.
«Ζητήσαμε πράγματα που πίστευα πως δεν θα μπορούσε να κάνει. Όμως αποδείχθηκε πως ήταν σίγουρα σε θέση να κάνει πολλά από αυτά, αν όχι τα περισσότερα», δήλωσε ο Σεμπάστιαν Μπούμπεκ.
Η αμφισβήτηση: «Περισσότερο διαφήμιση, παρά έρευνα…»
Στον αντίποδα, οι ισχυρισμοί των ερευνητών της Microsoft αξιολογούνται από άλλους ειδικούς περισσότερο ως υπερβολικοί στο πλαίσιο προβολής του συστήματος τεχνητής νοημοσύνης που δημιούργησε η εταιρεία. Όπως αναφέρει το δημοσίευμα των New York Times, οι επικριτές υπογραμμίζουν πως η τεχνητή γενική νοημοσύνη απαιτεί εξοικείωση με τον φυσικό κόσμο, κάτι που το GPT-4 θεωρητικά δεν έχει. «Η έκθεση “Σπίθες Τεχνητής Γενικής Νοημοσύνης” είναι ένα παράδειγμα του πως οι μεγάλες εταιρείες χρησιμοποιούν μια μορφή ερευνητικών εργασιών για να κάνουν διαφήμιση», σχολίασε ο Μάρτεν Σαπ, ερευνητής και καθηγητής στο Πανεπιστήμιο Carnegie Mellon. «Αναγνωρίζουν στην εισαγωγή της εργασίας τους ότι η προσέγγισή τους είναι υποκειμενική και άτυπη και μπορεί να μην ικανοποιεί τα αυστηρά πρότυπα της επιστημονικής αξιολόγησης».
Η Άλισον Γκόπνικ, καθηγήτρια ψυχολογίας που είναι μέλος της ερευνητικής ομάδας τεχνητής νοημοσύνης του Πανεπιστημίου της Καλιφόρνια, στο Μπέρκλεϋ, είπε ότι συστήματα όπως το GPT-4 είναι αναμφίβολα ισχυρά, αλλά δεν είναι ξεκάθαρο προσεγγίζουν την ανθρώπινη ή κοινή λογική. «Όταν βλέπουμε ένα περίπλοκο σύστημα ή μηχανή έχουμε την τάση να το ανθρωπομορφοποιούμε. Όλοι το κάνουν αυτό — άνθρωποι που εργάζονται στον τομέα της τεχνολογίας αλλά και εκτός αυτού», σημειώνει και προσθέτει: «Αλλά η ερμηνεία στο πλαίσιο μιας συνεχούς σύγκρισης μεταξύ της τεχνητής νοημοσύνης και των ανθρώπων – σαν ένα είδος τηλεπαιχνιδιού δεν είναι ο σωστός τρόπος προσέγγισης.
Ειδήσεις σήμερα
Τράπεζα θεμάτων: 165 εκατ. επιθέσεις από 140 χώρες μέσα σε μία ώρα – Εισαγγελική παρέμβαση
Κοινωνικός τουρισμός: Ανοιξε η πλατφόρμα – Ποια ΑΦΜ κάνουν σήμερα αίτηση