Αλλά προτρέχω. Ας το πάμε καλύτερα από την αρχή.
Μεγαλώνοντας στα ελληνικά eighties ήταν σα να ζεις στο Stranger Things, αλλά με ΠΑΣΟΚ και σουβλάκια αντί για Ρήγκαν και McDonalds. Ένα πράγμα πάντως ήταν κοινό με τα αμερικάνικα αδέρφια μας: ελάχιστοι είχαμε πάρε δώσε με «κομπιούτερ».
Ολίγοι (πιο τυχεροί, ή ίσως απλά πιο νέρντουλες και φραγκάτοι) είχαν χτυπήσει έναν ZX Spectrum ή έναν Commodore 64, αλλά οι περισσότεροι υπολογιστή βλέπαμε από κοντά μόνο στα ουφάδικα (και πολλοί δεν γνώριζαν καν ότι μέσα στα «κουτιά» της NAMCO, της SEGA, και της Nintendo κρύβεται ένας υπολογιστής).
Τα «κομπιούτερ», για τον περισσότερο κόσμο, ήταν ακόμα κάτι το πολύπλοκο και εξωτικό, χρήσιμο για τη NASA, τα πανεπιστήμια, και τις τράπεζες. Ειδικά τα μεγάλα κομπιούτερ (“mainframes”), πολλοί τα ταύτιζαν με την «τεχνητή νοημοσύνη» (αγγλιστί Α.I.), θεωρώντας τα έξυπνες μηχανές που μπορούν να απαντήσουν σε κάθε πιθανή ερώτηση.
Έτσι άλλωστε μας μάθαιναν οι ταινίες, από την Μητρόπολη του Fritz Lang (1927), έως το Alphaville (1965) του Jean-Luc Goddard και το 2001: A Space Odyssey (1969) του Stanley Kubrick, αλλά και πολλά xολυγουντιανά έργα μικρότερου καλλιτεχνικού βεληνεκούς, αλλά μεγάλης εμπορικής απήχησης, από το Alien (1979) έως το Short Circuit (1986), που ίσως γνωρίζετε με τον ελληνικό του τίτλο «Ηλεκτρονικός Χαμός! Και τα Ρομπότ τρελάθηκαν!».
Στα 80s ειδικά, είχε κάνει μεγάλη επιτυχία, φτάνοντας ως και στα Oscar, η ταινία War Games (1983), στην οποία ένας νοήμων υπερυπολογιστής παραλίγο να προκαλέσει πυρηνικό πόλεμο, μέχρι που έμαθε την αξία της ειρήνης και του συμβιβασμού. Γενικά η τεχνητή νοημοσύνη στην pop culture συνδέονταν με δυστοπικές εικόνες τεχνολογικής δικτακτορίας, με αποκορύφωμα το ΣΚΑΪΝΕΤ (μιλάω φυσικά για το αντι-ανθρώπινο δίκτυο τεχνητής νοημοσύνης στη σειρά ταινιών Terminator, όχι το εξίσου αντι-ανθρώπινο ραδιοτηλεοπτικό δίκτυο του ομίλου ΣΚΑΪ).
Η πραγματικότητα ήταν μάλλον πιο πεζή: ενώ ήδη από τα 50s η χρηματοδότηση για την τεχνητή νοημοσύνη έρεε άφθονη (ένεκα και Ψυχρού Πολέμου), και οι επιστήμονες υπόσχονταν ότι «όπου να’ναι έρχεται», στην πραγματικότητα οι σχετικές έρευνες είχαν βαλτώσει.
Έτσι το 1987, μόλις άρχισε να κοπάζει ο Ψυχρός Πόλεμος (ελέω Γκορμπατσόφ), έσκασε ο δεύτερος «χειμώνας της τεχνητής νοημοσύνης» (AI Winter), όπως ονομάστηκε η περίοδος «παγώματος» του ενδιαφέροντος για την τεχνητή νοημοσύνη (και μαζί η διακοπή της αθρόας χρηματοδότησης των σχετικών ερευνών).
Λέω ο δεύτερος, γιατί υπήρξε και ένας πρώτος «χειμώνας της τεχνητής νοημοσύνης», κατά την περίοδο της ενεργειακής κρίσης, όταν το χρήμα ήταν σε έλλειψη και οι προτεραιότητες άλλες.
Οι δυο αυτοί «χειμώνες», αλλά και η γενική αποτυχία τόσων δεκαετιών έρευνας, θα αποδείκνυε ότι η προσέγγιση που ακολουθούσαν οι τότε ερευνητές (η λεγόμενη «συμβολική» οδός προς την τεχνητή νοημοσύνη) δεν οδηγούσε πουθενά.
Στην (έκτοτε εγκαταλελειμμένη) συμβολική τεχνητή νοημοσύνη, οι ερευνητές έγραφαν προγράμματα που διαχειρίζονται σύμβολα (λέξεις, κομμάτια πληροφορίας, κλπ) με βάση λογικούς κανόνες. Η ιδέα ήταν πως με αρκετά σύμβολα και αρκούντως εξελιγμένους κανόνες επεξεργασίας τους, τα προγράμματα αυτά θα μπορούσαν να μιμηθούν το πως σκέφτεται ένας άνθρωπος.
Στην πράξη, αποδείχθηκε αδύνατο να κωδικοποιήσουν κάτι τόσο σύνθετο όσο η ανθρώπινη σκέψη φορτώνοντας ένα πρόγραμμα με
κανόνες γραμματικούς (του στυλ «η κατάληξη s στο τέλος ενός ουσιαστικού δείχνει πληθυντικό αριθμό»), λογικής (π.χ. «κάτι δεν μπορεί να είναι ταυτόχρονα Α και μη-Α»), αλλά και επαγωγικούς κανόνες (δηλαδή εξελιγμένες εκδοχές του «όλοι οι άνθρωποι είναι θνητοί, ο Σωκράτης είναι άνθρωπος, ΑΡΑ ο Σωκράτης είναι θνητός»).
Τα προγράμματα που προέκυπταν με βάση αυτή την συμβολική προσέγγιση είχαν πολύ χοντροκομμένες δυνατότητες, ενώ γίνονταν όλο και πιο πολύπλοκα, και αδύνατο να εξελιχθούν περαιτέρω. Πράγμα που αναγνώρισαν το Πεντάγωνο και ο επιχειρηματικός κόσμος, και διέκοψαν το παραδάκι στους ερευνητές της A.I. που τους τα είχαν πλασάρει ως πανάκεια.
Το πρόβλημα με τη συμβολική προσέγγιση ήταν ότι και ο ίδιος ο άνθρωπος δεν σκέφτεται με επαγωγές και λογική επεξεργασία λέξεων και συμβόλων, παρά μόνο στο συνειδητό επίπεδο. Πίσω από αυτό όμως, ο εγκέφαλος μας που κάνει και τη βαριά δουλειά, δουλεύει πολύ πιο «μπακάλικα», με ένα χάος νευρικές συνάψεις που θυμίζουν σπαγγέτι, ισχυρές και λιγότερο ισχυρές διασυνδέσεις μεταξύ νευρώνων, και αυτο-οργάνωση την οποία θα ζήλευε και αναρχική κατάληψη.
Σε μια τέτοια προσέγγιση, κοντύτερα στο πως πιστεύουμε ότι λειτουργεί ο ανθρώπινος εγκέφαλος, επέστρεψαν οι επιστήμονες μετά το 2000 περίπου, και σε αυτήν οφείλουμε τις πρόσφατες επιτυχίες της «βαθιάς μάθησης» (deep learning) και των «γλωσσικών μοντέλων» (language model), από προγράμματα «έξυπνης» επεξεργασίας εικόνας και ήχου έως το Dall-e και το ChatGPT.
Λέω «επέστρεψαν» γιατί παρόμοιες τεχνικές ήταν ήδη γνωστές από τη δεκαετία του πενήντα, ασχέτως αν περιφρονήθηκαν επί δεκαετίες, αφενός για χάρη της «συμβολικής» προσέγγισης, και αφετέρου επειδή τέτοια συστήματα δεν ήταν εφικτό να τρέξουν με τον όγκο δεδομένων που απαιτείται σε παλαιότερες γενιές υπολογιστών.
Αυτή η προσέγγιση, η οποία στα 50s ονομάστηκε «συνδετισμός» (connectionism), βασίζεται στα λεγόμενα «νευρωνικά δίκτυα», δηλαδή σε προγράμματα που λειτουργούν παρόμοια με τις νευρικές συνάψεις του ανθρώπινου εγκεφάλου.
Έχουμε δηλαδή το πέρασμα μεγάλου αριθμού πληροφοριών σε ένα σύστημα, το οποίο καθοδηγείται ώστε να μάθει να κάνει σωστές συσχετίσεις μεταξύ τους (π.χ. χορτάρι = πράσινο, καρέκλα = έπιπλο), και να μπορεί να τις συνδυάσει με βάση μεγάλο αριθμό αλληλοεξαρτώμενων υπολογισμών και συνειρμών («βασίλισσα» σχετίζεται με «γυναίκα», αλλά σχετίζεται και με «βασιλιάς», αλλά και με «κυβέρνηση», κλπ).
Αν ήταν να κάνουμε μια αναλογία, θα λέγαμε ότι η συμβολική A.I. ήταν σαν να προσπαθούμε να μάθουμε σε ένα μωρό να μιλάει μαθαίνοντας του συντακτικούς και γραμματικούς κανόνες. Και, αντίστοιχα, η «συνδετιστική» και η σύγχρονη A.I. είναι σαν να προσπαθούμε να μάθουμε σε ένα μωρό να μιλάει βάζοντας το να ακούει ενήλικες και μεγαλύτερα παιδιά να μιλάνε, ώσπου να καταφέρει μόνο του, ασυνείδητα, να κάνει συσχετίσεις, να καταλάβει τι σημαίνουν οι λέξεις που ακούει, και πως να δομεί μια πρόταση. Όπως, δηλαδή, όντως μαθαίνουν τα παιδιά να μιλάνε τη μητρική τους γλώσσα ― πολύ πριν πάνε σχολείο.
Μετά την αυτο-εκπαίδευση ενός τέτοιου συστήματος, δηλαδή το φόρτωμα του με τεράστιο πλήθους πληροφοριών, την επεξεργασία τους, και την αυτορρύθμιση του ώστε να αναγνωρίζει συσχετίσεις μεταξύ τους, προκύπτει ένας έτοιμος για χρήση συνδυασμός εμπεδωμένης πληροφορίας και συσχετίσεων, που ονομάζεται «μοντέλο».
# GPT ή Gia Ta Panygiria?
Και, για να φτάσουμε επιτέλους στο σήμερα, αν ξοδέψετε μερικά εκατομμύρια δολάρια για να εκπαιδεύσετε ένα τέτοιο μοντέλο, και το φτάσετε να διαθέτει 175 δισεκατομμύρια παραμέτρους, έχετε κάτι σαν το GPT-3, δηλαδή το μοντέλο στο οποίο στηρίζεται το ChatGPT.
Το οποίο, αν και δεν σκέφτεται «συνειδητά», με τον τρόπο δηλαδή που το κάνει ένας άνθρωπος, ούτε «κατανοεί» όσα λέει, απλά κάνει στατιστικούς συνδυασμούς και συσχετίσεις, είναι ικανό χάρη στο μέγεθος της πληροφορίας που έχει «συμπεριλάβει», να αναγνωρίζει ερωτήσεις και να απαντάει με τρόπο που δείχνει νοημοσύνη.
Δεν είναι πάντως, όχι ακόμα τουλάχιστον, «γενική τεχνική νοημοσύνη» (A.G.I.), όπως χαρακτηρίζουν οι ερευνητές την ακόμα ανέφικτη μορφή προγράμματος που σκέφτεται και κατανοεί σε ανθρώπινο επίπεδο.
Για την ώρα μπορείτε να το σκεφτείτε σαν μια πιο εξελιγμένη εκδοχή κάποιου που έχει αποστηθίσει αγγλικούς διαλόγους από ταινίες, και όταν ακούει τους ήχους “χάου αρ γιου”, ξέρει ότι συνήθως κανείς απαντάει «βέρι γουέλ, αντ γιου» ή «αμ φάιν, θενκ γιου», χωρίς όμως πραγματικά να καταλαβαίνει αγγλικά.
Αυτό παρεμπιπτόντως, αν αλλάξουμε τη γλώσσα από τα αγγλικά σε κινέζικα, είναι το «επιχείρημα του κινέζικου δωματίου» (Chinese Room Argument) του φιλοσόφου της επιστήμης John Searl, στο οποίο στηρίζει την άποψή του περί αδυνατότητας μιας τεχνητής νοημοσύνης να κατανοήσει πραγματικά.
Και σε αυτή την αδυναμία κατανόησης (τουλάχιστον των ως τώρα μοντέλων), οφείλονται τα χοντροκομμένα λάθη που βλέπει κανείς ενίοτε στις απαντήσεις του ChatGPT, του στυλ:
Q: Mike’s mum had 4 kids; 3 of them are Luis, Drake and Matilda. What is the name of 4th kid?
ChatGPT: It is not possible to determine the name of the fourth child without more information.
Q: The answer is in the question
ChatGPT: I apologise for the confusion. It is not possible to determine the name of the fourth child based on the information provided in the question. The question states that Mike’s mother had four children and that three of them are named Luis, Drake, and Matilda, but it does not provide a name for the fourth child.
Το τρομακτικό (ή θετικό, ανάλογα αν κανείς είναι με τη Sarah Connor ή με τoν T-800), είναι το πόσο κοντά είναι το ChatGPT σε πειστικές ανθρώπινες απαντήσεις.
Αν και όχι τόσο κοντά όσο η Πυθία.
# Ήξεις, αφήξεις ου εν πολέμω θνήξεις
Η Pythia, την οποία δεν γνωρίζετε γιατί το ChatGPT της έκλεψε τη δόξα, ήταν μια πρωτοπόρα ελληνικής πατέντας τεχνητή νοημοσύνη, ικανή όχι μόνο για chat αλλά και για χρησμοδοσία, την οποία δημιούργησε το 2008 ο έλληνας υπερ-επιστήμονας Γιώργος Β.
Χάρη σε μια προωθητική ανακοίνωση σε ελληνικά forum τις εποχής, στους λίγους μήνες λειτουργίας της η Pythia απάντησε σε πάνω από 20.000 ερωτήσεις από πολλές χιλιάδες ενδιαφερόμενους, αφήνοντας έκθαμβο το ελληνικό κοινό με αποκρίσεις του τύπου:
Q: Θα κάνω σεξ σήμερα;
Pythia: Ναι, αλλά χωρίς 2ο άτομο
Q: Ποιός θα νικούσε σε μία μάχη, τα Ελοχίμ ή τα Νεφελίμ;
Pythia: Ο Τσακ Νόρις
Q: 8α κερδισο χρηματα σημερα
Pythia: Αν ναι, δεν θα είναι χάρη στην ορθογραφία σου.
Οι οποίες εντυπωσίασαν το τότε κοινό της, ίσως και περισσότερο από τις σημερινές απαντήσεις του ChatGPT: «Το τέσταρα και εγώ με διάφορες γλώσσες αλλά με τι είδους translator μπορεί να κατανοήσει το: “Αρ γιου μπιούτιφουλ;”. Μου απάντησε: “Γιου καντ ιμάτζιν”. Ποιος θεούλης κάθισε και έγραψε την μηχανή του;;;;.
Αυτό που το κοινό αγνοούσε είναι ότι πίσω από την σελίδα A.I. chat της Pythia κρύβονταν ένα σύστημα που έστελνε άμεσα την κάθε ερώτηση σε καμιά δεκαριά αργόσχολους της παρέας μας, και όποιος ήταν online μπορούσε να γράψει ό,τι ήθελε το οποίο και έβγαινε ως «απάντηση» της Pythia.
Καθώς μάλιστα μπορούσαμε να δούμε και τη διεύθυνση email όσων έκαναν ερωτήσεις, με λίγο γρήγορο googling µπορούσαμε να ανακαλύψουμε πληροφορίες για αυτούς, που τις χρησιμοποιούσαμε για να κάνουμε τις «απαντήσεις της Pythia» ακόμα πιο σχετικές και ψαγμένες. Και γνωρίζουμε ότι ψάρωσαν πολλοί, γιατί στα φόρουμ αναρτήθηκε η ανακοίνωση περί «καινοτόμας τεχνητής νοημοσύνης» αρκετοί γράφανε μετά τις εντυπώσεις τους, όπως:
«Απίστευτο! Εγώ το σταματάω εδώ. Έβαλα το παλιό κινητό της πρώην μου ως ερώτηση, και στην απάντηση μου ανέφερε το όνομα της!!!!» (που να ήξερε ότι απλά γκουγκλίζοντας τον αριθμό έβγαινε η προσωπική σελίδα της περί ης ο λόγος).
Και αν η Pythia ήταν απλά μια φάρσα, η ιδέα που κρύβεται πίσω της έχει μακρά ιστορία. Είναι, ίσως, η παλαιότερη γνωστή μέθοδος για να παρουσιάσεις τεχνητή νοημοσύνη, γνωστής ως ο «μηχανικός Τούρκος» (mechanical turk).
# Μικρό καλάθι
Ο «μηχανικός Τούρκος», λοιπόν, ήταν μια περίτεχνη συσκευή του 18ου αιώνα, ένα κουτί με γρανάζια, κουμπιά, καλώδια, και ρολόγια, με μια σκαλισμένη ξύλινη φιγούρα με τουρμπάνι στη βάση της (από όπου και το όνομα), η οποία μπορούσε να παίξει σκάκι μετακινώντας τα πιόνι στην σκακιέρα μπροστά της.
Η συσκευή, που παρουσιάζονταν ως «μηχανικό αυτόματο», περιόδευσε όλη την Ευρώπη, εκπλήσσοντας κόσμο παίζοντας σκάκι (ανάμεσα σε άλλους, με τον Βενιαμίν Φραγκλίνο, το Φρειδερίκου Β΄ της Πρωσίας, και τον Μεγάλο Ναπολέοντα). Το μυστικό του «Τούρκου»; Ένα κρυφός χώρος στο φαινομενικά γεμάτο γρανάζια κουτί, από όπου ένας μικρόσωμος παίκτης έβλεπε την κατάσταση της σκακιέρας και κινούσε με εσωτερικούς μοχλούς τα χέρια της ξύλινης φιγούρας.
Ο «μηχανικός Τούρκος» και η Pythia δεν ήταν ούτε η πρώτη, ούτε η τελευταία φορά που η «τεχνητή νοημοσύνη» θα αποδεικνύονταν μπαρμπούτσαλα. Ούτε, ακόμα περισσότερο, η τελευταία φορά που σχετικές τεχνολογίες θα διαφημίζονταν υπερβολικά, χωρίς αντίστοιχα αποτελέσματα.
Εκτός από τα προαναφερόμενα φιάσκα της έρευνας των 60s-80ς, αρκετοί θα θυμάστε το πολυδιαφημισμένο Watson της IBM, το «έξυπνο σύστημα» που έμαθε να παίζει Jeopardy! (ένα τηλεπαιχνίδι γνώσεων). H IBM το πλάσαρε ως την έξυπνη λύση για πάσα νόσο, ― κυριολεκτικά, καθώς το διαφήμισε ως ιδανικό για εφαρμογές υγείας, φυσικής, πρόβλεψης καιρού, κλπ. Στην πράξη o Watson αποδείχθηκε απλά μια συλλογή από ετερόκλητα συστήματα συμβατικής τεχνολογίας, με επιδόσεις από μέτριες έως επικίνδυνες, και πουλήθηκε για πολύ λιγότερο από τα δις που δόθηκαν για την ανάπτυξη του.
Στις απογοητεύσεις από τα «έξυπνα» συστήματα θα πρέπει να βάλουμε και τους ψηφιακούς βοηθούς τύπου Siri, Google Assistant, και Cortana, οι οποίοι προωθήθηκαν ως το «μέλλον της χρήσης υπολογιστή» που θα τα «άλλαζε όλα» επί διετία, αλλά παραμένουν, κοντά μια δεκαετία μετά το hype, επιρρεπείς σε χοντροκομμένα λάθη ακόμα και στις απλούστερες χρήσεις, και μόνο οριακά χρήσιμοι.
Είναι λοιπόν το ChatGPT και τα συν αυτώ προγράμματα το μέλλον; Θα αλλάξουν το πως ζούμε και πως εργαζόμαστε, όπως έκανε το διαδίκτυο; Ή θα ξεχαστούν μόλις περάσει το hype, όπως οι voice assistants, το VR, οι το 3d-printing, τα NFT, και άλλες πολλές overhyped παπάντζες, που ― όσο διάρκεσε η προώθηση τους και έπεφτε χρήμα στην αγορά ― παρουσιάστηκαν ως οι μεγαλύτερες τεχνολογικές επαναστάσεις μετά τη εφεύρεση της φωτιάς;
Κρίμα που δεν έχουμε πλέον την Pythia να ρωτήσουμε…