ΦΙΛΟΣΟΦΙΑ
ΜΠΟΡΟΥΝ ΟΙ ΜΗΧΑΝΕΣ ΝΑ ΣΚΕΦΤΟΝΤΑΙ;
Ιστορία της τεχνητής νοημοσύνης: γράφει ο Γιάννης Ιωαννίδης
Στο πρώτο μισό του 20ού αιώνα, η επιστημονική φαντασία εξοικείωσε
τον κόσμο με την έννοια των τεχνητά ευφυών ρομπότ.
Ξεκίνησε με τον «άκαρδο» τενεκεδένιο άνθρωπο από τον Μάγο του Οζ.
Συνεχίστηκε με το ανθρωποειδές ρομπότ που υποδυόταν τη Μαρία στο «Metropolis»,
του Φριτς Λανγκ. Μέχρι τη δεκαετία του 1950, είχαμε μια γενιά επιστημόνων,
μαθηματικών και φιλοσόφων με την έννοια της τεχνητής νοημοσύνης (ΤΝ)
πολιτισμικά αφομοιωμένη στο μυαλό τους.
Ένα τέτοιο άτομο ήταν ο Άλαν Τούρινγκ. Ένας νεαρός Βρετανός πολυμαθής που διερεύνησε τη μαθηματική δυνατότητα της τεχνητής νοημοσύνης. Ο Τούρινγκ πρότεινε ότι οι άνθρωποι χρησιμοποιούν τις διαθέσιμες πληροφορίες καθώς και τη λογική προκειμένου να επιλύουν προβλήματα και να λαμβάνουν αποφάσεις. Οπότε γιατί να μην μπορούν οι μηχανές να κάνουν το ίδιο πράγμα; Αυτό ήταν το λογικό πλαίσιο της εργασίας του 1950, Computing Machinery and Intelligence. Σε αυτή συζητούσε πώς να κατασκευάσει ευφυείς μηχανές και πώς να ελέγξει τη νοημοσύνη τους.
ΙΣΤΟΡΙΑ ΤΗΣ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗ: ΚΑΝΟΝΤΑΣ ΤΗΝ ΕΠΙΔΙΩΞΗ ΔΥΝΑΤΗ
Δυστυχώς, τα λόγια είναι φτηνά. Τι εμπόδισε τον Τούρινγκ από το να πιάσει δουλειά εκείνη τη στιγμή; Πρώτον, οι υπολογιστές έπρεπε να αλλάξουν ριζικά. Πριν από το 1949 οι υπολογιστές στερούνταν μιας βασικής προϋπόθεσης για τη νοημοσύνη: Δεν μπορούσαν να αποθηκεύουν εντολές, παρά μόνο να τις εκτελούν. Με άλλα λόγια, οι υπολογιστές μπορούσαν να λάβουν εντολές για το τι να κάνουν, αλλά δεν μπορούσαν να θυμηθούν τι έκαναν.
«Ιστορία της τεχνητής νοημοσύνης: ήταν
ένα πρόγραμμα που είχε σχεδιαστεί για να
μιμείται τις ικανότητες επίλυσης προβλημάτων ενός ανθρώπου.»
Δεύτερον, οι υπολογιστές ήταν εξαιρετικά ακριβοί. Στις αρχές της δεκαετίας του 1950, το κόστος μίσθωσης ενός υπολογιστή έφτανε τα 200.000 δολάρια το μήνα. Μόνο τα πανεπιστήμια υψηλού κύρους και οι μεγάλες τεχνολογικές εταιρείες μπορούσαν να αντέξουν οικονομικά να περιπλανηθούν σε αυτά τα αχαρτογράφητα νερά. Για να πειστούν οι πηγές χρηματοδότησης ότι η μηχανική νοημοσύνη άξιζε να επιδιωχθεί, χρειαζόταν μια απόδειξη της έννοιας καθώς και η υποστήριξη από ανθρώπους υψηλού προφίλ.
ΙΣΤΟΡΙΑ ΤΗΣ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗ: ΤΟ ΣΥΝΕΔΡΙΟ ΑΠΟ ΟΠΟΥ ΞΕΚΙΝΗΣΑΝ ΟΛΑ
Πέντε χρόνια αργότερα, η απόδειξη της έννοιας δρομολογήθηκε μέσω του συνεδρίου των Allen Newell, Cliff Shaw και Herbert Simon. Αυτοί δούλευαν το Logic Theorist. Το Logic Theorist ήταν ένα πρόγραμμα που είχε σχεδιαστεί για να μιμείται τις ικανότητες επίλυσης προβλημάτων ενός ανθρώπου. Χρηματοδοτήθηκε από την Εταιρεία Έρευνας και Ανάπτυξης (RAND).
Θεωρείται από πολλούς ως το πρώτο πρόγραμμα τεχνητής νοημοσύνης. Παρουσιάστηκε στο Dartmouth Summer Research Project on Artificial Intelligence (DSRPAI). Αυτό φιλοξενήθηκε από τους John McCarthy και Marvin Minsky το 1956. Σε αυτό το ιστορικό συνέδριο, ο McCarthy, φανταζόταν μια μεγάλη συλλογική προσπάθεια. Συγκέντρωσε κορυφαίους ερευνητές από διάφορους τομείς για μια ανοιχτή συζήτηση σχετικά με την τεχνητή νοημοσύνη, τον όρο που επινόησε στην ίδια εκδήλωση.
Δυστυχώς, το συνέδριο δεν ανταποκρίθηκε στις προσδοκίες του McCarthy. Οι άνθρωποι έρχονταν και έφευγαν όπως ήθελαν και δεν κατάφεραν να συμφωνήσουν σε τυποποιημένες μεθόδους για το πεδίο. Παρά ταύτα, όλοι συντάχθηκαν ολόψυχα με την άποψη ότι η τεχνητή νοημοσύνη ήταν εφικτή. Η σημασία αυτού του γεγονότος δεν μπορεί να υπονομευθεί. Αποτέλεσε καταλύτη για τα επόμενα είκοσι χρόνια της έρευνας για την ΤΝ.
ΙΣΤΟΡΙΑ ΤΗΣ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗ: ΕΠΙΤΥΧΙΕΣ ΚΑΙ ΑΠΟΤΥΧΙΕΣ
Από το 1957 έως το 1974, η τεχνητή νοημοσύνη άνθισε. Οι υπολογιστές μπορούσαν να αποθηκεύουν περισσότερες πληροφορίες και έγιναν ταχύτεροι, φθηνότεροι και πιο προσιτοί. Οι αλγόριθμοι μηχανικής μάθησης βελτιώθηκαν επίσης και οι άνθρωποι έγιναν καλύτεροι στο να γνωρίζουν ποιον αλγόριθμο να εφαρμόσουν στο πρόβλημά τους.
«Ιστορία της τεχνητής νοημοσύνης: μια μηχανή
που θα μπορούσε να μεταγράφει και
να μεταφράζει την προφορική γλώσσα.»
Οι πρώτες επιδείξεις, όπως το General Problem Solver των Newell και Simon και το ELIZA του Joseph Weizenbaum, έδειχναν υποσχέσεις προς τους στόχους της επίλυσης προβλημάτων και της ερμηνείας της προφορικής γλώσσας αντίστοιχα. Αυτές οι επιτυχίες, καθώς και η συνηγορία κορυφαίων ερευνητών (συγκεκριμένα των συμμετεχόντων στο DSRPAI) έπεισαν κυβερνητικές υπηρεσίες όπως η Υπηρεσία Προηγμένων Αμυντικών Ερευνητικών Προγραμμάτων (DARPA) να χρηματοδοτήσουν την έρευνα ΤΝ σε διάφορα ιδρύματα.
Η κυβέρνηση ενδιαφερόταν ιδιαίτερα για μια μηχανή που θα μπορούσε να μεταγράφει και να μεταφράζει την προφορική γλώσσα, καθώς και για την επεξεργασία δεδομένων υψηλής απόδοσης. Η αισιοδοξία ήταν μεγάλη και οι προσδοκίες ακόμη μεγαλύτερες. Το 1970 ο Μάρβιν Μίνσκι δήλωσε στο περιοδικό Life ότι «σε τρία έως οκτώ χρόνια θα έχουμε μια μηχανή με τη γενική νοημοσύνη ενός μέσου ανθρώπου». Ωστόσο, ενώ υπήρχε η βασική απόδειξη της αρχής, υπήρχε ακόμη πολύς δρόμος μέχρι να επιτευχθούν οι τελικοί στόχοι της επεξεργασίας φυσικής γλώσσας, της αφηρημένης σκέψης και της αυτοαναγνώρισης.
ΙΣΤΟΡΙΑ ΤΗΣ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗ: ΤΑ ΜΕΓΑΛΑ ΠΡΟΒΛΗΜΑΤΑ
Η διάσπαση της αρχικής ομίχλης της Τεχνητής Νοημοσύνης αποκάλυψε ένα βουνό από εμπόδια. Το μεγαλύτερο ήταν η έλλειψη υπολογιστικής ισχύος για να γίνει κάτι ουσιαστικό: Οι υπολογιστές απλώς δεν μπορούσαν να αποθηκεύσουν αρκετές πληροφορίες ή να τις επεξεργαστούν αρκετά γρήγορα. Για να επικοινωνήσει κανείς, για παράδειγμα, πρέπει να γνωρίζει τη σημασία πολλών λέξεων και να τις κατανοεί σε πολλούς συνδυασμούς. Ο Hans Moravec, διδακτορικός φοιτητής του McCarthy εκείνη την εποχή, δήλωσε ότι «οι υπολογιστές ήταν ακόμη εκατομμύρια φορές πολύ αδύναμοι για να επιδείξουν νοημοσύνη». Καθώς η υπομονή λιγόστευε, λιγόστευε και η χρηματοδότηση, και η έρευνα ήρθε σε αργό ρυθμό για δέκα χρόνια.
«Ιστορία της τεχνητής νοημοσύνης: οι μη
ειδικοί μπορούσαν να λάβουν συμβουλές από το πρόγραμμα αυτό.»
Στη δεκαετία του 1980, η τεχνητή νοημοσύνη αναζωπυρώθηκε από δύο πηγές: Την επέκταση της εργαλειοθήκης αλγορίθμων και την ενίσχυση των κονδυλίων. Ο John Hopfield και ο David Rumelhart διέδωσαν τις τεχνικές «βαθιάς μάθησης». Επέτρεπαν στους υπολογιστές να μαθαίνουν χρησιμοποιώντας την εμπειρία. Από την άλλη πλευρά, ο Edward Feigenbaum εισήγαγε συστήματα εμπειρογνωμόνων τα οποία μιμούνταν τη διαδικασία λήψης αποφάσεων ενός ανθρώπινου εμπειρογνώμονα.
Το πρόγραμμα ρωτούσε έναν εμπειρογνώμονα σε έναν τομέα πώς να αντιδράσει σε μια δεδομένη κατάσταση. Μόλις αυτό μαθευόταν για σχεδόν κάθε κατάσταση, οι μη ειδικοί μπορούσαν να λάβουν συμβουλές από το πρόγραμμα αυτό. Τα συστήματα εμπειρογνωμόνων χρησιμοποιήθηκαν ευρέως στις βιομηχανίες. Η ιαπωνική κυβέρνηση χρηματοδότησε σε μεγάλο βαθμό τα συστήματα εμπειρογνωμόνων και άλλες προσπάθειες σχετικές με την ΤΝ στο πλαίσιο του προγράμματος υπολογιστών πέμπτης γενιάς (FGCP).
Από το 1982-1990, επένδυσε 400 εκατομμύρια δολάρια με στόχο την επανάσταση στην επεξεργασία των υπολογιστών, την εφαρμογή του λογικού προγραμματισμού και τη βελτίωση της τεχνητής νοημοσύνης. Δυστυχώς, οι περισσότεροι από τους φιλόδοξους στόχους δεν επιτεύχθηκαν. Ωστόσο, θα μπορούσε να υποστηριχθεί ότι οι έμμεσες επιπτώσεις του FGCP ενέπνευσαν μια ταλαντούχα νέα γενιά μηχανικών και επιστημόνων. Ανεξάρτητα από αυτό, η χρηματοδότηση του FGCP σταμάτησε και η τεχνητή νοημοσύνη έφυγε από το προσκήνιο.
ΙΣΤΟΡΙΑ ΤΗΣ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗ: Η ΜΗ ΑΝΑΜΕΝΟΜΕΝΗ ΑΝΟΙΞΗ
Κατά ειρωνεία της τύχης, ελλείψει κρατικής χρηματοδότησης και δημόσιας δημοσιότητας, η ΤΝ ευδοκίμησε. Κατά τις δεκαετίες του 1990 και του 2000, πολλοί από τους στόχους-ορόσημα της τεχνητής νοημοσύνης είχαν επιτευχθεί. Το 1997, ο απερχόμενος παγκόσμιος πρωταθλητής στο σκάκι και μεγάλος δάσκαλος Γκάρι Κασπάροφ ηττήθηκε από το Deep Blue της IBM. Ένα πρόγραμμα υπολογιστή που έπαιζε σκάκι.
«Ιστορία της τεχνητής νοημοσύνης: το θεμελιώδες όριο
της αποθήκευσης στον υπολογιστή που μας
κρατούσε πίσω πριν από 30 χρόνια δεν αποτελούσε πλέον πρόβλημα.»
Αυτός ο πολύ προβεβλημένος αγώνας ήταν η πρώτη φορά που ένας εν ενεργεία παγκόσμιος πρωταθλητής σκακιού έχασε από έναν υπολογιστή. Λειτούργησε ως ένα τεράστιο βήμα προς ένα πρόγραμμα λήψης αποφάσεων με τεχνητή νοημοσύνη. Την ίδια χρονιά, το λογισμικό αναγνώρισης ομιλίας, που αναπτύχθηκε από την Dragon Systems, εφαρμόστηκε στα Windows. Αυτό ήταν ένα ακόμη μεγάλο βήμα προς τα εμπρός. Ουσιαστικά προς την κατεύθυνση της προσπάθειας διερμηνείας προφορικού λόγου.
Φαινόταν ότι δεν υπήρχε πρόβλημα που οι μηχανές δεν μπορούσαν να χειριστούν. Ακόμη και τα ανθρώπινα συναισθήματα ήταν δίκαιο παιχνίδι, όπως αποδεικνύεται από το Kismet, ένα ρομπότ που αναπτύχθηκε από τη Cynthia Breazeal και μπορούσε να αναγνωρίζει και να εμφανίζει συναισθήματα.
ΙΣΤΟΡΙΑ ΤΗΣ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗ: Ο ΧΡΟΝΟΣ ΘΕΡΑΠΕΥΕΙ
Δεν γίναμε πιο έξυπνοι στον τρόπο που κωδικοποιούμε την τεχνητή νοημοσύνη, οπότε τι άλλαξε; Αποδεικνύεται ότι το θεμελιώδες όριο της αποθήκευσης στον υπολογιστή που μας κρατούσε πίσω πριν από 30 χρόνια δεν αποτελούσε πλέον πρόβλημα. Ο νόμος του Moore, ο οποίος εκτιμά ότι η μνήμη και η ταχύτητα των υπολογιστών διπλασιάζονται κάθε χρόνο, είχε επιτέλους προλάβει και σε πολλές περιπτώσεις ξεπέρασε τις ανάγκες μας.
«Ιστορία της τεχνητής νοημοσύνης: η εφαρμογή
της τεχνητής νοημοσύνης στο πλαίσιο αυτό
έχει ήδη αποδειχθεί αρκετά καρποφόρα σε διάφορους κλάδους.»
Με αυτόν ακριβώς τον τρόπο ο Deep Blue κατάφερε να νικήσει τον Gary Kasparov το 1997 και ο Alpha Go της Google κατάφερε να νικήσει τον πρωταθλητή του κινεζικού Go, Ke Jie, μόλις πριν από λίγους μήνες. Προσφέρει μια μικρή εξήγηση για το τρενάκι του τρόμου στην έρευνα για την τεχνητή νοημοσύνη: αναπτύσσουμε τις δυνατότητες της τεχνητής νοημοσύνης στο επίπεδο της τρέχουσας υπολογιστικής μας ισχύος: Αποθήκευση και ταχύτητα επεξεργασίας σε υπολογιστή. Στη συνέχεια περιμένουμε να μας προλάβει ξανά ο νόμος του Moore.
ΙΣΤΟΡΙΑ ΤΗΣ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗ: ΕΙΝΑΙ ΠΑΝΤΟΥ
Ζούμε πλέον στην εποχή των «μεγάλων δεδομένων». Μια εποχή στην οποία έχουμε τη δυνατότητα να συλλέγουμε τεράστια ποσά πληροφοριών που είναι πολύ δυσκίνητα για να τα επεξεργαστεί ένας άνθρωπος.
Η εφαρμογή της τεχνητής νοημοσύνης στο πλαίσιο αυτό έχει ήδη αποδειχθεί αρκετά καρποφόρα σε διάφορους κλάδους. Τέτοιοι είναι η τεχνολογία, οι τράπεζες, το μάρκετινγκ και η ψυχαγωγία. Είδαμε ότι, ακόμη και αν οι αλγόριθμοι δεν βελτιώνονται πολύ, τα μεγάλα δεδομένα και οι μαζικοί υπολογιστές απλώς επιτρέπουν στην τεχνητή νοημοσύνη να μαθαίνει μέσω της ωμής βίας.
Μπορεί να υπάρχουν ενδείξεις ότι ο νόμος του Moore επιβραδύνει λίγο, αλλά η αύξηση των δεδομένων σίγουρα δεν έχει χάσει καθόλου τη δυναμική της. Οι ανακαλύψεις στην επιστήμη των υπολογιστών, τα μαθηματικά ή τις νευροεπιστήμες χρησιμεύουν ως πιθανές εξόδους μέσα από το ταβάνι του νόμου του Moore.
ΙΣΤΟΡΙΑ ΤΗΣ ΤΕΧΝΗΤΗΣ ΝΟΗΜΟΣΥΝΗ: ΤΟ ΜΕΛΛΟΝ
Τι προβλέπεται λοιπόν για το μέλλον; Στο άμεσο μέλλον, η γλώσσα τεχνητής νοημοσύνης μοιάζει με το επόμενο μεγάλο πράγμα. Στην πραγματικότητα, βρίσκεται ήδη σε εξέλιξη. Δεν μπορώ να θυμηθώ την τελευταία φορά που τηλεφώνησα σε μια εταιρεία και μίλησα απευθείας με έναν άνθρωπο.
«Ιστορία της τεχνητής νοημοσύνης: ο στόχος
είναι η γενική νοημοσύνη.»
Αυτές τις μέρες, οι μηχανές καλούν ακόμα και εμένα! Θα μπορούσε κανείς να φανταστεί την αλληλεπίδραση με ένα σύστημα εμπειρογνωμόνων σε μια ρευστή συνομιλία. Ακόμη μια συνομιλία σε δύο διαφορετικές γλώσσες που μεταφράζεται σε πραγματικό χρόνο.
Μπορούμε επίσης να περιμένουμε να δούμε αυτοκίνητα χωρίς οδηγό στους δρόμους μέσα στα επόμενα είκοσι χρόνια (και αυτό είναι συντηρητικό). Μακροπρόθεσμα, ο στόχος είναι η γενική νοημοσύνη. Δηλαδή μια μηχανή που ξεπερνά τις ανθρώπινες γνωστικές ικανότητες σε όλες τις εργασίες. Αυτό είναι στα πρότυπα των αισθητήριων ρομπότ που έχουμε συνηθίσει να βλέπουμε στις ταινίες.
Μου φαίνεται αδιανόητο ότι αυτό θα επιτευχθεί μέσα στα επόμενα 50 χρόνια. Ακόμη και αν υπάρχει η δυνατότητα, τα ηθικά ζητήματα θα αποτελούσαν ισχυρό εμπόδιο για την πραγματοποίησή του. Όταν έρθει εκείνη η ώρα -αλλά καλύτερα ακόμη και πριν έρθει η ώρα-, θα πρέπει να κάνουμε μια σοβαρή συζήτηση για την πολιτική των μηχανών και την ηθική. Ειρωνικά και τα δύο είναι θεμελιωδώς ανθρώπινα θέματα. Αλλά προς το παρόν, θα επιτρέψουμε στην Τεχνητή Νοημοσύνη να βελτιώνεται σταθερά και να δημιουργεί αμόκ στην κοινωνία.