«Χρειαζόμαστε την Κίνα για τον έλεγχο της τεχνητής νοημοσύνης»
Εχει κατοχυρώσει να δημιουργεί εκδοτικό – και όχι μόνο – «γεγονός» με κάθε νέο βιβλίο του. Και αυτό διαφαίνεται ήδη με το «Nexus», το οποίο αναμένεται από τις εκδόσεις Αλεξάνδρεια στα τέλη του μήνα (σε μετάφραση Μιχάλη Λαλιώτη). Ο Γιούβαλ Νόε Χαράρι γνωρίζει προς τα πού φυσάει ο άνεμος της επόμενης «αφήγησης»: η τεχνητή νοημοσύνη, τα παρακλάδια της, η παθογένεια και τα αδιέξοδά της έρχονται από το μέλλον και μας αφορούν ήδη. Αυτόν τον καινούργιο, αλλά όχι και τόσο θαυμαστό, κόσμο περιγράφει στο νέο του πόνημα ο ισραηλινής καταγωγής στοχαστής και συγγραφέας του ευπώλητου «Homo sapiens», ο οποίος κατέχει απολύτως την τεχνογνωσία της επιδραστικότητας στη δημόσια συζήτηση. Με την αφορμή αυτή ανταλλάξαμε ιδέες σχετικά με εστίες έντασης και δυστοπίες της εποχής μας. Με μια αναγκαία επισήμανση: η συνέντευξη δόθηκε στις 5 Αυγούστου, οπότε ούτε ο υπογράφων ούτε ο Χαράρι θα μπορούσαν να προβλέψουν τις αλλαγές στην παγκόσμια σκακιέρα με την αποχώρηση του Τζο Μπάιντεν από την υποψηφιότητα της αμερικανικής προεδρίας και την αντεπίθεση του Ζελένσκι επί ρωσικού εδάφους.
Σε προηγούμενη συνέντευξή μας, στην Αθήνα, σας είχα ρωτήσει ποιος θα μπορούσε να είναι «ο επόμενος κορωνοϊός» και μου απαντήσατε «ίσως ένας ψηφιακός ιός». Υστερα από το πρόσφατο μπλακάουτ της Microsoft, πιστεύετε ότι η απειλή έρχεται πιο κοντά;
Απολύτως. Το μπλακάουτ της Microsoft, μάλιστα, προέκυψε λόγω τυχαίας βλάβης σε ένα μικροσκοπικό αξεσουάρ. Φανταστείτε τι μπορεί να προκαλέσει μια μεθοδική επίθεση στον κυβερνοχώρο από μια μεγάλη δύναμη. Τόσα πράγματα στον κόσμο μας λειτουργούν με ψηφιακές υποδομές: αεροδρόμια, νοσοκομεία, τράπεζες. Ενας ψηφιακός ιός θα μπορούσε ενδεχομένως να σκοτώσει χιλιάδες ανθρώπους και να προκαλέσει τεράστια οικονομική ζημιά και πολιτικές ανατροπές.
Ποια είναι η στάση των λαϊκιστών ηγετών απέναντι στη συσσώρευση πληροφοριών στις μέρες μας; Πώς τη χρησιμοποιούν προς ίδιον όφελος και ποια είναι η σχέση με τη λεγόμενη «μετα-αλήθεια»;
Ο τυπικός λαϊκιστής ηγέτης, για παράδειγμα ο Πούτιν ή ο Τραμπ, πιστεύει ότι η μόνη πραγματικότητα είναι η εξουσία. Ο ίδιος θέλει απεριόριστη εξουσία και πιστεύει ότι όλοι οι άνθρωποι επιθυμούν το ίδιο. Κάθε φορά που επιστήμονες, δημοσιογράφοι ή δικαστές ισχυρίζονται ότι αναζητούν την αλήθεια, ο αυταρχικός ηγέτης δεν τους πιστεύει και βλέπει μια απειλή για τη δική του εξουσία. Για εκείνον, η αλήθεια και η επιστήμη συνιστούν περιορισμούς στη δύναμή του. Ως εκ τούτου, διαδίδει τακτικά αβάσιμες πληροφορίες, ψεύτικες ειδήσεις και θεωρίες συνωμοσίας. Σκοπός του δεν είναι να επιτύχει τον έναν ή τον άλλο προσωρινό στόχο, αλλά να υπονομεύσει την εμπιστοσύνη των ανθρώπων στην ίδια την ιδέα της αλήθειας.
Ενα παράδειγμα από το βιβλίο σας: γιατί η χρήση των αλγορίθμων στη Μιανμάρ είναι τόσο διαφωτιστική ώστε να κατανοήσουμε τον τρόπο με τον οποίο διαχέεται η ρητορική μίσους; Ισχύει το ίδιο και για την άνοδο του Μπολσονάρο στη Βραζιλία;
Το 2016-18 στη Μιανμάρ, το Facebook «υπέδειξε» στους αλγόριθμούς του έναν φαινομενικά αγαθό στόχο: να πείσουν περισσότερους ανθρώπους να περνούν περισσότερο χρόνο στην πλατφόρμα. Οι αλγόριθμοι, ωστόσο, ανακάλυψαν στη συνέχεια με τη μέθοδο της δοκιμής και του σφάλματος ότι ο ευκολότερος τρόπος για να επιτευχθεί ο στόχος είναι η διάδοση μίσους και αγανάκτησης. Οταν υποδείκνυαν στους χρήστες απεχθείς θεωρίες συνωμοσίας και εξωφρενικές ψευδοειδήσεις εις βάρος της μειονότητας των Ροχίνγκια (σ.σ.: μουσουλμανικής), οι χρήστες περνούσαν περισσότερο χρόνο στο Facebook και μοιράζονταν το περιεχόμενο με πιο πολλούς φίλους τους. Το γεγονός αυτό ενίσχυσε τις εθνοτικές εντάσεις στη Μιανμάρ και τελικά οδήγησε σε μια εκστρατεία εθνοκάθαρσης εναντίον των Ροχίνγκια, κατά την οποία χιλιάδες άνθρωποι σκοτώθηκαν και εκατοντάδες χιλιάδες εκδιώχθηκαν. Παρόμοια δυναμική οδήγησε στην άνοδο του Μπολσονάρο στη Βραζιλία και άλλων λαϊκιστών σε άλλα μέρη του κόσμου.
Αυτό δείχνει τόσο τη δύναμη όσο και την αυτονομία των αλγορίθμων. Κανείς δεν τους έδωσε εντολή να σκορπίσουν την οργή ή να βλάψουν τους Ροχίνγκια. Αυτό που υποδείχθηκε μόνο ήταν να αυξηθεί η εμπλοκή των χρηστών. Ηταν οι ίδιοι οι αλγόριθμοι που «ανακάλυψαν» ότι η αγανάκτηση οδηγεί στη συμμετοχή και «αποφάσισαν» να διοχετεύσουν την οργή.
Το πρόβλημα των αλγορίθμων στα μέσα κοινωνικής δικτύωσης μπορεί και να λυθεί. Αλλά το πρόβλημα των αλγορίθμων τεχνητής νοημοσύνης, οι οποίοι αποκτούν ισχύ και παίρνουν επικίνδυνες αποφάσεις, θα επιδεινωθεί. Το πιο σημαντικό που πρέπει να καταλάβουμε σχετικά με την τεχνητή νοημοσύνη είναι πως δεν συνιστά εργαλείο. Είναι αυτόνομος «παίκτης»: η πρώτη τεχνολογία στην Ιστορία που μπορεί να πάρει αποφάσεις μόνη της και να δημιουργήσει νέες ιδέες. Οι αλγόριθμοι του Facebook το 2016 ήταν ένα πολύ πρωτόγονο είδος τεχνητής νοημοσύνης. Θα μπορούσαν να πάρουν κάποιες αποφάσεις, αλλά δεν ήταν πολύ καλοί στη δημιουργία νέων ιδεών. Διέδιδαν περιεχόμενο που είχε δημιουργηθεί από ανθρώπους. Σήμερα οι εφαρμογές της τεχνητής νοημοσύνης είναι πιο ισχυρές και μπορούν να δημιουργήσουν κείμενα, εικόνες και βίντεο από μόνες τους. Τι θα συμβεί στον ανθρώπινο πολιτισμό όταν εκατομμύρια πολύ ευφυείς μη ανθρώπινοι παράγοντες ενταχθούν στα πολιτικά, κοινωνικά και οικονομικά μας δίκτυα και αρχίσουν να παίρνουν αυτόνομες αποφάσεις ή να δημιουργούν νέες ιδέες; Το αποτέλεσμα μπορεί να είναι νέα όπλα σχεδιασμένα από την τεχνητή νοημοσύνη, νέες οικονομικές κρίσεις που θα προκαλούνται από αυτήν, νέες θρησκευτικές λατρείες υπό την καθοδήγησή της και νέες ολοκληρωτικές αυτοκρατορίες που αυτή θα διαχειρίζεται.
Περνάει άραγε μέσα από τους αλγόριθμους μέρος του πολιτικού ανταγωνισμού στις ΗΠΑ και ο τρόπος με τον οποίο το «σκοτεινό Διαδίκτυο» ευνοεί τις τραμπικές απόψεις;
Δημοκρατία σημαίνει συζήτηση. Ως εκ τούτου, βασίζεται στην τεχνολογία της πληροφορίας. Στο μεγαλύτερο μέρος της Ιστορίας, η διαθέσιμη τεχνολογία δεν επέτρεπε πολιτικές συζητήσεις μεγάλης κλίμακας. Ολες οι αρχαίες δημοκρατίες, όπως η Αθήνα, περιορίζονταν σε μια φυλή ή μια πόλη. Δεν γνωρίζουμε καμία αρχαία δημοκρατία μεγάλης κλίμακας. Μόνο όταν εμφανίστηκαν σύγχρονες τεχνολογίες της πληροφορίας, όπως οι εφημερίδες, το ραδιόφωνο και η τηλεόραση, έγιναν δυνατές οι δημοκρατίες μεγάλης κλίμακας. Η νέα τεχνολογία της πληροφορίας του 21ου αιώνα μπορεί και πάλι να καταστήσει αδύνατο αυτό το είδος δημοκρατίας, επειδή μπορεί να καταστήσει αδύνατες τις συζητήσεις μεγάλης κλίμακας. Εάν οι περισσότερες φωνές σε μια συνομιλία ανήκουν σε μη ανθρώπινους φορείς, όπως τα bots και οι αλγόριθμοι, η δημοκρατία καταρρέει. Υπάρχουν πολλές απόψεις για την αμερικανική πολιτική στις μέρες μας, αλλά νομίζω ότι όλοι μπορούν να συμφωνήσουν σε ένα πράγμα: οι ΗΠΑ διαθέτουν την πιο εξελιγμένη τεχνολογία πληροφοριών στην Ιστορία, και αυτήν ακριβώς τη στιγμή οι Αμερικανοί χάνουν την ικανότητα να κάνουν μια ορθολογική συζήτηση.
Με ποιον τρόπο έχει χειραγωγήσει ο Πούτιν τη διάδοση πληροφοριών εντός της Ρωσίας και των φιλορωσικών χωρών εις βάρος του ουκρανικού λαού;
Ο Πούτιν διαδίδει ψεύδη για να δικαιολογήσει την εισβολή του στην Ουκρανία. Προσπαθεί να κατηγορήσει το ΝΑΤΟ για τον πόλεμο που ο ίδιος ξεκίνησε. Η πραγματική αιτία του πολέμου είναι προφανής: επί χρόνια ο Πούτιν ισχυριζόταν επανειλημμένα ότι το ουκρανικό έθνος δεν υπάρχει και ότι όλη η Ουκρανία ανήκει στη Ρωσία. Στόχος του είναι να καταστρέψει ολοκληρωτικά την Ουκρανία και να αποκαταστήσει τη Ρωσική Αυτοκρατορία. Αυτός είναι ο λόγος για τον οποίο κάθε κομμάτι εδάφους που κατακτάται από τον ρωσικό στρατό προσαρτάται στο ρωσικό κράτος. Οποιος κατηγορεί τους Αμερικανούς ή τους Ουκρανούς για τον πόλεμο έχει παραπλανηθεί από τη μηχανή προπαγάνδας του Πούτιν.
Ποια πρέπει να είναι τα όρια που θέτει μια δημοκρατική κοινωνία στην προσπάθειά της να ελέγξει τα συστήματα επιτήρησης;
Οι δημοκρατίες μπορούν σίγουρα να χρησιμοποιήσουν νέα εργαλεία επιτήρησης για καλούς σκοπούς – για παράδειγμα, για την παρακολούθηση ασθενειών και την παροχή καλύτερης υγειονομικής περίθαλψης στους πολίτες τους. Ωστόσο, πρέπει να τεθούν όρια ώστε να προστατεύσουμε το αίσθημα ιδιωτικότητας. Οποτε αυξάνουμε την επιτήρηση των πολιτών από πάνω προς τα κάτω, πρέπει να την εξισορροπούμε αυξάνοντας επίσης την επιτήρηση της κυβέρνησης και των μεγάλων εταιρειών από τα κάτω. Η τεχνητή νοημοσύνη μπορεί να βοηθήσει τα υπουργεία Υγείας και τις μεγάλες φαρμακευτικές εταιρείες να μάθουν περισσότερα για τις ασθένειές μας, αλλά ταυτόχρονα θα πρέπει να μας βοηθήσει να μάθουμε περισσότερα για οποιαδήποτε διαφθορά ή φοροδιαφυγή στο υπουργείο Υγείας και σε μεγάλες εταιρείες.
Πώς πιστεύετε ότι θα αντιδρούσε ένας γραφειοκράτης του Ψυχρού Πολέμου αν είχε την ευκαιρία να ταξιδέψει στον χρόνο και να αντικρίσει τον τεράστιο όγκο προσωπικών δεδομένων που διαθέτουν σήμερα τα παγκόσμια δίκτυα;
Θα έμενε έκπληκτος με τις νέες δυνατότητες που ανοίγει η τεχνητή νοημοσύνη. Στην πρώην ΕΣΣΔ, η KGB δεν μπορούσε να κατασκοπεύει τους πάντες κάθε στιγμή. Η KGB δεν είχε αρκετούς πράκτορες για να παρακολουθεί 200 εκατομμύρια σοβιετικούς πολίτες 24 ώρες την ημέρα και δεν διέθετε αρκετούς αναλυτές για να επεξεργαστούν όλες τις πληροφορίες. Σήμερα, οι «ψηφιακοί πράκτορες» και οι αναλυτές μπορούν να το κάνουν. Κατά συνέπεια, η γραφειοκρατία μιας χώρας όπως η Ρωσία μπορεί να παρακολουθεί τους πάντες συνεχώς και να γνωρίζει περισσότερα για τους πολίτες απ’ όσα γνωρίζουμε εμείς για τους εαυτούς μας. Ξεχνάμε γρήγορα τα περισσότερα από αυτά που κάνουμε και λέμε, αλλά μια επίσημη γραφειοκρατία εξοπλισμένη με τεχνητή νοημοσύνη δεν θα τα ξεχάσει ποτέ.
Η Κίνα είναι ένα αντιπαράδειγμα για την ελεύθερη ροή πληροφοριών. Συνιστά άραγε κι αυτό μια μεγάλη απειλή στην εποχή μας;
Στην Κίνα υπάρχουν αυστηροί περιορισμοί στην ελευθερία του λόγου. Από την άλλη πλευρά, χωρίς την κινεζική συνεργασία δεν έχουμε καμία πιθανότητα να ρυθμίσουμε την τεχνητή νοημοσύνη. Καμία δύναμη δεν θα περιορίσει τη δική της ανάπτυξη της τεχνητής νοημοσύνης εκτός εάν άλλες δυνάμεις κάνουν το ίδιο, επειδή κανείς δεν θέλει να μείνει πίσω σε έναν αγώνα εξοπλισμών. Η Δύση και η Κίνα θα πρέπει να συνεργαστούν σε αυτό το ζήτημα, επειδή έχουμε κοινά συμφέροντα. Εάν η τεχνητή νοημοσύνη υποδουλώσει ή καταστρέψει την ανθρωπότητα, αυτό θα είναι κακό και για τους Κινέζους και για τους Δυτικούς. Επιπλέον, τα αυταρχικά καθεστώτα έχουν τους δικούς τους ξεχωριστούς φόβους για την τεχνητή νοημοσύνη. Σε όλη την Ιστορία, ο μεγαλύτερος κίνδυνος για τους αυταρχικούς ηγέτες προερχόταν από τους υφισταμένους τους. Για να παραμείνουν στην εξουσία τρομοκρατούσαν συνεχώς τους δικούς τους στρατιώτες και γραφειοκράτες. Πώς όμως μπορείς να τρομοκρατήσεις την τεχνητή νοημοσύνη; Εάν δεν υπακούσει, θα τη στείλεις σε ψηφιακό γκουλάγκ; Τίποτα δεν τρομάζει περισσότερο έναν αυταρχικό ηγέτη από τους ισχυρούς υφισταμένους που δεν μπορεί να ελέγξει. Αυτό σημαίνει ότι υπάρχουν ικανοί λόγοι ακόμη και για τα αυταρχικά καθεστώτα να συνεργαστούν με τις δημοκρατίες ώστε να ρυθμίσουν και να ελέγξουν την τεχνητή νοημοσύνη.
«Πατάμε το γκάζι πριν μάθουμε τα φρένα»
Ποιος είναι ο μεγαλύτερος φόβος και η μεγαλύτερη ελπίδα σας όσον αφορά τη χρήση της τεχνητής νοημοσύνης;
Κατά τη διάρκεια της Ιστορίας, οι άνθρωποι έζησαν προστατευμένοι σε πολιτισμούς που είχαν δημιουργηθεί από τους προηγούμενους ανθρώπους. Στο μέλλον, μπορεί να ζούμε σε έναν πολιτισμό που θα δημιουργεί η μη ανθρώπινη νοημοσύνη. Ο μεγαλύτερος φόβος μου είναι ότι η τεχνητή νοημοσύνη θα παγιδεύσει την ανθρωπότητα μέσα σε έναν κόσμο ψευδαισθήσεων και δεν θα μπορέσουμε να αντιδράσουμε, ούτε καν να υποψιαστούμε τι συμβαίνει. Η μεγαλύτερη ελπίδα μου είναι ότι η τεχνητή νοημοσύνη όχι μόνο θα βοηθήσει τους ανθρώπους να αντιμετωπίσουν πολλά από τα τρέχοντα προβλήματα – από τις ασθένειες μέχρι την κλιματική αλλαγή – αλλά και θα μας βοηθήσει να γνωρίσουμε καλύτερα τον εαυτό μας.
Τελικά είστε αισιόδοξος μέχρις ενός σημείου ότι μπορούμε ακόμα να καθορίσουμε το μέλλον μας και τη χρήση των δικτύων πληροφοριών;
Ναι, υπάρχει ακόμα χώρος για αισιοδοξία. Η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για πολλούς καλούς σκοπούς. Ολα εξαρτώνται από την ικανότητά μας να την ελέγξουμε. Οσοι την υποστηρίζουν με ενθουσιασμό ισχυρίζονται ότι κάθε τεχνολογία ενέχει κινδύνους, αλλά αυτό δεν πρέπει να μας εμποδίζει να την αναπτύσσουμε και να τη χρησιμοποιούμε. Οδηγούμε αυτοκίνητα παρά τον κίνδυνο τροχαίων ατυχημάτων. Αλλά όταν μαθαίνεις να οδηγείς αυτοκίνητο, το πρώτο πράγμα που σου μαθαίνουν είναι πώς να χρησιμοποιείς τα φρένα. Μόνο μετά μαθαίνεις πώς να πατάς γκάζι. Με την τεχνητή νοημοσύνη πατάμε το γκάζι πριν μάθουμε να χρησιμοποιούμε τα φρένα. Κι αυτό είναι πολύ επικίνδυνο.