Θαυμαστός καινούριος κόσμος;
Μετά βίας περνούν οι μέρες χωρίς τους θιασώτες της Τεχνητής Νοημοσύνης να ζητωκραυγάζουν για τα κατορθώματά τους. Υπολογιστές με λειτουργία συγκρίσιμη με αυτή του ανθρώπινου εγκεφάλου, αυτοκίνητα ρομπότ, drones κλπ., αποτελούν για τους ειδικούς της Τεχνητής Νοημοσύνης απτή απόδειξη ότι βαθμιαία εισερχόμαστε σε ένα «θαυμαστό καινούριο κόσμο», στα πλαίσια του οποίου ο ανθρώπινος εγκέφαλος και ο υπολογιστής αλληλεπιδρούν αμοιβαία. Ο παράτολμος στόχος να δημιουργηθεί μια πιστή προσομοίωση του ανθρώπινου εγκεφάλου με τη βοήθεια υπολογιστικών συστημάτων έδωσε μεταξύ άλλων το κίνητρο στην Ευρωπαϊκή Επιτροπή να συγχρηματοδοτήσει με 950 εκ. βρετανικές λίρες (1,2 δις. Ευρώ) το ερευνητικό πρόγραμμα Human Brain Project (HBP) Flagship.[1]
Απόρροια της εν λόγω συζήτησης είναι το γεγονός ότι, από τη στιγμή που τα ρομπότ ενταχθούν στην ανθρώπινη κοινωνία, θα πρέπει με τη σειρά τους να ακολουθούν ηθικούς και νομικούς κανόνες. [2] Θα πρέπει άραγε ένα ρομπότ-αυτοκίνητο να επιλέξει να σώσει τη ζωή του οδηγού έναντι ενός άτυχου πεζού; Ποια θα είναι η κατάλληλη τιμωρία για τις πράξεις των ρομπότ; Το σίγουρο είναι, ισχυρίζονται κάποιοι, ότι χρειαζόμαστε άμεσα ένα σύνολο ανθρωποκεντρικών κανόνων για την οριοθέτηση των δραστηριοτήτων τους, ώστε να αποφευχθούν τυχόν αρνητικές συνέπειες των πράξεών τους στους ανθρώπους. Είναι επίσης κατανοητό ότι ο πρώτος υποψήφιος να θέσει αυτούς τους κανόνες είναι ο Isaac Asimov με τους ‘Τρεις Νόμους της Ρομποτικής’,[3] οι οποίοι αποτελούν μέχρι και σήμερα το θεμέλιο για τη ρύθμιση της συμπεριφοράς των «ηθικών ρομπότ»:
- Το ρομπότ δεν επιτρέπεται να τραυματίσει έναν άνθρωπο ή, μέσω αδράνειας, να τού προξενήσει οποιαδήποτε βλάβη.
- Το ρομπότ πρέπει να υπακούει τις ανθρώπινες διαταγές εκτός από τις περιπτώσεις εκείνες που οι διαταγές αυτές έρχονται σε αντίθεση με τον Πρώτο Νόμο.
- Το ρομπότ πρέπει να διασφαλίζει την δική του ύπαρξη εφόσον κάτι τέτοιο δεν έρχεται σε αντίθεση με τους δύο πρώτους Νόμους.
Στην πραγματικότητα, όμως, ο ανθρώπινος κόσμος δεν είναι ούτε «νέος» ούτε «θαυμαστός» –ή νοήμων. Αν κι η Τεχνητή Νοημοσύνη, τόσο σαν έννοια όσο και σαν επιστημονικός κλάδος, απασχολεί τους ακαδημαϊκούς κύκλους εδώ και καιρό,[4] ο αρχικός ενθουσιασμός γρήγορα αντικαταστάθηκε από την «συνειδητοποίηση της βαθιάς δυσκολίας του προβλήματος».[5] Με απλά λόγια, η Τεχνητή Νοημοσύνη δεν μπορεί να λειτουργήσει. Παραμένει «δέσμια φαντασμάτων ξεπερασμένων φιλοσοφικών θεωριών»,[6] όπως είναι η διάκριση πνεύματος και σώματος, την οποία ο κλάδος αποτυγχάνει να αναγνωρίσει ως τέτοια αλλά διατρανώνει τα αποτελέσματά του ως μια ακαταμάχητη, αδιαμφισβήτητη αλήθεια: Ως ένα «ΔΕΔΟΜΕΝΟ». Η ανοιχτή επιστολή που υπεγράφη από περισσότερους από 800 νευροεπιστήμονες,[7] στην οποία αμφισβητείται τόσο το επιστημονικό υπόβαθρο όσο και η διοικητική δομή του ως άνω Flagship, είναι απλά ένα σύμπτωμα αυτής της επαναλαμβανόμενης αποτυχίας.
Νόμοι για ρομποτ;
Το εν λόγω άρθρο έχει σκοπό να καταδείξει την αμφίβολη εγκυρότητα των υποθέσεων πάνω στις οποίες θεμελιώνεται η raison d'être των «Ρομποτικών Νόμων»: πως δηλ. οι υπολογιστές μπορούν να κατανοήσουν την ανθρώπινη γλώσσα, πως η δικανική κρίση μπορεί να περιγραφεί με λογικο-μηχανιστικούς όρους, πως οι δικαστές εφαρμόζουν ένα συγκεκριμένο κανόνα δικαίου ή ένα σύνολο δικαιικών κανόνων για την τελική τους ετυμηγορία. Όπως θα καταδειχθεί στη συνέχεια, οι υποθέσεις αυτές δεν είναι παρά παρεξηγήσεις, απατηλές παραστάσεις και παρερμηνείες βασικών εννοιών του δικαιικού μας συστήματος.
Πρώτα και κύρια, η άποψη ότι τρεις (ή περισσότερες) κανονιστικές προτάσεις μπορούν να ρυθμίσουν τη συμπεριφορά ενός δρώντος υποκειμένου είναι επικίνδυνα υπεραπλουστευτική. Για παράδειγμα, ο πρώτος Νόμος του Ασίμοφ αποτελεί στην πραγματικότητα αναπαράσταση του αρχετυπικού νομικού κανόνα «Μη σκοτώσεις». Επομένως, εάν κάποιος σκοτώσει κάποιον άλλον, θα πρέπει να τιμωρηθεί. Ή μήπως όχι; Ο κανόνας αυτός δεν θα μπορούσε να εφαρμοστεί ούτε καν στην εποχή του Μωυσή, πόσο μάλλον στη σύγχρονη, πολύπλοκη κοινωνική πραγματικότητα. Αναμφισβήτητα, το σύνολο των κανόνων που ρυθμίζουν κάθε πτυχή της κοινωνικής ζωής μας θα πρέπει να έχει τη δυνατότητα να λαμβάνει υπόψη του περισσότερα συνδυαστικά ενδεχόμενα, ώστε όμοιες περιπτώσεις να αντιμετωπίζονται με όμοιο τρόπο και διαφορετικές μεταξύ τους περιπτώσεις με διαφορετικό (π.χ. ανθρωποκτονία σε κατάσταση άμυνας).Τότε, όμως, θα χρειαζόμασταν έναν απεριόριστο αριθμό πιθανών εξαιρέσεων σε πρωτογενείς κανόνες, γενικές αρχές, κανόνες καταλογισμού, κανόνες ενοχής, δικονομικούς κανόνες κ.λπ. – για να αναφέρουμε μόνο μερικά παραδείγματα. Στην πραγματικότητα προσφεύγουμε και συστηματοποιούμε ευρεία πεδία έννομων τάξεων προκειμένου να θεμελιώσουμε ακόμα και τις πιο απλές αποφάσεις – τις λεγόμενες «εύκολες περιπτώσεις». Εξάλλου, δεν πρέπει να παραγνωρίζεται ότι «η κατανόηση μιας πρότασης προϋποθέτει την κατανόηση της γλώσσας στην οποία αυτή είναι διατυπωμένη»,[8] όπως χαρακτηριστικά επισημαίνει ο Wittgenstein.
Υπολογιστές και γλώσσα
Η ως άνω διαπίστωση μας οδηγεί στο δεύτερο και, κατά την άποψή μου, σημαντικότερο ερώτημα. Μπορούν οι υπολογιστές να επεξεργαστούν και να κατανοήσουν την (οποιαδήποτε) ανθρώπινη γλώσσα; Η απάντηση είναι κατηγορηματικά: Όχι. Η αιτιολογία δεν είναι άλλη από το ότι τα προγράμματα υπολογιστών καθορίζονται από τη συντακτική τους δομή. Αντιθέτως, η κατανόηση της ανθρώπινης γλώσσας αποτελεί μια ριζικά διαφορετική διαδικασία, καθώς συμπεριλαμβάνει / προϋποθέτει την κατανόηση εννοιών και γραμματικών κανόνων. Πιο συγκεκριμένα, το νόημα μιας λέξης ισοδυναμεί με την κανονιστικά δομημένη χρήση της. Κι αυτό με τη σειρά του προϋποθέτει την ύπαρξη μιας αμφίδρομης ικανότητας την ικανότητα να ακολουθεί συνειδητά κανείς έναν κανόνα και όχι απλά να πράττει σύμφωνα με τον εν λόγω κανόνα.
Ωστόσο, οι ερευνητές της Τεχνητής Νοημοσύνης αδυνατούν να καταλάβουν ότι, παρόλο που ένας υπερ-υπολογιστής μπορεί να αναζητήσει στο διαδικτυακό νέφος κάθε λέξη του ανθρώπινου λεξιλογίου που γράφτηκε ποτέ, η εκάστοτε υπό κρίση υπόθεση δεν αποτελεί μέρος μιας προειλημμένης ομάδας αναφοράς. Με άλλα λόγια, ο αλγόριθμος δεν μπορεί να αναγνωρίσει (ή να μην αναγνωρίσει) την καινούρια περίπτωση ως υποπερίπτωση ενός γενικού κανόνα που θα μπορούσαμε να εφαρμόσουμε μηχανικά. Κάθε καινούργια απόφαση είναι ένα βήμα στο κενό, καθώς ο δικαστής της ουσίας [σ.τ.Μ.: fact-finder] θα πρέπει να εγκαθιδρύσει μια σχέση (αν-)ομοιότητας μεταξύ πραγματικών περιστατικών και νομοτυπικής μορφής ενός κανόνα δικαίου με σκοπό να πραγματοποιήσει την υπαγωγή. Αυτό είναι ένα ανυπέρβλητο πρόβλημα για κάθε υπολογιστή, του οποίου η λειτουργία βασίζεται κατ’ουσία σε έναν αλγόριθμο, ανεξάρτητα του πόσο «αποτελεσματικός» είναι ο τελευταίος σύμφωνα με τους προγραμματιστές του.
Χρειαζόμαστε αλγόριθμους για να λειτουργήσει ένας ηλεκτρονικός υπολογιστής. Χρειαζόμαστε αντίθετα σύμβολα έμφορτα νοήματος ώστε να επικοινωνήσουμε και να διαχειριστούμε πολύπλοκες κανονιστικές δομές που συστηματοποιούν ένα αχανές σύνολο κανόνων δικαίου.
Οι ερευνητές της Πληροφορικής και οι οραματιστές της Τεχνητής Νοημοσύνης αδυνατούν να κατανοήσουν το ιστορικό δίδαγμα που αντλούμε ήδη από τον Πρωσικό Αστικό Κώδικα (1794) με τις περισσότερες από 20,000 παραγράφους. Σε ένα συνεχώς εξελισσόμενο κόσμο με εξαιρετικά δυσπρόβλεπτο μέλλον, κάθε προσπάθεια εξαντλητικής κωδικοποίησης του δικαίου θα χρειαζόταν ριζική αναθεώρηση μερικές στιγμές μόνο μετά την έναρξη ισχύος της, ώστε να μπορεί να συλλάβει την πληθώρα των περιπτώσεων που μπορούν να ανακύψουν στην κοινωνική πραγματικότητα.
Αναντίρρητα, εάν πληρούνται τα στοιχεία της νομοτυπικής μορφής ενός κανόνα δικαίου (π.χ. ανθρωποκτονία), τότε –τηρουμένων των αναλογιών– ο δικαστής είναι εξουσιοδοτημένος να καταλογίσει την έννομη συνέπεια (π.χ. ποινή στερητική της ελευθερίας). Αλλά εδώ έχουμε να κάνουμε με τη δομή του δικαίου, και όχι με το εννοιολογικό του εύρος. Στο δίκαιο, έχουμε συνεχώς να αντιμετωπίσουμε το ζήτημα ασταθών semantics και όχι ασταθούς δομής. Αυτό είναι αποτέλεσμα της πορώδους φύσης κάθε φυσικής γλώσσας. Οι έννομες τάξεις μπορούν να περιγραφούν ως κλειστά συστήματα, αλλά μόνο από λειτουργική άποψη. Η λογική παραγωγή (σ.τ.Μ.: Deduction) δικαστικών αποφάσεων από κανόνες δικαίου με προκαθορισμένο νόημα και η σύλληψη της δικαστικής λειτουργίας με λογικό-μηχανιστικούς όρους αποτυγχάνουν τόσο σε συντακτικό επίπεδο (η πολυπλοκότητα των έννομων τάξεων είναι για κάθε αλγόριθμο ένα δισεπίλυτο πρόβλημα) όσο και σε σημασιολογικό επίπεδο. Το δίκαιο έχει ασαφή όρια.
Αναμφίβολα, τα νομικά συστήματα είναι κάτι περισσότερο από μια σωρεία κατακερματισμένων και ασύνδετων μεταξύ τους κανόνων δικαίου.[9] Συγκεκριμένα, προϋποθέτουν συστηματοποιημένους κανόνες βασισμένους σε νομικές θεωρίες (νομική δογματική) , οι οποίοι με τη σειρά τους εξασφαλίζουν ομοιομορφία και ενότητα του νομικού συστήματος. Επίσης ο όρος «βλάβη», ως νομική έννοια, δεν έχει προκαθορισμένο νόημα. Τι συνιστά άραγε βλάβη; Το υποτιθέμενο λειτουργικό «Δίκαιο της Ρομποτικής» προϋποθέτει ένα εκτενές σύνολο κανόνων που εισάγουν αξίες στο νομικό σύστημα. Ο όρος «βλάβη» δεν είναι ένα απτό αντικείμενο αλλά ένας κανονιστικός καταλογισμός.
Περί υπεραισιόδοξων ισχυρισμών
Στη σύγχρονη εποχή της οικονομικής λιτότητας, με την ανθρωπότητα να αντιμετωπίζει υπαρξιακές απειλές, ένας εννοιολογικά συγκεχυμένος κλάδος αντλεί χρηματοδότηση έναντι άλλων ερευνητικών τομέων με σημαντικότερο (ίσως) κοινωνικό όφελος. Για ποιο λόγο λοιπόν αξίζει να συζητάμε για το ζοφερό μέλλον, στο οποίο τα Ρομπότ τρέπονται σε πανίσχυρους ηγεμόνες, αντί να επικεντρωθούμε στο παρόν και στους τωρινούς ηγέτες / πολέμαρχους –με ή χωρίς Βραβείο Νόμπελ Ειρήνης;
Μπορούμε να αποτολμήσουμε μια εικασία. Ο Nietzsche είχε διαγνώσει ότι πίσω από όλες σχεδόν τις γνωστικές μας αξιώσεις κρύβεται η «θέληση για ισχύ» – και χρηματοδότηση! Στην πραγματικότητα, δηλαδή, οι πομπώδεις και υπερβολικοί ισχυρισμοί του κλάδου της Τεχνητής Νοημοσύνης, όπως για παράδειγμα η δυνατότητα πλήρους αυτοματοποίησης των νομικών διαδικασιών, και η προσπάθεια μείωσης του κόστους λειτουργίας των εταιριών, μάς αποσπούν την προσοχή από το συνοδευτικό μήνυμα «παρακαλείστε, όπως αγοράσατε το λογισμικό μας».
Η ειρωνεία στην περίπτωση της Τεχνητής Νοημοσύνης είναι ότι η μεθοδολογικώς ορθή έρευνα δεν είναι ούτε ιδιαίτερα δαπανηρή ούτε χρονοβόρα. Μαθαίνοντας από τις διδαχές του παρελθόντος και τους γειτονικούς επιστημονικούς κλάδους, τόσο η εξοικονόμηση πόρων όσο και η διατήρηση του γοήτρου είναι εξίσου επιτεύξιμα. Χωρίς αμφιβολία, η εγκαθίδρυση της λεγόμενης «Ηθικής των Μηχανών» δεν αποτελεί συγκρίσιμο εγχείρημα με αυτό της κατάκτησης αχαρτογράφητων περιοχών. Θα τη χαρακτηρίζαμε, μάλλον, ως μια παραπομπή στο σχέδιο του Winnie the Pooh να εξερευνήσει τον Ανατολικό Πόλο.
[1] Για περισσότερες πληροφορίες βλ. http://ec.europa.eu/programmes/horizon2020/en/h2020-section/fet-flagships (14/12/17).
[2] Βλ. π.χ. Benjamin Kuipers, Beyond Asimov: how to plan for ethical robots, in: The Conversation, 02/06/16 (http://theconversation.com/beyond-asimov-how-to-plan-for-ethical-robots-59725).
[3] Isaac Asimov, Isaac, Runaround. New York City: Doubleday (1942), σελ. 40.
[4] Βλ. π.χ. John von Neumann, The Computer and the Brain (New Haven/London: Yale Univesity Press, 1958).
[5] S. K. Bansal, Artificial intelligence (New Delhi: APH Publ., 2013), σελ. 1.
[6] John R. Searle, Minds, Brains and Science (Harv. Univ. Press, 1986), p. 11.
[7] See http://neurofuture.eu/ (14/12/17).
[8] L. Wittgenstein, Philosophical Investigations, tr. by G. E. M. Anscombe, 1958, § 199.
[9] W. Ebenstein, The Pure Theory of Law: Demythologizing Legal Thought, in: 59 California Law Review (1971), σελ. 637.