• ΝΟΕΜΒΡΙΟΣ 2024
  • ΣΤΗΛΕΣ
    • Editorial
    • Συνέντευξη
    • Μελέτες
    • Art & Crime
    • Notitiae Criminalis
    • Έγκλημα & Επιστήμες
    • Εκ των έσω
    • Σχολιασμένη Νομοθεσία
    • Νομολογία ΕΔΔΑ και ΔΕΕ
    • Σχολιασμένη Νομολογία
    • Με άποψη
    • Πορτραίτα
    • Βιβλιοπαρουσίαση
  • ΠΟΙΟΙ ΕΙΜΑΣΤΕ
  • ΤΟ ΕΡΓΑΣΤΗΡΙΟ
  • ΤΕΥΧΗ
    • ΝΕΑΣ ΕΚΔΟΣΗΣ
    • ΠΑΛΑΙΑΣ ΕΚΔΟΣΗΣ
The Art of Crime
The Art of Crime
  • ΝΟΕΜΒΡΙΟΣ 2024
  • ΣΤΗΛΕΣ
    • Editorial
    • Συνέντευξη
    • Μελέτες
    • Art & Crime
    • Notitiae Criminalis
    • Έγκλημα & Επιστήμες
    • Εκ των έσω
    • Σχολιασμένη Νομοθεσία
    • Νομολογία ΕΔΔΑ και ΔΕΕ
    • Σχολιασμένη Νομολογία
    • Με άποψη
    • Πορτραίτα
    • Βιβλιοπαρουσίαση
  • ΠΟΙΟΙ ΕΙΜΑΣΤΕ
  • ΤΟ ΕΡΓΑΣΤΗΡΙΟ
  • ΤΕΥΧΗ
    • ΝΕΑΣ ΕΚΔΟΣΗΣ
    • ΠΑΛΑΙΑΣ ΕΚΔΟΣΗΣ
  • The Art of Crime Mag

Έγκλημα & Επιστήμες

Artificial Intelligence Sells...
But Do we really Need to Buy?

Dr. Kyriakos N. Kotsoglou LL.M. (Athens)
Senior Lecturer in Criminal Law and Law of Evidence
Liverpool Hope University

Νοέμβριος 2017

Print Friendly, PDF & EmailΕκτύπωση

Artificial Intelligence Sells... But Do we really Need to Buy?
A Brave New World?

Hardly a day goes by without Artificial Intelligence aficionados trumpeting their game-changing achievements. Brain-like computers that can learn from experience, autonomous cars, hive-mind-controlled drone swarms etc. are for a considerable number of A.I. experts clear evidence that we are slowly but surely entering a brave new world of brain and computers interacting with each other as equals. The audacious goal of creating a supercomputer simulation of the human brain inspired among other things the European Commission to co-fund the £950m (€1,2bn) Human Brain Project (HBP) Flagship.[1]

A by-product of this debate is the realization that as soon as robots walk among us, they will need to follow ethical and legal rules.[2] Should a robot car choose the life of the driver over the one of a passer-by? What is the right punishment for robots?

We urgently need, so the experts, an anthropocentric set of rules preventing intelligent robots from harming humans. Understandably, the first candidate to issue this set of rules is Isaac Asimov and his Three Laws of Robotics,[3] which still serve as the blueprint for the behaviour of ‘ethical robots’:

 

  1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.
  2. A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
  3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.

'No kidding? -- you broke all THREE laws of robotics?'

It is a pity though that this world is neither new nor brave –or intelligent.  A.I., both the concept and the field, is all the rage in academic circles for quite a while,[4] alas the initial euphoria was very soon replaced by an “appreciation of the profound difficulty of the problem”.[5] To put it in simple words: A.I. does not work. It is “inhabited by the ghosts of old philosophical theories”,[6] such as the distinction between mind and body, which the field fails to recognise as such and advertises their results as an unbounded by theory, indubitable reality: a ‘GIVEN’. The open letter –signed by more than 800 neuroscientists– who attack both the Flagship’s science and organization, is simply a symptom of this recurrent failure.[7]

 

Laws for Robots?

This article will shed light on some questionable assumptions underpinning the need for ‘laws of robotics’: that computers can understand language; that a judge’s activity can be described in logico-mechanical terms; that judges apply a single rule or set of rules when they render a verdict etc. These are nothing but misunderstandings, misrepresentations and misinterpretations of basic concepts underpinning normative systems.

The idea that 3 (or even more) normative propositions could guide an agent’s behaviour is over-simplistic. E.g. Asimov’s first law is an instantiation of the archetype of a legal rule: ’You ought not to kill’. So if someone does kill another human, we are authorized to punish him, right? However the problem is that this individual rule would not be functional even during the time of Moses, let alone in our increasingly complex social reality. A set of rules which operate on any area of social life should have the ability to process more combinatorial possibilities in order to treat similar cases alike and different cases differently (e.g. killing in self-defence). We would need nothing less than an infinite number of rules regarding possible exceptions to primary rules, general principles and rules of liability, rules of adjudication etc. –to name only a few examples. For we deploy and validate large sectors of a legal order even for the seemingly simplest decision –the so-called ‘easy cases’. As Wittgenstein memorably remarked: “To understand a sentence means to understand a language.”[8]

 

Computers and Language

This insight leads us to the second and in my opinion most important question: Do computers understand (any) language? The answer is unequivocally ‘no’. The reason is simply that computer-programs are defined by their syntactical structure. Understanding human language is radically different a process as it involves semantics and grammar. The meaning of a word is its rule-governed use. And this involves two-way abilities. The ability to follow a rule –not simply: the ability to act according to a rule– is closely related with intentionality and the ability not to follow a rule. IT-researchers fail to understand that although a super-computer could ‘find’ in the cloud every word ever written, the individual case to be adjudicated is not already a member of any reference class. An algorithm is not able to identify (or not identify) the new case as an instance of a general rule which we could apply mechanically. Each new decision is a step into the void, as the fact-finder must establish a similarity relation in order to bring a case under the scope of a legal rule. This is an insurmountable problem for a computer operating on an algorithm, no matter how ‘sophisticated’ its programmers claim the latter to be.

We need algorithms to operate a computer. And we need semantics instead in order to communicate and deal with complex normative structures systematizing a vast area of legal norms.

IT-researchers and A.I.-visionaries fail to apprehend the historic lesson we learned at least since the Prussian Civil Code (1794) with its more than 20,000 paragraphs. In a constantly evolving world characterised by a radically unpredictable future, every codification attempting to be completely comprehensive would be only moments after its enactment in need of radical revision in order to catch the multitude of situations that (can) occur in real life. True, if the elements of a substantive legal rule (e.g. murder) are proved, then all things being equal the judge is authorized to apply the legal consequence (e.g. life imprisonment). But this is about structure, not semantics. In law we are constantly facing a problem of (unstable) semantics –not a structural one– due to the indeterminacy of language. Legal orders are closed systems, but only in an operational sense. Deduction of legal decisions from rules with predetermined meaning and the description of the judge’s activity in logico-mechanical terms fail both on the syntactic level –the complexity of any legal order poses for any computer an intractable problem– and on the semantic level: Law is open textured.

What is more, legal orders are much more than a “helter-skelter of uncoordinated individual norms”.[9] They require systematization through legal theories (i.e. legal dogmatics) which will secure the coherence and unity of the legal order. Last but not least, the term ‘harm’ is undefined. What constitutes harm? The allegedly operable ‘Laws of Robotics’ presuppose an extensive set of rules introducing values in a legal order. ‘Harm’ is not a thing but a normative ascription.

 

Wild claims

Despite our sinister reality and the existential threats humanity is facing, a conceptually confused, pompous and exaggerated field is siphoning funds from other legitimate areas of research. So why do we discuss about our dystopian future where robots become our destructive overlords instead of dealing first with the warlords of the present –those with or without a Nobel Peace Prize?

We can hazard a guess. Nietzsche has long ago diagnosed that behind most of the cognitive claims there is basically the will to power –and investors’ money! The wild claims from the field, e.g. to fully automatize legal operations, and to help companies save money, distracts from the associated message: ‘please buy our software’.

The irony of this episode is that proper research is not necessarily costly in terms of time and money. Learning from the past and other neighbouring disciplines can also help us save resources and last but not least: prestige! Setting out to establish ‘Machine Ethics’ is not like the glorious quest to conquer unchartered territories. It is an allusion to Winnie the Pooh’s aspiration to find the East Pole.

[1] For more information see http://ec.europa.eu/programmes/horizon2020/en/h2020-section/fet-flagships (14/12/17).

[2] See e.g. Benjamin Kuipers, Beyond Asimov: how to plan for ethical robots, in: The Conversation, 02/06/16 (http://theconversation.com/beyond-asimov-how-to-plan-for-ethical-robots-59725).

[3] Isaac Asimov, Isaac, Runaround. New York City: Doubleday (1942), p. 40.

[4] See e.g. John von Neumann, The Computer and the Brain (New Haven/London: Yale Univesity Press, 1958).

[5] S. K. Bansal, Artificial intelligence (New Delhi: APH Publ., 2013), p. 1.

[6] John R. Searle, Minds, Brains and Science (Harv. Univ. Press, 1986), p. 11.

[7] See http://neurofuture.eu/ (14/12/17).

[8] L. Wittgenstein, Philosophical Investigations, tr. by G. E. M. Anscombe, 1958, § 199.

[9] W. Ebenstein, The Pure Theory of Law: Demythologizing Legal Thought, in: 59 California Law Review (1971), p. 637.

Facebook Twitter Google+ LinkedIn
Next article Αποστολή πεισιθάνατων μηνυμάτων:
Μη αξιόποινη πράξη, συμμετοχή σε αυτοκτονία
ή ανθρωποκτονία εξ αμελείας;
Previous article Επιθέσεις με οξύ: ένα έγκλημα της βικτωριανής
εποχής επιστρέφει στην εποχή της εικόνας

Σχετικά άρθρα

Ανθρωποκτονία με δράστες <br/>πάσχοντες από άνοια
Νοέμβριος 2024

Ανθρωποκτονία με δράστες
πάσχοντες από άνοια

Εφαρμογές της εικονικής πραγματικότητας <br>στο πεδίο της ποινικής δικαιοσύνης
Νοέμβριος 2023

Εφαρμογές της εικονικής πραγματικότητας
στο πεδίο της ποινικής δικαιοσύνης

Ο Έλον Μασκ ανακαλύπτει το αλφάβητο
Νοέμβριος 2022

Ο Έλον Μασκ ανακαλύπτει το αλφάβητο

Μορφές τεχνοεποπτείας στην σύγχρονη <br/>αντεγκληματική πολιτική. Η περίπτωση <br/>των «καμερών που φέρουν πάνω τους <br/>οι αστυνομικοί» (Police Body-Worn Cameras)
Νοέμβριος 2021

Μορφές τεχνοεποπτείας στην σύγχρονη
αντεγκληματική πολιτική. Η περίπτωση
των «καμερών που φέρουν πάνω τους
οι αστυνομικοί» (Police Body-Worn Cameras)

Η Ψυχολογία της Ομολογίας: Η συνεισφορά <br>της Δικαστικής Ψυχολογίας <br/>στην ανεύρεση της ουσιαστικής αλήθειας <br/>και την προστασία των δικαιωμάτων του υπόπτου
Μάιος 2021

Η Ψυχολογία της Ομολογίας: Η συνεισφορά
της Δικαστικής Ψυχολογίας
στην ανεύρεση της ουσιαστικής αλήθειας
και την προστασία των δικαιωμάτων του υπόπτου

Αρχαιολογία και Context Delicti: <br/>Η εκ του σύνεγγυς «συνομιλία» στο <br/>πεδίο των εγκληματολογικών ερευνών
Νοέμβριος 2020

Αρχαιολογία και Context Delicti:
Η εκ του σύνεγγυς «συνομιλία» στο
πεδίο των εγκληματολογικών ερευνών

Ομαδικό πορτραίτο με ένα νεκρό
Μάιος 2020

Ομαδικό πορτραίτο με ένα νεκρό

Το πρωτόκολλο δικανικής συνέντευξης ανήλικων θυμάτων κακοποίησης:  όταν η Εγκληματολογία συναντά την Ψυχολογία
Νοέμβριος 2019

Το πρωτόκολλο δικανικής συνέντευξης ανήλικων θυμάτων κακοποίησης: όταν η Εγκληματολογία συναντά την Ψυχολογία

DNA και Ποινική Απόδειξη.<br/>H Δογματική του άρ. 201 ΚΠΔ
Μάιος 2019

DNA και Ποινική Απόδειξη.
H Δογματική του άρ. 201 ΚΠΔ

Ο περιβαλλοντικός σχεδιασμός ως μέθοδος πρόληψης του εγκλήματος στις σύγχρονες πόλεις (CPTED)
Νοέμβριος 2018

Ο περιβαλλοντικός σχεδιασμός ως μέθοδος πρόληψης του εγκλήματος στις σύγχρονες πόλεις (CPTED)

Κυβερνοέγκλημα και ηλεκτρονική απόδειξη – <br/>ένας τρόπος εξακρίβωσης του ψηφιακού αποτυπώματός του. Ευρώπη με μια ματιά.
Νοέμβριος 2018

Κυβερνοέγκλημα και ηλεκτρονική απόδειξη –
ένας τρόπος εξακρίβωσης του ψηφιακού αποτυπώματός του. Ευρώπη με μια ματιά.

Cybercrime and electronic evidence – <br/>a way of identifying its digital prints. <br/>Europe at a glance.
Νοέμβριος 2018

Cybercrime and electronic evidence –
a way of identifying its digital prints.
Europe at a glance.

Αναζήτηση συγγενικών δεσμών: μια νέα διάσταση <br/>της χρήσης των γενετικών αποτυπωμάτων <br/>στη διαλεύκανση εγκληματικών πράξεων
Μάιος 2018

Αναζήτηση συγγενικών δεσμών: μια νέα διάσταση
της χρήσης των γενετικών αποτυπωμάτων
στη διαλεύκανση εγκληματικών πράξεων

Διάγνωση των στοιχείων της παρακμής ή <br />αλλοίωσης της γραφής και της υπογραφής – <br/>Διασφάλιση των χειρόγραφων εγγραφών <br />στην εποχή της ηλεκτρονικής τεχνολογίας
Νοέμβριος 2017

Διάγνωση των στοιχείων της παρακμής ή
αλλοίωσης της γραφής και της υπογραφής –
Διασφάλιση των χειρόγραφων εγγραφών
στην εποχή της ηλεκτρονικής τεχνολογίας

Η Τεχνητή Νοημοσύνη «πουλάει»… <br/>αλλά γιατί θα πρέπει να αγοράσουμε;
Νοέμβριος 2017

Η Τεχνητή Νοημοσύνη «πουλάει»…
αλλά γιατί θα πρέπει να αγοράσουμε;

Νewsletter

  • Interview of Prof. Andrew Simester
    by Assoc. Prof. Mark Dsouza
  • Professor Andrew Simester is Dean of National University of Singapore’s Faculty of Law, and Amaladass […]

  • Νοέμβριος 2024 | Συνέντευξη
  • Συνέντευξη του Ομ. Καθηγητή του Πανεπιστημίου της
    Φρανκφούρτης Ulfrid Neumann στον Αν. Καθηγητή
    του Πανεπιστημίου Αθηνών Δημήτριο Κιούπη
  • Ο καθηγητής Ulfrid Neumann είναι ομότιμος Καθηγητής Ποινικού Δικαίου, Ποινικής Δικονομίας, Φιλοσοφίας και Κοινωνιολογίας του Δικαίου. […]

  • Νοέμβριος 2024 | Συνέντευξη
  • Staging “Antigone” at the Korydallos
    Penitentiary Detention Facility I
  • Ekaterini Papageorgiou
  • Image: Elina Giounanli   The theatre workshop Since 2016, the Korydallos Penitentiary Detention Facility I […]

  • Νοέμβριος 2024 | Art & Crime
  • Απονομή της δικαιοσύνης και ΜΜΕ
    στην εποχή του ποινικού λαϊκισμού:
    Πληροφόρηση, τεκμήριο αθωότητας και
    ακεραιότητα της δικαιοδοτικής λειτουργίας*
  • του Νίκου Παπασπύρου
  • Εισαγωγή Η τρέχουσα συγκυρία χαρακτηρίζεται από την έξαρση ενός ανατροφοδοτούμενου από τα ΜΜΕ ποινικού λαϊκισμού, […]

  • Νοέμβριος 2024 | Μελέτες
  • Σκέψεις για την ποινική διαπραγμάτευση
    κατά τη διαδικασία στο ακροατήριο*
  • του Αθανασίου Κ. Ζαχαριάδη
  • 1. Εισαγωγικά Με προφανή σκοπό τη διεύρυνση της έκτασης εφαρμογής του θεσμού της ποινικής διαπραγμάτευσης, […]

  • Νοέμβριος 2024 | Μελέτες
  • Η αποτελεσματική προσφυγή για τις συνθήκες
    κράτησης. Μια ακόμη χαμένη μάχη
    για τα δικαιώματα των κρατουμένων;
  • του Κωνσταντίνου Τσιτσελίκη
  • Τα τελευταία 20 χρόνια η Ελλάδα αδυνατεί να εναρμονίσει την αντιμετώπιση των κρατουμένων στα σωφρονιστικά […]

  • Νοέμβριος 2024 | Εκ των έσω
  • «Διαβάζοντας 300 βιβλία
    σε 21 μήνες στη φυλακή»
  • του Λ.Λ.
  • Εισαγωγή της Ελένης Τσουνάκου-Ρουσιά* Οι βιβλιοθήκες ως χώροι «απόδρασης» από την καθημερινότητα αποκτούν ιδιαίτερη σημασία […]

© The Art of Crime 2006-2024. All rights reserved.
Produced by The Art of Crime