Ο Βίνσεντ Μίλερ, Καθηγητής Θεωρίας και Ηθικής της Τεχνητής Νοημοσύνης στο Πανεπιστήμιο Ερλάγκεν-Νυρεμβέργης, βραβευμένος με τη διάκριση της «Αλεξάντερ φον Χούμπολντ καθηγεσίας» και Πρόεδρος της «Ευρωπαϊκής Εταιρείας για τα Γνωσιακά Συστήματα», μιλάει στο «Βήμα» για το πώς θα διαμορφώσει η Τεχνητή Νοημοσύνη τους πολέμους του μέλλοντος.

Εντοπίζει τα δέκα σημαντικά ηθικά προβλήματα, απολύτως αλληλένδετα μεταξύ τους, που προκύπτουν από τη χρήση της τεχνητής νοημοσύνης και αναλύει γιατί θα πρέπει να μας απασχολήσουν σοβαρά. Τι σημαίνουν, οι βαθμοί αυτονομίας των οπλικών συστημάτων και πού θα πρέπει να τραβήξουμε τη γραμμή του ηθικώς μη αποδεκτού; Γιατί είναι σημαντική η ηθική και νομική ευθύνη του ανθρώπινου δράστη και το να μην είναι ανεξέλεγκτη η αυτονομία των συστημάτων;
Γιατί τα κριτήρια της «βελτίωσης» και της «ευκολίας» των πολέμων προκαλούν ηθικά διλήμματα, καθώς οι «καλοί πόλεμοι» είναι πιο «εύκολοι», ενώ οι «κακοί πόλεμοι» είναι πιο «απίθανοι»; Τι επιφέρει η διαθεσιμότητα της σύγχρονης πολεμικής τεχνολογίας σε μη κρατικούς δρώντες; Τι σημαίνει η απανθρωποποίηση του πολέμου λόγω υπολογισμού, προβλεψιμότητας, αφηρωισμού, υβριδικότητας ανθρώπου και μηχανής; Ποιοι είναι, τέλος, οι κίνδυνοι από τους ασύμμετρους πολέμους και από την καταστροφή της ανθρωπινότητας που έχει εντυπωθεί στον υλικό πολιτισμό;
Τα αυτόνομα οπλικά συστήματα (ΑΟΣ ή LAWs στα αγγλικά: Lethal Autonomous Weapons) είναι στρατιωτικά συστήματα που, μετά την ενεργοποίησή τους, μπορούν να επιλέγουν και να προσβάλλουν στόχους ακόμη και χωρίς ανθρώπινη παρέμβαση, αξιοποιώντας τεχνητή νοημοσύνη και αισθητήρες και λειτουργώντας με αλγόριθμους που αναλύουν δεδομένα πεδίου μάχης σε πραγματικό χρόνο; Τι ηθικά προβλήματα προκαλούνται από τη χρήση τους;
Βίνσεντ Μίλερ: Κατ’ αρχήν, είναι σημαντικό να διευκρινίσουμε ότι υπάρχει ένα μεγάλο φάσμα βαθμών αυτονομίας. Σχηματικά γίνεται λόγος στα αγγλικά για «human in the loop», «human on the loop» και «human out of the loop», δηλαδή, αν κάνουμε κατά λέξη μετάφραση για άνθρωπο «εντός του κυκλώματος», «επί του κυκλώματος» ή «εκτός του κυκλώματος».
Αυτό που εννοείται είναι ότι υπάρχουν αυτόνομα οπλικά συστήματα «επιτηρούμενα» (humans in the loop), όπου υπάρχει άνθρωπος ο οποίος εγκρίνει οριστικά κάθε προτεινόμενο από την τεχνητή νοημοσύνη στόχο πριν το πλήγμα. Υπάρχουν αυτόνομα οπλικά συστήματα «με δυνατότητα παράκαμψης» (humans on the loop), όπου το σύστημα δρα αυτόνομα και ο άνθρωπος έχει απλώς τη δυνατότητα να παρέμβει μόνο για να ακυρώσει ένα πλήγμα.
Μπορεί, τέλος, να υποτεθεί και η περίπτωση ενός πλήρους αυτόνομου οπλικού συστήματος (humans out of the loop), όπου το σύστημα εντοπίζει, στοχεύει και εξουδετερώνει στόχους χωρίς ανθρώπινη παρέμβαση, βασιζόμενο αποκλειστικά στις δικές του πληροφορίες, προγραμματισμό και τεχνητή νοημοσύνη. Παρόμοιες διακρίσεις έχουν σημασία, προκειμένου να αντιλαμβανόμαστε τον περίπλοκο και κλιμακωτό χαρακτήρα της αυτονομίας των μηχανών.
1) Οι βαθμοί αυτονομίας των οπλικών συστημάτων
Λ.χ. μπορούμε να κατανοήσουμε ότι υπάρχουν περιπτώσεις όπου το να είναι ένας άνθρωπος οπωσδήποτε ενήμερος ενδέχεται να προκαλεί δυσχέρειες. Θα φέρω ένα παράδειγμα που κυκλοφορεί εδώ και δεκαετίες: Τα στρατιωτικά πλοία έχουν αντιπυραυλικά συστήματα, τα οποία με αυτόνομο τρόπο εντοπίζουν και καταρρίπτουν επερχόμενους πυραύλους, ώστε να μην πλήξουν το πλοίο. Εν προκειμένω, είναι απολύτως αποφασιστικό ο χρόνος μέσα στον οποίο θα γίνει ο εντοπισμός και η κατάρριψη του πυραύλου να είναι σύντομος, καθώς και να υπάρχει ακρίβεια. Επομένως, το να είναι ένας άνθρωπος ενήμερος με την έννοια του να εγκρίνει κάθε φορά και να αποφασίζει (in the loop) δεν θεωρείται ρεαλιστικό, γιατί δεν υπάρχει αρκετός χρόνος, ώστε ένας άνθρωπος να ενημερωθεί πλήρως και να αποφασίσει. Ίσως η ανθρώπινη παρέμβαση να περιορίζεται σε αυτήν την περίπτωση στη δυνατότητα ακύρωσης (on the loop) σε κάποιο σπάνιο περιστατικό που μπορεί να κριθεί ότι υπάρχει τεχνικό λάθος. Με αυτή τη λογική έχουμε εδώ και πολύ καιρό αυτόνομα συστήματα σε πλοία, τεθωρακισμένα κ.α.
Ας εξετάσουμε περαιτέρω τους βαθμούς αυτονομίας με παραδείγματα. Μπορεί να έχουμε αυτόνομα οπλικά συστήματα με την έννοια ότι προγραμματίζουμε ένα σύστημα να κάνει μια συγκεκριμένη δουλειά, σύμφωνα με παραδείγματα που ήδη είδαμε. Μπορεί, όμως, να έχουμε και ένα drone-καμικάζι και να το προγραμματίσουμε να πετάξει σε μια συγκεκριμένη τοποθεσία και να εκραγεί. Από εδώ αρχίζουν τα προβλήματα με τους βαθμούς αυτονομίας. Μπορεί το drone να έχει εντολή να πετάξει σε μια συγκεκριμένη προκαθορισμένη διαδρομή και να εκραγεί σε ένα συγκεκριμένο σημείο. Μπορεί, όμως, και να έχει εντολή να βρει έναν συγκεκριμένο άνθρωπο, ας πούμε τον καθηγητή Μίλερ, και να τον εξοντώσει, οπουδήποτε και αν βρίσκεται αυτός. Εδώ προκύπτουν περαιτέρω ηθικά προβλήματα. Λ.χ. τι θα συμβεί αν ο καθηγητής Μίλερ βρίσκεται σε ένα αμφιθέατρο, όπου διαλέγεται με άλλα διακόσια άτομα;
Τα ζητήματα αυτά δεν αποτελούν πλέον επιστημονική φαντασία. Μπορούν να εντοπιστούν στόχοι μέσω δορυφόρου, είτε πρόκειται για πλοία ή τεθωρακισμένα, είτε για ανθρώπινα πρόσωπα. Πλέον η τεχνητή νοημοσύνη εμπλέκεται όλο και περισσότερο σε αποφάσεις στρατιωτικού χαρακτήρα σχετικά με το τι συνιστά στόχο, το οποίο αποτελεί και το κρίσιμο πρόβλημα. Κάθε επίθεση έχει κόστος, κατ’ αρχήν οικονομικό, αλλά όχι μόνο, οπότε είναι πολύ σημαντική η απόφαση τι αξίζει να αποτελέσει στρατιωτικό στόχο. Και εδώ αρχίζει ο πειρασμός να σκεφθείς ότι αν μπορείς να αναθέσεις σε ένα αυτοματοποιημένο σύστημα να κάνει αυτή τη δουλειά για σένα, τότε αυτό σου δίνει πλεονέκτημα τόσο από άποψη ταχύτητας όσο και από άποψη ακρίβειας. Είναι ας πούμε γνωστό ότι στον πρόσφατο πόλεμο στο Ιράν χρησιμοποιήθηκαν συστήματα τεχνητής νοημοσύνης και μάλιστα της εταιρείας Palantir, προκειμένου να βελτιστοποιηθούν οι αποφάσεις στοχοποίησης. Βέβαια, τυπικά, οι ίδιες οι αποφάσεις δεν έχουν ληφθεί από μηχανή, αλλά από ανθρώπους. Στην πράξη, όμως, αυτό που συμβαίνει είναι ότι η μηχανή παρουσιάζει μια απόφαση ως τη βέλτιστη και ο άνθρωπος απλώς την επιβεβαιώνει, δεδομένων των πληροφοριών που παρέχει η μηχανή.
Δυστυχώς, πολλά μπορεί να πάνε στραβά. Κατά τον πόλεμο στο Ιράν είδαμε λ.χ. μια επίθεση σε ένα σχολείο στην πόλη Μινάμπ. Δεν είναι δημόσιες όλες οι πληροφορίες σχετικά με το εν λόγω χτύπημα, αλλά μια υπόθεση που προβλήθηκε είναι ότι οφειλόταν σε παρωχημένες πληροφορίες, σύμφωνα με τις οποίες στην εν λόγω τοποθεσία υπήρχε στρατιωτικό σύμπλεγμα, χωρίς να έχει συμπεριληφθεί μια επικαιροποιημένη πληροφόρηση ότι στο ίδιο σημείο λειτουργούσε σήμερα σχολείο θηλέων.
Εν κατακλείδι, το ζήτημα είναι δυστυχώς πιο περίπλοκο από το να κάνουμε μια διάκριση μεταξύ αυτόνομων και μη αυτόνομων όπλων. Το θέμα είναι να αποφασίσουμε τι βαθμό αυτονομίας επιθυμούμε να έχουν τα όπλα. Όπως σημείωσα, υπάρχουν ήδη αυτόνομα όπλα σε ευρεία χρήση σε περιπτώσεις για τις οποίες δεν εγείρονται σοβαρές ηθικές διερωτήσεις. Λ.χ. οι περισσότεροι άνθρωποι δεν θα έβλεπαν ένα σοβαρό ηθικό πρόβλημα σε ένα αυτόνομο σύστημα που θα κατέρριπτε επερχόμενους πυραύλους, καθώς εν προκειμένω υπάρχει μια απόφαση που έχει ληφθεί εκ των προτέρων και η οποία μπορεί να αποδοθεί σε έναν άνθρωπο. Τώρα, αν, ας πούμε, το αυτόνομο σύστημα αντί για επερχόμενο πύραυλο κατέρριπτε επιβατικό αεροσκάφος, τότε το λάθος θα αποδιδόταν σε κάποιους ανθρώπους που δεν είχαν προγραμματίσει το σύστημα σωστά. Σε κάθε περίπτωση, το ερώτημα είναι ποιος βαθμός αυτονομίας μπορεί να κριθεί ως απαράδεκτος και με ποια κριτήρια.
2) Το ζήτημα της ηθικής και νομικής ευθύνης. Το παράδειγμα με την “κόμπρα στο κουτί”
Ποια θα μπορούσαν, λοιπόν, να είναι τα ηθικά κριτήρια;
Β.Μ.: Το θεμελιώδες ζήτημα είναι αν θα υπάρξει κενό ευθύνης. Αυτό που ισχύει εδώ και δεκαετίες στους στρατούς, στους δυτικούς τουλάχιστον, είναι ότι υπάρχει πάντα ένας επικεφαλής οποτεδήποτε λαμβάνει χώρα μία επίθεση, ανεξάρτητα αν περιλαμβάνει φόνο ανθρώπων ή απλώς καταστροφή υλικών πόρων. Ο επικεφαλής αυτός έχει την ευθύνη της απόφασης για την επιχείρηση. Πρέπει πάντα να υπάρχει μια υπεύθυνη απόφαση για το αν λ.χ. το πυροβολικό θα βομβαρδίσει ένα κτήριο ή αν θα σταλεί μια διμοιρία σε μάχη σε αστικό περιβάλλον ή αν θα πυροβοληθεί ένας ύποπτος επειδή θεωρείται ότι μπορεί να τοποθετήσει μια βόμβα κ.ο.κ. Συνηθίζουμε να θεωρούμε ως δεδομένο ότι πρέπει ένας άνθρωπος να έχει την ευθύνη, όταν προκύπτει μια κατάσταση στην οποία μπορεί να σκοτωθεί ένας άλλος άνθρωπος. Αυτό μπορεί να είναι ζήτημα ηθικής κατηγορίας, ψόγου ή, ενδεχομένως, και επαίνου, αλλά είναι κατ’ εξοχήν και ένα νομικό ζήτημα απόδοσης νομικής ευθύνης. Για παράδειγμα, όταν άμαχοι γίνονται αντικείμενο θανάσιμης επίθεσης, τότε χρειάζεται να μπορούμε να αποδώσουμε σε έναν άνθρωπο την κατηγορία του εγκλήματος πολέμου. Το πρώτο, λοιπόν, πρόβλημα είναι ηθικό και νομικό και είναι η ευθύνη.
Συνηθίζω να χρησιμοποιώ την εξής παρομοίωση: «Τι γίνεται αν σου στείλω ένα κουτί με ένα φίδι;». Μπορώ να πω: «Εγώ δεν έκανα τίποτα. Δεν τον σκότωσα, απλώς έστειλα ένα κουτί». Όμως, αν σου στείλω ένα κουτί με μια κόμπρα μέσα, είναι εύλογο να θεωρήσουμε ότι γνώριζα εκ των προτέρων ότι είναι πολύ πιθανό η κόμπρα να σε δαγκώσει και να σε σκοτώσει και ότι είχα τη σχετική πρόθεση και φέρω την ευθύνη. Η κόμπρα μπορεί να είναι ένας αυτόνομος δράστης επί του οποίου δεν έχω έλεγχο, όμως διαθέτω μια πρόγνωση για την πιθανή συμπεριφορά της, με αποτέλεσμα να είμαι υπεύθυνος και πιθανότατα θα καταδικαζόμουν σε ένα δικαστήριο.
Κάτι παρόμοιο δεν συμβαίνει με τα αυτόνομα οπλικά συστήματα; Μπορώ να τους δώσω ολοένα και μεγαλύτερη αυτονομία στο να βρουν τον στόχο ή και να τον επιλέξουν. Όμως η ευθύνη δεν επιστρέφει σε εμένα; Σε κάθε περίπτωση, όπως είπα, χρειάζεται προσεκτική σκέψη για τον βαθμό αυτονομίας που θα έχουν τα αυτόνομα όπλα.
3) Το ζήτημα του ελέγχου
Το δεύτερο πρόβλημα είναι ο έλεγχος. Μας προκαλεί προβληματισμό το να υπάρχει ένα αυτόνομο όπλο, που καθίσταται ανεξέλεγκτο και μπορεί να σκοτώνει χωρίς αυτό να περνάει από ανθρώπινη ιδιοπραξία. Στην πραγματικότητα το ζήτημα του ελέγχου συνδέεται με αυτό της ευθύνης, καθώς έχουμε ευθύνη μόνο για όσα είναι υπό τον έλεγχό μας. Η αντίδραση, λοιπόν, στα αυτόνομα οπλικά συστήματα προκύπτει από το ότι επιθυμούμε να έχουμε ως άνθρωποι ευθύνη και έλεγχο επί αποφάσεων και μάλιστα όσων μπορεί να συνεπάγονται θάνατο άλλων ανθρώπων.
4) Το ζήτημα της «βελτίωσης» των πολέμων
Ένα δεύτερο είδος ερωτήματος που θα ήθελα να σας θέσω είναι τι ηθικά προβλήματα προκύπτουν, όταν και οι δύο αντίπαλοι χρησιμοποιούν αυτόματα οπλικά συστήματα. Δηλαδή όχι απλώς τα ζητήματα που ανακύπτουν από τη χρήση ενός αυτόματου οπλικού συστήματος εν γένει, αλλά από το γεγονός ότι μπορεί στο όχι μακρινό μέλλον να αλλάξει ο τρόπος του πολέμου, ώστε μηχανές να έχουν εν πολλοίς υποκαταστήσει τους ανθρώπους κατά την πολεμική πράξη.
Β.Μ.: Και αυτός ο τύπος ερώτησης συνδέεται με τον προηγούμενο. Χρειάζεται να θέσουμε δύο διακριτά ερωτήματα. Το πρώτο είναι αν η χρήση αυτόνομων οπλικών συστημάτων καθιστά τους πολέμους καλύτερους ή χειρότερους. Το δεύτερο ερώτημα είναι αν μια παρόμοια χρήση κάνει τους πολέμους πιο πιθανούς να συμβούν. Δηλαδή πιο «εύκολους» κατά μία έννοια, αλλά κυρίως μας ενδιαφέρει η πιθανότητα αρχής ενός νέου πολέμου.
Το πολύ χαρακτηριστικό και πολυσυζητημένο σχετικά πρόσφατο παράδειγμα είναι αυτό των πυρηνικών όπλων. Τα πυρηνικά όπλα κάνουν τους πολέμους ασύγκριτα χειρότερους. Δεκάδες ή εκατοντάδες χιλιάδες άνθρωποι μπορεί να εξοντωθούν με τη μία, μαζί με μια τεράστια υλική και οικολογική καταστροφή. Από την άλλη πλευρά, για τον ίδιο λόγο τα πυρηνικά όπλα έχουν καταστήσει τους πολέμους πιο απίθανους να συμβούν, επειδή ακριβώς η καταστροφή θα ήταν τόσο μεγάλη και αμοιβαία, ώστε δεν θα υπήρχαν νικητές. Με αυτήν την έννοια, κάποιοι μπορεί να υποστηρίξουν, με συστολή είναι η αλήθεια, ότι τα πυρηνικά όπλα έχουν φέρει μια βελτίωση με την έννοια ότι οι πόλεμοι είναι αρκετά πιο σπάνιοι από ό,τι στο παρελθόν και ίσως κατ’ ανάγκη λιγότερο ολοκληρωτικοί.
Τώρα, αν θέσουμε αυτά τα δύο ερωτήματα στην περίπτωση των αυτόνομων όπλων, θα διαπιστώσουμε ότι η απάντηση που μπορεί να λάβουμε είναι μάλλον η αντίστροφη από ό,τι στην περίπτωση των πυρηνικών. Και εξηγούμαι αμέσως: Από τη μια είναι πιθανό τα αυτόνομα όπλα να καθιστούσαν τους πολέμους λίγο καλύτερους υπό την έννοια ότι μπορεί να φέρουν μεγαλύτερη ακρίβεια στη στοχοποίηση αποκλειστικών στρατιωτικών στόχων, με την προϋπόθεση ασφαλώς να έχουν σχεδιαστεί, προγραμματιστεί και χρησιμοποιηθεί με αυτόν τον σκοπό. Αυτό φαίνεται σαν να καθιστά τον πόλεμο πιο αποδεκτό. Επίσης, θεωρητικώς επιτρέπουν ευκρινέστερη απόδοση ευθύνης, καθώς στην ψηφιακή μνήμη μπορεί κάποιος εκ των υστέρων να ανιχνεύσει ποιος έδωσε μια εντολή και ποιο ήταν το ακριβές περιεχόμενό της. Ήταν λ.χ. να καταστραφεί η τάδε στρατιωτική εγκατάσταση ή ένα ολόκληρο χωριό; Η κρίση θα είναι ανάλογη. Από αυτήν την άποψη θα μπορούσε κανείς να σκεφτεί ότι τα αυτόνομα όπλα θα μπορούσαν να βελτιώσουν τους πολέμους.
5) Το ζήτημα της πιθανότητας των πολέμων
Υπάρχει, όμως, και το δεύτερο κριτήριο, αυτό της πιθανότητας. Εδώ η απάντηση μπορεί να μην είναι ευχάριστη, υπό την έννοια ότι ένας «καλύτερος» πόλεμος μπορεί να είναι και ένας «πιθανότερος» πόλεμος για να αρχίσει. Βεβαίως, η πιθανότητα ενός πολέμου είναι εξαιρετικά πολυπαραγοντική. Ωστόσο, ένα από τους σημαντικότερους παράγοντες είναι το κόστος του πολέμου. Το κόστος μπορεί να είναι οικονομικό, αλλά και πολιτικό. Αν, λοιπόν, μπορείς να διεξαγάγεις έναν πόλεμο με τρόπο που οι στρατιώτες σου να έχουν μικρή πιθανότητα να σκοτωθούν, τότε είναι πολύ πιο πιθανό να λάβεις την πολιτική απόφαση να προχωρήσεις στον πόλεμο. Αν, επομένως, διαθέτεις περισσότερο αυτόνομα οπλικά συστήματα, έχεις μικρότερο πολιτικό κόστος, καθώς τη «δουλειά» την κάνουν τα ίδια τα όπλα. Είναι, λοιπόν, εύλογο να σκεφτούμε ότι λόγω των αυτόνομων οπλικών συστημάτων οι πόλεμοι μπορεί να γίνουν περισσότερο πιθανοί. Ίσως ο πρόσφατος πόλεμος στο Ιράν να αποτελεί ήδη ένα παρόμοιο παράδειγμα, δεδομένου ότι οι ανθρώπινες απώλειες από τη μεριά των ΗΠΑ και του Ισραήλ είναι αρκετά περιορισμένες και η απόφαση για αυτόν τον πόλεμο ελήφθη με σχετική ευκολία.
6) Το ζήτημα της διαθεσιμότητας της πολεμικής τεχνολογίας και ο πολλαπλασιασμός των μη κρατικών δρώντων
Όμως, το ζήτημα περιπλέκεται καθώς είναι πιθανό λόγω νέων τεχνολογιών, όπως τα drones, να έχουμε στρατιωτικές συγκρούσεις οι οποίες δεν θα είναι ολοκληρωμένοι πόλεμοι, όπως τους εννοούσαμε ως τώρα. Μπορείς λ.χ. να κατασκευάσεις ένα drone και να το στείλεις να ρίξει κάποια εκρηκτικά κάπου και να είναι δύσκολο να ανιχνευθεί ποιος το έκανε ή να αποδοθούν επισήμως ευθύνες. Οπότε μπορεί να έχουμε μια οιονεί πολεμική κατάσταση επί μακρόν, η οποία να μην είναι πλήρης πόλεμος και όπου παρόμοιες επιθέσεις με drones να διεξάγονται είτε από συμβατικούς εθνικούς στρατούς είτε και από εντελώς άλλης υφής δρώντες, λ.χ. από μικρές ένοπλες ομάδες κ.ο.κ.
Εν ολίγοις, το πρόβλημα που προκύπτει είναι αυτό της διαθεσιμότητας της πολεμικής τεχνολογίας. Ας φέρουμε ένα άλλο παράδειγμα, για να κατανοήσουμε το πρόβλημα. Στην Ευρώπη θεωρούμε σκόπιμο να μην μπορεί εύκολα ένας ιδιώτης να προμηθευθεί ένα όπλο. Χρειάζεται ειδική άδεια με πολύ αυστηρές προϋποθέσεις κ.ο.κ. Και ασφαλώς σε όλον τον πλανήτη είναι εντελώς αδιανόητο το να μπορεί ένας ιδιώτης να αγοράσει ένα τεθωρακισμένο κ.ο.κ. Γιατί συμβαίνει αυτό; Επειδή θεωρούμε ότι η διαθεσιμότητα των όπλων μπορεί να φέρει πολύ προβληματικές εξελίξεις, μπορεί να αλλάξει την ηθική και πολιτική κατάσταση. Συμπερασματικά, θεωρώ ότι είναι συγκριτικά λιγότερο σημαντικό το αν ένας άνθρωπος θα λάβει με αυτενέργεια μια συγκεκριμένη απόφαση και περισσότερο σημαντικό το ότι η ίδια η τεχνολογία αλλάζει άρδην τις συνθήκες του πολέμου. Η διαθεσιμότητα τις πολεμικής τεχνολογίας μεταβάλλει τα ίδια τα κοινωνικοπολιτικά συστήματα και αυτό είναι κάτι πολύ πιο δύσκολο να ελεγχθεί από το αν θα υπάρχουν επιμέρους ανθρώπινες αποφάσεις.
Σήμερα που έχουμε μαζική χρήση αυτόνομων όπλων, που έχουμε μη επανδρωμένα οχήματα εναέρια, επίγεια, θαλάσσια, υποθαλάσσια, ακόμη και διαστημικά, ο πόλεμος αλλάζει άρδην. Ο προβληματισμός που έθεσα είναι ότι τα αυτόνομα όπλα μπορεί να κάνουν τους πολέμους πιο «καλούς», αλλά και πιο πιθανούς και ανεξέλεγκτους υπό την έννοια ότι διεξάγονται και από μη κρατικούς δρώντες.
7) Το ζήτημα του υπολογιστικού χαρακτήρα του πολέμου, η απανθρωποποίηση και ο αφηρωισμός του
Θα ήθελα να επιστήσω την προσοχή σε μερικά ακόμη ηθικά προβλήματα. Ο πόλεμος μπορεί να καταστεί μία υπόθεση τελείως υπολογίσιμη οικονομικώς, ακόμη και μέσω αλγορίθμων της τεχνητής νοημοσύνης. Επομένως, θα κερδίζει αυτός με τα περισσότερα χρήματα. Αυτό μπορεί να ίσχυε ανέκαθεν, αλλά όχι απολύτως. Λ.χ. στην Ελλάδα εορτάζεται η περίφημη ημέρα του «Όχι», όπου ο διάσημος στρατός του Μουσολίνι δεν κατόρθωσε να εισβάλει στην Ελλάδα παρόλο που ήταν πολύ μεγαλύτερος και με καλύτερη χρηματοδότηση. Στο μέλλον φαίνεται ότι ο οικονομικός υπολογισμός με χρήση τεχνητής νοημοσύνης θα καθιστά τις αναμετρήσεις περισσότερο προβλέψιμες και για αυτό υπό μία έννοια πιο απάνθρωπες, λιγότερο ηρωικές.
8) Το ζήτημα της ασύμμετρης εξόντωσης ανθρώπων από μηχανές
Υπάρχουν δύο ακόμη ζητήματα που θα ήθελα να θέσω. Υπάρχουν περιπτώσεις όπου δύο αντίπαλοι μπορεί να μην έχουν αυτόνομα όπλα στον ίδιο βαθμό με αποτέλεσμα τα αυτόνομα όπλα της μιας πλευράς να εξοντώνουν μαζικώς τους ανθρώπους της άλλης. Οπωσδήποτε είναι εξαιρετικά προβληματικός ο μαζικός αφανισμός ανθρώπων από μηχανές λόγω ασυμμετρίας στη χρήση πολεμικής τεχνολογίας.
9) Το ζήτημα της καταστροφής ανθρώπινων αξιών που περικλείονται στον υλικό πολιτισμό
Αλλά ακόμη κι αν δεν σκοτώνονται μαζικώς οι άνθρωποι, μπορεί να καταστρέφονται δημιουργήματα του ανθρώπινου πολιτισμού που περικλείουν επίσης μια ανθρώπινη ταυτότητα και αξίες και που η διάλυσή τους επιφέρει μεγάλη ανθρώπινη οδύνη. Υπάρχουν περιπτώσεις λ.χ. που η καταστροφή οικισμών, ακόμη κι αν έχουν εκκενωθεί από ανθρώπους, θα αποσκοπεί στην εξάλειψη της παρουσίας μιας ανθρώπινης ομάδας, εθνοτικής, εθνικής ή άλλης, από μια περιοχή. Το να καταστρέφονται σπίτια ανθρώπων μπορεί να μην συνιστά μια απευθείας εξόντωση προσώπων, αλλά μπορεί να οδηγήσει σε ξεριζωμό ή σε μια μακροπρόθεσμη ζημιά σε μια περιοχή. Λ.χ. οι Γερμανοί έχουμε την εμπειρία ότι το τοπίο των πόλεών μας έχει διαμορφωθεί από τους μαζικούς βομβαρδισμούς του Β΄ Παγκοσμίου Πολέμου, καθώς υπάρχουν ολόκληρα τμήματα των πόλεων που λείπουν. Το ίδιο συμβαίνει με τους σύγχρονους πολέμους στην Ουκρανία και τη Μέση Ανατολή. Πέρα από τον θάνατο ανθρώπων, υπάρχουν στρατιωτικά διακυβεύματα ως προς το πώς θα διαμορφωθεί το οικιστικό τοπίο.
10) Το ζήτημα της αύξουσας αλληλεξάρτησης/ υβριδικότητας ανθρώπου και μηχανής
Εν κατακλείδι, θα ήθελα να τονίσω τη σημασία του να καταλάβουμε και να αναλύσουμε την περιπλοκότητα της έννοιας των αυτόνομων συστημάτων όπλων που κάνουν χρήση τεχνητής νοημοσύνης. Πρόκειται για περίπλοκα συστήματα που περιλαμβάνουν ρομποτική, επιστήμη δεδομένων αλλά και τον ανθρώπινο παράγοντα, προκειμένου να επιτευχθεί ένας ειθυμητός στρατιωτικός σκοπός. Στο μέλλον θα είναι όλο και πιο δύσκολο να αποσπάσουμε μία από αυτές τις συνιστώσες. Για να φέρω ένα παράδειγμα, που δεν ξέρω αν είναι το καταλληλότερο, μέχρι πριν λίγα χρόνια θα μπορούσαμε πιο εύκολα να φανταστούμε έναν άνθρωπο χωρίς το κινητό του. Σήμερα είναι όλο και πιο δυσκολότερο να απομονώσουμε έναν άνθρωπο από το smartphone του με το οποίο κάνει λίγο πολύ όλες τις δουλειές. Αυτή η αλληλεξάρτηση θα γίνεται όλο και πιο έντονη και στον πόλεμο. Γιατί είναι σημαντική αυτή η επίγνωση; Επειδή λ.χ. υπήρξε ένα κίνημα ενάντια στα «δολοφονικά ρομπότ» (killer robots). Ένας ευγενής σκοπός ενδεχομένως, αλλά απέτυχε, καθώς ήταν εξαιρετικά δύσκολο να τραβήξουμε τη γραμμή ανάμεσα στο τι συνιστά κάτι «δολοφονικό ρομπότ» και τι όχι. Γιατί βεβαίως ο σκοπός του κινήματος ήταν τα θεωρούμενα ως «δολοφονικά ρομπότ» να καταστούν παράνομα. Για να το κάνεις, όμως, αυτό χρειάζονται σαφή κριτήρια βάσει των οποίων θα κρίνουμε ποιες οντότητες θα ανήκουν στο γκρουπ «δολοφονικά ρομπότ» και ποιες όχι. Αυτό δεν κατέστη δυνατό.
Δεν υποστηρίζω σε καμία περίπτωση ότι δεν θα έπρεπε να προσπαθήσουμε να προβούμε σε ρυθμίσεις στον χώρο των αυτόνομων οπλικών συστημάτων. Όλως αντιθέτως, θεωρώ ότι οι ρυθμίσεις είναι αναγκαίες και η πρώτη μας προτεραιότητα θα έπρεπε να είναι το να διατηρηθεί η ανθρώπινη ευθύνη για τη στρατιωτική δράση. Με άλλα λόγια, να διατηρείται μια γραμμή της διοίκησης βάσει της οποίας να μπορούμε κάθε φορά να πούμε ποιος ήταν ο υπεύθυνος για μια επίθεση και να μπορούμε να δείξουμε έναν άνθρωπο, ο οποίος έχει αυτήν την ευθύνη.






