Oι ραγδαίες εξελίξεις στον τομέα της τεχνητής νοημοσύνης θέτουν επί τάπητος το ζήτημα της ευθύνης των μηχανών. Ποιος ευθύνεται σε περίπτωση που ένα αυτοοδηγούμενο αυτοκίνητο συγκρουστεί, ο αλγόριθμος της διοίκησης καταλήξει σε απόφαση που ζημιώνει τον διοικούμενο ή μια ιατρική εφαρμογή προτείνει κατόπιν επεξεργασίας όλων των δεδομένων θεραπεία που επιβαρύνει την υγεία του ασθενούς; Η απάντηση στο ερώτημα αυτό είναι σύνθετη. Οι πιθανές λύσεις θα μπορούσαν να συστηματοποιηθούν ως εξής:

Η πρώτη θέση έγκειται στο ότι την ευθύνη οφείλει να επωμιστεί αλλά και να διαχειριστεί ο κατασκευαστής προϊόντων τεχνητής νοημοσύνης∙ αυτή τη λύση ακολουθούν και οι υφιστάμενοι Κανονισμοί της Ευρωπαϊκής Ενωσης για τα ιατροτεχνολογικά προϊόντα. Με τον τρόπο αυτόν θα ενισχυθεί η υπευθυνότητα αλλά και η προνοητικότητα του κατασκευαστή.

Η δεύτερη θέση υποστηρίζει ότι η ευθύνη πρέπει να αποδοθεί στον χειριστή της τεχνολογίας, δηλαδή στον οδηγό του αυτοκινήτου, τον διοικητικό υπάλληλο ή τον ιατρό που εφαρμόζει την τεχνολογία. Και αυτό γιατί ο χειριστής του σχετικού προγράμματος οφείλει να μην ενστερνιστεί δίχως άλλο την πρόταση, αλλά να ελέγξει αν είναι απολύτως προσαρμοσμένη στα εκάστοτε πραγματικά περιστατικά και να συνυπολογίζει ως πιθανό σενάριο την προκατάληψη του αλγορίθμου.

Η τρίτη θέση συνίσταται σε έναν επιμερισμό της ευθύνης μεταξύ του κατασκευαστή ή προγραμματιστή και του χειριστή. Ο καθένας θα ευθύνεται για το μερίδιο που του αναλογεί. Το σύστημα αυτό, αν και φαίνεται δελεαστικό και τείνει να είναι το επικρατέστερο, δεν είναι άμοιρο αμφισβητήσεων. Η απόδοση της ευθύνης μπορεί να καταστεί σε πολλές περιπτώσεις ένα δυσεπίλυτο και δυσαπόδεικτο ζήτημα.

Η τέταρτη θέση συνηγορεί υπέρ της απόδοσης ευθύνης στην ίδια την τεχνολογία. Αν, όμως, η τεχνολογία θεωρηθεί υπεύθυνη, θα πρέπει προηγουμένως να έχει καταστεί υποκείμενο δικαίου. Η λύση αυτή απορρίφθηκε τον Οκτώβριο του 2020 από το Ευρωπαϊκό Κοινοβούλιο, το οποίο εξέδωσε τρία ψηφίσματα σχετικά με τις ηθικές και νομικές πτυχές των συστημάτων λογισμικού τεχνητής νοημοσύνης. Και τα τρία ψηφίσματα είναι ανυποχώρητα ως προς την μη παροχή ενός είδους ψηφιακής προσωπικότητας στα συστήματα τεχνητής νοημοσύνης.

Η υποστήριξη της απόδοσης ψηφιακής προσωπικότητας στις μηχανές δεν έρχεται ως κεραυνός εν αιθρία. Αποτελεί μια λύση που δεν θα ήταν παντελώς άγνωστη στο δίκαιό μας, καθώς θα μπορούσε να παραλληλιστεί με ένα είδος περιορισμένων δικαιωμάτων (αντίστοιχων, λ.χ., με αυτών που έχoυν το κυοφορούμενο και ο νεκρός) και υποχρεώσεων (όπως, λ.χ., έχει ο κάτοχος ζώου). Ηδη πολλές ενδείξεις υποδηλώνουν ότι η διχοτόμηση μεταξύ φυσικών και νομικών προσώπων ίσως ήγγικεν η ώρα να μετεξελιχθεί σε τριχοτόμηση, μέσω της δημιουργίας μιας ψηφιακής προσωπικότητας. Εχουν ήδη γίνει κάποια συνταρακτικά βήματα, τα οποία οφείλουμε να μην παραβλέψουμε.

Για παράδειγμα, το 2017 η Σαουδική Αραβία χορήγησε υπηκοότητα στη Σοφία, ένα ρομπότ τεχνητής νοημοσύνης. Ακόμα, ένα διαδικτυακό σύστημα με τη μορφή ενός επτάχρονου αγοριού απέκτησε άδεια παραμονής στο Τόκιο. Το 2014 ανακοινώθηκε ότι μια εταιρεία επιχειρηματικών κεφαλαίων του Χονγκ Κονγκ είχε διορίσει στο διοικητικό της συμβούλιο ένα υπολογιστικό πρόγραμμα με την ονομασία Vital, για τη διαχείριση της ιδιοκτησίας της.

Σε αυτό το πλαίσιο, έχει υποστηριχθεί η δημιουργία εταιρειών περιορισμένης ευθύνης, χωρίς καθόλου ανθρώπινα μέλη. Επίσης, ο Μπιλ Γκέιτς έχει προτείνει τη φορολόγηση των ρομπότ που εργάζονται. Πρόσφατα, ρομπότ μίλησε για πρώτη φορά στο βρετανικό κοινοβούλιο για την τέχνη και την τεχνητή νοημοσύνη. Η Ai-Da εμφανίστηκε με πρόσωπο και ρούχα γυναίκας, ενημερώνοντας τους βρετανούς βουλευτές ότι, αν και τεχνητό δημιούργημα, είναι σε θέση να παράγει τέχνη. Στην Κίνα ρομπότ πέρασαν την εξέταση για τη λήψη άδειας ιατρού και θα αναλάβουν τη φροντίδα ηλικιωμένων.

Θα μπορούσε να υποστηριχθεί ότι η απόδοση ψηφιακής πρoσωπικότητας σε εφαρμογές τεχνητής νοημοσύνης συνιστά sui generis μετεξέλιξη της απόδοσης νομικής προσωπικότητας στα νομικά πρόσωπα. Οσο και αν είμαστε διστακτικοί, οι εξελίξεις θα μας ξεπεράσουν και θα αναγκαστούμε να αποδώσουμε ένα είδος ψηφιακής προσωπικότητας στην ίδια την τεχνολογία, χωρίς αυτό να συνεπάγεται ότι τα φυσικά πρόσωπα θα απεκδύονται πάσης ευθύνης.

Oι λόγοι είναι απλοί και εκ πρώτης όψεως πρακτικοί: Πρώτον, γιατί απαιτείται η απόδοση της ευθύνης. Η λογοδοσία μπορεί να φτάσει μάλιστα μέχρι το σημείο εκδίκασης «εγκληματιών» ρομπότ τεχνητής νοημοσύνης, με κύρωση τον επαναπρογραμματισμό τους ή, σε ακραίες περιπτώσεις, την καταστροφή τους, κύρωση, όμως, που δεν μπορούν να αισθανθούν. Δεύτερον, γιατί απαιτείται η απόδοση του κέρδους, όπως, λ.χ., η κυριότητα της πνευματικής ιδιοκτησίας που δημιουργείται από συστήματα τεχνητής νοημοσύνης.

Ολα αυτά στο μέλλον… Υπό τις τωρινές συγκυρίες κρίνεται ότι δεν είναι ώριμες ακόμα οι συνθήκες από ηθικής και νομικής απόψεως για την απόδοση ψηφιακής προσωπικότητας στις μηχανές, γιατί δεν έχει εμπεδωθεί εννοιολογικά και συζητηθεί επαρκώς η κατηγορία αυτή και οφείλουμε να τη διερευνήσουμε περισσότερο, προτού την εμπλέξουμε σε φάσεις νομικής ευθύνης. Προς το παρόν, ένας συνδυασμός των υπαρχόντων συστημάτων απόδοσης ευθύνης φαίνεται προτιμότερος.

Η κυρία Φερενίκη Παναγοπούλου είναι επίκουρη καθηγήτρια Συνταγματικού Δικαίου, Δικαίου Προστασίας Δεδομένων και Βιοηθικής στο Πάντειο Πανεπιστήμιο και συγγραφέας του βιβλίου «Τεχνητή νοημοσύνη: Ο δρόμος προς έναν ψηφιακό συνταγματισμό» (εκδ. Παπαζήση, 2023).