Η εξέλιξη της Τεχνητής Νοημοσύνης (ΤΝ) εγγράφεται στη μακρότατη σειρά των προσπαθειών του ανθρώπου να δημιουργήσει «εργαλεία» που θα υποστήριζαν τη δραστηριότητά του και θα διευκόλυναν τη ζωή του. Κάθε «τεχνολογία» στον καιρό της υπήρξε, πιθανότατα, «ανατρεπτική», γεννώντας ελπίδες, αβεβαιότητες και φόβους. Θέτοντας κάθε φορά νέα ζητήματα προς επίλυση, καθώς η «ανατροπή», σχεδόν πάντα, επέφερε ή σχετιζόταν με την αλλαγή ή και διατάραξη των κοινωνικών, οικονομικών, πολιτικών ισορροπιών και σχέσεων και απαιτούσε νέες – δικαιικές και όχι μόνο – διευθετήσεις.

Εάν υπάρχει, ποια είναι όμως η ειδοποιός διαφορά της Τεχνητής Νοημοσύνης σε σχέση με προγενέστερα τεχνολογικά «κύματα»; Διεισδύοντας σε διάφορα πεδία της καθημερινότητας μπορεί να επηρεάσει διάφορες σημαντικές ή και κρίσιμες πτυχές της ανθρώπινης ύπαρξης: από την έγκριση (ή την άρνηση) ενός δανείου βάσει της κατάρτισης προφίλ και της αξιολόγησης πιστοληπτικής ικανότητας, τη λήψη ή την απόρριψη ενός επιδόματος από τη Διοίκηση, την εύρεση εργασίας ή την αξιολόγηση του εργαζομένου έως τη διάγνωση μιας ασθένειας ή και τον σχεδιασμό του θεραπευτικού πρωτοκόλλου. Αυτό που φαίνεται να διαφοροποιεί την ΤΝ σε σχέση με άλλα υπολογιστικά συστήματα είναι η υπόσχεση ή η προοπτική, η προσδοκία ή ο φόβος ότι αυτά τα συστήματα δεν θα υποστηρίζουν μόνο αλλά θα κατευθύνουν ή και θα υποκαθιστούν την ανθρώπινη απόφαση και πράξη.

Oι πιθανές αρνητικές επιπτώσεις επιτείνονται εξαιτίας της ασυμμετρίας γνώσης και ισχύος μεταξύ αυτών που αναπτύσσουν αλγοριθμικά συστήματα και όσων υφίστανται τα αποτελέσματά τους

Αν αρκετοί επισημαίνουν την «αντικειμενικότητα», τον «απρόσωπο χαρακτήρα» ή και την «πληρότητα» της αλγοριθμικής επεξεργασίας και κρίσης, δεν είναι λίγοι αυτοί που αντιτάσσουν την πολυπλοκότητα, την αυτονομία/αυτονόμηση στη λειτουργία και την «εκμάθηση» των συστημάτων ΤΝ και τον – συχνά – αδιαφανή και μη προβλέψιμο χαρακτήρα των αποτελεσμάτων που αυτά παράγουν. Η διαιώνιση και (ανα)παραγωγή τόσο παρελθοντικών αξιολογήσεων και μεροληπτικών αντιλήψεων που εμπεριέχονται στα σύνολα δεδομένων που χρησιμοποιούνται στο πλαίσιο της μηχανικής μάθησης όσο και των προκαταλήψεων που – ενδεχομένως –
έχουν οι σχεδιαστές των συστημάτων εντείνει τις επιφυλάξεις ως προς το εάν αυτά είναι συμβιβάσιμα με τις απαιτήσεις του δικαίου για την προστασία των δικαιωμάτων αλλά και της ίσης και δίκαιης μεταχείρισης των προσώπων.

Είναι, συνεπώς, εύλογο, όταν μιλάμε για την Τεχνητή Νοημοσύνη, να αναφερόμαστε συχνά στα «ηθικά και νομικά ζητήματα» που χρήζουν κατανόησης, αξιολόγησης και αντιμετώπισης. Αρκεί η επίκληση της «καινοτομίας» ή η επιδίωξη της αποτελεσματικότητας για να «δικαιώσει» τον σχεδιασμό και τη χρήση συστημάτων ΤΝ; Ποιοι είναι οι όροι της χρήσης τους και – κυρίως – ποια τα όρια αυτής; Δεν είναι αμελητέος ο αριθμός όσων υποστηρίζουν ότι η θέση κανόνων και ορίων δημιουργεί προσκόμματα στην καινοτομία και επηρεάζει δραστικά τη θέση των χωρών στον διεθνή τεχνολογικό, οικονομικό και γεωπολιτικό ανταγωνισμό. Από την άλλη, η απάντηση είναι – μάλλον – προφανής: ακριβώς όπως δεν επιτρέπεται να κυκλοφορούν οχήματα χωρίς φρένα και τίθενται όρια ταχύτητας, ανεξάρτητα από τις τεχνικές δυνατότητες των αυτοκινήτων, εξίσου αυτονόητα πρέπει να οριοθετηθούν οι χρήσεις της ΤΝ, ανάλογα με τις επιπτώσεις τους στα δικαιώματα, την κοινωνία και τη δημοκρατία.

Ποιος αναμένεται ή καλείται να θέσει τα όρια και ποιος να ελέγχει την τήρησή τους; Πολλοί εστιάζουν στην ανάγκη ύπαρξης κανόνων και δεσμεύσεων ηθικής. Tόσο στην Ευρωπαϊκή Ένωση όσο και σε διεθνές επίπεδο διατυπώθηκαν κατ’ αρχάς ηθικές και δεοντολογικές αρχές, όπως η διαφάνεια, η δικαιοσύνη, η απαγόρευση διακρίσεων. Οι αρχές αυτές είναι συνήθως διατυπωμένες με γενικό και αφηρημένο τρόπο και είναι αμφίβολο εάν μπορούν να συναχθούν ακριβέστερες κατευθύνσεις ως προς το πώς πρέπει να σχεδιάζεται ή να χρησιμοποιείται ένα σύστημα ΤΝ, ώστε να τηρούνται οι αρχές αυτές. Επίσης, η «ηθική ρύθμιση» ή η «ηθική δέσμευση» δεν διαθέτει, από τη φύση της, τα εργαλεία ελέγχου της εφαρμογής της και επίσης στερείται μιας πολύ βασικής προϋπόθεσης: της δημοκρατικής νομιμοποίησης που χαρακτηρίζει τη νομοθετική ρύθμιση.

Η Ευρωπαϊκή Ένωση ακολούθησε τον δρόμο της κανονιστικής παρέμβασης, εισάγοντας την Πράξη για την Τεχνητή Νοημοσύνη (AI Act). Βασικός γνώμονας υπήρξε η «προσέγγιση με βάση τον κίνδυνο» που συνεπάγεται η χρήση συστημάτων ΤΝ για την υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, τη δημοκρατία, το κράτος δικαίου και το περιβάλλον και η συνακόλουθη επιβολή υποχρεώσεων με βάση την κατάταξη των συστημάτων σε επίπεδα κινδύνου. Αυτά κλιμακώνονται από τον «ελάχιστο κίνδυνο διαφάνειας» (π.χ. χρήση διαλογικών ρομπότ) έως τον «μη αποδεκτό κίνδυνο» (π.χ. κοινωνική βαθμολόγηση για δημόσιους και ιδιωτικούς σκοπούς ή «αναγνώριση συναισθημάτων στον χώρο εργασίας») με ενδιάμεσες κατηγορίες τον «ελάχιστο κίνδυνο» και τον «υψηλό κίνδυνο» (π.χ. συστήματα ιατροφαρμακευτικής περίθαλψης, απονομής δικαιοσύνης, επιβολής του νόμου, εκπαίδευσης, απασχόλησης και διαχείρισης εργαζομένων).

Είναι επαρκής η ρύθμιση αυτή και – ακόμη περισσότερο – είναι «ανθεκτική» στην ταχύτητα της εξέλιξης, όταν μάλιστα θα τεθεί σε εφαρμογή σε δύο χρόνια; Ηδη η εκθετικά διαδιδόμενη χρήση μοντέλων και εφαρμογών όπως το ChatGPT, το Bing ή το Βard οδήγησε τον ευρωπαίο νομοθέτη να ρυθμίσει και τα «μοντέλα ΤΝ γενικού σκοπού», συμπεριλαμβάνοντας τα μεγάλα μοντέλα παραγωγικής ΤΝ (μοντέλα που παράγουν κείμενα, εικόνες, ήχους κ.λπ.). Η χρήση των μοντέλων αυτών εγείρει πολλά θεσμικά και νομικά θέματα: η έλλειψη διαφάνειας και ενημέρωσης των προσώπων, η χρήση προσωπικών δεδομένων χωρίς νόμιμη βάση (όπως η συγκατάθεση) είναι ορισμένα από τα ζητήματα που αφορούν την προστασία της πληροφοριακής ιδιωτικότητας έναντι των χρήσεων παραγωγικής ΤΝ.

Μια κρίσιμη δίκη

Αν εγείρονται σοβαρές αμφιβολίες για την ύπαρξη «εννόμου συμφέροντος» ως προς τη χρήση προσωπικών δεδομένων για την εκπαίδευση αλγορίθμων και μεγάλων γλωσσικών μοντέλων, αντίστοιχα αμφίβολης νομιμότητας είναι η χρήση έργων που προστατεύονται από δικαιώματα διανοητικής ιδιοκτησίας. Η έκβαση της δικαστικής διαμάχης στις ΗΠΑ («New York Times» v. OpenAI & Microsoft) θα δώσει μια πρώτη «απάντηση» στο αν η – χωρίς άδεια – εξόρυξη κειμένων και δεδομένων για εκπαίδευση γλωσσικών μοντέλων, όπως το ChatGPT, δεν παραβιάζει δικαιώματα αλλά εμπίπτει στην εξαίρεση της «δίκαιης χρήσης».

Οι υποστηρικτές επισημαίνουν την «αντικειμενικότητα», τον «απρόσωπο χαρακτήρα» ή και την «πληρότητα» της αλγοριθμικής επεξεργασίας και κρίσης

Αν η αξιοποίηση δεδομένων ή έργων για ερευνητικούς σκοπούς είναι κατανοητή, ισχύει αυτονόητα το ίδιο, όταν η χρήση προσωπικών δεδομένων ή προστατευόμενων έργων αποσκοπεί σε ή αποφέρει οικονομικό όφελος; Διατυπώνεται η άποψη ότι η παραγωγική ΤΝ είναι ένα δεύτερο, μετά το Διαδίκτυο, κύμα «εκδημοκρατισμού» της πρόσβασης στην πληροφορία και της διάδοσης της γνώσης. Χωρίς αμφιβολία, διευρύνει καταρχήν τις δυνατότητες που παρέχονται στον μέσο χρήστη. Ωστόσο η – κατά το δημοσίευμα της «Washington Post» – αύξηση κατά 1.000% (και πλέον) των ιστοσελίδων που φιλοξενούν fake news κατά τους τελευταίους 7-8 μήνες καταδεικνύει τη σχέση της παραγωγικής ΤΝ με τον κίνδυνο διόγκωσης της παραπληροφόρησης και των πιθανών συνεπειών για τους θεσμούς και τη δημοκρατία.

Πέραν των επιπτώσεων στην πληροφόρηση, η χρήση τέτοιων συστημάτων (από την αυτόματη συμπλήρωση λέξεων μέχρι τη συγγραφή «δοκιμίων» με τη βοήθεια της ΤΝ) ενέχει τον κίνδυνο της επιρροής του τρόπου που σκεφτόμαστε και εκφραζόμαστε, «ομογενοποιεί» το προϊόν της σκέψης και του λόγου και κατ’ αποτέλεσμα έχει επιπτώσεις στην κουλτούρα, την επιστήμη και την πολιτική. Oι πιθανές αρνητικές επιπτώσεις επιτείνονται εξαιτίας της μεγάλης ασυμμετρίας γνώσης και ισχύος μεταξύ αυτών που αναπτύσσουν και εφαρμόζουν αλγοριθμικά συστήματα και των χρηστών ή όσων υφίστανται τα αποτελέσματά τους. Όσο πιο ισχυρά καθίστανται αυτά τα συστήματα τόσο περισσότερο εμπεδώνονται στη ζωή μας και τόσο πιο επιτακτικό είναι να προσέχουμε ποιες αξίες, αρχές και προτεραιότητες εντάσσουμε και επενδύουμε σε αυτά.

Η κυρία Λίλιαν Μήτρου είναι Καθηγήτρια του Τμήματος Μηχανικών Πληροφοριακών και Επικοινωνιακών Συστημάτων του Πανεπιστημίου Αιγαίου