Η Τεχνητή Νοημοσύνη (ΤΝ) διεισδύει σε κάθε πτυχή της ζωής. Αναπτυσσόμενα και διαδιδόμενα με ραγδαίους ρυθμούς, τα συστήματα ΤΝ υποστηρίζουν, κατευθύνουν ή υποκαθιστούν την ανθρώπινη απόφαση σε κρίσιμες διαστάσεις της ύπαρξής μας, από τη διάγνωση μιας σοβαρής ασθένειας και τον σχεδιασμό του θεραπευτικού πρωτοκόλλου έως τους όρους λήψης (ή μη λήψης) ενός δανείου ή την πρόσκληση σε συνέντευξη για θέση εργασίας.

Η εξέλιξη αυτή, που – όπως καταδεικνύει η ραγδαία ανάπτυξη του ChatGPT – φαίνεται να είναι ταχύτερη από ό,τι οι ειδικοί είχαν προδιαγνώσει, έχει εκτενείς και σημαντικές επιπτώσεις. Ο παροξυσμός αισιοδοξίας για την ΤΝ συνοδεύεται από έντονους προβληματισμούς για τους όρους, τα όρια και τις επιπτώσεις της ανάθεσης ανθρώπινων δραστηριοτήτων σε τέτοια συστήματα.

Ενα σύστημα αξιολόγησης προσώπων (εργαζομένων, υποψηφίων δανειοληπτών κ.ά.) που βασίζεται σε αλγοριθμικό profiling είναι περισσότερο αξιόπιστο και αντικειμενικό από τον άνθρωπο; Ενας ψηφιακός δικαστής είναι περισσότερο αποτελεσματικός και «αδέκαστος» και εν τέλει πιο δίκαιος;

Εμπιστευόμαστε τον αλγόριθμο να διορθώσει τις πεπερασμένες ανθρώπινες ιδιότητες και ατέλειες, να αξιολογήσει τις αιτήσεις για κοινωνικά επιδόματα ή τη φορολογική δήλωση; Μας καθησυχάζει η «αντικειμενικότητα» ή μας ανησυχεί η «έλλειψη ενσυναίσθησης» και διακριτικής ικανότητας που – ακόμη – χαρακτηρίζει τέτοια συστήματα;

Κάθε τεχνολογία έχει υπάρξει πηγή αλλαγών αλλά και αβεβαιοτήτων και κινδύνων. Ωστόσο τα συστήματα ΤΝ χαρακτηρίζονται από πολυπλοκότητα, σχέση αλληλεπίδρασης με το περιβάλλον και αυτονομία στη λειτουργία και στην εκμάθηση. Ο αδιαφανής, μη προβλέψιμος, συχνά μεροληπτικός, σύνθετος και ταχύτατα μεταβαλλόμενος χαρακτήρας των συστημάτων αυτών δεν είναι συμβιβάσιμος με τις απαιτήσεις για ασφάλεια δικαίου, διαφάνεια, εξηγησιμότητα, προστασία της ιδιωτικότητας, ίση και δίκαιη μεταχείριση.

Η χρήση ΤΝ μπορεί να ενισχύσει ή να οδηγήσει σε προκαταλήψεις και κοινωνικές διακρίσεις, παραβιάσεις της ιδιωτικότητας αλλά και άλλων δικαιωμάτων, όπως η πνευματική ιδιοκτησία. Διόλου αδικαιολόγητα πολλοί επισημαίνουν τον κίνδυνο διεύρυνσης του γνωστικού, οικονομικού και κοινωνικού χάσματος αλλά και τα σοβαρά προβλήματα κυβερνοασφάλειας και ασύμμετρων απειλών για τη διοίκηση, την οικονομία αλλά και τη δημοκρατία, λόγω της δυνατότητας στοχευμένης παραπληροφόρησης και χειραγώγησης επιλογών σε διάφορα επίπεδα, από αυτό του καταναλωτή έως αυτό του πολίτη.

Ο νομοθέτης δεν παράγει τεχνολογία. Παραμένει όμως υπεύθυνος για την ένταξη των νέων τεχνολογιών στην κοινωνία και τη διαχείριση της σύνθετης έντασης μεταξύ πλεονεκτημάτων και των κινδύνων που συνδέονται με αυτές. Η παρέμβαση και η έκτασή της δεν είναι αναντίρρητα αποδεκτές. Επαναλαμβάνοντας τη στάση (και τα λάθη) ως προς τη μη επέμβαση στην εξέλιξη του Διαδικτύου, αρκετές κυβερνήσεις θεωρούν ότι οι νομοθετικές παρεμβάσεις πρέπει να είναι περιορισμένες για να μη λειτουργήσουν αναδραστικά στην καινοτομία και την πρόοδο. Στην επιδίωξη της ευμάρειας δεν νοείται, ωστόσο, να αγνοούνται οι επιβλαβείς κοινωνικές επιπτώσεις, τα διακυβεύματα για τα δικαιώματα, οι απαιτήσεις του κράτους δικαίου και της κοινωνικής συνοχής.

Eίμαστε όμως σε θέση να κατανοήσουμε και να ελέγξουμε την Τεχνητή Νοημοσύνη ή μας αποθαρρύνει ήδη το ενδεχόμενο της (αναπόδραστης;) αυτονόμησης της; Η ΤΝ είναι ένας «κινούμενος στόχος» που δεν συνδυάζεται εύκολα με το – συνήθως – αργό και αντι-δραστικό μοντέλο και πλαίσιο της νομοθετικής παρέμβασης και των επιπλοκών στην εφαρμογή. Εχουμε γνώση και επίγνωση των προβλημάτων και, πολύ περισσότερο, βεβαιότητα για την ενδεδειγμένη αντιμετώπιση;

Ο Κόλινγκριτζ, ήδη προ τεσσαρακονταετίας, προειδοποιούσε πως, αν κανείς παραλείπει να ρυθμίσει εγκαίρως ένα τεχνολογικό φαινόμενο λόγω ανεπαρκούς πληροφορίας και αξιολόγησης συνεπειών, η καθυστερημένη απόπειρα ελέγχου είναι δραστική και συναντά πολλαπλές και ισχυρές αντιδράσεις.

Η ανθρώπινη εποπτεία επί των αλγορίθμων μοιάζει με τετραγωνισμό του κύκλου, καθώς ακόμη και οι σχεδιαστές τους δεν είναι σε θέση να αποκαταστήσουν τη ροή των επεξεργασιών και συσχετισμών που παράγουν τα «στοιχεία εξόδου». Η ΤΝ προσομοιάζεται με μία ανεξέλεγκτη δύναμη που θέτει σε κίνδυνο την ανθρωπότητα και διατυπώνονται επιχειρήματα υπέρ της ανάσχεσης ή αναστολής της ανάπτυξής της.

Ωστόσο, δικαιολογημένοι ή υπερβολικοί, οι φόβοι ότι η ΤΝ μπορεί να πυροδοτήσει ένα μετα-ανθρώπινο μέλλον (post-human future) κινδυνεύουν να μεταθέσουν τη συζήτηση σε ένα γενικό επίπεδο, αγνοώντας τα τρέχοντα ζητήματα και τις επιτακτικές ανάγκες ρυθμιστικής επέμβασης.

Ανάγκες διακρατικής εμβέλειας ρυθμίσεων που φαίνεται να γίνονται πλέον αντιληπτές και αποδεκτές: Η ΕΕ επιχειρεί με την Πράξη για την Τεχνητή Νοημοσύνη μια σταθμισμένη προσέγγιση «με βάση τον κίνδυνο» που εκτείνεται από την απαγόρευση ορισμένων χρήσεων έως την επιβολή απαιτήσεων αξιολόγησης κινδύνων και συμμόρφωσης για τα συστήματα υψηλού κινδύνου ή διαφάνειας για συστήματα περιορισμένου κινδύνου. Το Συμβούλιο της Ευρώπης συζητά την αντίστοιχη Σύμβαση, ο ΓΓ του ΟΗΕ ζητά την εισαγωγή ενός διεθνούς οργάνου με ρυθμιστικές και εποπτικές εξουσίες, στις ΗΠΑ πληθαίνουν οι φωνές υπέρ της υιοθέτησης ρυθμίσεων, ενώ οι G-7 συστήνουν το Ηiroshima AI Forum για να εναρμονίσουν τη διακυβέρνηση της ΤΝ.

Η Τεχνητή Νοημοσύνη δεν έχει «ηθική πυξίδα», δεν θα μπορούσε να έχει. Ο νομοθέτης όμως οφείλει να επιβάλει εργαλεία και μηχανισμούς έγκαιρης διάγνωσης και εκτίμησης των κινδύνων και του αντίκτυπου της χρήσης τέτοιων συστημάτων για τους πολίτες, την κοινωνία και τη δημοκρατία.

Η κυρία Λίλιαν Μήτρου είναι καθηγήτρια του Πανεπιστημίου Αιγαίου.