Είναι οι αλγόριθμοι προκατειλημμένοι;

Ενδέχεται να παράγουν λανθασμένα ή μη δίκαια αποτελέσματα; Η απάντηση είναι ξεκάθαρα καταφατική! Τα παραδείγμα- τα αμέτρητα: από τον αλγόριθμο της Google ο οποίος επί χρόνια στο λήμμα «γορίλες» έβγαζε τη φωτογραφία ενός ζευγαριού έγχρωμων ανθρώπων, τον αλγόριθμο της Applecard που πρότεινε μεγαλύτερo πιστωτικό όριο σε άνδρες, τον προγνωστικό αλγόριθμο COMPAS βάσει του οποίου η αμερικανική αστυνομία συστηματικά προφυλακίζει διπλάσιους έγχρωμους από λευκούς υπόπτους, τα παραδείγματα μπορούν να πολλαπλασιαστούν. Οι αλγόριθμοι αντί να είναι αντικειμενικοί και δίκαιοι, πολύ συχνά ενσωματώνουν –και ενισχύουν– ήδη υπάρχουσες προκαταλήψεις, ιδιαίτερα έναντι μη πλειοψηφικών ομάδων.

Αυτό συμβαίνει για μια σειρά από λόγους: κακός σχεδιασμός του αλγορίθμου, χρήση κριτηρίων τα οποία ενέχουν διακρίσεις, άμεσες (λ.χ. το φύλο, η εθνικότητα) ή έμμεσες (λ.χ. τόπος κατοικίας, σωματομετρικά κριτήρια)˙ εκπαίδευση στη βάση ιστορικών στατιστικών δεδομένων που ενσωματώνουν συγκεκριμένες κοινωνικές, φυλετικές κ.λπ. τάσεις˙ ή, ακόμα, η χρήση αλγορίθμου ως «μαύρου κουτιού» για τη συγκάλυψη μιας συνειδητά προκατειλημμένης επιλογής.

Και αντιστρόφως, ενώ πολλοί αλγόριθμοι μπορεί να έχουν σχεδιαστεί και παραμετροποιηθεί με απόλυτα ουδέτερο τρόπο, μέσα από τη διαδικασία αυτο-εκμάθησης ενδέχεται να καταλήξουν σε ανεπιθύμητα αποτελέσματα. Οι προκαταλήψεις και η λήψη άδικων αποφάσεων είναι χαρακτηριστικό των ανθρώπων, και υπήρχαν πάντα. Ομως η χρήση αλγορίθμων καθιστά το πρόβλημα πολύ πιο επιτακτικό για πέντε, τουλάχιστον, λόγους: η ταχύτητα και η μαζικότητα με την οποία οι αλγόριθμοι λαμβάνουν αποφάσεις, ζημιώνοντας έτσι μαζικά κατηγορίες ανθρώπων˙ οι αποφάσεις δεν αιτιολογούνται (black box) και άρα δεν ελέγχονται ευχερώς ούτε ιεραρχικά ούτε δικαστικά˙ ακόμη και όπου προβλέπεται ανθρώπινος έλεγχος, πολύ σπάνια αυτός θα ανατρέψει τα αποτελέσματα του αλγορίθμου (automation bias)˙ δεν είναι σαφές ποιος ευθύνεται για τα μη μεροληπτικά αποτελέσματα: ο δημιουργός που γράφει τον κώδικα, ο εκπαιδευτής που «ταΐζει» τις πληροφορίες, ο χρήστης ή ο ίδιος ο αλγόριθμος˙ και τέλος, ακόμη και ο ίδιος ο δημιουργός του αλγορίθμου συχνά δεν ξέρει τι πήγε λάθος και πώς να το διορθώσει. Είναι προφανές ότι η ανεξέλεγκτη χρήση αλγορίθμων βασισμένων σε ΤΝ, αναλόγως του πεδίου χρήσης τους, ενδέχεται να διακυβεύσει περίπου όλα τα θεμελιώδη δικαιώματα που προστατεύονται στις ευνομούμενες πολιτείες.

Αν χρησιμοποιήσουμε ως οδηγό την ΕΣΔΑ, τίθενται σε διακινδύνευση: η ανθρώπινη αξιοπρέπεια (άρθρο 3), η δίκαιη δίκη (άρθρο 6), η ιδιωτικότητα (άρθρο 8), η ελεύθερη έκφραση και πληροφόρηση (άρθρο 10), η αποτελεσματική προσφυγή (άρθρο 13), η απαγόρευση των διακρίσεων (άρθρο 14) – δηλαδή σχεδόν όλες οι ουσιαστικές διατάξεις της Σύμβασης! Χωρίς να ξεχνάμε την ισότιμη πρόσβαση στη δημόσια υπηρεσία και την προστασία από ψευδείς και εσφαλμένες πληροφορίες (misinformation / disinformation), αξίες επίσης θεμελιώδους σημασίας. Ενόψει αυτών των διακυβευμάτων και του γεγονότος ότι η ανάπτυξη της ΤΝ τα τελευταία χρόνια έχει επιταχυνθεί γεωμετρικά, η ΕΕ υιοθέτησε τον Νόμο για την τεχνητή νοημοσύνη (NTN, Κανονισμός (ΕΕ) 2024/1689).

Ο Κανονισμός αυτός συνιστά υπόδειγμα νομοθεσίας βασισμένο σε τεχνικές διαχείρισης ρίσκου, καθώς διακρίνει τις εφαρμογές ΤΝ σε τέσσερις κατηγορίες. Πρώτον, απαριθμεί ιδιαίτερα επικίνδυνες εφαρμογές οι οποίες απαγορεύονται στην ΕΕ: χειριστικά, παραπλανητικά ή υποβολιμαία συστήματα, συστήματα που εκμεταλλεύονται την αδυναμία του χρήστη, συστήματα κοινωνικής αξιολόγησης, αναγνώριση προσώπου σε πραγματικό χρόνο και κατηγοριοποίηση προσώπων στη βάση βιομετρικών στοιχείων κ.ά. Δεύτερη κατηγορία συνιστούν τα συστήματα «υψηλού κινδύνου», σε τομείς όπως: βιομετρικά στοιχεία, βασικές υποδομές, εκπαίδευση και κατάρτιση, απασχόληση και διαχείριση εργαζομένων, πρόσβαση σε ιδιωτικές και δημόσιες υπηρεσίες, επιβολή του νόμου, διαχείριση της μετανάστευσης και συνόρων, απονομή δικαιοσύνης και δημοκρατικές διαδικασίες.

Οι φορείς που δημιουργούν τέτοια συστήματα θα πρέπει να τηρούν μια σειρά από διαδικασίες και εχέγγυα, να καταγράφουν τα συστήματα αυτά σε κεντρικό ευρωπαϊκό μητρώο και να τα πιστοποιούν. Αλλά και κατά τη διάρκεια ζωής τους, θα πρέπει οι δημιουργοί να εποπτεύουν και να επαναξιολογούν τα αποτελέσματα των συστημάτων τους, ώστε να αποφεύγονται ανεπιθύμητες εκτροπές. Με τη σειρά τους, και οι χρήστες των εφαρμογών ΤΝ θα πρέπει να λάβουν μια σειρά από μέτρα, όπως να ενημερώνουν τα άτομα τα οποία ενδέχεται να επηρεαστούν από τις εφαρμογές ΤΝ, να εξασφαλίζουν ανθρώπινη εποπτεία κτλ. Οι δύο άλλες κατηγορίες, περιορισμένου και πολύ μικρού κινδύνου, υπάγονται κυρίως σε υποχρεώσεις διαφάνειας και συμμόρφωσης με κώδικες συμπεριφοράς. Ο ΝΤΝ είναι τεχνολογικά ουδέτερος, καθώς επικεντρώνεται στους τομείς εφαρμογής ή/και στις απαγορευμένες πρακτικές ΤΝ, χωρίς αναφορά στην εκάστοτε χρησιμοποιούμενη τεχνολογία. Εφαρμόζεται εξωεδαφικά, σε όλους τους παρόχους συστημάτων ΤΝ που επιθυμούν πρόσβαση στην αγορά της ΕΕ, η οποία αριθμεί 450 εκατομμύρια ευκατάστατους χρήστες.

Επιδιώκει να εργαλειοποιήσει το βασικό όπλο ήπιας ισχύος της ΕΕ, δηλαδή την εσωτερική της αγορά, προκειμένου να δημιουργήσει ένα κανονιστικό πλαίσιο –ή τουλάχιστον πρότυπο– ρύθμισης της ΤΝ σε παγκόσμιο επίπεδο. Παράλληλα, με πρωτοβουλία του Συμβουλίου της Ευρώπης –και με ενεργή συμμετοχή της ΕΕ– υπογράφηκε το 2024 η πρώτη Παγκόσμια Σύμβαση-Πλαίσιο για την ΤΝ και τα Θεμελιώδη Δικαιώματα, η οποία μένει να τεθεί σε ισχύ. Στη σύμβαση αυτή μετέχουν και οι ΗΠΑ, οπότε ενδεχόμενη επικύρωση από μέρους τους θα λειάνει πολλές από τις τρέχουσες διαφορές μεταξύ ΗΠΑ και ΕΕ. Μέχρι τότε, δυστυχώς, φαίνεται πως η ΕΕ είναι έτοιμη να κάνει υποχωρήσεις, καθώς με τον Κανονισμό-Πλαίσιο (omnibus regulation) που πρότεινε η Επιτροπή στα τέλη Νοεμβρίου 2025 προτείνεται η μετάθεση της θέσης σε ισχύ του ΝΤΝ σε μεταγενέστερη χρονική στιγμή, η οποία θα προσδιοριστεί αργότερα από την Επιτροπή. Έπεται συνέχεια…

*Ο Βασίλης Χατζόπουλος είναι καθηγητής στο Πάντειο Πανεπιστήμιο, δ/ντής του MA DigiDCL, επισκέπτης καθηγητής στο HEC Paris και ad hoc δικαστής στο ΕΔΑΔ