Καθώς τα κράτη ενσωματώνουν τεχνητή νοημοσύνη σε κρίσιμες λειτουργίες της δημόσιας διοίκησης –από την αστυνόμευση έως τη φορολογία και την κοινωνική πρόνοια– αναδεικνύεται ένας ολοένα εντονότερος κίνδυνος: η μεροληψία να παγιωθεί θεσμικά μέσα από αδιαφανείς αλγοριθμικούς μηχανισμούς. Το ζήτημα δεν είναι τεχνικό, αλλά βαθιά νομικό και θεσμικό. Όπως προειδοποίησε το Γραφείο του Ύπατου Αρμοστή του ΟΗΕ για τα Ανθρώπινα Δικαιώματα σε έκθεσή του το 2024, «η μεροληψία από το παρελθόν οδηγεί σε μεροληψία στο μέλλον», ιδίως στα συστήματα προβλεπτικής αστυνόμευσης που εκπαιδεύονται σε δεδομένα με ιστορικά μοτίβα υπερ-αστυνόμευσης.

Η περίπτωση της Ολλανδίας ανέδειξε με τραγικό τρόπο τις συνέπειες της ανεπαρκούς εποπτείας. Το αλγοριθμικό σύστημα παιδικής προστασίας, το οποίο εντόπιζε δυσανάλογα οικογένειες μειονοτικής καταγωγής για κρατικό έλεγχο, οδήγησε σε μια από τις σοβαρότερες διοικητικές κρίσεις στην Ευρώπη την τελευταία δεκαετία. Παράλληλα, το σύστημα SyRI, που χρησιμοποιήθηκε για την καταπολέμηση της απάτης, κρίθηκε από ολλανδικό δικαστήριο ότι παραβίαζε την αρχή της μη διάκρισης, καθώς στοχοποιούσε συστηματικά κατοίκους περιοχών χαμηλού εισοδήματος. Τα περιστατικά αυτά υπενθυμίζουν πως όταν το κράτος υιοθετεί τεχνολογίες χωρίς επαρκείς δικλίδες ασφαλείας, η αδικία μπορεί να κλιμακωθεί με ταχύτητα και κλίμακα που δεν έχουν ιστορικό προηγούμενο. Το ίδιο μοτίβο εμφανίζεται διεθνώς. Η Ειδική Εισηγήτρια του ΟΗΕ για τις σύγχρονες μορφές ρατσισμού, στην έκθεσή της το 2024, ανέδειξε ότι οι αλγόριθμοι ενισχύουν παγιωμένες ανισότητες, αναπαράγοντας τις στρεβλώσεις των δεδομένων με τα οποία εκπαιδεύονται.

Στις ΗΠΑ, η NAACP προειδοποίησε ότι η προβλεπτική αστυνόμευση όχι μόνο δεν μειώνει την εγκληματικότητα, αλλά επιδεινώνει τις φυλετικές διακρίσεις. Δεν είναι τυχαίο ότι μέλη της Γερουσίας ζήτησαν το 2024 την αναστολή της ομοσπονδιακής χρηματοδότησης τέτοιων προγραμμάτων μέχρι να υπάρξουν ουσιαστικές εγγυήσεις προστασίας πολιτικών δικαιωμάτων. Την ίδια εικόνα επιβεβαιώνει και η ακαδημαϊκή έρευνα: μελέτη στο AI and Ethics τεκμηριώνει ότι η ίδια η κατανομή της αστυνομικής παρουσίας λειτουργεί ως «πηγή αλγοριθμικών διακρίσεων», οδηγώντας σε φαύλο κύκλο υπερ-στοχοποίησης συγκεκριμένων κοινοτήτων. Το ζήτημα αφορά άμεσα τις διεθνείς νομικές υποχρεώσεις των κρατών. Το Διεθνές Σύμφωνο για τα Ατομικά και Πολιτικά Δικαιώματα κατοχυρώνει την ισότητα και τη μη διάκριση, καθώς και το δικαίωμα σε αποτελεσματική προσφυγή. Η αδιαφάνεια πολλών αλγοριθμικών συστημάτων –ιδίως όταν προστατεύονται ως εμπορικό απόρρητο– αμφισβητεί την ουσία του κράτους δικαίου.

Η πρόσφατη απόφαση Elsbury στο Ηνωμένο Βασίλειο το 2025 καθιστά σαφές ότι οι φορολογικές αρχές υποχρεούνται να γνωστοποιούν τη χρήση τεχνητής νοημοσύνης, ώστε ο πολίτης να μπορεί να ελέγξει τη νομιμότητα των διοικητικών ενεργειών που τον αφορούν. Το Συμβούλιο της Ευρώπης έχει επισημάνει επανειλημμένα τον κίνδυνο «κωδικοποίησης» της μεροληψίας μέσα σε αδιαφανείς τεχνικούς μηχανισμούς, γεγονός που καθιστά δυσκολότερο τον εντοπισμό και την προσβολή των διακρίσεων. Μελέτη του 2024 υπογραμμίζει ότι η άνιση μεταχείριση μπορεί να «λογισμικοποιηθεί» όχι μόνο μέσω κακής χρήσης των δεδομένων, αλλά και μέσα από σχεδιαστικές επιλογές που δεν υπόκεινται σε επαρκή δημόσιο έλεγχο. Αυτό το θεσμικό έλλειμμα διαφάνειας υπονομεύει τη δυνατότητα των πολιτών να αμφισβητήσουν διοικητικές αποφάσεις που βασίζονται σε αλγοριθμικά «μαύρα κουτιά». Σε ευρωπαϊκό επίπεδο, ο νέος κανονισμός για την τεχνητή νοημοσύνη αποτελεί σημαντικό βήμα προς μια συνεκτική ρυθμιστική προσέγγιση. Επιβάλλει αυστηρές υποχρεώσεις διαφάνειας, αξιολόγησης κινδύνων και ανθρώπινης εποπτείας για συστήματα υψηλού κινδύνου που χρησιμοποιούνται στην επιβολή του νόμου και σε κρίσιμες δημόσιες υπηρεσίες. Ωστόσο, η αποτελεσματικότητα του πλαισίου αυτού θα εξαρτηθεί από το κατά πόσον τα κράτη-μέλη θα εφαρμόσουν στην πράξη τις προβλεπόμενες διαδικαστικές εγγυήσεις και αξιολογήσεις επιπτώσεων στα ανθρώπινα δικαιώματα – τις οποίες έχει ήδη ζητήσει το Συμβούλιο Ανθρωπίνων Δικαιωμάτων του ΟΗΕ.

Η πρόκληση, επομένως, δεν είναι η τεχνητή νοημοσύνη αυτή καθαυτή, αλλά η θεσμική της ενσωμάτωση χωρίς τις αναγκαίες δικλίδες λογοδοσίας. Όπως δείχνει και η πρόσφατη μελέτη των Hadjimatheou και Kritikos για τη χρήση ΤΝ στη φορολογική διοίκηση, τα υφιστάμενα νομικά πλαίσια παραμένουν ανεπαρκώς προσαρμοσμένα στις απαιτήσεις μιας εποχής όπου οι διοικητικές αποφάσεις λαμβάνονται ολοένα περισσότερο με αυτοματοποιημένα μέσα. Η τεχνητή νοημοσύνη μπορεί πράγματι να ενισχύσει την αποτελεσματικότητα της διοίκησης. Αλλά χωρίς πλήρη διαφάνεια, σαφή κατανομή ευθύνης και πραγματικές δυνατότητες θεραπείας, κινδυνεύει να λειτουργήσει ως μηχανισμός θεσμοποιημένης αδικίας.

Το παράδειγμα της Ολλανδίας αποτελεί προειδοποίηση: η τεχνολογία χωρίς δημοκρατικές εγγυήσεις δεν εκ- συγχρονίζει το κράτος· το καθιστά λιγότερο δίκαιο. Τώρα είναι η στιγμή τα κράτη να διασφαλίσουν ότι οι αλγόριθμοι υπηρετούν το δημόσιο συμφέρον και τα ανθρώπινα δικαιώματα – όχι να τα υπονομεύουν.

*Η Μαρία Ντανιέλλα Μαρούδα είναι αναπληρώτρια καθηγήτρια Διεθνούς Δικαίου, ΔΕΣ στο Πάντειο Πανεπιστήμιο