Η μηχανική μάθηση είναι ένας από τους πιο ραγδαία αναπτυσσόμενους τομείς της τεχνολογίας, με τεράστιο αντίκτυπο στην καθημερινότητά μας. Από τις προτάσεις στο Netflix και τα φίλτρα ανεπιθύμητης αλληλογραφίας, μέχρι τις διαδικασίες επιλογής μετοχών και την έγκριση δανείων, οι αλγόριθμοι βρίσκονται πίσω από ολοένα και περισσότερες αποφάσεις. Ωστόσο, όσο αυξάνεται η διείσδυση των μοντέλων αυτών στην κοινωνία τόσο εντείνονται και οι ανησυχίες για τη δικαιοσύνη και την ηθική τους. Είναι ουδέτεροι οι αλγόριθμοι που μας επηρεάζουν; Ή απλώς αναπαράγουν και ενισχύουν τις προκαταλήψεις που ήδη υπάρχουν στα δεδομένα;
Στη βάση αυτή, με το βλέμμα προς το μέλλον, κρίνεται πλέον αναγκαία η μετάβαση από τη συμβατική μηχανική μάθηση (machine learning) στη δίκαιη μάθηση (fairness learning). Παρότι οι αλγόριθμοι εμφανίζονται ως «αντικειμενικοί», στην πράξη συχνά μεταφέρουν μεροληψίες που υπάρχουν στα ιστορικά δεδομένα με τα οποία εκπαιδεύονται.
Για παράδειγμα, αν τα δεδομένα δείχνουν ιστορικά ότι γυναίκες ή άτομα από μειονότητες είχαν λιγότερες επαγγελματικές ευκαιρίες, ένας αλγόριθμος πρόσληψης μπορεί να μάθει να τα «απορρίπτει» συστηματικά, χωρίς να το καταλαβαίνουμε. Ενα άλλο γνωστό παράδειγμα αποτελεί το σύστημα COMPAS στις ΗΠΑ, το οποίο χρησιμοποιήθηκε για την πρόβλεψη υποτροπής εγκληματιών. Οπως αποκάλυψε το ProPublica στο παρελθόν, το σύστημα αυτό είχε σημαντικές αποκλίσεις εις βάρος των μαύρων κρατουμένων, γεγονός που αποτέλεσε καμπανάκι κινδύνου για την ανάγκη ρύθμισης της «αλγοριθμικής αδικίας».
Ως απόρροια των παραπάνω, στην επιστημονική βιβλιογραφία, συχνά εξετάζονται «ευαίσθητα χαρακτηριστικά» όπως το φύλο, η εθνική προέλευση, η οικονομική κατάσταση ή η καταγωγή, που μπορεί να οδηγήσουν σε άδικες εκβάσεις αν δεν αντιμετωπιστούν με προσοχή. Πώς μπορούμε λοιπόν να κάνουμε τη μηχανική μάθηση πιο δίκαιη;
Η κοινότητα των ερευνητών έχει αναπτύξει διάφορες τεχνικές για την ενίσχυση της δικαιοσύνης στη μηχανική μάθηση, χωρίς να θυσιάζεται η ακρίβεια των προβλέψεων. Ενδεικτικά αναφέρονται οι αλγόριθμοι προ-επεξεργασίας (τροποποίηση των δεδομένων πριν από την εκπαίδευση, ώστε να περιοριστούν οι προκαταλήψεις) ή οι αλγόριθμοι μετεπεξεργασίας (διόρθωση των εξόδων του μοντέλου, έτσι ώστε να συμμορφώνονται με κριτήρια δικαιοσύνης).
Σε κάθε περίπτωση όμως, απαιτείται ένας συμβιβασμός: Δεν μπορούμε να έχουμε το τέλειο μοντέλο που είναι και προβλεπτικά ακριβές και απόλυτα δίκαιο. Στην κατεύθυνση αυτή οι συγγραφείς εισηγήθηκαν στην επιστημονική βιβλιογραφία κάτι διαφορετικό. Δεν τροποποιούμε τους αλγόριθμους, ούτε τα δεδομένα. Αντίθετα, προτείνουμε ένα πλαίσιο αξιολόγησης και επιλογής του καλύτερου μοντέλου, με βάση πολλαπλά κριτήρια, ήτοι ακρίβεια, δικαιοσύνη, χρόνος υπολογισμού κ.ά.
Απλούστερα, η μεθοδολογία αυτή μας επιτρέπει να αξιολογούμε διάφορα μοντέλα με βάση προκαθορισμένα κριτήρια και να βρίσκουμε εκείνο που ικανοποιεί καλύτερα τις ανάγκες μας συνολικά, και όχι μόνο σε όρους προβλεπτικής ικανότητας.
Στο πλαίσιο αυτό, με απώτερο σκοπούμενο την εύλογη επεξεργασία των δεδομένων, εισάγουμε στα μοντέλα μας καινοτόμα μαθηματικά μέτρα δικαιοσύνης, όπως η δημογραφική ισορροπία (demographic parity) ή έλλειψη διακριτικής μεταχείρισης (lack of disparate mistreatment).
Αναμφίβολα, η ταυτόχρονη χρήση πολλών κριτηρίων αλγοριθμικής δικαιοσύνης είναι απαραίτητη, καθώς δεν υπάρχει ακόμη διεθνής επιστημονική συναίνεση για το ποιο μέτρο δικαιοσύνης είναι το πιο κατάλληλο. Σε ένα περιβάλλον όπου οι αποφάσεις βασίζονται όλο και περισσότερο σε δεδομένα και αλγορίθμους, η ανάγκη για διαφάνεια, υπευθυνότητα και δικαιοσύνη είναι πιο επιτακτική από ποτέ.
Η προσέγγισή μας ενισχύει την υπεύθυνη χρήση της τεχνητής νοημοσύνης, δίνοντας σε επιχειρήσεις και οργανισμούς τα εργαλεία για να επιλέξουν πιο δίκαια. Γιατί τελικά, ο πιο «έξυπνος» αλγόριθμος δεν είναι αυτός που προβλέπει τα περισσότερα σωστά, αλλά αυτός που το κάνει δίκαια.
Ο κύριος Πάνος Ξυδώνας είναι καθηγητής στην ESSCA Grande École.
Ο κύριος Αριστείδης Σάμιτας είναι αντιπρύτανης του ΕΚΠΑ.
Ο κύριος Δημήτρης Θωμάκος είναι πρόεδρος του Τμήματος Διοίκησης Επιχειρήσεων του ΕΚΠΑ.