Σε μια εποχή όπου η τεχνητή νοημοσύνη διεισδύει σε κρίσιμους τομείς —από τις προσλήψεις και την υγειονομική περίθαλψη έως τις πλατφόρμες κοινωνικής δικτύωσης και τη λήψη αποφάσεων στον δημόσιο τομέα— εγείρονται σοβαρά ερωτήματα για τη λογοδοσία, τη διαφάνεια και τα ηθικά όρια στα συστήματα τεχνητής νοημοσύνης. Πώς λειτουργούν πραγματικά τα συστήματα τεχνητής νοημοσύνης; Ποιος αποφασίζει για την αρχιτεκτονική τους, και ποιος ελέγχει τα αποτελέσματα που παράγουν;
Η Τζοάννα Κάο πριν μερικές μέρες επισκέφθηκε τη Θεσσαλονίκη, στο περιθώριο του Reworks Agora 2025, όπου συζήτησε με την Κέλλυ Κική (Data Editor, iMEdD) για τη διαφάνεια και τη λογοδοσία της τεχνητής νοημοσύνης. Στο πλαίσιο της επίσκεψής της στην Ελλάδα, μίλησε στο ΒΗΜΑ για τα κρισιμότερα ζητήματα στον κλάδο της τεχνητής νοημοσύνης.
Σε συνέντευξή της, λοιπόν, στο ΒΗΜΑ, η Τζοάννα Κάο μιλά σε βάθος για τη σημασία της λογοδοσίας στην εποχή των αλγορίθμων, τη δύναμη των πολιτών να επηρεάσουν τη χρήση της τεχνητής νοημοσύνης και τον ρόλο της δημοσιογραφίας στην αποκάλυψη όσων συχνά παραμένουν αόρατα πίσω από το «μαύρο κουτί» των τεχνολογικών συστημάτων.
Η Τζοάννα Κάο είναι εξειδικευμένη σε ζητήματα τεχνητής νοημοσύνης, διαφάνειας, μεροληψίας και κοινωνικού αντίκτυπου, με μακρά εμπειρία σε έρευνες δεδομένων και διεθνή ρεπορτάζ σε αυτό το πεδίο.
Ένα από τα πιο κρίσιμα ερωτήματα είναι το αν και κατά πόσο γνωρίζουμε πως πραγματικά λειτουργούν οι αλγόριθμοι. Ο όρος «μαύρο κουτί» (black boxing) συχνά χρησιμοποιείται για να περιγραφεί το γεγονός πως μεγάλη μερίδα των χρηστών δεν γνωρίζει πολλές πληροφορίες για τον τρόπο λειτουργίας των συστημάτων τεχνητής νοημοσύνης.
Η λογοδοσία είναι τροχοπέδη στην ανάπτυξη των αλγορίθμων;
Μεγάλες εταιρείες τεχνολογίας υποστηρίζουν πως η μεγαλύτερη λογοδοσία και διαφάνεια προς το κοινό μπορεί να επιβραδύνει την ανάπτυξή τους. Μπορεί να βρεθεί κάποιου είδους ισορροπία μεταξύ διαφάνειας και αποτελεσματικότητας;
Δεν είμαι σίγουρη αν η λέξη «ισορροπία» είναι η σωστή λέξη, γιατί δεν πιστεύω ότι η διαφάνεια και η αποδοτικότητα είναι αναγκαστικά αντίθετες έννοιες. Δεν σημαίνει ότι όσο πιο διαφανής είσαι, τόσο λιγότερο αποδοτικός γίνεσαι — ή το αντίστροφο. Στην πραγματικότητα, η διαφάνεια μπορεί να βοηθήσει τις κυβερνήσεις να κινηθούν ταχύτερα. Όπως άλλωστε και το λογισμικό ανοικτού κώδικα: όταν περισσότεροι άνθρωποι μπορούν να δουν και να καταλάβουν πως λειτουργεί κάτι, μπορούν να συνδράμουν στην βελτίωσή του.
Το σημείο κλειδί είναι να κατασκευάζονται διαφανή συστήματα τεχνητής νοημοσύνης από την αρχή.
«Στην πραγματικότητα, η διαφάνεια μπορεί να βοηθήσει τις κυβερνήσεις να κινηθούν ταχύτερα»
Αυτό σημαίνει στην πράξη την θέσπιση διαδικασιών με σκοπό τη δημοσιοποίηση δεδομένων που χρησιμοποιούνται σε ένα μοντέλο τεχνητής νοημοσύνης και πληροφοριών για τον τρόπο που αυτό εκπαιδεύεται. Όταν αυτό αποτελεί μέρος της διαδικασίας δημιουργίας μοντέλων από την αρχή, δεν είναι πρόσθετη εργασία – είναι απλώς μέρος του τρόπου που μπορούν τα συστήματα τεχνητής νοημοσύνης να κατασκευάζονται υπεύθυνα και αποτελεσματικά.
Πως μπορεί να ενισχυθεί η εμπιστοσύνη των πολιτών στην ενσωμάτωση της τεχνητής νοημοσύνης σε διαδικασίες του δημοσίου τομέα;
Υπάρχουν διάφοροι τρόποι που μπορεί να ενισχυθεί η εμπιστοσύνη των πολιτών. Η νομοθεσία που σχετίζεται με την πρόσβαση σε δημόσια έγγραφα είναι πολύ σημαντική. Η πρόσβαση είτε απλών πολιτών ή δημοσιογράφων σε πληροφορίες για το πώς δημιουργήθηκε ένα μοντέλο τεχνητής νοημοσύνης, δηλαδή πως αναπτύχθηκε, ποιοι το σχεδίασαν, ποια συμφέροντα εμπλέκονται, βοηθά σημαντικά στο να αποφεύγονται υποθετικά σενάρια και να ενισχύεται η λογοδοσία.
«Είναι πολύ σημαντικό οι πολίτες-χρήστες να ξέρουν πως λειτουργούν οι αλγόριθμοι»
Νομίζω ότι είναι πολύ σημαντικό οι πολίτες-χρήστες να ξέρουν πως λειτουργούν οι αλγόριθμοι πάνω τους, καθώς αυτό τους δίνει τη δυνατότητα να γνωρίζουν αναλυτικά πως χρησιμοποιούνται τα προσωπικά τους δεδομένα.Αυτό, επίσης, δίνει την αίσθηση και την ευκαιρία να εντοπίζουν οι χρήστες πότε ορισμένες απαντήσεις των μοντέλων τεχνητής νοημοσύνης είναι παρωχημένες ή λανθασμένες. Ειδικά στην περίπτωση που τα δεδομένα τους χρησιμοποιούνται σε μοντέλα που λαμβάνουν αποφάσεις για τη ζωή τους.

Τζοάννα Κάο, Pulitzer Center’s AI Accountability Network
Παγκόσμιο ράλι για την τεχνητή νοημοσύνη
Μέσα στο πλαίσιο του διεθνούς τεχνολογικού ανταγωνισμού μεταξύ των χωρών παρατηρούμε διαφορετικές προσεγγίσεις ανάμεσα στις ΗΠΑ, την Ευρώπη και την Ασία.Οι ΗΠΑ προωθούν την καινοτομία με ένα μοντέλο περιορισμένης ρύθμισης, η ΕΕ προκρίνει την νομοθέτηση, ενώ η Κίνα κινείται με μια στρατηγική επικεντρωμένη στο κράτος. Ποια προσέγγιση είναι πιο αποτελεσματική; Υστερεί η ΕΕ;
Δεν θα έλεγα ότι κάποιο σύστημα είναι ξεκάθαρα καλύτερο — δεν είμαι ειδικός στη γεωπολιτική. Αλλά αυτό που βλέπω είναι ότι η τεχνητή νοημοσύνη αναπτύσσεται μέσα στο πλαίσιο του κάθε πολιτικού συστήματος. Άρα, το βασικό ερώτημα είναι: πόση δύναμη έχουν οι πολίτες να συμμετέχουν και να επηρεάζουν αυτό που συμβαίνει;Στις ΗΠΑ, η λογική του «κινήσου γρήγορα και διόρθωσε μετά» μπορεί να οδηγήσει σε αποτυχίες. Αν για παράδειγμα εκπαιδεύσεις ένα μοντέλο αναγνώρισης προσώπου με δεδομένα κυρίως από λευκούς ανθρώπους, το σύστημα θα αποτύχει σε άλλες κοινότητες.
«Αυτό που για κάποιους φαίνεται καινοτόμο, για άλλους μπορεί να είναι άδικο ή επιβλαβές»
Το τι είναι καινοτομία είναι σχετικό. Αυτό που για κάποιους φαίνεται καινοτόμο, για άλλους μπορεί να είναι άδικο ή επιβλαβές. Η ρύθμιση, η οποία προκρίεται από την ΕΕ, μπορεί να προσφέρει αναχώματα, αλλά χρειάζεται ουσιαστική εφαρμογή και ενεργή συμμετοχή των πολιτών, ώστε να είναι αποτελεσματική.
Εύλογο ερώτημα, το οποίο αναδύεται είναι το τι ορίζουμε ως καινοτομία στο πεδίο της Τεχνητής Νοημοσύνης.
Δύσκολη ερώτηση. Συνήθως, συνδέουμε την καινοτομία με κάτι καινούργιο. Σε ό,τι αφορά την τεχνητή νοημοσύνη καινοτομία είναι κάτι που μπορεί να φέρει μια νεά ή και καλύτερη λύση σε ένα πρόβλημα. Για μένα, πραγματική καινοτομία σημαίνει συστήματα που είναι πιο συμπεριληπτικά, πιο φιλικά προς το περιβάλλον, που σέβονται την ανθρώπινη εργασία. Αν ένα σύστημα βλάπτει ή αποκλείει, δεν αποτελεί καινοτομία — ό,τι κι αν υπόσχεται τεχνικά.
«Πραγματική καινοτομία σημαίνει συστήματα που είναι πιο συμπεριληπτικά, πιο φιλικά προς το περιβάλλον, που σέβονται την ανθρώπινη εργασία»
Τι ρόλο παίζουν οι τεχνολογικοί κολωσσοί
Οι μεγάλες τεχνολογικές πλατφόρμες — Google, Apple, Facebook, Amazon και Microsoft, γνωστές και ως GAFAM — δεν είναι απλώς επιχειρηματικοί κολοσσοί· λειτουργούν πλέον ως δομές εξουσίας στο ψηφιακό οικοσύστημα. Ορίζουν τα πρότυπα, διαχειρίζονται τεράστιους όγκους προσωπικών δεδομένων και καθορίζουν, εν πολλοίς αδιαφανώς, τι βλέπουμε και πώς αλληλεπιδρούμε στο διαδίκτυο.
Οι μεγάλες τεχνολογικές εταιρείες, οι λεγόμενες GAFAM, κατηγορούνται ότι λειτουργούν ως ολιγοπώλιο στον ψηφιακό χώρο. Πώς μπορούν να κινηθούν οι δημοσιογράφοι και οι πολίτες μέσα σε αυτό το τοπίο;
Είναι δύσκολο, κυρίως επειδή δεν υπάρχει διαφάνεια. Δεν γνωρίζουμε πώς εκπαιδεύονται τα μοντέλα τους, τι δεδομένα χρησιμοποιούνται, ποιοι είναι οι μηχανισμοί λειτουργίας. Και επειδή είναι ιδιωτικές εταιρείες, δεν είναι υποχρεωμένες να δώσουν απαντήσεις. Αλλά οι άνθρωποι μπορούν να κάνουν ερωτήσεις. Αν ζουν στην ΕΕ, μπορούν να υποβάλουν αιτήματα πρόσβασης στα προσωπικά τους δεδομένα (GDPR).
«Οι μικρές πρωτοβουλίες μπορούν να προσφέρουν εναλλακτικές λύσεις πιο δίκαιες και πιο συμπεριληπτικές»
Τα δεδομένα είναι το νέο νόμισμα. Μπορούμε να επιλέξουμε να τα δώσουμε σε εταιρείες που μας ενημερώνουν για το πως τα διαχειρίζονται. Οι κοινότητες των πολιτών-χρηστών μπορούν να δημιουργήσουν δικά τους συστήματα. Όταν οι μεγάλες εταιρείες εξυπηρετούν μόνο ένα μέρος του πληθυσμού, οι μικρές πρωτοβουλίες μπορούν να προσφέρουν εναλλακτικές λύσεις πιο δίκαιες και πιο συμπεριληπτικές.
«Η ενημέρωση, η επίγνωση και η συλλογική πίεση παραμένουν τα πιο ισχυρά εργαλεία που έχουμε»
Ποιοι είναι οι πρακτικοί περιορισμοί στην απόδοση λογοδοσίας στις μεγάλες πλατφόρμες; Αν ρωτήσουμε, θα μας απαντήσουν;
Συχνά, δεν απαντούν. Αλλά είναι σημαντικό να το γνωρίζουμε αυτό. Οι καταναλωτές μπορούν να επιλέξουν: θα δώσεις τα δεδομένα σου σε μια εταιρεία που είναι διαφανής ή σε μια που δεν είναι; Μπορούμε επίσης να αξιοποιούμε τα νομικά μας δικαιώματα, όπως το κανονισμό για τα προσωπικά δεδομένα (GDPR).
Η ενημέρωση, η επίγνωση και η συλλογική πίεση παραμένουν τα πιο ισχυρά εργαλεία που έχουμε.
Πως μπορεί η δημοσιογραφία να μπει στα άδυτα των αλγορίθμων;
Καθώς τα αλγοριθμικά συστήματα αποκτούν αυξανόμενο ρόλο στη δημόσια και ιδιωτική σφαίρα, η δημοσιογραφία βρίσκεται αντιμέτωπη με μια νέα πρόκληση: πώς ερευνάς κάτι που δεν βλέπεις; Η παραδοσιακή πρόσβαση σε έγγραφα, πρόσωπα και θεσμούς δεν επαρκεί όταν το «υποκείμενο» της έρευνας είναι ένας αλγόριθμος ή ένα μοντέλο μηχανικής μάθησης. Παρ’ όλα αυτά, αναπτύσσονται σταδιακά πρακτικές και μεθοδολογίες που επιτρέπουν στους ερευνητές να ρίξουν φως σε αδιαφανή τεχνολογικά οικοσυστήματα.
Μπορείτε να περιγράψετε αποτελεσματικές μεθόδους έρευνας για δημοσιογράφους που θέλουν να ελέγξουν αλγορίθμους με περιορισμένη διαφάνεια;
Η ιδανική περίπτωση — το «Άγιο Δισκοπότηρο» — είναι να έχεις πρόσβαση σε τεχνική τεκμηρίωση: δεδομένα εκπαίδευσης, κώδικα, αποτελέσματα. Αυτό όμως είναι σπάνιο. Εναλλακτικά, μπορείς να βασιστείς σε έγγραφα εκ των έσω ή μαρτυρίες από πρώην εργαζόμενους. Εκεί πρέπει να προστατεύεις τις πηγές και να γνωρίζεις τους νομικούς κινδύνους. Μπορείς επίσης να δοκιμάσεις τα ίδια τα συστήματα ή να συγκεντρώσεις εμπειρικά δεδομένα από χρήστες. Η συστηματική δοκιμή μπορεί να αποκαλύψει προκαταλήψεις και ανισότητες.
Έχετε συναντήσει ηθικά διλήμματα κατά την έρευνα για αλγοριθμικά συστήματα;
Ναι, κυρίως όσον αφορά τις πηγές και τη συναίνεση. Πρέπει να εξηγούμε πάντα στους ανθρώπους τους κινδύνους που αναλαμβάνουν μιλώντας σε εμάς.
Επίσης, όταν δοκιμάζεις ένα σύστημα, πρέπει να είσαι δίκαιος, να μην εκμεταλλεύεσαι την τεχνολογία. Αν χρησιμοποιείς τεχνητή νοημοσύνη για να ερευνήσεις την τεχνητή νοημοσύνη, πρέπει να γνωρίζεις τις προκαταλήψεις της.
«Οι δημοσιογράφοι έχουν τη μοναδική ικανότητα και ευθύνη να φέρνουν στο φως πλευρές των ζητήμάτων που δεν εκπροσωπούνται επαρκώς στα μεγάλα σύνολα δεδομένων. Αυτό είναι κάτι που οι αλγόριθμοι μόνοι τους δεν μπορούν να κάνουν»
Πώς βλέπετε την εξέλιξη της δημοσιογραφίας στον απόηχο των εξελίξεων της τεχνητής νοημοσύνης; Χρειάζεται πλέον να είσαι τεχνολογικά καταρτισμένος για να επιβιώσεις;
Η τεχνητή νοημοσύνη είναι ένα εργαλείο — όπως και η δημοσιογραφία δεδομένων ήταν κάποτε το «μέλλον» της δημοσιογραφίας. Αν ξέρεις να τη χρησιμοποιείς σωστά, μπορεί να ενισχύσει το έργο σου. Στο Pulitzer Center που εργάζομαι, έχουμε υποστηρίξει έργα που χρησιμοποιούν τεχνητή νοημοσύνη για ανάλυση δορυφορικών εικόνων ή αυτοματοποίηση ερευνών. Αυτά τα εργαλεία επεκτείνουν τις δυνατότητές μας, αλλά δεν πρέπει να μας καθοδηγούν.
Τα μοντέλα τεχνητής νοημοσύνης εκπαιδεύονται σε περιορισμένα και μεροληπτικά δεδομένα. Οι δημοσιογράφοι έχουν τη μοναδική ικανότητα — και ευθύνη — να φέρνουν στο φως πλευρές των ζητημάτων που δεν εκπροσωπούνται επαρκώς στα μεγάλα σύνολα δεδομένων. Αυτό είναι κάτι που οι αλγόριθμοι μόνοι τους δεν μπορούν να κάνουν.
