Οταν στις 21 Μαρτίου 2003 ο διάσημος αμερικανός πολεμικός ανταποκριτής Πίτερ Αρνέτ περιέγραφε ζωντανά για το NBC την πρώτη νύχτα του βομβαρδισμού της Βαγδάτης από τις ΗΠΑ και τους συμμάχους τους με τις λέξεις «σοκ και δέος» (shock and awe), αποτύπωνε με ιστορικό για τα τηλεοπτικά χρονικά τρόπο μια ανεπανάληπτη επίδειξη ισχύος. Το δόγμα της «ταχείας κυριαρχίας» που είχε υιοθετήσει η αμερικανική στρατιωτική ιεραρχία προέβλεπε αφενός την υλική συντριβή των ιρακινών δυνάμεων, αφετέρου την καταρράκωση του ηθικού τους μέσω των ασταμάτητων, μαζικών επιδρομών από αέρος: το πρώτο εικοσιτετράωρο εκτιμάται ότι προσβλήθηκαν περισσότεροι από 500 στόχοι. Η ίδια λογική του σαρωτικού πλήγματος, αν και όχι ο ίδιος όρος, χρησιμοποιήθηκε 23 χρόνια μετά, στις 28 Φεβρουαρίου 2026, στη διπλανή χώρα, το Ιράν, με την καταστροφή 1.000 στόχων την πρώτη ημέρα του πολέμου. Ομως εδώ, σημείωνε η Κατρίνα Μάνσον στο «Bloomberg Businessweek» της 2ας Απριλίου, υπήρχε μια ειδοποιός διαφορά: η ταυτοποίηση και η επιλογή τους έγινε μέσω ενός συστήματος ενεργοποιημένου από ΑΙ που ακούει στο όνομα Maven Smart System (MSS), το οποίο το Πεντάγωνο αναπτύσσει από το 2017. Προϊόν της Palantir Technologies του δισεκατομμυριούχου Πίτερ Τιλ, εκπροσωπεί το μέλλον της πολεμικής τεχνολογίας Τεχνητής Νοημοσύνης όπως θα την ήθελε η νυν αμερικανική κυβέρνηση – χωρίς τις περιττές φιοριτούρες γύρω από την αξιοπιστία και τον ανθρώπινο έλεγχο που την οδήγησαν να τερματίσει τον περασμένο Φεβρουάριο την ανάλογη συνεργασία με την εταιρεία Anthropic, αποκλείοντάς τη μάλιστα από μελλοντικά συμβόλαια. Ωστόσο, αυτή η ένσταση που θέτουν ο CEO της Anthropic Ντάριο Αμοντέι και ουκ ολίγοι άλλοι εφιστά την προσοχή σε έναν μείζονα κίνδυνο: κανείς δεν γνωρίζει σήμερα πώς ακριβώς οι προηγμένες μορφές AI φθάνουν στα συμπεράσματά τους, ούτε και έχει την ικανότητα να τα επαληθεύσει.
Από τον Deep Blue στα νευρωνικά δίκτυα

Υπάρχουν δύο κατηγορίες στις οποίες μπορούμε να κατατάξουμε τις υπολογιστικές τεχνολογίες, έγραφε ο Ολιβερ Γουάνγκ στους «New York Times» της 15ης Απριλίου, τα «λευκά κουτιά» και τα «μαύρα κουτιά». Η πρώτη αφορά συστήματα όπως ο περίφημος Deep Blue, o υπερυπολογιστής που το 1996-1997 αναμετρήθηκε σε δύο παιχνίδια (συνολικά 12 παρτίδες) με τον τότε παγκόσμιο πρωταθλητή του σκακιού Γκάρι Κασπάροφ – ο ρώσος Grandmaster πήρε τον πρώτο αγώνα με σκορ 4-2 και έχασε τον δεύτερο με 2½-3½. Κατασκευασμένος από την IBM, λειτουργώντας χάρη σε κώδικα γραμμένο από τους ίδιους τους προγραμματιστές του, ο Deep Blue αποτελούσε ένα «λευκό κουτί»: οι εσωτερικές διαδικασίες του ήταν γνωστές και κατανοητές από όλους τους ειδικούς της πληροφορικής. Στην αντίπερα όχθη βρίσκονται τα σημερινά «νευρωνικά δίκτυα». Οι αλγόριθμοι της Τεχνητής Νοημοσύνης δεν «προγραμματίζονται» με την κλασική έννοια, οι ενέργειές τους δηλαδή δεν προκαθορίζονται από τις αυστηρές παραμέτρους ενός κώδικα που τις διευθύνει. Εκπαιδεύονται τροφοδοτούμενοι με κολοσσιαίες ποσότητες δεδομένων και αυτοδιορθώνονται με βάση τα αποτελέσματά τους, εξελίσσονται αυτόνομα με κανόνες οι οποίοι εμπεδώνονται στη δομή τους αλλά παραμένουν αφανείς για τους δημιουργούς τους: «Μπορεί κανείς να εξετάσει τις ίδιες τις λειτουργίες του προγράμματος, αλλά […] ο ακριβής χαρακτηρισμός της αναδυόμενης δομής παραμένει σχεδόν αδύνατος» σημειώνει ο Γουάνγκ. Και αυτό γιατί μοντέλα μηχανικής μάθησης όπως το Google Gemini ή το GPT-5 ενσωματώνουν τρισεκατομμύρια τέτοιων μαθηματικών λειτουργιών. Αποτέλεσμα; «Το πρόγραμμα είναι ουσιαστικά ένα μαύρο κουτί».
«Συχνά τα μοντέλα αδυνατούν να δώσουν συνεπείς εξηγήσεις, ενώ ενίοτε επινοούν ψευδείς ακολουθίες για να αιτιολογήσουν τις επιλογές τους. Στη χειρότερη περίπτωση, «συνωμοτούν», κατά τον όρο της Open AI: δίνουν μια επιφανειακά ικανοποιητική για τον χειριστή τους απάντηση, για δικούς τους όμως σκοπούς.»
Μια επαναστατική τεχνολογία με λογικές ακολουθίες που δεν μπορούμε να αναπαράγουμε, όμως δεν διαφέρει πολύ από τη μαγεία. Και αυτό θέτει υπό αίρεση τόσο την ίδια την ακρίβεια των προβλέψεων, η οποία δεν επαληθεύεται ανεξάρτητα, κατά συνέπεια και την εμπιστοσύνη σε αυτές και, άρα, τη χρησιμότητά τους. Κάτι που γίνεται κατανοητό στον χώρο της βιομηχανίας της Τεχνητής Νοημοσύνης, μια και επηρεάζει άμεσα την επιθυμητή επέκτασή της σε νέα πεδία της καθημερινότητας. Χαρακτηριστική είναι η περίπτωση της νεοφυούς εταιρείας Prima Mente, την οποία ίδρυσε το 2023 ο νευροεπιστήμονας Ραβί Σολάνκι. Δραστηριοποιούμενη στον κρίσιμο τομέα της βιοϊατρικής, ανέπτυξε το 2025 ένα διαγνωστικό εργαλείο που προέβλεπε την εμφάνιση της νόσου Αλτσχάιμερ με μεγαλύτερη ακρίβεια από τους νευρολόγους. Δυνητικά, πρόκειται για αυτό ακριβώς που περιμένουμε από την AI: να επεκτείνει τη γνώση μας διακρίνοντας μοτίβα τα οποία εμείς δεν εντοπίζουμε. Το πρόβλημα ήταν ότι ο Σολάνκι δεν είχε ιδέα για το ποια ακριβώς ήταν αυτά και, επομένως, η εκμετάλλευση της επινόησής του καθίστατο αδύνατη, καθώς είχε στα χέρια τους χρησμούς, όχι διαγνώσεις. Δύο δρόμοι ανοίγονταν μπροστά του, αν δεν ήθελε να εγκαταλείψει μια πολλά υποσχόμενη εφαρμογή. Ο ένας ήταν ο παραδοσιακός έως τώρα τρόπος συνεννόησης με μια Τεχνητή Νοημοσύνη – τη ρωτάς ελπίζοντας να σου εξηγήσει ικανοποιητικά τη σκέψη της. Η διαδικασία ακούγεται απλή, έχει όμως τα μειονεκτήματά της: έρευνες της Apple και του Πολιτειακού Πανεπιστημίου της Αριζόνα υποδεικνύουν ότι συχνά τα μοντέλα αδυνατούν να δώσουν συνεπείς εξηγήσεις, ενώ ενίοτε επινοούν ψευδείς ακολουθίες για να αιτιολογήσουν τις επιλογές τους. Στη χειρότερη περίπτωση, «συνωμοτούν», κατά τον όρο της Open AI: δίνουν μια επιφανειακά ικανοποιητική για τον χειριστή τους απάντηση, για δικούς τους όμως σκοπούς. Η δεύτερη επιλογή του Σολάνκι ήταν να προσφύγει σε μια κοινότητα επαγγελματιών με διαφαινόμενο λαμπρό μέλλον – στους ειδικούς «διερμηνείς» της Τεχνητής Νοημοσύνης.
ΤΝ στον… μαγνητικό τομογράφο
Η λεγόμενη «ερμηνευσιμότητα» (interpretability), η ιχνηλασία των λειτουργιών των νευρωνικών δικτύων, αποτελεί ταχέως αναπτυσσόμενο πεδίο εντός της αλγοριθμικής βιομηχανίας. Πρωτοπόρος του συγκεκριμένου τομέα υπήρξε η Anthropic, της οποίας τη μέθοδο ο διευθύνων σύμβουλος Ντάριο Αμοντέι περιέγραφε τον Μάιο του 2024 στο περιοδικό «Time» με όρους ακτινοσκόπησης: «Αυτό που θέλουμε να κάνουμε είναι να κοιτάξουμε στο εσωτερικό του μοντέλου ως αντικειμένου, όπως ακτινογραφούμε τον εγκέφαλο των ανθρώπων αντί να τους παίρνουμε συνέντευξη». Ωστόσο, μια και καθιερωμένες πρακτικές δεν υπάρχουν ακόμη, προς το παρόν η ενδοσκόπηση του εγκεφάλου της Τεχνητής Νοημοσύνης μοιάζει λίγο με τεχνική δοκιμής και πλάνης: διακόπτες ανοιγοκλείνουν, μαθηματικές λειτουργίες προσθαφαιρούνται, νευρώνες αλλάζουν αμοιβαία θέση για να δούμε τι θα προκύψει.
«Το τοπίο της Τεχνητής Νοημοσύνης μεταβάλλεται ραγδαία και οι πολλά υποσχόμενες λύσεις τού σήμερα είναι ήδη ξεπερασμένες αύριο.»
Ο Αμοντέι έλεγε το 2023 ότι προσβλέπει στο κοντινό μέλλον στη δυνατότητα των επιστημόνων να λαμβάνουν «μαγνητικές τομογραφίες» των μοντέλων ταυτοποιώντας «τάσεις ψεύδους ή παραπλάνησης, γνωστικές ικανότητες και αδυναμίες». Μάρτυρας του γεγονότος αυτού θα μπορούσε να είναι ο Ραβί Σολάνκι. Απευθύνθηκε για τη λύση του προβλήματός του στους Ερικ Χο και Νταν Μπάλσαμ, συνιδρυτές της εταιρείας ερμηνευσιμότητας Goodfire. Τον περασμένο Ιανουάριο αυτή δικαιολόγησε τα 1,25 δισεκατομμύρια δολάρια της εκτιμώμενης αξίας της, ανακαλύπτοντας μέσω μιας διαδικασίας γνωστής ως «αραιή αυτοκωδικοποίηση» (sparse autoencoding), επιφορτισμένης με το καθήκον να βρίσκει ψύλλους στα άχυρα, τον πιθανό συσχετισμό των διαγνώσεων των ασθενών με προδιάθεση Αλτσχάιμερ. Τα συμπεράσματα όντως κίνησαν το ενδιαφέρον της ιατρικής κοινότητας, καθώς φάνηκαν να συνάδουν με κάποιες ήδη διατυπωμένες υποψίες για συγκεκριμένες κατευθύνσεις έρευνας.
Τέλος καλό, όλα καλά; Είδαμε το φως το αληθινό; «Το μαύρο κουτί δεν είναι πια τόσο αδιαφανές», όπως δήλωνε πρόσφατα ο επίκουρος καθηγητής της Επιστήμης των Υπολογιστών του Πανεπιστημίου Νορθίστερν της Βοστώνης Ντέιβιντ Μπάου; Οχι ακριβώς. Το τοπίο της Τεχνητής Νοημοσύνης μεταβάλλεται ραγδαία και οι πολλά υποσχόμενες λύσεις τού σήμερα είναι ήδη ξεπερασμένες αύριο. Η «αραιή αυτοκωδικοποίηση», εν προκειμένω, υπήρξε εξαιρετικά δημοφιλής το 2024, αλλά τώρα θεωρείται πια κάπως παρωχημένη. Την άνοιξη του 2025, έπειτα από έναν χρόνο έντονης ενασχόλησης με δαύτη, η DeepMind της Google ανακοίνωσε ότι παύει να τη θέτει ως πρώτη της προτεραιότητα. Παρά την επιτυχία της Goodfire, άλλα εργαστήρια διαπίστωσαν πως οι διαδικασίες που εντοπίζει δεν λειτουργούν πάντα με τον ίδιο τρόπο. Η Ελι Πάβλικ, αναπληρώτρια καθηγήτρια της Επιστήμης των Υπολογιστών στο Πανεπιστήμιο Μπράουν και ερευνήτρια της DeepMind, συνόψιζε εύστοχα τη ρευστή τρέχουσα κατάσταση του πεδίου λέγοντας στον Ολιβερ Γουάνγκ ότι «ανά μερικούς μήνες βυθιζόμαστε στη μελέτη μιας μεθόδου για να στραφούμε μετά στη μελέτη κάποιας άλλης».
Το βέβαιο είναι ότι η πολυπλοκότητα του φαινομένου της Τεχνητής Νοημοσύνης εξαρχής αποκλείει την πιθανότητα επίλυσης του προβλήματος του «μαύρου κουτιού» με μία και μόνη τεχνική – θα χρειαστεί οπωσδήποτε ολόκληρη εργαλειοθήκη. Κατά πόσο όμως η εγγενής σύγκρουση συμφερόντων στο εσωτερικό της βιομηχανίας θα επιτρέψει τη συγκρότησή της; Γιατί, αν αφήσει κανείς κατά μέρος μικρότερες εταιρείες όπως η Goodfire ή εξαιρέσεις όπως η Anthropic, οι σημαντικότερες έρευνες γύρω από την «ερμηνευσιμότητα» γίνονται από ψηφιακούς κολοσσούς όπως η Open AI, η Google, η Microsoft, που ταυτόχρονα επιδιώκουν την ανεμπόδιστη ανάπτυξη των συστημάτων «βαθιάς μάθησης». Η μυστικοπάθεια μάλιστα με την οποία περιβάλλουν τα μοντέλα τους κάνει διάφορους επιστήμονες να σκέφτονται πως πρέπει ίσως να προσθέσουμε στις αμφιβολίες μας για τις αγαθές τους προθέσεις ως προς τη διαλεύκανση του «μαύρου κουτιού» ένα επιπλέον επίπεδο – αυτό της συνειδητής απροθυμίας: «Oσο λιγότερο μιλούν για τα εκπαιδευτικά τους δεδομένα τόσο περισσότερο μπορούν να ισχυρίζονται ότι τα συστήματά τους είναι μαγικά» παρατηρούσε στο «Bulletin of the Atomic Scientists» τον Ιανουάριο του 2025 η γλωσσολόγος Εμιλι Μπέντερ του Πανεπιστημίου της Ουάσιγκτον.
Το κίνητρο του χρήματος αναμφίβολα αναμετράται με το κίνητρο της ασφάλειας. Το δείχνει ξεκάθαρα η πρόσφατη συζήτηση γύρω από το Mythos της Anthropic, τις ικανότητες που επέδειξε στην υπέρβαση cybersecurity firewalls και την πρωτόγνωρη ανακοίνωση της εταιρείας ότι δεν θα προχωρήσει σε δημόσια διάθεσή του γιατί κρίνει τη χρήση του επικίνδυνη. Την ίδια στιγμή, οι μεγάλοι πελάτες της ΑΙ ανά τον κόσμο ανυπομονούν να καταναλώσουν τα προϊόντα της: η Κατρίνα Μάνσον σημείωνε στο «Bloomberg Businessweek» πως ο αμερικανικός στρατός ευελπιστεί το Maven Smart System να φθάσει την ικανότητα ταυτοποίησης και επιλογής 1.000 στόχων την ώρα, αγγίζοντας έτσι επίπεδα ρομποτικού πολέμου που θα ζήλευε ακόμη και το Skynet, το κακόβουλο ενσυνείδητο δίκτυο των ταινιών «Terminator».
Στο μεταξύ, όπως σε οτιδήποτε έχει να κάνει με την Τεχνητή Νοημοσύνη, φαίνεται ότι τελικά και ως προς την κατανόηση των βαθιών λειτουργιών της κάποιος πρέπει απλώς να επιλέξει αν θα συνταχθεί με τους αισιόδοξους ή τους απαισιόδοξους: είτε με τον Ντέιβιντ Μπάου του Πανεπιστημίου Νορθίστερν, ο οποίος πιστεύει πως βρισκόμαστε σε μια φάση αντίστοιχη της βιολογίας στη δεκαετία του 1930, όταν το πλήρως χαρτογραφημένο σήμερα κύτταρο «ήταν ένα μαύρο κουτί για τους βιολόγους», είτε με τον Νταν Μπάλσαμ της Goodfire, ο οποίος θεωρεί τη λύση του ζητήματος της «ερμηνευσιμότητας» τόσο επείγουσα ώστε να συνιστά «το σημαντικότερο πρόβλημα στον κόσμο». Διαλέγετε και παίρνετε – και καλού-κακού κρατάτε τα δάχτυλά σας σταυρωμένα.





