Αλληλεπιδρώντας με τις ψηφιακές οντότητες
Του Μάρκου Καρασαρίνη
Τα τρία στίγματα του Πάλμερ Ελντριτς, μυθιστόρημα του 1964, ένα από τα μείζονα έργα του σπουδαίου αμερικανού συγγραφέα επιστημονικής φαντασίας Φίλιπ Κ. Ντικ, εκκινούν με τον κεντρικό χαρακτήρα Μπάρνι Μάγιερσον να ξυπνά αποπροσανατολισμένος και να σπεύδει να συμβουλευτεί τον ψηφιακό του ψυχίατρο, δόκτορα Σμάιλ, βολικά συσκευασμένο σε μια βαλίτσα, για το πού βρίσκεται.
Σε έναν πλανήτη ραγδαίας κλιματικής αλλαγής και παντοειδών κινδύνων, ένας ηλεκτρονικός βοηθός με πιασάρικη ονομασία θα επιχειρήσει φιλότιμα να τοποθετήσει τον κύριό του στον χώρο και τον χρόνο. Αντικαταστήστε το όνομά του με το δικό σας, αλλάξτε το brand της εφαρμογής, μειώστε ελαφρώς τον βαθμό επικινδυνότητας του περιβάλλοντος και έχετε μια (λίαν ειρωνική) εκδοχή του σήμερα.
Η τεχνητή νοημοσύνη βέβαια επηρέαζε τη ζωή μας πολύ προτού ταυτιστεί με το ChatGPT, το Gemini, το Copilot. Κάπου απέναντι από το πληκτρολόγιό μας βρίσκεται εδώ και δεκαετίες μια μονάδα που υλοποιεί απαντήσεις στο input που της παρέχουμε. Κάπου στο σύμπαν των καλωδίων μηχανές αναζήτησης ιεραρχούν την ποιότητα της γνώσης προτού τη σερβίρουν σε συνδέσμους.
Κάπου στα άπειρα δωμάτια διακομιστών ανά τον κόσμο αλγόριθμοι παραγοντοποιούν δεδομένα προκειμένου να αποτυπωθούν προτιμήσεις στα κοινωνικά μέσα. Κατά μία έννοια, η πρόσφατη εισβολή της τεχνητής νοημοσύνης στην καθημερινότητα έχει περισσότερο να κάνει με την εύχρηστη διαδραστικότητα των «μεγάλων γλωσσικών μοντέλων». Κατά μία άλλη, συνιστά ποιοτική μεταβολή: πριν από τα chatbots η πληροφορία έφθανε σε εμάς λιγότερο επεξεργασμένη, τώρα έρχεται κωδικοποιημένη ως συνεχής λόγος.
Ψηφιακές οντότητες ξεπηδούν σε κάθε επαφή με υπηρεσίες, εταιρείες, ιστοτόπους, πρόθυμες να συνομιλήσουν μαζί μας, να εισακούσουν τις ανάγκες μας, να μας προσφέρουν λύσεις στο πιάτο και, στη χειρότερη περίπτωση, όταν αγγίξουν τα όριά τους, να μας παραπέμψουν σε έναν εκπρόσωπο του είδους μας. Εργαλεία μετάφρασης κυκλοφορούν στο Διαδίκτυο υποσχόμενα διευκολύνσεις στη μετακένωση της γνώσης. Αυτόματοι πωλητές μάς περιμένουν στα φαστφουντάδικα της εθνικής οδού για να μας προτείνουν ποικίλους συνδυασμούς υπερεπεξεργασμένης τροφής.
Η ορατότητα όλων θέτει αναπόφευκτα ερωτήματα πολύ πιο άμεσα από το αν μελλοντικά η «μοναδικότητα» θα μας υποδουλώσει, θα μας υποκαταστήσει ή θα μας εξαλείψει. Αυτό το παρόν τεχνητών οντοτήτων θυμίζει ακριβώς τους κόσμους του Φίλιπ Κ. Ντικ όπου παρόμοιες αλλαγές δημιουργούν υβριδικές πραγματικότητεςˑ όπου οι νοήμονες μηχανές δεν γίνονται σωτήρες ή δυνάστες αλλά πλαστικοί συνάνθρωποι εξίσου ατελείς με τους πραγματικούςˑ όπου, τελικά, το ζωτικό ερώτημα παραμένει επίμονα εκείνο της αρχαίας και σύγχρονης φιλοσοφίας – ποια είναι η φύση του ανθρώπου;
Ο ανθρωπομορφισμός της και το βιοπορτρέτο μας
Της Λίλιαν Μήτρου

Kοινή και προφανής είναι η διαπίστωση ότι όλο και περισσότεροι άνθρωποι εναποθέτουν τη διαχείριση (και τη βελτίωση;) της καθημερινότητάς τους στην Τεχνητή Νοημοσύνη (ΤΝ). Εμπιστεύονται τα έξυπνα πληκτρολόγια για διόρθωση και συμπλήρωση των… επόμενων λέξεων στα κείμενά τους, το Google Maps για να τους οδηγήσει στον προορισμό τους, τις στοχευμένες στα γούστα τους προτάσεις του Netflix ή του Spotify, τις – προσωποποιημένες – επιλογές περιεχομένου των ψηφιακών κοινωνικών δικτύων.
Oλες αυτές οι εφαρμογές, από τις «παραδοσιακές» Siri και Alexa έως την τελευταία έκδοση ChatGPT, με την ενημερωτική, γνωστική ή και… ψυχολογική «υποστήριξή» τους, αποκτούν – ως προϋπόθεση και αποτέλεσμα της παροχής των υπηρεσιών τους – (μοιραία;) και τον έλεγχο των πληροφοριών μας. Aρα και της ζωής μας; Των απόψεων και επιλογών μας; Oταν η Τεχνητή Νοημοσύνη γίνεται η καθημερινότητά σου, καταλήγοντας να «σε γνωρίζει καλύτερα από εσένα τον ίδιο», πώς επηρεάζονται τα δικαιώματα και πόσο αυτόνομες είναι οι επιλογές;
Διαφοροποιούνται οι κίνδυνοι της χρήσης της λεγόμενης παραγωγικής ΤΝ σε σχέση με αυτούς που υφίστανται στο κυρίαρχο μοντέλο της οικονομίας του Διαδικτύου, όπου τα δεδομένα που παρέχουμε ως «αντάλλαγμα» για διάφορες υπηρεσίες και πληροφορίες, τα κλικ (clicks) μας, οι αναζητήσεις μας, η τοποθεσία και οι επαφές μας τροφοδοτούν τη στοχευμένη διαφήμιση και τα συστήματα συστάσεων;
Τα ερωτήματα που τίθενται αναφορικά με τη χρήση ΤΝ δεν διαφοροποιούνται κατ’ αρχήν ριζικά από τα ζητήματα που εγείρονται εν γένει σε σχέση με την επεξεργασία προσωπικών δεδομένων. Ωστόσο, μια ειδοποιός διαφορά της αλγοριθμικής επικοινωνίας και επεξεργασίας εντοπίζεται ακριβώς στην τεράστια κλίμακα δεδομένων που μπορεί να επεξεργαστεί ένα σύστημα ΤΝ σε συνδυασμό με την ακρίβεια με την οποία μπορεί να στοχεύσει πρόσωπα και την ταχύτητα παραγωγής αποτελεσμάτων και επικαιροποίησης αυτών.
Ο ανθρωπομορφισμός και η αμεσότητα της απόκρισης έχουν ως αποτέλεσμα να επικοινωνούμε με τους ψηφιακούς βοηθούς και «συνομιλητές» μας πολύ συχνότερα και για όλο και πιο «προσωπικά θέματα». Οι εφαρμογές ΤΝ «ακούν» πλέον τα προβλήματα και τις ιστορίες της ζωής μας, συνδέουν τα επιμέρους μοτίβα και πληροφορίες και βασίζονται στις προηγούμενες «συζητήσεις» για να δημιουργήσουν περαιτέρω περιεχόμενο.
Το βιοπορτρέτο μας αποτυπώνεται λεπτομερές: οικονομικές καταστάσεις και δυσκολίες, αναζητήσεις του καλού εστιατορίου, ανησυχίες για την υγεία αλλά και ελπίδες, φόβοι, διαθέσεις, συναισθήματα. Πολλοί άνθρωποι μοιράζονται σχεδόν τα πάντα με την ΤΝ, ευκολότερα και χωρίς δισταγμό. Εξάλλου, όπως και στα ψηφιακά κοινωνικά δίκτυα, η αρχιτεκτονική και η δομή της επικοινωνίας είναι τέτοια που ενθαρρύνει την εκμυστήρευση και τον υπερβολικό διαμοιρασμό πληροφορίας.
Η ανάπτυξη και χρήση μοντέλων, όπως το ChatGPT, το GEMINI, το DeepSeek, διήγειραν ακόμη περισσότερο τη «βουλιμία» για προσωπικά δεδομένα, καθώς τα ερωτήματα (prompts) και οι «συζητήσεις» αξιοποιούνται για την «εκπαίδευση των συστημάτων», ώστε να παρέχουν πληρέστερες και πιο στοχευμένες απαντήσεις και προγνώσεις.
Aρχές προστασίας δεδομένων έχουν ήδη ερευνήσει παραβιάσεις κανόνων και απαγορεύσεων: η ιταλική Garante, π.χ., επέβαλε κυρώσεις τόσο στην εταιρεία ανάπτυξης chatbot Replika όσο και στην OpenAI για χρήση δεδομένων για εκπαίδευση των μοντέλων χωρίς να υπάρχει νομική βάση, για την έλλειψη συστημάτων επαλήθευσης ηλικίας αλλά και για την παραβίαση της αρχής της διαφάνειας έναντι των χρηστών.
Είναι πράγματι αμφίβολο αν οι χρήστες ενημερώνονται επαρκώς και έχουν επίγνωση της χρήσης που επιφυλάσσεται στα δεδομένα που παράγουν στην «προσωπική σχέση» που συνάπτουν με τον ψηφιακό συνομιλητή τους.
Εξίσου κρίσιμες είναι, ωστόσο, οι επιδράσεις της χρήσης τέτοιων συστημάτων στη διαμόρφωση επιλογών, αντιλήψεων, στάσεων ζωής. Δεν πρόκειται μόνο για τις συνέπειες της ευκολίας στην ικανότητα κατανόησης και στην ανάπτυξη δεξιοτήτων επίλυσης ενός προβλήματος ή στην ουσιαστική δημιουργικότητα.
Προσφέροντας έτοιμες λύσεις και συστάσεις, τα συστήματα αυτά καθιστούν την έλλειψη αξιολόγησης και κριτικής σκέψης και ανάλυσης τρόπο ζωής. Επηρεάζουν ή και χειραγωγούν συμπεριφορές και διαμορφώνουν αξίες που βασίζονται στην «εκπαίδευση» του μοντέλου και στην εξ ορισμού αδιαφανή συναγωγή συμπερασμάτων και συστάσεων. Και αυτό δεν είναι μια θεωρητική έκφραση ανησυχιών και υφέρπουσας τεχνοφοβίας.
Η οριοθέτηση των αποδεκτών χρήσεων, η αντιμετώπιση του εθιστικού design αλλά και των επιπτώσεων στην ανάπτυξη της προσωπικότητας και την αυτονομία του προσώπου είναι ζήτημα προστασίας των θεμελιωδών δικαιωμάτων και δημοκρατίας. Και όπως σε κάθε «σχέση», πρέπει να καλλιεργούνται και να διασφαλίζονται ο σεβασμός, η εμπιστοσύνη και η ελευθερία.
H κυρία Λίλιαν Μήτρου είναι καθηγήτρια Πανεπιστημίου Αιγαίου και δικηγόρος.
Σκέψεις για την ΤΝ με αφορμή τον ΔΛ
Της Άννας Γρίβα
Στις αρχές του Αυγούστου έτυχε να συναντήσω δύο φίλους που μόλις είχαν επιστρέψει από ένα ταξίδι στο Θιβέτ. Ανάμεσα στις ενδιαφέρουσες εμπειρίες που μοιράστηκαν μαζί μου, ιδιαίτερη εντύπωση μου έκαναν όσα ανέφεραν περί του ελέγχου που ασκεί η Κίνα στη ζωή των Θιβετανών, αλλά και οι διηγήσεις τους για μια διάχυτη αίσθηση παρακολούθησης των λόγων και των κινήσεων, που έχει καταστεί πλέον αποτελεσματικότερη με τη βοήθεια της τεχνητής νοημοσύνης.
Μάλιστα, ο ξεναγός τους απέφευγε να αναφέρει το όνομα του Δαλάι Λάμα, προτιμώντας να λέει «ο κύριος Δέλτα Λάμδα», ώστε να μην μπορούν τα συστήματα παρακολούθησης να καταλάβουν σε ποιον αναφερόταν, αφού «ευτυχώς τα ελληνικά δεν “αποκρυπτογραφούνται” εύκολα προς το παρόν, όπως ας πούμε τα αγγλικά».
Κι έτσι αρχίσαμε όλοι οι παρόντες να προβληματιζόμαστε για τον βαθμό ελέγχου των πολιτών στον οποίο μπορούν να φτάσουν στο μέλλον τα αυταρχικά καθεστώτα μέσα από την ανάπτυξη της ΤΝ, αφού αυτή συνδέεται πλέον με τη γενικότερη τεχνολογία λογισμικού, συντονίζοντας και βελτιώνοντας όλους τους διαθέσιμους αλγορίθμους παρακολούθησης και ελέγχου καθώς και επικοινωνίας ανθρώπου-μηχανής. «Τουλάχιστον κανένας δεν μπορεί να εποπτεύσει τη σκέψη, η σκέψη πάντα θα περιπλανιέται ελεύθερη», στοχάστηκα με ανακούφιση εκείνη τη στιγμή.
Λίγες μέρες αργότερα, όμως, διάβασα στην εφημερίδα «ΤΑ ΝΕΑ» για μια μελέτη που πραγματοποιήθηκε στο Πανεπιστήμιο του Στάνφορντ, η οποία κατόρθωσε να «αναγνώσει» σε σημαντικό βαθμό ανθρώπινες σκέψεις μέσω ενός εγκεφαλικού εμφυτεύματος.
Δεν θα ήθελε κάθε αυταρχικό καθεστώς να εμφυτεύσει ένα αποτελεσματικό εγκεφαλικό εμφύτευμα στους ανήσυχους πολίτες του, ώστε να διαβάζει τις σκέψεις τους;
Φυσικά, δεν πρόκειται για κάθε σκέψη, αλλά για προκαθορισμένες νοητικές λειτουργίες, με στόχο να βοηθηθούν άτομα με σοβαρές λεκτικές και κινητικές δυσκολίες, όπως στην περίπτωση διαφόρων μορφών παράλυσης. Δεν μπορεί παρά να νιώθει κανείς ικανοποίηση μπροστά σε μια τέτοια επιτυχία, που πρόκειται να βοηθήσει πολλούς ανθρώπους σε όλον τον κόσμο – και ειδικά για εμένα, που είχα στο στενό οικογενειακό μου περιβάλλον άτομο με αναπηρία και γνωρίζω από πρώτο χέρι τον καθημερινό αγώνα των αναπήρων και των οικογενειών τους, τέτοιες επιστημονικές εξελίξεις είναι πάντα πολύ συγκινητικές.
Από την άλλη πλευρά, εύλογα θα σκεφτεί κάποιος πως αν αναπτυχθεί περαιτέρω ένα τέτοιο εργαλείο, σίγουρα ο «πειρασμός» θα αφυπνιστεί μέσα στην ανθρωπότητα και για άλλες χρήσεις. Για παράδειγμα, δεν θα ήθελε κάθε αυταρχικό καθεστώς να εμφυτεύσει ένα αποτελεσματικό εγκεφαλικό εμφύτευμα στους ανήσυχους πολίτες του, ώστε να διαβάζει τις σκέψεις τους;
Αλλωστε, η ιστορία πάμπολλες φορές το έχει αποδείξει πως κάθε δυνατότητα που αναπτύσσει ο άνθρωπος τείνει να κινείται προς αμφότερες τις κατευθύνσεις: προς το καλό και προς το κακό. Για να μην πάμε μακριά, η πυρηνική ενέργεια είναι ένα καλό παράδειγμα: θα μπορούσε να υπάρχει μονάχα η συνετή χρήση της, που θα περιόριζε κατά το δυνατόν τους κινδύνους, αντιθέτως όμως διαπιστώνουμε πως ο πλανήτης είναι (και θα συνεχίσει να είναι) γεμάτος πυρηνικές κεφαλές.
Εκείνο που θέλω να πω είναι πως κάθε τεχνολογική ανακάλυψη έχει δύο θεμελιώδη χαρακτηριστικά: αφενός δεν μπορεί να αποτραπεί από τη στιγμή που είναι απόρροια μιας διαρκώς αναπτυσσόμενης γνώσης, η οποία αναγκαία οδηγεί σε εφαρμογές, αφετέρου δεν φέρει εντός της κάποιους είδους ηθική, δηλαδή δεν είναι ούτε καλή ούτε κακή, αφού ο χρήστης, ήτοι ο άνθρωπος, θα της αποδώσει θετικές ή αρνητικές ηθικές ποιότητες αναλόγως της χρήσης που θα κάνει και των αποτελεσμάτων που θα επιφέρει η χρήση αυτή.
Με βάση τα παραπάνω, προκύπτει πως η φοβία προς την ΤΝ, μια φοβία δηλαδή που αρνείται να δεχτεί την αναγκαία και άφευκτη πρόοδο της τεχνολογίας, είναι παντελώς άτοπη. Εξίσου αναπόφευκτο είναι και το να αξιοποιηθούν οι δυνατότητες της ΤΝ τόσο για το καλό όσο και για το κακό, αφού οι χρήστες-άνθρωποι χαρακτηρίζονται διαχρονικά και ταυτοχρόνως και από θετικές και από αρνητικές ηθικές ποιότητες.
Το αν η μηχανή θα κατορθώσει κάποτε να αυτονομηθεί από τον τρόπο χρήσης που επιβάλλει ο άνθρωπος και να δημιουργήσει δικές της ηθικές αρχές, είναι μια άλλη συζήτηση. Προς το παρόν, πάντως, το πρόβλημα της ανθρωπότητας φαίνεται να είναι ο ίδιος ο άνθρωπος που σαν τον Σίσυφο συνθλίβεται υπό το βάρος των αδυναμιών του και του πάθους του για επιβολή και δύναμη.
Η κυρία Αννα Γρίβα είναι συγγραφέας και ιστορικός της λογοτεχνίας. Τιμήθηκε με το Κρατικό Βραβείο Ποίησης 2024 για την ποιητική συλλογή της «Η χαμένη θεά» (εκδ. Μελάνι).
Ανάμεσα στην πληροφορία και την αφήγηση
Του Χρήστου Τριανταφύλλου

Πρόσφατα, ένας γνωστός μου ρώτησε από περιέργεια το ChatGPT για ζήτημα υγείας· όταν επισκέφθηκε τον γιατρό και του το ανέφερε, αυτός ρώτησε ειρωνικά «και τι είπε ο συνάδελφος;» και εξήγησε στον ασθενή ότι η ρομποτική γνωμάτευση ήταν περίπου σωστή – με αυτό το «περίπου» να κάνει όλη τη διαφορά.
Συνήθως, στις συζητήσεις για τα μεγάλα γλωσσικά μοντέλα – αυτό που πλέον ονομάζουμε καθημερινά «τεχνητή νοημοσύνη», αν και αποτελεί απλώς μία από τις μυριάδες εκδοχές της – τονίζονται δύο σημεία: πρώτον, η σχεδόν στιγμιαία πρόσβασή τους σε έναν φαινομενικά άπειρο πλούτο πληροφορίας· δεύτερον, η ικανότητά τους να προσομοιώνουν την ανθρώπινη σκέψη και, κυρίως, τις τεχνικές του διαλόγου.
Ετσι, οι συζητήσεις λήγουν συνήθως με το συμπέρασμα ότι η τεχνητή νοημοσύνη είναι άλλο ένα εργαλείο που μπορεί να χρησιμοποιηθεί για καλό ή για κακό. Αυτή η σκέψη, όμως, είναι η αφετηρία και όχι η κατακλείδα της συζήτησης.
Οι αλματικές τεχνολογικές πρόοδοι εξάπτουν διαχρονικά τη φαντασία των κοινωνιών, αλλά το ζητούμενο εν προκειμένω δεν είναι τόσο το πώς λειτουργεί η τεχνητή νοημοσύνη – ως προηγμένη και ταχύτατη μηχανή στατιστικής παραγωγής λέξεων – όσο το πώς αλληλεπιδρούμε μαζί της και το πώς μεταβάλλει τη σχέση μας με τη γνώση και την πληροφορία στο πλαίσιο αυτού που έχει ονομαστεί εύστοχα «καπιταλισμός της πλατφόρμας».
Πέρα από τις μεγάλης κλίμακας εφαρμογές της, από τη στρατιωτική βιομηχανία μέχρι την επιστημονική έρευνα, η τεχνητή νοημοσύνη έχει ήδη ενσωματωθεί και στο καθημερινό ρεπερτόριο εκατομμυρίων ανθρώπων: τα γλωσσικά μοντέλα είναι πάνω απ’ όλα ένας συνομιλητής τσέπης, μια ομιλούσα κεφαλή που μπορεί να συζητήσει εξίσου άνετα μαζί μας για τα διλήμματα της προσωπικής μας ζωής, για την υγεία μας και την εργασία μας, για τις μυριάδες απορίες που αναδύονται μέσα από την καθημερινή μας αλληλεπίδραση με την πραγματικότητα.
Η τομή που έχει επιφέρει έγκειται περισσότερο σε αυτό το σημείο παρά στην πρόσβασή της σε έναν ωκεανό πληροφοριών, διότι ένας ωκεανός πληροφοριών δεν έχει καμία εγγενή χρησιμότητα.
Το ζητούμενο δεν είναι τόσο το πώς λειτουργεί η τεχνητή νοημοσύνη όσο το πώς αλληλεπιδρούμε μαζί της και το πώς μεταβάλλει τη σχέση μας με τη γνώση και την πληροφορία στο πλαίσιο αυτού που έχει ονομαστεί εύστοχα «καπιταλισμός της πλατφόρμας»
Για να γίνει σαφής αυτή η τομή, ας αναλογιστούμε την Google, μια εταιρεία που γιγαντώθηκε γιατί συνέλαβε, εφάρμοσε και κεφαλαιοποίησε καλύτερα από τους ανταγωνιστές της την ιδέα ότι ο ωκεανός πληροφοριών που συναποτελεί το Ιντερνετ είναι άχρηστος αν δεν υπάρχει μια οργανωτική αρχή και ένας τρόπος πλοήγησης.
Ενα γκουγκλάρισμα δημιουργεί στιγμιαία μια βιβλιοθήκη στην οποία μπορούμε να περιηγηθούμε, να επιλέξουμε, να σκρολάρουμε· δεν δημιουργεί, όμως, μια συνεχή αφήγηση, σε αντίθεση με τα γλωσσικά μοντέλα τεχνητής νοημοσύνης, ούτε έναν διάλογο. Ακούμε διαρκώς πως κάποιος «ρώτησε» κάτι το ChatGPT – το ρήμα «γκουγκλάρω», αντίθετα, παραπέμπει περισσότερο στο ξεφύλλισμα μιας εγκυκλοπαίδειας.
Κάθε ερώτησή μας στο ChatGPT έχει ως απάντηση μια αφήγηση, μια ιστορία, έναν δομημένο λόγο που μιμείται αρκετά πιστά τον δικό μας. Συχνά ακούμε πως η εικόνα έχει υπερκεράσει το κείμενο, αλλά οι εκατομμύρια καθημερινοί γραπτοί διάλογοι με την τεχνητή νοημοσύνη επαναφέρουν το αφηγηματικό κείμενο στο προσκήνιο.
Και είναι ένα κείμενο διαρκώς διαθέσιμο, ο συγγραφέας του οποίου εμφανίζεται απόλυτα βέβαιος για αυτά που λέει, μέχρι να υιοθετήσει εξίσου εύκολα ένα αντιδιαμετρικά αντίθετο συμπέρασμα μετά τις διορθώσεις του χρήστη. Η αρχή πως η πληροφορία δεν έχει ποτέ αξία χωρίς το συγκείμενό της αποκτά νέες διαστάσεις.
Τα μεγάλα γλωσσικά μοντέλα τύπου ChatGPT, λοιπόν, ως εμπορικό προϊόν, μεταβάλλουν τη σχέση μας με την πληροφορία όχι τόσο λόγω των γνώσεών τους, αλλά κυρίως λόγω της διαλογικής και αφηγηματικής μορφής με την οποία καταναλώνουμε αυτές τις πληροφορίες.
Η φαντασίωση των προηγούμενων δεκαετιών πως ο καθένας έχει «όλες τις εγκυκλοπαίδειες του κόσμου στην τσέπη του» δίνει τη θέση της σε μια νέα: ο καθένας έχει ένα φαινομενικά νοήμον ον στην τσέπη του, το οποίο μπορεί, ανάλογα με τις ανάγκες της στιγμής, να φοράει τον μανδύα του φίλου, του δασκάλου, του συναδέλφου, του γιατρού.
Οπως συμβαίνει με τις εικόνες όπου η διάταξη των παραθύρων ενός σπιτιού μοιάζει στα μάτια μας να σχηματίζει ένα ανθρώπινο πρόσωπο, έτσι και τα μεγάλα γλωσσικά μοντέλα στηρίζουν την επιτυχία τους στον ανθρωπομορφισμό και την παρειδωλία. Εν προκειμένω, το μέσο δεν είναι το μήνυμα, αλλά υποδύεται τον αφηγητή του μηνύματος.
Ο κύριος Χρήστος Τριανταφύλλου είναι μεταδιδακτορικός ερευνητής στο Τμήμα Ιστορίας και Αρχαιολογίας του ΕΚΠΑ.
