Σε κάθε νέο κύκλο εκπαίδευσης επαγγελματιών ή φοιτητών στη χρήση της Τεχνητής Νοημοσύνης (ΤΝ) στο μάρκετινγκ και την επικοινωνία, επαναλαμβάνω το ίδιο μικρό πείραμα. Ζητώ από τους συμμετέχοντες να διατυπώσουν ένα αναλυτικό ερώτημα/οδηγία (prompt), προκειμένου να σχεδιάσουν τη στρατηγική ενός εμπορικού σήματος (brand) στα μέσα κοινωνικής δικτύωσης. Μέσα σε δευτερόλεπτα, οι οθόνες γεμίζουν με προτάσεις που ακούγονται εντυπωσιακά επαγγελματικές: «Αυθεντική αφήγηση» (authentic storytelling), «Περιεχόμενο χρηστών» (user-generated content), «ενιαία πολυκαναλική προσέγγιση» (omnichannel προσέγγιση). Όσο οι οθόνες γεμίζουν με λέξεις, τα πρόσωπα των συμμετεχόντων γεμίζουν με χαμόγελα. Νιώθουν ότι η δουλειά «βγήκε».

Τότε, αλλάζω (ή και καταστρέφω) την ατμόσφαιρα με μια δεύτερη άσκηση: «Μη μου δώσετε άλλες ιδέες. Αιτιολογήστε αυτές που έχετε. Γιατί user-generated content και όχι χρήση influencers; Γιατί TikTok και όχι YouTube Shorts; Γιατί αυτό το συγκεκριμένο μήνυμα, για αυτό το κοινό, σε αυτή τη μοναδική στιγμή του ταξιδιού του καταναλωτή;».

Εκεί, συνήθως, απλώνεται σιωπή. Όχι επειδή λείπει το ταλέντο, αλλά επειδή η γλωσσική ευφράδεια της τεχνητής νοημοσύνης δημιουργεί μια ψευδαίσθηση αυτοπεποίθησης. Η μηχανή παράγει κείμενο, αλλά η κρίση παραμένει ανθρώπινη ευθύνη. Και τα δεδομένα δείχνουν ότι αυτή η διάκριση δεν είναι μια φιλοσοφική λεπτομέρεια, αλλά ο πυρήνας της νέας αγοράς εργασίας.

Πρόσφατες έρευνες από το Stanford και άλλους ακαδημαϊκούς φορείς (2025) κρούουν τον κώδωνα του κινδύνου: οι θέσεις εργασίας junior επιπέδου σε επαγγέλματα που εκτίθενται στην ΤΝ μειώνονται. Οι εταιρείες δεν σταματούν να προσλαμβάνουν, αλλά γίνονται πιο επιλεκτικές. Αναζητούν ανθρώπους που δεν θα πατήσουν απλώς το κουμπί «Δημιουργία/Generate», αλλά θα είναι σε θέση να αξιολογήσουν το αποτέλεσμα.

Και τα LLMs κάνουν λάθη

Και εδώ κρύβεται η μεγάλη παγίδα. Το πρόβλημα με τα Large Language Models (LLMs) δεν είναι μόνο ότι κάνουν λάθη. Είναι ότι τα λάθη τους μοιάζουν απόλυτα πειστικά (το φαινόμενο που στη βιβλιογραφία ονομάζεται «hallucination»). Στην υπόθεση Mata v. Avianca, δικηγόροι στις ΗΠΑ παρουσίασαν στο δικαστήριο ανύπαρκτες νομολογίες που είχε «φανταστεί» το ChatGPT. Το δικαστήριο τους τιμώρησε, υπενθυμίζοντας κάτι που μας αφορά όλους: ο επαγγελματίας έχει ρόλο θεματοφύλακα (gatekeeper) και η ευθύνη παραμένει σε αυτόν που χρησιμοποιεί την τεχνολογία. Δεν μεταβιβάζεται στον αλγόριθμο.

Θυμάμαι τα φοιτητικά μου χρόνια στα αμφιθέατρα του ΟΠΑ να γκρινιάζω συχνά για την τόση (στο μυαλό μου) θεωρία. Ως νέος που βιαζόταν (και βαριόταν) ήθελα «εργαλεία», εργασίες και πρακτικές λύσεις. Σήμερα, ειρωνικά, συνειδητοποιώ ότι αυτό που με προστατεύει από το πιο πειστικό λάθος που μπορεί να με οδηγήσει η μηχανή είναι ακριβώς εκείνο το θεωρητικό υπόβαθρο. Μάλιστα, συνειδητοποιώ ότι όσο μεγαλώνω, τόσο περισσότερα «βιβλία θεωρίας» διαβάζω.

Η μεθοδολογία της έρευνας, η διάκριση μεταξύ συσχέτισης και αιτιότητας (correlation vs causation), η λογική της τμηματοποίησης (segmentation), τα θεμελιώδη πλαίσια της στρατηγικής. Αυτά δεν παράγονται με ένα prompt. Είναι η κατανόηση που χτίσαμε στο Πανεπιστήμιο. Είναι το φίλτρο που κρίνει αν ένα αποτέλεσμα στέκει ή αν είναι απλώς μια καλογραμμένη ανοησία που ικανοποιεί ένα αντίστοιχα γενικό ή ανόητο prompt.

Στην καθημερινή μου ζωή, έχω καταλήξει σε ένα πλαίσιο χρήσης της ΤΝ που θυμίζει περισσότερο την επιστημονική μέθοδο που τότε διδαχθήκαμε, παρά απλή συγγραφή ενός prompt:

Ορίζω το ζητούμενο ως πρόβλημα: Δεν κάνω απλώς μια ερώτηση. Περιγράφω την απόφαση που πρέπει να πάρω, ορίζω το πλαίσιο, μοιράζομαι τα απαραίτητα δεδομένα και θέτω τα κριτήρια επιτυχίας.

Απαιτώ την αλήθεια, όσο σκληρή κι αν είναι: Ζητώ ρητά από το μοντέλο να μην είναι ευγενικό και να μην προσπαθεί να με καλοπιάσει. Του ζητώ να εντοπίσει τα κενά, να κάνει τον «δικηγόρο του διαβόλου» και να μου πει γιατί η σκέψη μου μπορεί να αποτύχει. Για εμένα η ΤΝ δεν πρέπει να είναι συγκαταβατική και να με σπρώχνει σε προκατάληψη επιβεβαίωσης (confirmation bias)· πρέπει να μου φέρνει τον αντίλογο και να με προκαλεί να σκεφτώ περισσότερο.

Επαληθεύω-επαληθεύω-επαληθεύω: Δεν δέχομαι κανένα στοιχείο ως δεδομένο και δεν βαριέμαι να «κλικάρω» τα links. Η αληθοφάνεια δεν είναι αλήθεια. Μάλιστα, στα πιο κρίσιμα ζητήματα, προκαλώ τα διαφορετικά μοντέλα αιχμής (frontier models) να κάνουν challenge το ένα τα αποτελέσματα του άλλου. Αυτό όμως είναι μάλλον επαγγελματική διαστροφή, δεν το προτείνω ως συμβουλή για όλους.

Σε μια εποχή όπου η παραγωγή κειμένου (και όχι μόνο) έχει γίνει κοινότοπη, το πραγματικό πτυχίο δεν πιστοποιεί την ικανότητα κάποιου «να γράφει», αλλά τις ικανότητές του «να ρωτάει» και «να ελέγχει». Να ξέρει τι να ρωτήσει, τι να απορρίψει και πώς να τεκμηριώσει το γιατί.

Το μήνυμα προς τους σημερινούς φοιτητές και τους συναδέλφους alumni είναι σαφές: αγκαλιάστε την τεχνολογία, αλλά μην της παραδίδετε τα κλειδιά της σκέψης σας. Η θεωρία που μάθαμε οι παλιότεροι και μαθαίνουν οι νεότεροι στο ΟΠΑ, δεν είναι «παρωχημένη γνώση». Είναι η άμυνά μας και το συγκριτικό μας πλεονέκτημα σε έναν κόσμο που κατακλύζεται από AI slop (μαζικό, χαμηλής αξίας περιεχόμενο τεχνητής νοημοσύνης).

Του Γιώργου Γκριτζάλα, Συνιδρυτή και Chief Growth Officer στους ADVENGERS