Σύμφωνα με μελέτη, όσοι χρησιμοποιούν μεγάλα γλωσσικά μοντέλα για να ερευνήσουν διάφορα θέματα τελικά κατανοούν λιγότερο τα θέματα αυτά. Το ChatGPT και τα άλλα Μεγάλα Γλωσσικά Μοντέλα (LLM) υπόσχονται να κάνουν τη μάθηση ευκολότερη από ποτέ. Ωστόσο, νεότερες έρευνες δείχνουν ότι, όταν κάτι μαθαίνεται τόσο εύκολα, είναι λιγότερο πιθανό να εμπεδωθεί. Τα Μεγάλα Γλωσσικά Μοντέλα είναι μια μορφή παραγωγικής τεχνητής νοημοσύνης που επικοινωνεί όπως οι άνθρωποι, μέσω της γλώσσας.
Ωστόσο, σε μια σειρά πειραμάτων στα οποία συμμετείχαν πάνω από 4.500 άτομα στο Wharton School του Πανεπιστημίου της Πενσιλβάνια, όσοι χρησιμοποίησαν τα Μεγάλα Γλωσσικά Μοντέλα για να αναζητήσουν πληροφορίες για καθημερινά θέματα εμφανίστηκαν να κατανοούν λιγότερο τα θέματα αυτά μετέπειτα και διατύπωσαν λιγότερο πρωτότυπες ιδέες σε σχέση με εκείνους που έκαναν αναζητήσεις για τα ίδια θέματα χρησιμοποιώντας το Google.
Τείνουν να θυμούνται λιγότερα
Τα ευρήματα αυτά γεννούν προβληματισμούς σχετικά με τον τρόπο που οι άνθρωποι ερευνούν και μαθαίνουν, λέει η επικεφαλής της έρευνας, καθηγήτρια μάρκετινγκ στο Wharton, Σίρι Μέλουμαντ. «Είναι σαν το “Φαινόμενο Google” (Google Effect), με παράλληλη λήψη στεροειδών» λέει παραπέμποντας σε παλαιότερες έρευνες που έδειξαν ότι οι άνθρωποι τείνουν να θυμούνται λιγότερα όταν έχουν τη δυνατότητα να αναζητήσουν πληροφορίες εύκολα. Με τα Μεγάλα Γλωσσικά Μοντέλα, λέει, «απομακρυνόμαστε ακόμα περισσότερο από την ενεργητική μάθηση».
Σε τέσσερα πειράματα, η Μέλουμαντ και ο συνεργάτης της, Τζιν Χο Γιουν, ανέθεσαν με τυχαίο τρόπο στους συμμετέχοντες να χρησιμοποιήσουν είτε τη μηχανή αναζήτησης Google (Google Search) είτε ένα μεγάλο γλωσσικό μοντέλο για να ερευνήσουν ένα συνηθισμένο θέμα και, έπειτα, να γράψουν συμβουλές βασισμένες σε όσα είχαν μάθει. Στο πρώτο πείραμα ζητήθηκε από περισσότερους από 1.100 συμμετέχοντες να χρησιμοποιήσουν είτε το Google είτε το ChatGPT για να βρουν πληροφορίες για τη δημιουργία ενός λαχανόκηπου.

Σε σύγκριση με τους χρήστες του ChatGPT, οι χρήστες του Google αφιέρωσαν περισσότερο χρόνο στην αναζήτηση, ανέφεραν ότι έκαναν μεγαλύτερη προσπάθεια και έγραψαν εκτενέστερα και πιο λεπτομερή κείμενα. Η ανάλυση της φυσικής γλώσσας έδειξε ότι οι συμβουλές τους είχαν επίσης πιο πρωτότυπη διατύπωση και αναφορές σε πραγματικά δεδομένα. Για να αποκλειστεί η πιθανότητα τα διαφορετικά αποτελέσματα να οφείλονται στις διαφορές των ίδιων των πληροφοριών –και όχι απλώς στον τρόπο παρουσίασής τους– διεξήχθη ένα δεύτερο πείραμα.
«Οι φοιτητές που χρησιμοποιούν εργαλεία τεχνητής νοημοσύνης τείνουν να τα πηγαίνουν χειρότερα στις εξετάσεις αλλά καλύτερα στις γραπτές εργασίες»
Σε αυτό, παρουσιάστηκαν σε σχεδόν 2.000 συμμετέχοντες οι ίδιες επτά συμβουλές κηπουρικής, είτε ως μια ενιαία περίληψη, όπως θα την παρήγαγε η τεχνητή νοημοσύνη, είτε με τη μορφή έξι επιμέρους ιστοσελίδων, όπως εμφανίζονται συνήθως τα αποτελέσματα αναζήτησης στο Google. Και πάλι, οι χρήστες του Google ασχολήθηκαν πιο ουσιαστικά, συγκράτησαν περισσότερα και έγραψαν πιο εμπεριστατωμένες και πρωτότυπες συμβουλές σε σχέση με τους χρήστες του μεγάλου γλωσσικού μοντέλου. Δύο ακόμη πειράματα έδωσαν ανάλογα αποτελέσματα.
Πρόβλημα κινήτρου
Ο Ντάνιελ Οπενχάιμερ, καθηγητής ψυχολογίας και επιστήμης των αποφάσεων στο Πανεπιστήμιο Carnegie Mellon, λέει ότι τα αποτελέσματα της έρευνας συνάδουν με αυτά που βλέπει σε παρόμοιες μελέτες που διεξάγει στο εργαστήριό του: Οι φοιτητές που χρησιμοποιούν εργαλεία τεχνητής νοημοσύνης τείνουν να τα πηγαίνουν καλύτερα στις γραπτές εργασίες – αλλά χειρότερα στις εξετάσεις. «Βρίσκουν τις σωστές απαντήσεις, αλλά δεν μαθαίνουν», λέει.
Σύμφωνα με τον Οπενχάιμερ, τα ευρήματα αυτά δείχνουν ότι και μόνο η σκέψη ότι η πληροφορία έχει προέλθει από ένα μεγάλο γλωσσικό μοντέλο κάνει τους ανθρώπους να μαθαίνουν λιγότερο. «Είναι σαν να πιστεύουν ότι το σύστημα είναι εξυπνότερο από εκείνους, οπότε σταματούν να προσπαθούν», λέει. «Δεν είναι απλώς ένα γνωστικό ζήτημα είναι ζήτημα κινήτρου». Ο Οπενχάιμερ, ωστόσο, συνιστά να μην απορρίπτουμε συλλήβδην την τεχνητή νοημοσύνη.
Εχει διαπιστώσει ότι το GPT βοηθά τους φοιτητές να μαθαίνουν όταν το χρησιμοποιούν με τον σωστό τρόπο – για παράδειγμα, όταν αξιολογούν κριτικά ένα σχέδιο κειμένου που έχει παραχθεί από ένα μεγάλο γλωσσικό μοντέλο ή όταν του θέτουν διερευνητικά ερωτήματα. «Δεν είναι απαραίτητο η τεχνητή νοημοσύνη να μας κάνει παθητικούς. Ομως, αυτή τη στιγμή, έτσι τη χρησιμοποιούν οι άνθρωποι», λέει.
Και η Μέλουμαντ εκφράζει ανησυχίες για τις μελλοντικές επιπτώσεις της τεχνητής νοημοσύνης, ιδιαίτερα σε εκπαιδευτικό περιβάλλον ή σε επαγγέλματα που βασίζονται στην κριτική σκέψη. Αλλά, όπως και ο Οπενχάιμερ, βλέπει και τις ευκαιρίες που προσφέρει η τεχνητή νοημοσύνη. «Οι νεότεροι στρέφονται όλο και περισσότερο στα Μεγάλα Γλωσσικά Μοντέλα ως πρώτη επιλογή», λέει η Μέλουμαντ. «Ομως, αν δεν τους διδάξουμε πώς να συνθέτουν και να ερμηνεύουν οι ίδιοι τις πληροφορίες, διακινδυνεύουμε να υποβαθμίσουμε εντελώς την ικανότητά τους για βαθιά μάθηση».








