ΤΟ ΒΗΜΑ logo

Μέχρι κι ο CEO του OpenAI επιμένει πως δε θα έπρεπε να εμπιστευόμαστε τόσο το ChatGPT

Μέχρι κι ο CEO του OpenAI επιμένει πως δε θα έπρεπε να εμπιστευόμαστε τόσο το ChatGPT 1
Getty

«Οι άνθρωποι έχουν εξαιρετικά υψηλό επίπεδο εμπιστοσύνης στο ChatGPT, κάτι που είναι ενδιαφέρον, γιατί η τεχνητή νοημοσύνη… επινοεί πράγματα. Στην πραγματικότητα, πρόκειται για μια τεχνολογία στην οποία δεν θα έπρεπε να έχουμε τόση εμπιστοσύνη» δήλωσε ο Sam Altman.

ΑΠΟ GRACE TEAM

Σε μία από τις πιο ειλικρινείς και, παράλληλα, ειρωνικές τοποθετήσεις για την εποχή της τεχνητής νοημοσύνης, ο Sam Altman, διευθύνων σύμβουλος της OpenAI, δήλωσε ευθέως ότι οι άνθρωποι ίσως εμπιστεύονται υπερβολικά πολύ το ChatGPT.

Μιλώντας στο πρώτο επεισόδιο του νέου εταιρικού podcast της OpenAI, ο Altman είπε: «Οι άνθρωποι έχουν εξαιρετικά υψηλό επίπεδο εμπιστοσύνης στο ChatGPT, κάτι που είναι ενδιαφέρον, γιατί η τεχνητή νοημοσύνη… επινοεί πράγματα. Στην πραγματικότητα, πρόκειται για μια τεχνολογία στην οποία δεν θα έπρεπε να έχουμε τόση εμπιστοσύνη».

Πώς είπατε; Μέχρι κι ο CEO της εταιρείας λέει ότι δεν πρέπει να εμπιστευόμαστε το προϊόν του; Η δήλωσή του, όσο σουρεαλιστική κι αν ακούγεται, αγγίζει έναν υπαρκτό και θεμελιώδη προβληματισμό. Παρόλο που η τεχνητή νοημοσύνη βρίσκεται ακόμα σε πρώιμο στάδιο ανάπτυξης, εκατομμύρια χρήστες παγκοσμίως την εμπιστεύονται για τα πάντα: από τη σύνταξη επιστημονικών ερευνών και πτυχιακών μέχρι συμβουλές για την ανατροφή των παιδιών και δωρεάν ψυχοθεραπεία. Για πολλούς, το ChatGPT έχει γίνει personal trainer, γραμματέας, φίλος, ψυχαναλυτής, διατροφολόγος, παθολόγος, σύμβουλος γάμου, στυλίστας και...πνευματικός.

Ο ίδιος ο Altman παραδέχτηκε ότι κατέφυγε στο ChatGPT για βοήθεια όταν γεννήθηκε το παιδί του: «Το χρησιμοποίησα αρκετά για ερωτήσεις σχετικές με το γονεϊκό ρόλο. Είναι χρήσιμο αλλά κι επικίνδυνο, γιατί μπορεί να δώσει λανθασμένες απαντήσεις με απόλυτη αυτοπεποίθηση».

Αυτό είναι ίσως το πιο κρίσιμο σημείο: η τεχνητή νοημοσύνη δεν είναι πάντα σωστή, αλλά μιλάει σαν να είναι. Τα Large Language Models όπως το ChatGPT μπορούν να παράγουν πειστικές, δομημένες και φαινομενικά τεκμηριωμένες απαντήσεις που, ωστόσο, συχνά είναι εντελώς λάθος ή και κατασκευασμένες εξ ολοκλήρου.

Το φαινόμενο αυτό, γνωστό και ως hallucination, έχει γίνει αντικείμενο σκεπτικισμού, αλλά δεν φαίνεται να μειώνει την πίστη των χρηστών. Αντιθέτως, η ομαλή αλληλεπίδραση, η προσωποποιημένη απάντηση και η αίσθηση «νοημοσύνης» που αποπνέουν τα bots, ενισχύουν μια σχεδόν συναισθηματική εμπιστοσύνη, σαν να μιλάμε με έναν φίλο ή έναν ειδικό.

Κι όμως, όπως υπενθυμίζει ο Altman: «Η τεχνητή νοημοσύνη επινοεί πράγματα εκ του μηδενός. Δεν πρέπει να της έχουμε τυφλή εμπιστοσύνη».

Το σχόλιο αυτό αποκτά ιδιαίτερο βάρος εν όψει της μαζικής υιοθέτησης της τεχνητής νοημοσύνης σε κρίσιμους τομείς: υγεία, δικαιοσύνη, εκπαίδευση. Ο Altman τονίζει ότι το στοίχημα πλέον δεν είναι μόνο τεχνολογικό, αλλά και ηθικό. Αφορά την εκπαίδευση των χρηστών, την κριτική σκέψη και την προστασία της ιδιωτικότητας.

Ο ίδιος πρόσθεσε ότι η OpenAI δίνει προτεραιότητα στη διαφάνεια και τη διασφάλιση των προσωπικών δεδομένων, ειδικά τώρα που τα εργαλεία AI γίνονται πιο "έξυπνα", πιο προσβάσιμα και πιο ενσωματωμένα στην καθημερινότητά μας. Μέχρι τότε όμως, οι χρήστες καλούνται να θυμούνται κάτι πολύ απλό: Μην πιστεύετε πάντα ό,τι σας λέει το ρομπότ.


Summer Body: Ήλιος, παραλία και… ανασφάλεια

Το καλοκαίρι φέρνει ήλιο, αλάτι στα μαλλιά και άμμο παντού. Αλλά φέρνει και κάτι άλλο, πιο ύπουλο: ανασφάλεια.


Exit mobile version