Φανταστείτε ότι επικολλήσατε τις σημειώσεις σας από ένα ραντεβού με τον ακτινολόγο σας σε μια εφαρμογή Τεχνητής Νοημοσύνηςhe wa (A.I. chatbot) και της ζητήσατε να σας κάνει μια περίληψη. Αργότερα, ένας ξένος ζητά από το ίδιο chatbot να τον διαφωτίσει σχετικά με τις ανησυχίες του για τον καρκίνο, και κάποιο τμήμα της – υποτίθεται ιδιωτικής – συνομιλίας σας σερβίρεται στον άλλο χρήστη ως μέρος της απάντησης προς αυτόν.

Ανησυχίες για τέτοιες δυνητικές παραβιάσεις του απορρήτου αποτελούν σήμερα κορυφαίο θέμα για πολλούς, καθώς η δημοφιλία των chatbot δημιουργικής Τεχνητής Νοημοσύνης (generative AI) κερδίζει έδαφος. Το μεγάλο ερώτημα εδώ είναι: Είναι ασφαλές να μοιράζεται κάποιος προσωπικές πληροφορίες με αυτά τα chatbot;

Η σύντομη απάντηση είναι ότι υπάρχει πάντα ο κίνδυνος οι πληροφορίες που μοιράζεσαι να δημοσιοποιηθούν με κάποιον τρόπο. Αλλά υπάρχουν τρόποι να περιοριστεί ο κίνδυνος αυτός.

Για να κατανοήσουμε τις ανησυχίες αυτές είναι βοηθητικό να σκεφτούμε τον τρόπο με τον οποίο «εκπαιδεύονται» αυτά τα ψηφιακά εργαλεία – το πώς τροφοδοτούνται αρχικά με τεράστιες ποσότητες πληροφοριών από το διαδίκτυο ή άλλες πηγές και πώς μπορούν να συνεχίζουν να συγκεντρώνουν πληροφορίες από τη διάδρασή τους με χρήστες, ώστε δυνητικά να γίνουν ευφυέστερα και πιο ακριβή.

Ως αποτέλεσμα, όταν ρωτάς ένα διαλογικό ρομπότ τεχνητής νοημοσύνης, η απάντησή του βασίζεται εν μέρει σε παλιότερο υλικό από την εποχή που δεν υπήρχαν κανόνες γύρω από την χρήση των δεδομένων στο διαδίκτυο και τo προσωπικό απόρρητο. Ακόμη και το υλικό που προέρχεται από πιο πρόσφατες πηγές είναι γεμάτο από προσωπικές πληροφορίες σκορπισμένες στο διαδίκτυο.

Αυτό αφήνει πολλές πιθανότητες οι προσωπικές πληροφορίες να έχουν ενσωματωθεί στο εκπαιδευτικό υλικό των διάφορων chatbot δημιουργικής τεχνητής νοημοσύνης – πληροφορίες που θα μπορούσαν να εμφανιστούν αθέλητα στη συζήτηση κάποιου άλλου με ένα chatbot ή να χακαριστούν και να αποκαλυφθούν εσκεμμένα από κακόβουλους χρήστες, μέσω δόλιων προτροπών ή ερωτήσεων.

«Ξέρουμε ότι είναι εκπαιδευμένα με βάση έναν τεράστιο όγκο πληροφοριών που μπορεί να περιέχει ευαίσθητα δεδομένα – και μάλλον τελικά όντως περιέχει», λέει ο Ramayya Krishman, επικεφαλής του Block Center for Technology and Society και κοσμήτορας στο κολέγιο Πληροφοριακών Συστημάτων και Δημόσιας Πολιτικής Heinz του πανεπιστημίου Carnegie Mellon.

Ένα μεγάλο πρόβλημα, λέει ο Krishman είναι ότι κανείς δεν έχει κάνει έναν ανεξάρτητο έλεγχο για να δει ποια δεδομένα χρησιμοποιούνται στην εκπαίδευση των chatbot. «Πολλά από τα στοιχεία που έχουμε για το πρόβλημα προέρχονται από επιστήμονες που παραβιάζουν τα μέτρα ασφάλειας και δείχνουν ότι το εκπαιδευτικό υλικό εμπεριέχει προσωπικά δεδομένα», λέει. «Γνωρίζω σίγουρα παραβιάσεις που αποδεικνύουν ότι υπάρχουν ευαίσθητα δεδομένα στα εκπαιδευτικά μοντέλα».

Επιπλέον, προσθέτει ο καθηγητής, ένα εργαλείο τεχνητής νοημοσύνης, αφού δημιουργηθεί, σε γενικές γραμμές εξακολουθεί να εκπαιδεύεται μέσα από τη διάδραση με τους χρήστες, απορροφώντας και αποθηκεύοντας οποιαδήποτε πληροφορία του δίνουν.

Εκτός αυτού, σε κάποιες περιπτώσεις, εργαζόμενοι σε εταιρίες ανάπτυξης τέτοιων προγραμμάτων διαβάζουν ορισμένες από τις συζητήσεις των χρηστών με τα chatbot. Αυτό γίνεται εν μέρει προκειμένου να εντοπίσουν και να αποτρέψουν ανάρμοστη συμπεριφορά και να συμβάλουν στην ακρίβεια και τον ποιοτικό έλεγχο των μοντέλων, λένε ειδικοί, καθώς και για να αποφασίσουν ποιο υποσύνολο συνομιλιών θέλουν οι εταιρίες να χρησιμοποιήσει η τεχνητή νοημοσύνη για την εκπαίδευσή της.

Συμβαίνουν διάφορα

Οι ανησυχίες για τα προσωπικά δεδομένα δεν είναι θεωρητικές. Έχουν αναφερθεί περιπτώσεις όπου εμπιστευτικές πληροφορίες γνωστοποιήθηκαν ακούσια σε χρήστες. Τον περασμένο Μάρτιο η OpenAI αποκάλυψε ένα ευάλωτο σημείο το οποίο επέτρεπε σε κάποιους χρήστες του ChatGPT να δουν τους τίτλους συζητήσεων άλλων χρηστών με το ψηφιακό εργαλείο, ενώ ίσως εκτέθηκαν δημόσια για μικρό χρονικό διάστημα και στοιχεία πληρωμών κάποιων χρηστών, όπως ηλεκτρονικές διευθύνσεις, τα τελευταία τέσσερα ψηφία αριθμών πιστωτικών καρτών και οι ημερομηνίες λήξης τους. Αυτό ήταν αποτέλεσμα μιας δυσλειτουργίας σε κάποιο λογισμικό ανοικτού κώδικα (που σημαίνει ότι ο κώδικας είναι ελεύθερος σε όλους να τον δουν, να τον τροποποιήσουν και να τον χρησιμοποιήσουν) που χρησιμοποιήθηκε στην εκπαίδευση του εργαλείου.

Τα chatbot είναι επίσης ευάλωτα και σε

σκόπιμες επιθέσεις. Για παράδειγμα, κάποιοι ερευνητές πρόσφατα ανακάλυψαν εύκολους τρόπους να προσπεράσουν τα συστήματα ασφαλείας και να φέρουν στο φως προσωπικές πληροφορίες, μεταξύ των οποίων και email, οι οποίες είχαν συγκεντρωθεί μέσω μεγάλων γλωσσικών μοντέλων (large language models – LLM).

Το τρωτό σημείο «επιδιορθώθηκε άμεσα», σημειώνει ο Krishman. «Αλλά το θέμα είναι, ότι αυτά τα συστήματα λογισμικού τεχνητής νοημοσύνης είναι σύνθετα και έχουν χτιστεί πάνω σε άλλα λογισμικά, ορισμένα από τα οποία είναι ανοιχτού κώδικα και έχουν τρωτά σημεία τα οποία μπορεί κάποιος να εκμεταλλευτεί». Παρόμοια τρωτά σημεία είναι εγγενή σε μεγάλα γλωσσικά μοντέλα, λέει η Irina Raicu, επικεφαλής του προγράμματος διαδικτυακής ηθικής στο Κέντρο Εφαρμοσμένης Ηθικής Markkula του Πανεπιστημίου της Σάντα Κλάρα.

Οι ανησυχίες σχετικά με την ασφάλεια των δεδομένων είναι τόσο μεγάλες ώστε αρκετές εταιρίες έχουν περιορίσει ή απαγορεύσει τη χρήση chatbot τεχνητής νοημοσύνης από τους υπαλλήλους τους στη δουλειά. «Αν οι μεγάλες επιχειρήσεις ανησυχούν για την ασφάλεια των πληροφοριών τους, αν δεν είναι βέβαιες για το τι συμβαίνει με τα δεδομένα τους, αυτό μας λέει ότι θα πρέπει να είμαστε προσεκτικοί όταν μοιραζόμαστε οτιδήποτε προσωπικό», λέει η Raicu.

Δεν υπάρχουν και πολλά που μπορούν να γίνουν για ό,τι περιλαμβάνεται ήδη στα μοντέλα chatbot, λέει η ίδια, «αλλά γιατί να ρισκάρεις να δημοσιευτεί κάποια προσωπική σου πληροφορία, εισάγοντας στο μοντέλο νέα στοιχεία σαν αυτά;».

Απλώς μην το κάνετε

Οι δημιουργοί των chatbot έχουν κάνει ορισμένα βήματα για να προστατέψουν τα προσωπικά δεδομένα των χρηστών. Για παράδειγμα, οι χρήστες μπορούν να απενεργοποιήσουν την δυνατότητα του ChatGTP να αποθηκεύει το ιστορικό της συζήτησής τους επ’ αόριστον, μέσω ενός πολύ ορατού κουμπιού στην αρχική του σελίδα. Αυτό δεν παρέχει εξασφαλισμένη προστασία απέναντι στους χάκερς –η ιστοσελίδα λέει ότι θα αποθηκεύσει για 30 ημέρες τις νέες συνομιλίες των χρηστών που κάνουν αυτή την επιλογή– αλλά δηλώνει ρητώς ότι οι συζητήσεις δεν θα χρησιμοποιηθούν στην εκπαίδευση του μοντέλου.

Το Bard απαιτεί από τους χρήστες του να συνδέονται στο Bard.Google.com, και στη συνέχεια να ακολουθούν κάποια βήματα για να διαγράψουν όλη τη δραστηριότητα συζητήσεων, ως προεπιλογή. Οι χρήστες του Bing μπορούν να ανοίξουν την ιστοσελίδα του chatbot, να δουν το ιστορικό αναζητήσεών τους στη δεξιά πλευρά της σελίδας και μετά να διαγράψουν όποιες συζητήσεις θέλουν, εξηγεί εκπρόσωπος της Microsoft. «Ωστόσο, προς το παρόν οι χρήστες δεν μπορούν να απενεργοποιήσουν το ιστορικό των συζητήσεων», ανέφερε.

Ωστόσο, ο καλύτερος τρόπος για να προστατεύσουν οι καταναλωτές τους εαυτούς τους, λένε οι ειδικοί, είναι να αποφεύγουν να γνωστοποιούν προσωπικές τους πληροφορίες σε ένα εργαλείο δημιουργικής τεχνητής νοημοσύνης και να έχουν το νου τους για ορισμένα προειδοποιητικά σημεία, όταν συνομιλούν με οποιαδήποτε εφαρμογή τεχνητής νοημοσύνης.

Κάποια από αυτά τα προειδοποιητικά σημεία αφορούν και τη χρήση chatbot που δεν διαθέτουν κάποια ειδοποίηση σχετικά με την προστασία του απορρήτου. «Κάτι τέτοιο σου λέει ότι η ελάχιστη απαραίτητη διαχείριση δεν είναι όσο ώριμη θα έπρεπε», λέει ο Dominique Shelton Leipzig, δικηγόρος ειδικός στην ασφάλεια προσωπικών δεδομένων και την κυβερνοασφάλεια στην εταιρία νομικών συμβούλων Mayer Brown.

Άλλο προειδοποιητικό σημείο αποτελούν οι τυχόν απαιτήσεις του chatbot για παροχή περισσότερων προσωπικών πληροφοριών από όσες είναι λογικά αναγκαίες. «Κάποιες φορές για να μπεις σε κάποιον λογαριασμό πρέπει να δώσεις τον αριθμό του λογαριασμού σου ή ένα password, και να απαντήσεις σε προσωπικές ερωτήσεις, και αυτό είναι σύνηθες», λέει η Shelton Leipzig. «Το να σας ζητούν να δώσετε τον αριθμό κοινωνικής ασφάλισης είναι άλλο πράγμα. Μην το κάνετε». Η ίδια λέει επίσης ότι δεν είναι σώφρον να συζητάς οτιδήποτε προσωπικό με ένα διαλογικό ρομπότ τεχνητής νοημοσύνης για το οποίο δεν έχεις ξανακούσει, μια που η διαχείριση όλου του συστήματος ίσως να γίνεται κακόβουλα.

Η Raicu του Πανεπιστημίου της Σάντα Κλάρα προειδοποιεί να μην εισάγουμε σε chatbot γενικής χρήσης συγκεκριμένες πληροφορίες για την κατάσταση της υγείας μας ή για τα οικονομικά μας, μια και οι περισσότερες εταιρίες chatbot έχουν ξεκάθαρο στους όρους χρήσης τους ότι υπάλληλοί τους ενδεχομένως διαβάζουν ορισμένες από τις συνομιλίες. «Αξίζει τον κίνδυνο να κυκλοφορήσουν οι προσωπικές σας πληροφορίες για μια απάντηση του chatbot που μπορεί να είναι και ανακριβής; Μάλλον όχι», λέει η Raicu.

Ο Krishnan, του Carnegie Mellon, επικαλούμενος τον κίνδυνο των χάκερ, προειδοποιεί να σκεφτόμαστε δύο φορές προτού χρησιμοποιήσουμε τη λειτουργία του Google Bard που επιτρέπει στο συγκεκριμένο εργαλείο την ανάγνωση και επεξεργασία όλων των email μας, ώστε να κατανοήσει το ύφος και τον τόνο της γραφής μας.

Τελικά, για ό,τι εισάγουμε σε ένα chatbot απαιτείται να κάνουμε έναν υπολογισμό κινδύνου-οφέλους και το επίπεδο όπου αισθάνεται ο καθένας ασφαλής θα είναι διαφορετικό. Ωστόσο, λένε οι ειδικοί, θα πρέπει τουλάχιστον να ελέγχουμε δύο φορές τους όρους χρήσης και την πολιτική απορρήτου ενός chatbot για να καταλάβουμε πώς θα χρησιμοποιηθούν τα δεδομένα μας.

«Ευτυχώς προς το παρόν και σε ό,τι αφορά το περιβάλλον των chatbot δεν είμαστε στο χείλος της καταστροφής», λέει η Shelton Leipzig. «Οι καταξιωμένες εταιρίες δημιουργικής τεχνητής νοημοσύνης κάνουν βήματα για να προστατεύσουν τους χρήστες». Και πάλι, επισημαίνει, να είστε πάντα προσεκτικοί προτού μοιραστείτε ευαίσθητες πληροφορίες με ένα διαλογικό ρομπότ.

Η Heidi Mitchell  είναι δημοσιογράφος στο Σικάγο και το Λονδίνο. Μπορείτε να επικοινωνήσετε μαζί της στο reports@wsj.com.