Η τεχνητή νοημοσύνη έχει εισέλθει στο σχολικό περιβάλλον αλλά για όλους τους λάθος λόγους ιδιαίτερα δε τελευταία με την μορφή των deepfakes. Τα deepfakes δεν είναι τίποτε άλλο από συνθετικά μέσα (κυρίως με την μορφή φωτογραφιών και βίντεο) που έχουν υποστεί ψηφιακή επεξεργασία για να αντικαταστήσουν πειστικά την ομοιότητα ενός ατόμου με αυτήν ενός άλλου μέσω ιδιαίτερα ανεπτυγμένων τεχνικών μηχανικής μάθησης και τεχνητής νοημοσύνης.

Έχουν βρεθεί στην επικαιρότητα γιατί αυτήν την στιγμή τα περιστατικά χρήσης τους στο σχολικό περιβάλλον έχουν αυξηθεί γεωμετρικά τόσο στην Ελλάδα όσο και διεθνώς. Παιδιά με επιφανειακή ψηφιακή παιδεία, μηδενική γονική επίβλεψη, ελάχιστες τεχνικές γνώσεις και τις περισσότερες φορές χωρίς επίγνωση των συνεπειών των πράξεων τους ‘ανεβάζουν’ ‘πειραγμένες’ φωτογραφίες συνομηλίκων τους με την βοήθεια εύκολων στην χρήση τους εφαρμογών που διαφημίζονται για την ‘ικανότητα’ τους να ‘ξεγυμνώνουν’ πρόσωπα μέσω της αυτοματοποιημένης επεξεργασίας εικόνων.

Δεν είναι τυχαίο ότι η τεράστια μάλιστα πλειοψηφία (96%) του deepfake υλικού που κυκλοφορεί στο ίντερνετ εξακολουθεί να αφορά αποκλειστικά την «μη συναινετική πορνογραφία», με τη χρήση στα «πειραγμένα» αυτά βίντεο της εικόνας μαθητών η οποία έχει συντεθεί με τη βοήθεια της τεχνητής νοημοσύνης και αντικαθιστά την εικόνα των προσώπων που είχαν αρχικά μαγνητοσκοπηθεί για το βίντεο. Είναι χαρακτηριστικό ότι σύμφωνα με πρόσφατα στοιχεία, η μεγάλη πλεοψηφία των μαθητών γυμνασίου των ΗΠΑ δήλωσαν ότι είχαν δεχτεί εκφοβισμό μέσω μηνυμάτων κειμένου ή πλατφορμών κοινωνικών μέσων ενώ βρίσκονταν στο σχολείο.

Όπως προβλέπουν όλες οι σχετικές διεθνείς αναλύσεις, μέχρι το τέλος του 2024 θα έχουν παραχθεί περισσότερα deepfakes από όσα είχαν εμφανιστεί όλα τα προηγούμενα χρόνια μαζί. Η εκθετική αυτή άνοδος οφείλεται πρώτον στο ότι οι βάσεις δεδομένων των σχετικών εφαρμογών της τεχνητής νοημοσύνης εμπλουτίζονται συνεχώς με εκατομμύρια νέες φωτογραφίες που αναρτώνται στα μέσα κοινωνικής δικτύωσης καθημερινά αλλά και στο ότι όλο και περισσότεροι μαθητές εξοικειώνονται με τις νέες αυτές τεχνικές ψηφιακής αλλαγής αληθινών φωτογραφιών ενώ οι εφαρμογες deepfake και οι ιστοσελίδες που φιλοξενούν τέτοια βίντεο ξεφυτρώνουν σαν μανιτάρια.

Όπως μπορεί να αντιληφθεί κανείς, το στίγμα που αφήνουν αυτές οι σύγχρονες εφαρμογές στις ψυχές και στις ζωές ανύποπτων κι αθώων νέων ανθρώπων είναι ανεξίτηλο καθώς λειτουργούν ως μέσο διαρκούς εκφοβισμού και μόνιμου στιγματισμού. Αποτελούν επομένως μια σοβαρή απειλή για την ψυχική υγεία και δημιουργούν ένα τοξικό σχολικό περιβάλλον όπου κυριαρχεί ο φόβος και η διαρκής απειλή ταπείνωσης καθώς θεωρείται ιδιαίτερα πολύπλοκο να διακριβωθεί η αυθεντικότητα αυτών των βίντεο και να αφαιρεθούν εντελώς από τον κυβερνοχώρο. Σε πολλές περιπτώσεις μάλιστα μαθητές οδηγήθηκαν στην αυτοκτονία μη μπορώντας να αντέξουν το σχετικό ψυχολογικό βάρος.

Αξίζει να σημειωθεί ότι πριν από λίγο καιρό, οι πορνογραφικές εικόνες της Αμερικανίδας ποπ σταρ Taylor Swift που δημιουργήθηκαν από εφαρμογές τεχνητής νοημοσύνης πρόλαβαν να λάβουν περισσότερες από 47 εκατομμύρια προβολές μέσα σε λίγες ώρες πριν αποσυρθούν. Το γεγονός ότι ένα παγκοσμίως αναγνωρισμένο είδωλο δεν κατάφερε να αποσύρει ένα τόσο ντροπιαστικό υλικό άμεσα καταδεικνύει ότι κανείς πλέον δεν είναι ασφαλής στον ψηφιακό κόσμο.

Η ιδέα και μόνο ότι μικρά παιδιά ταπεινώνονται με έναν τόσο ακραίο τρόπο από τους ίδιους τους συμμαθητές δημιουργούν ερωτήματα για την ικανότητα των σχολικών μονάδων να αποτρέψουν ή έστω να αντιμετωπίσουν τέτοια φαινόμενα. Στις πλείστες των περιπτώσεων οι διευθύνσεις των σχολείων αντιδρούν καθυστερημένα και μάλλον χλιαρά γεγονός που έχει οδηγήσει σε πολλές περιπτώσεις οικογένειες μαθητών να αναζητήσουν δικαστική προστασία.

Πολλά δραματικά περιστατικά που έρχονται στο φως αποδεικνύουν τα αυξανόμενα κενά στην εθνική και ευρωπαϊκή νομοθεσία και την ανεπάρκεια του υπάρχοντος θεσμικού οικοδομήματος να προστατεύσει όσους μαθητές πέσουν θύματα αυτής της νέας μορφής ψηφιακού bullying. Καθώς ο όγκος των θυμάτων που μπορούν να δημιουργήσει η δημιουργία και η διάδοση αυτών των εικόνων σε πολύ σύντομο χρονικό διάστημα είναι τεράστιος, απαιτούνται άμεσα τεχνολογικά και νομοθετικά αντανακλαστικά.

Η αύξηση των περιστατικών υπογραμμίζει όχι μόνο την σκοτεινή πλευρά της τεχνολογικής προόδου αλλά και της ανάγκης μια πολύπλευρης στρατηγικής που θα περιλαμβάνει τολμηρές νομικές τομές και εκπαιδευτικές πρωτοβουλίες. Θα πρέπει η νομοθεσία να στοχεύει στην απαγόρευση της μη συναινετικής αποκάλυψης εικόνων που δημιουργούνται από την τεχνητή νοημοσύνη, καθιστώντας ποινικό αδίκημα την κοινοποίησή τους, καθώς και να παράσχει στα θύματα πλήρη δικαιώματα δικαστικής προστασίας. Οι ψηφιακές πλατφόρμες πρέπει άμεσα να αναπτύξουν ολιστικές τεχνολογίες ανίχνευσης και διαγραφής προϊόντων deep fake για να αποτρέψουν την διάδοση παραποιημένου περιεχομένου και εικόνων χωρίς τη συγκατάθεση των εμπλεκομένων ατόμων.

Εδώ όμως ακόμα η τεχνολογία δεν είναι με το μέρος των θυμάτων καθώς οι εφαρμογές ανίχνευσης deepfake και δημιουργίας ψηφιακών υδατογραφημάτων (digital watermarking) και άλλες τεχνικες (supervised learning/digital forensics) είναι ακόμα στα σπάργανα και αποτελεσματικές μόνο για ένα περιορισμένο χρονικό διάστημα ενώ επικεντρώνονται κατά βάση στον εντοπισμό ψευδών πολιτικών ειδήσεων: επομένως όλες οι ελπίδες εναποτίθενται στην ίδια την εκπαίδευση των νέων σχετικά με τις ηθικές και νομικές επιπτώσεις της δημιουργίας και διανομής ψηφιακού περιεχομένου και στην ίδια την ποιότητα της γονικής επίβλεψης. Δεδομένης και της αύξησης των περιστατικών bullying στα ελληνικά σχολεία, η ελληνική πολιτεία δεν έχει την πολυτέλεια να μείνει αδρανής απέναντι στην νέα αυτή μάστιγα που ήρθε για να μείνει: όσο τα σχολεία μας παραμένουν ανοχύρωτα και οι γονείς αμήχανοι, τα παιδιά μας θα συνεχίζουν να αντιμετωπίζονται ως εν δυνάμει όμηροι κακόβουλων και εν δυναμει εγκληματικών ψηφιακών πρακτικών.

O Δρ. Μιχάλης Kρητικός είναι ερευνητής του ΕΛΙΑΜΕΠ και Επίκουρος Καθηγητής σε θέματα Τεχνητής Νοημοσύνης και Ψηφιακής Μετάβασης στη Σχολή Διακυβέρνησης του Πανεπιστημίου των Βρυξελλών