Τα deepfakes αποτελούν μία από τις πλέον χαρακτηριστικές αλλά και ανησυχητικές εκφάνσεις των σύγχρονων συστημάτων τεχνητής νοημοσύνης (ΤΝ). Πρόκειται για οπτικοακουστικό περιεχόμενο (εικόνα, ήχος ή βίντεο) που παράγεται ή τροποποιείται από ΤΝ και μοιάζει πειστικά με υπαρκτά πρόσωπα, γεγονότα ή τοποθεσίες, δημιουργώντας την ψευδή εντύπωση αυθεντικότητας. Τα deepfakes μπορεί να χρησιμοποιηθούν για σκοπούς σάτιρας ή ψυχαγωγίας, την ίδια στιγμή όμως εγείρουν σοβαρές προκλήσεις για την αξιοπιστία της πληροφορίας, την προστασία των θεμελιωδών δικαιωμάτων και τη λειτουργία των δημοκρατικών θεσμών. Η εξάπλωση των deepfakes τα τελευταία χρόνια είναι εκρηκτική, θολώνοντας τα όρια μεταξύ πραγματικού και τεχνητού. Σύμφωνα με έρευνες, τα deepfake βίντεο αυξήθηκαν κατά 550% την περίοδο 2019-2023, ενώ μέχρι το τέλος του 2025 αναμένεται να διαμοιραστούν στο διαδίκτυο έως και 8 εκατομμύρια deepfakes, από περίπου 500.000 το 2023, γεγονός που αντιστοιχεί σε σχεδόν διπλασιασμό κάθε έξι μήνες. Παράλληλα, υπολογίζεται ότι πάνω από το μισό περιεχόμενο στο διαδίκτυο είναι ήδη AI-generated, με τους χρήστες –ακόμη και ειδικούς στον χώρο– να δυσκολεύονται ολοένα και περισσότερο να διακρίνουν το συνθετικό από το πραγματικό.
Οι κοινωνικές επιπτώσεις των deepfakes είναι πολυεπίπεδες. Πρώτον, στο πεδίο της δημοκρατίας και των διπλωματικών ισορροπιών, η δυνατότητα πειστικής αναπαράστασης πολιτικών προσώπων ή δημόσιων γεγονότων μπορεί να υπονομεύσει τον δημόσιο διάλογο, να επηρεάσει εκλογικές διαδικασίες και να διευκολύνει οργανωμένες εκστρατείες παραπληροφόρησης, μετατρέποντας την ΤΝ σε εργαλείο υβριδικών απειλών. Δεύτερον, σε επίπεδο ασφάλειας και οικονομίας, τα deepfakes αξιοποιούνται ολοένα και περισσότερο σε οικονομική απάτη μεγάλης κλίμακας, πλαστοπροσωπία και υποκλοπή ταυτότητας, καθιστώντας την εγκληματική δραστηριότητα πιο πειστική και δυσκολότερα ανιχνεύσιμη. Τρίτον, σε ό,τι αφορά τα ατομικά δικαιώματα και την ιδιωτική ζωή, μεγάλο μέρος των deepfakes αφορά μη συναινετικό σεξουαλικό περιεχόμενο, στη συντριπτική του πλειονότητα σε βάρος γυναικών, με σοβαρές επιπτώσεις στην αξιοπρέπεια και την ψυχική υγεία των θυμάτων. Τέλος, πλήττεται συνολικά η εμπιστοσύνη στην πληροφορία: το λεγόμενο liar’s dividend οδηγεί τους πολίτες να αμφισβητούν ακόμη και αυθεντικό υλικό ως «πιθανό deepfake», προκαλώντας μια γενικευμένη κρίση αξιοπιστίας. Την ίδια στιγμή, οι τεχνολογίες ανίχνευσης αποδεικνύονται συχνά ανεπαρκείς, καθώς σχετικά απλές τεχνικές επεξεργασίας αρκούν για να μειώσουν δραστικά την αξιοπιστία των ανιχνευτών deepfakes, ενώ τα ίδια τα μοντέλα παραγωγής εκπαιδεύονται πλέον ώστε να παρακάμπτουν τεχνικές σήμανσης, όπως τα υδατογραφήματα.
Το γεγονός αυτό καθιστά σαφές ότι η απάντηση δεν μπορεί να είναι μόνο τεχνολογική, αλλά απαιτεί συνδυασμό νομικής ρύθμισης, διαφάνειας και θεσμικής εποπτείας. Η Ευρωπαϊκή Ένωση, αναγνωρίζοντας τη σοβαρότητα του φαινομένου, έχει αναπτύξει σειρά ρυθμιστικών παρεμβάσεων για την αντιμετώπιση των προκλήσεων της ΤΝ, με τον Κανονισμό για την τεχνητή νοημοσύνη, το γνωστό AI Act, να συνιστά την πλέον ολοκληρωμένη πρωτοβουλία διεθνώς στον τομέα αυτό. Στον Κανονισμό υιοθετείται ένας νομικά δεσμευτικός ορισμός για το τι συνιστά deepfake – στα ελληνικά «προϊόν βαθυπαραποίησης»: περιεχόμενο εικόνας, ήχου ή βίντεο που έχει παραχθεί ή υποστεί χειρισμό από σύστημα ΤΝ και παρουσιάζει ομοιότητες με υπαρκτά πρόσωπα, αντικείμενα, τοποθεσίες, οντότητες ή γεγονότα, κατά τρόπο που μπορεί να δημιουργήσει την απατηλή εντύπωση ότι είναι γνήσιο ή αληθινό. Το άρθρο 50 του AI Act εισάγει σημαντικές υποχρεώσεις διαφάνειας για τα συστήματα ΤΝ, επιβάλλοντας την υποχρέωση ενημέρωσης ότι ο χρήστης «αλληλεπιδρά με ΤΝ», εκτός εάν αυτό είναι προφανές για τον μέσο, καλά ενημερωμένο και παρατηρητικό χρήστη. Το ίδιο άρθρο περιλαμβάνει ειδικές διατάξεις για τα deepfakes, οι οποίες εισάγουν την υποχρέωση σαφούς επισήμανσης ότι το περιεχόμενο έχει παραχθεί ή υποστεί χειρισμό από ΤΝ, με στόχο την αποτροπή εξαπάτησης και την ενίσχυση της εμπιστοσύνης στην πληροφορία. Ο Κανονισμός δεν επιβάλλει συγκεκριμένη τεχνολογική λύση για τη σήμανση, αλλά ενθαρρύνει τη χρήση τεχνικών όπως υδατογραφήματα, αναγνωριστικά μεταδεδομένων και κρυπτογραφικές μέθοδοι.
Στο σημείο αυτό, κομβικό ρόλο διαδραματίζει το έργο της Ευρωπαϊκής Επιτροπής για την ανάπτυξη Κώδικα Πρακτικής και Κατευθυντήριων Γραμμών, τα οποία θα λειτουργήσουν ως εργαλεία εξειδίκευσης, εναρμόνισης και πρακτικής εφαρμογής των υποχρεώσεων διαφάνειας του Κανονισμού. Η Ελλάδα συμμετέχει ενεργά σε αυτή τη διαδικασία. Η Ειδική Γραμματεία Τεχνητής Νοημοσύνης και Διακυβέρνησης Δεδομένων του Υπουργείου Ψηφιακής Διακυβέρνησης, σε συνεργασία με ομάδα εμπειρογνωμόνων, έχει διαμορφώσει αναλυτικό έγγραφο πολιτικής για τις υποχρεώσεις διαφάνειας του άρθρου 50, καταθέτοντας τεκμηριωμένες προτάσεις.
Κεντρική θέση της ελληνικής προσέγγισης είναι ότι τα απλά υδατογραφήματα δεν επαρκούν, καθώς είναι εύκολα παραβιάσιμα και επιδεκτικά κατάχρησης. Καθώς η ανίχνευση των deepfakes καθίσταται ολοένα και πιο δυσχερής, ιδιαίτερη σημασία αποκτά η πιστοποίηση της γνησιότητας του περιεχομένου μέσω κρυπτογραφικών μεθόδων που προσφέρουν διαλειτουργικότητα, ανθεκτικότητα και αποδεικτική αξία. Παράλληλα, η Ελλάδα εισηγείται ένα «υβριδικό μοντέλο εμπιστοσύ- νης», το οποίο δεν περιορίζεται στη σήμανση του AI-generated περιεχομένου, αλλά περιλαμβάνει και μηχανισμούς που επιτρέπουν την πιστοποίηση ανθρώπινης δημιουργίας.
Επιπλέον, υποστηρίζει την ανάγκη συμπληρωματικών εθνικών μέτρων, όπως η απαγόρευση αφαίρεσης της σήμανσης σε επίπεδο τελικών χρηστών, η παροχή αποτελεσματικών εργαλείων εποπτείας στις αρμόδιες Αρχές και η χρήση αξιόπιστων μηχανισμών σήμανσης σε περιεχόμενο που αφορά κρίσιμους τομείς.
Η ελληνική συμβολή στον ευρωπαϊκό και διεθνή διάλογο αναδεικνύει μια ώριμη και ισορροπημένη προσέγγιση, φιλική προς την τεχνολογία αλλά και προσανατολισμένη στη διαφάνεια, τη νομική σαφήνεια και την προστασία των πολιτών, σε μια ψηφιακή πραγματικότητα όπου η έννοια του «αληθινού» τίθεται καθημερινά υπό δοκιμασία.
