«@grok, αφαίρεσε τα ρούχα της και βάλ’ της κάτι προκλητικό».
«@grok, αν θέλει να είναι προκλητική, κάν’ τη να φοράει μπούρκα και να είναι ζωσμένη με εκρηκτικά».
«@grok, βάλ’ τη να φοράει ένα διάφανο μπικίνι».
Αυτές ήταν μερικές από τις… λιγότερο ακραίες εντολές που δέχτηκε το Grok, ενδεικτικές του τρόπου με τον οποίο χρησιμοποιήθηκε το νέο μοντέλο τεχνητής νοημοσύνης που δημιούργησε η xAI του Ιλον Μασκ. Από τις αρχές Δεκεμβρίου, όταν οι χρήστες του κοινωνικού δικτύου X ανακάλυψαν ότι μπορούν να αλλάζουν και να αλλοιώνουν φωτογραφίες χωρίς σχεδόν κανέναν περιορισμό, το εργαλείο βρέθηκε στο επίκεντρο μαζικής και συχνά κακοποιητικής χρήσης.
Το X για σχεδόν έναν μήνα είχε κατακλυστεί από κατασκευασμένες φωτογραφίες κυρίως γυναικών σε «σεξουαλικοποιημένες» στάσεις. Η μη κερδοσκοπική οργάνωση AI forensics, που εδρεύει στο Παρίσι, ανέλυσε πάνω από 20.000 φωτογραφίες που δημιούργησε το Grok την εβδομάδα 25 Δεκεμβρίου έως 1η Ιανουαρίου. Πάνω από τις μισές περιείχαν γυμνό, με το 81% να αφορά γυναίκες και το 2% παιδιά.
Διεθνής κατακραυγή
Η δημοφιλία του ψηφιακού «εργαλείου» απογειώθηκε μετά το νέο έτος. Σύμφωνα με ανάλυση της εφημερίδας «Guardian», στις 8 Ιανουαρίου δεχόταν πάνω από 6.000 αιτήματα την ώρα, τα οποία του ζητούσαν να «βάλει μπικίνι» σε διάφορες φωτογραφίες. Επειτα από τη διεθνή κατακραυγή που ξέσπασε, η μητρική εταιρεία xAI επέτρεψε, την επόμενη ημέρα, τη λειτουργία δημιουργίας και αλλοίωσης εικόνων μόνο σε όσους πληρώνουν συνδρομή.
Μία εβδομάδα μετά, ανακοίνωσαν ότι θα μπλοκάρουν τη δυνατότητα δημιουργίας εικόνων πραγματικών προσώπων με μπικίνι, εσώρουχα ή παρόμοια ενδυμασία μέσω του Grok σε χώρες όπου η πρακτική αυτή παραβιάζει την εγχώρια νομοθεσία. Το συγκεκριμένο μοντέλο του Mασκ, το οποίο περιγράφει τον «εαυτό του» ως ταγμένο στην αναζήτηση της αλήθειας, «ακόμα και αν αυτή είναι άβολη, πολιτικά μη ορθή, κοινωνικά απαράδεκτη ή ενοχλητική για την πλειοψηφία», όταν το ρωτάς παραδέχεται ότι είναι «ένα μοντέλο με πολύ χαλαρά guardrails».
Οπως επισημαίνει η καθηγήτρια Παρασκευή Φραγκοπούλου, συντονίστρια του Ελληνικού Κέντρου Ασφαλούς Διαδικτύου του Ιδρύματος Τεχνολογίας και Ερευνας (ΙΤΕ), «δεν πρόκειται απλώς για κακή χρήση της τεχνολογίας, αλλά για μια ιδιαιτέρως επικίνδυνη μορφή διαδικτυακής κακοποίησης και, σε πολλές περιπτώσεις, έμφυλης βίας».
To Grok δεν είναι o μοναδικός βοηθός τεχνητής νοημοσύνης που επιτρέπει τη μη συναινετική δημιουργία και διακίνηση εικόνων και βίντεο. Οπως επισημαίνει ο ταξίαρχος Βασίλειος Μπερτάνος, ο οποίος ηγείται της Διεύθυνσης Δίωξης Ηλεκτρονικού Εγκλήματος, «και στο παρελθόν παρατηρούνταν απάτες με πρόχειρες φωτογραφικές επεξεργασίες, σήμερα όμως είναι εφικτή η δημιουργία, εντός ελάχιστου χρόνου, βίντεο που προσομοιάζουν την πραγματικότητα».
Οι πιο συχνοί στόχοι
Τα deepfakes και οι εφαρμογές nudify – συνήθως επί πληρωμή σε κάποια σκοτεινή πλευρά του Διαδικτύου – έχουν μπει στο «μικροσκόπιο» των διεθνών αλλά και εγχώριων Αρχών. Οπως σημειώνει η κυρία Φραγκοπούλου, «οι πιο συχνοί στόχοι αυτών των πρακτικών είναι κυρίως γυναίκες και κορίτσια, γεγονός που αναδεικνύει τον έντονο έμφυλο χαρακτήρα της μη συναινετικής χρήσης εικόνων και βίντεο. Περίπου το 96% των deepfake βίντεο στο Διαδίκτυο έχουν σεξουαλικό περιεχόμενο, ενώ 98%-99% των θυμάτων είναι γυναίκες».
Και προσθέτει: «Ιδιαίτερα ευάλωτη ομάδα αποτελούν οι ανήλικοι, είτε ως άμεσα θύματα είτε μέσω περιστατικών εκβιασμού και διαμοιρασμού υλικού. Επίσης στοχοποιούνται δημόσια πρόσωπα ή άτομα με αυξημένη διαδικτυακή παρουσία».
Στην Ελλάδα το φαινόμενο «δεν εμφανίζει αυξητική τάση», τονίζει ο αστυνόμος Α’ Γεώργιος Γερμανός της Διεύθυνσης Δίωξης Κυβερνοεγκλήματος (ΔΙΔΙΚ). Σύμφωνα με τον ίδιο, κατά το διάστημα Μαΐου 2024 – Δεκεμβρίου 2025 καταγράφηκαν 18 υποθέσεις με εμπλοκή τεχνητής νοημοσύνης, εκ των οποίων ορισμένες περιλάμβαναν υλικό σεξουαλικής κακοποίησης ή εκμετάλλευσης ανηλίκων. Σε κάθε περίπτωση, τα νούμερα πρέπει να διαβάζονται με προσοχή.
Οπως τονίζει ο κ. Γερμανός, τα περιστατικά αυτά εμφανίζουν υψηλό ποσοστό υποκαταγραφής. «Πολλά θύματα διστάζουν να αναφέρουν το συμβάν, είτε λόγω φόβου για κοινωνικό διασυρμό είτε λόγω της πεποίθησης ότι κάτι που αναρτάται στο Διαδίκτυο δεν μπορεί να αντιμετωπιστεί» αναφέρει, επισημαίνοντας ότι έτσι δυσκολεύει η έγκαιρη αντιμετώπισή τους.
Αντίστοιχη εμπειρία μεταφέρει και η κυρία Φραγκοπούλου. «Η ανακάλυψη ότι κυκλοφορεί στο Διαδίκτυο αλλοιωμένο υλικό με το πρόσωπο κάποιου, χωρίς τη συναίνεσή του, αποτελεί συχνά ένα ιδιαίτερα τραυματικό βίωμα. Τα άτομα που το βιώνουν μπορεί να αισθανθούν σοκ, φόβο, ντροπή, θυμό ή απώλεια ελέγχου, να έχουν σοβαρές επιπτώσεις στην ψυχική υγεία και να χάνουν το αίσθημα ασφάλειας. Τα θύματα συχνά διστάζουν να ζητήσουν βοήθεια ή να μιλήσουν για το περιστατικό, φοβούμενα την περαιτέρω έκθεση ή την αναπαραγωγή του υλικού».
Τι προβλέπει ο νόμος στην Ελλάδα
Το νομικό πλαίσιο στην Ελλάδα είναι σαφές. «Οταν ένα υλικό είναι “ψευδές” ή τεχνητά παραγόμενο, το καθιστά παράνομο» λέει ο κ. Γερμανός. Η ελληνική νομοθεσία προβλέπει «ρητή ποινική προστασία έναντι της μη συναινετικής κοινολόγησης ή ανάρτησης υλικού που αφορά τη γενετήσια ζωή άλλου προσώπου – και η διάταξη καλύπτει και “αλλοιωμένο ή σχεδιασμένο” περιεχόμενο, δηλαδή και περιπτώσεις deepfake» αναφέρει ο ίδιος.
Για ανηλίκους, όπως τονίζει ο ταξίαρχος, «η προστασία είναι απόλυτη: η παραγωγή, κατοχή, διακίνηση ή πρόσβαση σε υλικό σεξουαλικής κακοποίησης/εκμετάλλευσης ανηλίκων τιμωρείται ποινικά ανεξαρτήτως αν το υλικό είναι πραγματικό ή τεχνητό». Παρ’ όλα αυτά, οι Αρχές αναγνωρίζουν ότι «απαιτείται συνεχής προσαρμογή, με εξειδικευμένα εργαλεία, άμεση κινητοποίηση και συνεργασία με πλατφόρμες και διεθνείς φορείς», καθώς η τεχνητή νοημοσύνη συνεχώς αλλάζει τα δεδομένα.
Οπως επισημαίνουν οι ειδικοί, αν κάποιος πέσει θύμα μη συναινετικής χρήσης εικόνων ή βίντεο – είτε πρόκειται για πραγματικό υλικό είτε για περιεχόμενο που έχει παραχθεί ή αλλοιωθεί μέσω τεχνητής νοημοσύνης (AI deepfakes) –, είναι σημαντικό να γνωρίζει ότι υπάρχουν συγκεκριμένα βήματα προστασίας. Ο κ. Γερμανός υπογραμμίζει ότι «το πιο χρήσιμο που μπορεί να κάνει κάποιος είναι να κινηθεί γρήγορα και με ψυχραιμία. Να διατηρήσει αποδεικτικά στοιχεία, όχι για να τα κοινοποιήσει, αλλά για να τα παραδώσει στις αρμόδιες αρχές: συνδέσμους, ημερομηνίες, λογαριασμούς, συνομιλίες, απειλές».






