Σκάνδαλο Grok: Γιατί οι «ψεύτικες» εικόνες της ΑΙ προκαλούν πραγματικό τραύμα στις γυναίκες
Οι «απογυμνωμένες» εικόνες που δημιουργήθηκαν στο Grok μπορεί να μην είναι αληθινές, όμως η ψυχολογική βλάβη που προκαλούν σε γυναίκες είναι πραγματική, αναδεικνύοντας πώς η ψηφιακή βία της ΑΙ ξεπερνά τα όρια της «φαντασίας»
Οι εικόνες που «γδύνει» η τεχνητή νοημοσύνη μπορεί να είναι ψεύτικες. Το τραύμα που προκαλούν όμως είναι απολύτως πραγματικό.
Το τελευταίο διάστημα, δεκάδες γυναίκες περιγράφουν έντονη ψυχολογική δυσφορία μετά τη δημιουργία «απογυμνωμένων» εικόνων τους από το Grok, το chatbot τεχνητής νοημοσύνης της πλατφόρμας X. Οι φωτογραφίες τους αλλοιώθηκαν και εμφανίστηκαν ως εικόνες με μπικίνι, σε σεξουαλικοποιημένες στάσεις ή ακόμη και με εμφανή σημάδια βίας. Παρότι το περιεχόμενο αυτό δεν ανταποκρίνεται στην πραγματικότητα, η εμπειρία για τα θύματα είναι βαθιά τραυματική.
Μια στάση λεωφορείου με αφίσα που τοποθετήθηκε από την ομάδα διαμαρτυρίας Everyone Hates Elon, η οποία καλεί σε μποϊκοτάζ της πλατφόρμας κοινωνικής δικτύωσης X του Έλον Μασκ, στο Λονδίνο, Βρετανία, 14 Ιανουαρίου 2026. REUTERS/Chris J Ratcliffe/Φωτογραφία αρχείου
Η αντίδραση των αρχών στο Ηνωμένο Βασίλειο, μεταξύ άλλων, υπήρξε άμεση: η κυβέρνηση ανακοίνωσε ότι επισπεύδει την εφαρμογή νόμου που απαγορεύει τη δημιουργία μη συναινετικών, ΑΙ-παραγόμενων ερωτικών εικόνων. Το Grok έχει ήδη περιορίσει τη λειτουργία αυτή σε χώρες όπου είναι παράνομη, ενώ η ρυθμιστική αρχή Ofcom διερευνά αν το X παραβίασε τη βρετανική νομοθεσία. Την ίδια στιγμή, ο Έλον Μασκ κατήγγειλε τις παρεμβάσεις αυτές ως «λογοκρισία».
Παρόλα αυτά, τελικά, η xAI, η εταιρεία τεχνητής νοημοσύνης του Μασκ στην οποία ανήκει το Χ, πρώην Twitter ανακοίνωσε: «Εφαρμόσαμε τεχνολογικά μέσα προκειμένου να αποτρέψουμε το Grok από το να επιτρέπει την επεξεργασία εικόνων πραγματικών ανθρώπων με αποκαλυπτικά ρούχα όπως μπικίνι». Όμως το πρόβλημα δεν τελειώνει εκεί.
Παρά τις θεσμικές αντιδράσεις, ένα κομμάτι των χρηστών εξακολουθεί να υποβαθμίζει το πρόβλημα. Οι εικόνες, λένε, είναι «φανταστικές», «απλώς ΑΙ», «όχι πιο αληθινές από ένα καρτούν». Όμως αυτό το επιχείρημα αγνοεί τον τρόπο με τον οποίο λειτουργεί η ανθρώπινη εμπειρία.
Γιατί κάτι «ψεύτικο» μπορεί να πονάει τόσο πολύ
Όπως εξηγεί ο Alex Fisher, μεταδιδακτορικό ερευνητή της Society for Applied Philosophy στο Πανεπιστήμιο του Λιντς, η ψυχολογία και η φιλοσοφία προσφέρουν ένα κλειδί κατανόησης. Οι άνθρωποι συχνά βιώνουν έντονα συναισθήματα που συγκρούονται με αυτό που γνωρίζουν λογικά. Μπορεί να ξέρεις ότι είσαι ασφαλής στην κορυφή ενός κτιρίου και παρ’ όλα αυτά να νιώθεις τρόμο κοιτάζοντας κάτω. Ή να γνωρίζεις ότι μια ταινία τρόμου είναι φαντασία και να μην μπορείς να κοιμηθείς μετά.
Κάτι αντίστοιχο συμβαίνει όταν κάποιος βλέπει μια ψηφιακά «απογυμνωμένη» εκδοχή του εαυτού του. Οι άνθρωποι ταυτίζονται έντονα με την ψηφιακή τους εικόνα. Όταν αυτή αλλοιώνεται με τρόπο τόσο ρεαλιστικό, το σώμα και το συναίσθημα αντιδρούν σαν να πρόκειται για πραγματική παραβίαση.
Έτσι, ακόμη κι αν το θύμα γνωρίζει ότι η εικόνα είναι κατασκευασμένη, μπορεί να νιώσει ταπείνωση, αποξένωση, απανθρωποποίηση και παραβίαση. Η εμπειρία μοιάζει με τη διαρροή πραγματικού προσωπικού υλικού — και οι ψυχολογικές συνέπειες δεν απέχουν από εκείνες που έχουν καταγραφεί σε περιπτώσεις σεξουαλικής κακοποίησης.
Η πραγματική βία πίσω από τις εικόνες
Το τραύμα δεν προκύπτει μόνο από την εικόνα, αλλά και από την πρόθεση πίσω από αυτή. Κάποιος έδωσε εντολή στην τεχνητή νοημοσύνη να «γδύσει» μια γυναίκα χωρίς τη συναίνεσή της. Να τη μετατρέψει σε σώμα προς κατανάλωση. Αυτή η πράξη δεν είναι ουδέτερη τεχνολογία· είναι έκφραση εξουσίας και ελέγχου.
Δεν είναι τυχαίο ότι τέτοιες πρακτικές στοχεύουν κυρίως γυναίκες — είτε είναι διασημότητες, πολιτικοί είτε απλοί χρήστες. Τα deepfake βίντεο και οι «nudified» εικόνες λειτουργούν ως εργαλεία δημόσιας ταπείνωσης, ενταγμένα σε μια μισογυνική κουλτούρα που προϋπήρχε της τεχνητής νοημοσύνης.
Από τις εικόνες στους εικονικούς κόσμους
Το ίδιο μοτίβο εμφανίζεται και στην εικονική πραγματικότητα. Σε περιβάλλοντα VR και διαδικτυακά παιχνίδια, γυναίκες καταγγέλλουν επιθέσεις και παρενόχληση των άβατάρ τους. Παρότι «δεν υπάρχει φυσική επαφή», η εμπειρία είναι συχνά τραυματική, ιδίως όταν η τεχνολογία δημιουργεί την αίσθηση πραγματικής παρουσίας.
Καταγγελίες για ανεπαρκή προστασία ανηλίκων σε πλατφόρμες εικονικής πραγματικότητας δείχνουν ότι το πρόβλημα δεν είναι περιθωριακό. Η βία μπορεί να είναι ψηφιακή, αλλά οι συνέπειες είναι ψυχολογικά και κοινωνικά υπαρκτές.
Γιατί η απάντηση δεν μπορεί να είναι η αδιαφορία
Όπως υπογραμμίζει ο Alex Fisher, το λάθος δεν είναι να παίρνουμε στα σοβαρά αυτές τις εμπειρίες — το λάθος είναι να τις απορρίπτουμε επειδή «δεν είναι πραγματικές». Η τεχνολογία έχει δώσει τη δυνατότητα για ρεαλιστικές αναπαραστάσεις βλάβης χωρίς φυσική επαφή. Αυτό δεν τις καθιστά λιγότερο επιβλαβείς.
Η λύση δεν βρίσκεται στην απαγόρευση των πλατφορμών, αλλά σε προληπτική και ουσιαστική ρύθμιση που αναγνωρίζει εγκαίρως τις νέες μορφές ψηφιακής βίας. Γιατί τα θύματα της τεχνητής νοημοσύνης δεν είναι υπερευαίσθητα. Είναι άνθρωποι που βιώνουν μια νέα, αλλά απολύτως πραγματική, μορφή παραβίασης.