Latest News

Δευτέρα 24 Νοεμβρίου 2025

Απίστευτο: 1 στους 4 θεωρεί “κανονικό” τα sexual deepfakes — AI επιταχύνει την έμφυλη ψηφιακή κακοποίηση


Η «κανονικοποίηση» των sexual deepfakes αποτυπώνεται στις απαντήσεις του κοινού: ένας στους τέσσερις δεν θεωρεί μεμπτό να δημιουργεί ή να μοιράζεται φωτογραφίες σεξουαλικού περιεχομένου με χρήση ΑΙ... χωρίς συναίνεση.

Τα θύματα είναι συχνότερα γυναίκες και παιδιά, έμμεσα ή άμεσα εκτεθειμένα σε παραβιάσεις της ιδιωτικότητας και του σώματός τους.

Σύμφωνα με τη μελέτη που πραγματοποιήθηκε για λογαριασμό της αστυνομίας στο Ηνωμένο Βασίλειο, από τους 1.700 συμμετέχοντες 13% δήλωσε ότι δεν βλέπει κανένα λάθος στη δημιουργία ή κοινοποίηση deepfakes σεξουαλικού περιεχομένου, ενώ 12% ανέφερε ότι δεν έχει ξεκάθαρη θέση για τη νομιμότητα ή την ηθική διάσταση της πράξης. Η Επικεφαλής του Τμήματος Ερευνών, Claire Hammond, από το εθνικό κέντρο για τη βία κατά γυναικών και κοριτσιών (VAWG) στη Βρετανία, όπου έγινε η έρευνα, υπογράμμισε ότι «η κοινοποίηση προσωπικών εικόνων χωρίς συναίνεση, είτε πρόκειται για πραγματικό υλικό είτε όχι, αποτελεί βαθιά παραβίαση». Προειδοποίησε ότι η τεχνητή νοημοσύνη επιταχύνει την αύξηση περιστατικών έμφυλης βίας και ότι οι τεχνολογικές εταιρείες «έχουν διευκολύνει τη δημιουργία και διάδοση τέτοιου υλικού και οφείλουν να αναλάβουν δράση».

Η δημιουργία deepfakes σεξουαλικού περιεχομένου χωρίς συναίνεση αποτελεί πλέον ποινικό αδίκημα βάσει του νέου Data Act. Το report της Crest Advisory διαπίστωσε ότι 7% των ερωτηθέντων έχουν υπάρξει στόχοι sexual deepfakes και μόνο το 51% από αυτούς το ανέφερε στην αστυνομία, λόγω ντροπής ή αμφιβολιών για το εάν το περιστατικό θα αντιμετωπιζόταν σοβαρά. Η εικόνα αυτή δείχνει την ανάγκη για ενημέρωση, στήριξη θυμάτων και σαφείς θεσμικές απαντήσεις απέναντι στην τεχνολογική κακοποίηση.