Τρίτη 30 Απριλίου 2024
weather-icon 21o
Παιδόφιλοι χρησιμοποιούν ΑΙ για να μετατρέψουν διασημότητες σε παιδιά

Παιδόφιλοι χρησιμοποιούν ΑΙ για να μετατρέψουν διασημότητες σε παιδιά

Μόνο σε έναν δικτυακό τόπο παιδοφιλίας εντοπίστηκαν σχεδόν 3.000 deepfake εικόνες που θα ήταν παράνομες σύμφωνα με τη βρετανική νομοθεσία για τη σεξουαλική κακοποίηση παιδιών.

O Σκοτεινός Ιστός του Διαδικτύου έχει αρχίσει να γεμίζει με εικόνες που δημιουργήθηκαν με εργαλεία τεχνητής νοημοσύνης ώστε να εμφανίζουν διάσημους ηθοποιούς και τραγουδιστές ως παιδιά που πέφτουν θύματα βιασμού, προειδοποιεί βρετανική οργάνωση.

Μόνο σε έναν δικτυακό τόπο παιδοφιλίας, το Internet Watch Foundation εντόπισε σχεδόν 3.000 deepfake εικόνες που θα ήταν παράνομες σύμφωνα με τη βρετανική νομοθεσία. Περισσότερες από τις μισές εικονίζουν παιδιά 7-10 ετών.

Εκτός από εικόνες διασημοτήτων που εμφανίζονται ως παιδιά, οι παιδόφιλοι χρησιμοποιούν επίσης φωτογραφίες υπαρκτών θυμάτων παιδικής σεξουαλικής κακοποίησης για να παραγάγουν αναρίθμητες νέες παραλλαγές και σκηνές βιασμών, διαπιστώνει η έκθεση της οργάνωσης.

«Οι χειρότεροι εφιάλτες μας έγιναν πραγματικότητα» δήλωσε σύμφωνα με το BBC η Σούζι Χάργκριβς, διευθύνουσα σύμβουλος του IWF.

«Νωρίτερα φέτος προειδοποιήσαμε ότι σύντομα θα ήταν αδύνατο να ξεχωρίσει κανείς τις εικόνες ΑΙ από πραγματικές εικόνες παιδιών που πέφτουν θύματα κακοποίησης, και ότι θα αρχίζαμε να βλέπουμε αυτές τις εικόνες να πολλαπλασιάζονται σε πολύ μεγαλύτερους αριθμούς. Πλέον έχουμε ξεπεράσει αυτό το σημείο».

Έκκληση στις κυβερνήσεις

Αν και οι deepfake εικόνες παράγονται χωρίς να κακοποιηθούν παιδιά στην πραγματικότητα, το υλικό αυτό κανονικοποιεί την παιδοφιλία και δημιουργούν προβλήματα για τις διωκτικές αρχές, οι οποίες αναγκάζονται να ερευνούν μεγάλο αριθμό υποθέσεις για ανύπαρκτα παιδιά.

Το IWF δεν προτείνει λύσεις, ζητά όμως από τις κυβερνήσεις να ενισχύσουν τη νομοθεσία. Η έκθεση κάνει ειδική αναφορά στην Ευρωπαϊκή Ένωση, όπου διεξάγεται αυτό τον καιρό μια συζήτηση για εργαλεία παρακολούθησης που σαρώνουν τις εικόνες σε υπηρεσίες επικοινωνίας, με τους επικριτές του μέτρου να αντιδρούν λόγω του κινδύνου παραβίασης του απορρήτου των επικοινωνιών για εκατομμύρια αθώους χρήστες.

Οι παιδόφιλοι χρησιμοποιούν εργαλεία γενετικής τεχνητής νοημοσύνης που παράγουν εικόνες σύμφωνα με τις οδηγίες που δίνει ο χρήστης.

Τα περισσότερα τέτοια εργαλεία πλέον μπλοκάρουν την παραγωγή παράνομου περιεχομένου.

Όμως η δημιουργία πορνογραφικών εικόνων και εικόνων παιδοφιλίας είναι ακόμα δυνατή με παλαιότερες βερσιόν του Stability Diffusion, λογισμικού ανοιχτού κώδικα που πρωτοεμφανίστηκε το 2022.

Η εταιρεία που ανέπτυξε το μοντέλο, η λονδρέζικη Stability AI, έχει πλέον ενσωματώσει φίλτρα που μπλοκάρουν το ακατάλληλο περιεχόμενο και απαγορεύει τη χρήση των προϊόντων για παράνομες εικόνες.

Παρόλα αυτά, οι παλαιότερες βερσιόν του λογισμικού «είναι μακράν το προτιμώμενο λογισμικό […] για ανθρώπους που δημιουργούν ακατάλληλο υλικό με παιδιά», δήλωσε στο Associated Press ο Ντέιβιντ Θίελ της αμερικανικής οργάνωσης Stanford Internet Observatory.

Sports in

Άγριο ξύλο μεταξύ οπαδών πριν το Τζένοα – Κάλιαρι (vid)

Ακόμα ένα περιστατικό οπαδικής βίας έρχεται να ταράξει την Ιταλία.

Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις

in.gr | Ταυτότητα

Διαχειριστής - Διευθυντής: Λευτέρης Θ. Χαραλαμπόπουλος

Διευθύντρια Σύνταξης: Αργυρώ Τσατσούλη

Ιδιοκτησία - Δικαιούχος domain name: ΑΛΤΕΡ ΕΓΚΟ ΜΜΕ Α.Ε.

Νόμιμος Εκπρόσωπος: Ιωάννης Βρέντζος

Έδρα - Γραφεία: Λεωφόρος Συγγρού αρ 340, Καλλιθέα, ΤΚ 17673

ΑΦΜ: 800745939, ΔΟΥ: ΦΑΕ ΠΕΙΡΑΙΑ

Ηλεκτρονική διεύθυνση Επικοινωνίας: in@alteregomedia.org, Τηλ. Επικοινωνίας: 2107547007

ΜΗΤ Αριθμός Πιστοποίησης Μ.Η.Τ.232442

Τρίτη 30 Απριλίου 2024