Παρασκευή 05 Δεκεμβρίου 2025
weather-icon 21o
Τεχνητή Νοημοσύνη: Η τρέλα των AI deepfakes μπορεί να σημάνει το τέλος των οπτικών αποδείξεων

Τεχνητή Νοημοσύνη: Η τρέλα των AI deepfakes μπορεί να σημάνει το τέλος των οπτικών αποδείξεων

Νέες προκλήσεις από την τεχνητή νοημοσύνη - Πώς η εφαρμογή Sora που δίνει πολύ ρεαλιστικά βίντεο μόνο με μια περιγραφή μπορεί σε λάθος χέρια να μετατραπεί σε επικίνδυνο εργαλείο παραπληροφόρησης

Αυξάνονται και πληθύνονται οι προκλήσεις από την παραγωγική τεχνητή νοημοσύνη (GenAI) που κάνει όλο και πιο αμφισβητήσιμο αυτό που βλέπουμε «με τα μάτια μας» απειλώντας να αλλάξει δραστικά το πώς εκλαμβάνονται οι οπτικές αποδείξεις, οι οποίες μπορούν να είναι τόσο ψεύτικες όσο και ένα fake κείμενο.

«Πρέπει να μάθουμε να κάνουμε παύση και να σκεφτόμαστε αν ένα βίντεο αντανακλά την αληθινή ζωή»

Με αφορμή την εφαρμογή Sora της OpenAI, μέσω της οποίας ο χρήστης μπορεί να φτιάξει ταχύτατα πολύ ρεαλιστικά βίντεο δίνοντας μόνο μια περιγραφή, οι ειδικοί προειδοποιούν ότι η ανθρωπότητα ίσως είναι ανέτοιμη να το διαχειριστεί. Πρόκειται για μια εξαιρετικά διασκεδαστική και εντυπωσιακή εφαρμογή, αλλά σε λάθος χέρια μπορεί να μετατραπεί σε αποτελεσματικό όσο και επικίνδυνο εργαλείο παραπληροφόρησης και απάτης καθώς οι άνθρωποι τείνουμε να εμπιστευόμαστε ό,τι αντιλαμβανόμαστε με τις αισθήσεις μας.

Ένα παράδειγμα του πόσο ανέτοιμοι προφανώς είμαστε για τέτοιες εφαρμογές είναι η νέα viral «τρέλα» των χρηστών στα social, που έχουν γεμίσει τις τελευταίες ημέρες το TikTok με βίντεο που δείχνουν… γιαγιάδες να συλλαμβάνονται από την αστυνομία επειδή, υποτίθεται, έκλεψαν ένα μήλο ή διέπραξαν άλλες «παρανομίες».

Μόνο που τίποτα από αυτά δεν έχει συμβεί στην πραγματικότητα. Ωστόσο ένα μεγάλο ποσοστό χρηστών, ιδιαίτερα όσοι δεν είναι εξοικειωμένοι με το διαδίκτυο, εύκολα πιστεύουν ότι τέτοια βίντεο είναι αυθεντικά. «Το πρόβλημα δεν είναι τα προϊόντα της τεχνητής νοημοσύνης αλλά η απουσία της κριτικής σκέψης. Πρέπει να έχουμε μία παιδεία, να διασταυρώνουμε τις πηγές», εξήγησε μιλώντας στο Mega ο Γιώργος Παπαπροδρόμου, αντιστράτηγος ε.α. και πρώην Διοικητής Δίωξης Ηλεκτρονικού Εγκλήματος.

«Εγώ βλέπω 4 ποινικά αδικήματα. Διασπορά ψευδών ειδήσεων, παράνομη χρήση εικόνας και φωνής, καθώς τα πρόσωπα που δείχνουν είναι υπαρκτά, η συκοφαντική δυσφήμιση και το αδίκημα της εξύβρισης. Είναι επικίνδυνο όταν διαδίδονται τέτοια βίντεο. Πρέπει να είμαστε υποψιασμένοι», πρόσθεσε.

Τα προφανή και τα κακόβουλα

Στο θέμα αναφέρονται και οι New York Times, τονίζοντας ότι από τότε που κυκλοφόρησε η Sora, πολλοί χρήστες ανεβάζουν για πλάκα κατασκευασμένα ρεαλιστικά βίντεο στο διαδίκτυο που δεν έχουν καμία σχέση με την πραγματικότητα αλλά είναι προφανές στον καθένα ότι δεν ανταποκρίνονται στην πραγματικότητα, όπως καυγάδες μεταξύ διάσημων ηθοποιών του Χόλιγουντ ή ρακούν πάνω σε αεροπλάνα.

Όμως άλλοι έχουν χρησιμοποιήσει την AI εφαρμογή για κακόβουλους σκοπούς, διαδίδοντας fake news για ψεύτικα εγκλήματα που δεν συνέβησαν ποτέ και άλλα περιστατικά που προκαλούν το κοινό αίσθημα και συμβάλλουν στην παραπληροφόρηση.

Η άφιξη της Sora, σημειώνει η αμερικανική εφημερίδα, μαζί με παρόμοια εργαλεία GenAI από τη Meta και την Google φέτος έχει τεράστιες συνέπειες. Η τεχνολογία αυτή ίσως σηματοδοτεί το τέλος της οπτικής αλήθειας όπως την ξέρουμε, δηλαδή της ιδέας ότι το βίντεο αποτελεί αντικειμενική καταγραφή της πραγματικότητας, οδηγώντας την κοινωνία να αντιμετωπίζει την εικόνα που βλέπει με την ίδια δυσπιστία που δείχνει ήδη προς τον γραπτό λόγο.

Το «μία φωτογραφία, χίλιες λέξεις» είχε αρχίσει ήδη τα προηγούμενα χρόνια να μην ισχύει όταν όλοι κατάλαβαν πόσο εύκολο είναι να παραποιηθεί η εικόνα. Τώρα είναι η σειρά του βίντεο να «τελειώσει» και αυτό είναι ανησυχητικό.

«Ο εγκέφαλός μας είναι ισχυρά προγραμματισμένος να πιστεύει αυτό που βλέπει, αλλά μπορούμε και πρέπει πλέον να μάθουμε να κάνουμε παύση και να σκεφτόμαστε αν ένα βίντεο – και γενικά οποιοδήποτε μέσο – αντανακλά πραγματικά την αληθινή ζωή», δήλωσε ο Ren Ng, καθηγητής Πληροφορικής στο Μπέρκλεϊ.

Ανησυχίες για τα πνευματικά δικαιώματα

Στο Χόλιγουντ, στούντιο εκφράζουν ανησυχίες ότι βίντεο που δημιουργήθηκαν με την εφαρμογή Sora – η πιο δημοφιλής δωρεάν εφαρμογή στο App Store της Apple αυτή την εβδομάδα – έχουν ήδη παραβιάσει πνευματικά δικαιώματα ταινιών, σειρών και χαρακτήρων. Από την πλευρά του ο διευθύνων σύμβουλος της OpenAI, Sam Altman, δήλωσε ότι η εταιρεία εξετάζει τα δεδομένα και σύντομα θα δώσει στους κατόχους πνευματικών δικαιωμάτων τον έλεγχο στη χρήση χαρακτήρων, καθώς και έναν τρόπο να κερδίσουν χρήματα από την υπηρεσία.

Αν και ο καθένας μπορεί να κατεβάσει δωρεάν την εφαρμογή Sora, η υπηρεσία προς το παρόν λειτουργεί μόνο με προσκλήσεις – δηλαδή, για να φτιάξει κάποιος βίντεο πρέπει να λάβει κωδικό πρόσκλησης από άλλον χρήστη. Πολλοί μοιράζονται τέτοιους κωδικούς σε ιστότοπους όπως το Reddit και εφαρμογές όπως το Discord.

Στη συνέχεια δημιουργούν βίντεο πληκτρολογώντας απλώς τι θέλουν να δείχνει το βίντεο. Μπορούν επίσης να ανεβάσουν μια πραγματική φωτογραφία και να δημιουργήσουν βίντεο πάνω σε αυτήν. Το βίντεο είναι έτοιμο σε περίπου ένα λεπτό, και οι χρήστες μπορούν είτε να το ανεβάσουν στη ροή της εφαρμογής είτε να το κατεβάσουν και να το μοιραστούν στο TikTok, το Instagram ή αλλού.

Μπορούμε να προστατευτούμε;

Το πρόβλημα είναι ότι οποιοδήποτε βίντεο βλέπεις σε εφαρμογές όπως TikTok, Reels, YouTube Shorts και Snapchat έχει πλέον μεγάλη πιθανότητα να είναι ψεύτικο. Η Sora σηματοδοτεί μια καμπή στην εποχή της παραποίησης μέσω GenAI και σύντομα θα εμφανιστούν αντιγραφείς, συμπεριλαμβανομένων κακόβουλων φορέων που θα προσφέρουν δημιουργία βίντεο με τεχνητή νοημοσύνη χωρίς περιορισμούς.

«Κανείς δεν θα δέχεται πλέον βίντεο ως απόδειξη για οτιδήποτε», δήλωσε ο Lucas Hanse, ιδρυτής της CivAI, ενός μη κερδοσκοπικού οργανισμού που εκπαιδεύει τους ανθρώπους στις δυνατότητες της τεχνητής νοημοσύνης.

Ψεύτικα πλάνα από κάμερες αυτοκινήτων που θα μπορούσαν να χρησιμοποιηθούν για ασφαλιστική απάτη, βίντεο με αμφισβητήσιμες ιατρικές συμβουλές, βίντεο δυσφήμισης ανθρώπων, κατασκευασμένα πλάνα σοκαριστικών τροχαίων στον αυτοκινητόδρομο, ανύπαρκτες ειδήσεις για κατά συρροή δολοφόνους, είναι μερικά από αυτά που μπορεί να δημιουργήσει σε ένα λεπτό η Sora.  Αν και φέρουν υδατογράφημα με το λογότυπο της εφαρμογής, κάποιοι χρήστες έχουν ήδη βρει τρόπους να το κόβουν. Μερικά, παρ’ όλα αυτά, έχουν μερικά εμφανή λάθη αν τα παρατηρήσεις, όπως ανορθόγραφες ταμπέλες εστιατορίων ή ασυγχρονία ήχου με την κίνηση των χειλιών.

Ωστόσο, οποιαδήποτε συμβουλή για το πώς να αναγνωρίζεις βίντεο που δημιουργήθηκαν με τεχνητή νοημοσύνη είναι καταδικασμένη να έχει σύντομη διάρκεια, επειδή η τεχνολογία εξελίσσεται ραγδαία, προειδοποιεί ο Hany Farid, καθηγητής Πληροφορικής στο Μπέρκλεϊ και ιδρυτής της GetReal Security. «Τα social media είναι ένας κανονικός σκουπιδότοπος» πρόσθεσε, τονίζοντας ότι ο μόνος τρόπος να αποφύγει κάποιος τα ψεύτικα βίντεο είναι να σταματήσει να χρησιμοποιεί εφαρμογές όπως το TikTok, το Instagram και το Snapchat.

Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις

in.gr | Ταυτότητα

Διαχειριστής - Διευθυντής: Λευτέρης Θ. Χαραλαμπόπουλος

Διευθύντρια Σύνταξης: Αργυρώ Τσατσούλη

Ιδιοκτησία - Δικαιούχος domain name: ALTER EGO MEDIA A.E.

Νόμιμος Εκπρόσωπος: Ιωάννης Βρέντζος

Έδρα - Γραφεία: Λεωφόρος Συγγρού αρ 340, Καλλιθέα, ΤΚ 17673

ΑΦΜ: 800745939, ΔΟΥ: ΚΕΦΟΔΕ ΑΤΤΙΚΗΣ

Ηλεκτρονική διεύθυνση Επικοινωνίας: in@alteregomedia.org, Τηλ. Επικοινωνίας: 2107547007

ΜΗΤ Αριθμός Πιστοποίησης Μ.Η.Τ.232442

Παρασκευή 05 Δεκεμβρίου 2025
Απόρρητο