Σε έκθεσή της που αποκαλύπτει το εύρος της κατάχρησης του ChatGPT από κακόβουλους παράγοντες, η OpenAI αναφέρει ότι μπλόκαρε λογαριασμούς που συνδέονται με επιχειρήσεις επιρροής και κυκλώματα απατεώνων που πουλούσαν έρωτα σε μεσήλικους άνδρες.

Η έκθεση της κορυφαίας εταιρείας τεχνητής νοημοσύνης δείχνει να επιβεβαιώνει τις ανησυχίες ότι, παρά τις δικλείδες ασφάλειας, απατεώνες και κυβερνητικές υπηρεσίες χρησιμοποιούν την ΑΙ ως όπλο εξαπάτησης.

Μεταξύ άλλων, η OpenAI ανέφερε ότι μπλόκαρε τον λογαριασμό προσώπου που συνδέεται με τις κινεζικές αρχές επιβολής του νόμου και οργάνωνε καμπάνιες δυσφήμισης της ιαπωνίδας πρωθυπουργού Σαναέ Τακαΐτσι.

Μια άλλη ομάδα λογαριασμών στο ChatGPΤ χρησιμοποιούσαν το chatbot για τρέχουν μια υπηρεσία γνωριμιών που αποσπούσε χρήματα από εκατοντάδες ινδονήσιους άνδρες κάθε μήνα.

Το ChatGPT αξιοποιήθηκε επίσης από ένα άλλο κύκλωμα δήθεν ερωτικών γνωριμιών για τη δημιουργία μηνυμάτων που πίεζαν τα θύματα να καταβάλλουν μεγάλα χρηματικά ποσά.

Ακόμα, ένας «μικρός αριθμός» λογαριασμών που πιθανότατα αντιστοιχούν σε κινεζικές διευθύνσεις χρησιμοποίησαν τα μοντέλα της OpenAI προκειμένου να αντλούν πληροφορίες για συγκεκριμένα πρόσωπα στις ΗΠΑ και τις έδρες ομοσπονδιακών πληροφοριών. Ζήτησαν επίσης οδηγίες για τη χρήση λογισμικού ΑΙ που επιτρέπει την αντικατάσταση προσώπων σε φωτογραφίες.

Οι ίδιοι λογαριασμοί παρήγαγαν επίσης email που αποστέλλονταν σε πολιτειακούς αξιωματούχους και αναλυτές πολιτικής που εργάζονταν σε θέματα επιχειρήσεων και χρηματοοικονομικών, προσκαλώντας τους να συμμετέχουν σε αμειβόμενες συμβουλευτικές συνεδρίες.

Επίσης, αρκετοί λογαριασμοί χρησιμοποίησαν τα μοντέλα της OpenAI προκειμένου να υποδύονται νομικές εταιρείες, εισαγγελείς και αμερικανικές αρχές επιβολής του νόμου για να ξεγελούν τα θύματά τους.

Η έκθεση έρχεται να προστεθεί στην περυσινή αποκάλυψη του Reuters για ασιατικά κυκλώματα απατεώνων που δημιουργούσαν μηνύματα με το ChatGPT για προσελκύουν θύματα σε δήθεν επενδυτικά προγράμματα.

Σε περυσινή δοκιμή ασφάλειαςπου πραγματοποίησαν από κοινού η OpenAI και η Anthropic, η οποία πραγματοποιήθηκε πάντως με κάποια μέτρα ασφάλειας απενεργοποιημένα, το ChatGPT έδωσε λεπτομερείς οδηγίες για την παραγωγή εκρηκτικών υλών, για βομβιστικές επιθέσεις σε στάδια, για χάκινγκ και την παραγωγή άνθρακα και ναρκωτικών.

Η δε Anthropic ανέφερε περιστατικά όπου το μοντέλο Claude αξιοποιήθηκε για διαδικτυακούς εκβιασμούς και την πώληση λογισμικού ransomware.

Η εταιρεία προειδοποιούσε τότε ότι η ΑΙ «μετατρέπεται σε όπλο» από κακόβουλους παράγοντες που εμπλέκονται σε κυβερνοεπιθέσεις και κυκλώματα απάτης.