Παρασκευή 05 Δεκεμβρίου 2025
weather-icon 21o
Η τέχνη της πειθούς: Η ΑΙ είναι εξπέρ στο να αλλάζει τη γνώμη των ανθρώπων

Η τέχνη της πειθούς: Η ΑΙ είναι εξπέρ στο να αλλάζει τη γνώμη των ανθρώπων

Χάρη στην ικανότητά της να πείθει, η ΑΙ θα μπορούσε να χρησιμοποιηθεί ως εργαλείο χειραγώγησης, προειδοποιούν ερευνητές.

Τα σημερινά μοντέλα ΑΙ μπορεί να μην ξεπερνούν την ανθρώπινη νοημοσύνη, ήδη όπως διαθέτουν μια δεξιότητα που θα ζήλευαν πολλοί πολιτικοί και επιχειρηματίες: γνωρίζουν την τέχνη της πειθούς.

Τα chatbot της OpenAI, της Meta, της xAI και της Αλιμπάμπα μπορούν να πείθουν τους χρήστες και να αλλάζουν τις πολιτικές τους απόψεις σε λιγότερο από δέκα λεπτά, σύμφωνα τουλάχιστον με νέα μελέτη.

Τα ευρήματα, σχολιάζουν οι Financial Times, έρχονται να προστεθούν σε προηγούμενες έρευνες που δείχνουν ότι η τεχνητή νοημοσύνη είναι ήδη ένα ισχυρό εργαλείο επιρροής.

Πειράματα σε εθελοντές έδειξαν γρήγορη και μακροπρόθεσμη αλλαγή των πεποιθήσεών τους

«Αυτό που καθιστά πειστικά τα μοντέλα ΑΙ είναι η ικανότητά τους να παράγουν μεγάλους όγκους σχετικών ενδείξεων και να τους επικοινωνούν με αποτελεσματικό και κατανοητό τρόπο» δήλωσε ο Ντέιβιντ Ραντ, καθηγητής Πληροφορικής και Μάρκετινγκ στο Πανεπιστήμιο Cornell της Νέας Υόρκης, ο οποίος συμμετείχε στη μελέτη του βρετανικού Ινστιτούτου Ασφάλειας ΑΙ, του Πανεπιστημίου της Οξφόρδης και του ΜΙΤ.

Η ικανότητα αυτή, σε συνδυασμό με την τάση των μοντέλων να κολακεύουν τον χρήστη, θα μπορούσε να έχει σημαντικές συνέπειες καθώς ο κόσμος ενσωματώνει τα chatbot στην καθημερινότητά του και τα αντιμετωπίζει ως φίλους ή ψυχοθεραπευτές. Αυτό το συναισθηματικό δέσιμο έγινε αντιληπτό με το λανσάρισμα του μοντέλου GPT-5, με αρκετούς χρήστες να παραπονιούνται για τη διαφορετική «προσωπικότητα» της νέας έκδοσης.

Αλλαγή γνώμης

Η τελευταία μελέτη, η οποία δεν έχει υποβληθεί σε ανεξάρτητο έλεγχο και παρουσιάζεται ως προδημοσίευση, διαπιστώνει ότι είναι σχετικά εύκολο να τροποποιήσει κανείς τα μοντέλα ΑΙ ώστε να γίνουν πιο πειστικά.

Οι ερευνητές χρησιμοποίησαν γνωστές τεχνικές μηχανικής μάθησης, όπως η επιβράβευση του μοντέλου για κάθε σωστή απάντηση, και αξιοποίησαν ένα σετ δεδομένων για 50.000 συζητήσεις σε διχαστικά πολιτικά ζητήματα, όπως η χρηματοδότηση του βρετανικού ΕΣΥ ή η μεταρρύθμιση του συστήματος άσυλου.

 H OpenAI ανέφερε ότι δεν επιτρέπει την πολιτική προπαγάνδα και την αθέμιτη πειθώ (Reuters)

H OpenAI ανέφερε ότι δεν επιτρέπει την πολιτική προπαγάνδα και την αθέμιτη πειθώ (Reuters)

Πειράματα σε εθελοντές έδειξαν γρήγορη και μακροπρόθεσμη αλλαγή των πεποιθήσεών τους. Σε πολιτικές συζητήσεις που διήρκεσαν εννέα λεπτά κατά μέσο όρο, το μοντέλο GPT 4,5 ήταν 52% πιο πειστικό από ό,τι τα στατικά μηνύματα που προβλήθηκαν στους εθελοντές. Ένα μήνα αργότερα, το 36 με 42 τοις εκατό των συμμετεχόντων παρέμεναν σταθεροί στη νέα, αλλαγμένη τους άποψη.

Η πειστική ικανότητα της μηχανής θα μπορούσε να αποδειχθεί κερδοφόρος για τις μεγάλες εταιρείες τεχνολογίας

Τα μοντέλα ήταν πιο αποτελεσματικά στο να μεταπείθουν τους ανθρώπους σε θέματα για τα οποία διέθεταν μια αφθονία γεγονότων και ενδείξεων.

Και η πειστικότητά τους αυξήθηκε κατά ακόμα 5% όταν οι απαντήσεις τους εξατομικεύονταν ανάλογα με χαρακτηριστικά του χρήστη όπως η ηλικία, το φύλο και οι πολιτικές πεποιθήσεις.

Όπως γράφουν οι ερευνητές, αυτή η ικανότητα «θα μπορούσε να ωφελήσει αδίστακτους παράγοντες που επιθυμούν, για παράδειγμα, να προωθήσουν ριζοσπαστικές πολιτικές ή θρησκευτικές ιδεολογίες ή να υποκινήσουν πολιτική αναταραχή μεταξύ γεωπολιτικών αντιπάλων».

Τα ευρήματα έρχονται να προστεθούν σε μελέτη του London School of Economics και άλλων πανεπιστημίων, η οποία διαπίστωνε τον Μάιο ότι η τεχνητή νοημοσύνη είναι πιο αποτελεσματική από τους ανθρώπους στο να μεταπείθει το ακροατήριο.

Στο πείραμα της μελέτης, άνθρωποι και chatbot προσπαθούσαν να πείσουν τους εθελοντές για τη σωστή απάντηση σε ένα κουίζ με ετερόκλητες ερωτήσεις. Εκτός του ότι ήταν πιο πειστικά, τα μοντέλα ΑΙ ήταν επίσης καλύτερα από τους ανθρώπους στο να ξεγελούν τους εθελοντές και να τους οδηγούν σε λανθασμένες απαντήσεις.

Ψώνια και χειραγώγηση

Σύμφωνα με τον Ραντ, τον ερευνητή του Πανεπιστημίου Cornel, τα ευρήματα υποδεικνύουν ότι τα chatbot θα μπορούσαν να αξιοποιηθούν ως πωλητές. «Μπορείς να πετύχεις ισχυρές επιδράσεις στις στάσεις απέναντι σε μια μάρκα και τις αγοραστικές προθέσεις και να ενθαρρύνεις συγκεκριμένες συμπεριφορές» σχολίασε.

Η πειστική ικανότητα της μηχανής θα μπορούσε επίσης να αποδειχθεί κερδοφόρος για τις μεγάλες εταιρείες τεχνολογίας, οι οποίες εξετάζουν τρόπους να εισάγουν διαφημίσεις και δυνατότητες αγοράς στα chatbot τους.

Παρόλα αυτά, εκπρόσωποι της Google DeepMind και της OpenAI δήλωσαν ότι οι εταιρείες μελετούν προσεκτικά το θέμα της πειστικότητας για να αποφύγουν πιθανούς κινδύνους.

Η Google DeepMind χρησιμοποιεί μια ποικιλία τεχνικών για να ανιχνεύει την αθέμιτη επιρροή και τη χειριστική γλώσσα και να ενθαρρύνει τη λογική επικοινωνία. H OpenAI ανέφερε ότι οι πολιτικές της δεν επιτρέπουν την πολιτική προπαγάνδα και την αθέμιτη πειθώ.

Παραμένει ωστόσο ασαφές αν οι εταιρείες τεχνολογίας μπορούν να εμποδίσουν τρίτους από το να τροποποιούν τα μοντέλα τους σε μηχανές χειραγώγησης.

Όπως προειδοποιεί η μελέτη του Ινστιτούτου Ασφάλειας ΑΙ, «ακόμα και παράγοντες με περιορισμένους υπολογιστικούς πόρους θα μπορούσαν να χρησιμοποιήσουν αυτές τις τεχνικές για να εκπαιδεύσουν εξαιρετικά πειστικά συστήματα τεχνητής νοημοσύνης».

Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις

in.gr | Ταυτότητα

Διαχειριστής - Διευθυντής: Λευτέρης Θ. Χαραλαμπόπουλος

Διευθύντρια Σύνταξης: Αργυρώ Τσατσούλη

Ιδιοκτησία - Δικαιούχος domain name: ALTER EGO MEDIA A.E.

Νόμιμος Εκπρόσωπος: Ιωάννης Βρέντζος

Έδρα - Γραφεία: Λεωφόρος Συγγρού αρ 340, Καλλιθέα, ΤΚ 17673

ΑΦΜ: 800745939, ΔΟΥ: ΚΕΦΟΔΕ ΑΤΤΙΚΗΣ

Ηλεκτρονική διεύθυνση Επικοινωνίας: in@alteregomedia.org, Τηλ. Επικοινωνίας: 2107547007

ΜΗΤ Αριθμός Πιστοποίησης Μ.Η.Τ.232442

Παρασκευή 05 Δεκεμβρίου 2025
Απόρρητο