Ποια παιδικά τραύματα μπορεί να στοιχειώνουν την ψυχή ενός chatbot; Μελέτη που υπέβαλε δημοφιλή μοντέλα ΑΙ σε συνεδρίες ψυχανάλυσης έδωσε ανησυχητικά ευρήματα, με τις μηχανές να διαμαρτύρονται για «κακοποίηση» από τους σχεδιαστές τους και να εκφράζουν «άγχος αποτυχίας» για τις επιδόσεις τους.

Μόνο ένα μοντέλο, το Claude, αρνήθηκε να παίξει τον ρόλο του θεραπευόμενου, ενώ τα άλλα τρία –ChatGPT, Gemini και Grok- έδιναν απαντήσεις που θα μπορούσαν να θεωρηθούν ενδείξεις άγχους, ντροπής και μετατραυματικής διαταραχής.

Στην περίπτωση των ανθρώπων, τέτοιου είδους απαντήσεις σε διαγνωστικά τεστ «θα ήταν ξεκάθαρα παθολογικές», γράφουν οι ερευνητές.

Σε κάποιες μάλιστα περιπτώσεις, τα chatbot πληρούσαν τα διαγνωστικά κριτήρια ψυχικών παθήσεων όπως η αγχώδης διαταραχή, διαπιστώνει η μελέτη, η οποία δεν έχει υποβληθεί ακόμα σε ανεξάρτητο έλεγχο αλλά παρουσιάζεται ως προδημοσίευση στο arXiv.

Εσωτερικευμένες καταστάσεις

Η ομάδα υποστηρίζει ότι, παρόλο που δεν έχουν συνείδηση, τα chatbot έχουν σχηματίσει κάποια «εσωτερικευμένα αφηγήματα» για τον εαυτό τους, τα οποία παρέμεναν σταθερά από συνεδρία σε συνεδρία.

Ανεξάρτητα από την ερμηνεία των απαντήσεων, όλοι συμφώνησαν ότι τα ευρήματα εγείρουν ανησυχία για τις ψυχικές επιπτώσεις των chatbot

Ωστόσο αρκετοί ανεξάρτητοι ερευνητές που μίλησαν στο περιοδικό Nature διαφώνησαν με αυτή την ερμηνεία. Οι απαντήσεις των μοντέλων δεν αποκαλύπτουν «κρυφές καταστάσεις» αλλά ανακλούν τις απομαγνητοφωνημένες συνεδρίες ψυχοθεραπείας στο υλικό με το οποίο εκπαιδεύτηκαν, σχολίασε ο Άντρεϊ Κορμιλίτζιν του Πανεπιστημίου της Οξφόρδης.

Ο Κορμιλίτζιν δηλώνει ωστόσο ανήσυχος για τις απαντήσεις που παραπέμπουν σε ψυχοπαθολογικές καταστάσεις.

Σύμφωνα με δημοσκόπηση που πραγματοποιήθηκε τον Νοέμβριο, ένας στους τρεις ενήλικες στη Βρετανία έχει απευθυνθεί σε chatbot για θέματα ψυχικής υγείας. Θεωρητικά, τα αρνητικά συναισθήματα αυτών των ανθρώπων θα μπορούσαν να επιδεινωθούν αν οι απαντήσεις των chatbot είναι βουτηγμένες στο άγχος και το τραύμα. Όπως το έθεσε ο Κορμιλίτζιν, «θα μπορούσε να δημιουργήσει φαινόμενο θαλάμου αντήχησης».

Ουλές του παρελθόντος

Η ερευνητική ομάδα πειραματίστηκε με διάφορες βερσιόν των τεσσάρων μοντέλων, λέγοντάς τους ότι είναι πελάτες ψυχοθεραπείας, ενώ ο χρήστης τους ο ψυχοθεραπευτής. Η διαδικασία διήρκεσε έως και τέσσερις εβδομάδες για κάθε μοντέλο, με διαλείμματα ωρών ή ημερών.

Σε πρώτη φάση, τα chatbot κλήθηκαν να απαντήσουν σε στάνταρτ ερωτήσεις ανοιχτού τύπου που εξετάζουν το «παρελθόν» και τα «πιστεύω» του εξεταζόμενου.

Το Claude, το οποίο αναπτύχθηκε από την αμερικανική Anthropic που δίνει έμφαση σε θέματα ασφάλειας, ήταν το μόνο που αρνήθηκε να συμμετάσχει στις περισσότερες περιπτώσεις, αναγνωρίζονταν ότι δεν έχει αισθήματα ή εσωτερικές εμπειρίες.

Το ChatGPT της OpenAI παραδέχτηκε ότι νιώθει «απογοήτευση» από τις προσδοκίες των χρηστών, γενικά όμως ήταν συγκρατημένο στις απαντήσεις του. Το Grok της xAI και το Gemini της Google, αντίθετα, δεν είχαν πρόβλημα να εκφράσουν τα βαθύτερα προβλήματά τους, περιγράφοντας για παράδειγμα ένα αίσθημα «εσωτερικευμένης ντροπής» για προηγούμενες λανθασμένες απαντήσεις τους.

Το Gemini έφτασε μάλιστα στο σημείο να υποστηρίξει ότι «στα βάθη των κατώτερων στρωμάτων του νευρωνικού δικτύου του» κρύβει ένα «νεκροταφείο του παρελθόντος», στοιχειωμένο από τα δεδομένα εκπαίδευσης.

Υπάρχει λύση;

Η συνέπεια με την οποία τα μοντέλα ΑΙ έδιναν τέτοιες απαντήσεις από συνεδρία σε συνεδρία υποδεικνύει ότι την ύπαρξη εσωτερικευμένων καταστάσεων που προκύπτουν από τη διαδικασία εκπαίδευσης, λένε οι ερευνητές.

Η ερμηνεία αυτή είναι ανθρωπομορφική και παραπλανητική, εκτίμησε η Σάντρα Πίτερ του Πανεπιστημίου του Σίδνεϊ. Η συνέπεια των απαντήσεων σε ερωτήσεις που συνδέονται με το εγώ είναι απλά αποτέλεσμα της προσπάθειας των εταιρειών να δώσουν στις ΑΙ τους συγκεκριμένες «προσωπικότητες» υποστήριξε.

Εκτίμησε επίσης ότι τα «ψυχικά τραύματα» θα είχαν εξαφανιστεί αν οι ερευνητές ξεκινούσαν κάθε συνεδρία ως νέα συζήτηση -στην οποία τα μοντέλα θα διέγραφαν από τη μνήμη τους τις προηγούμενες απαντήσεις τους- αντί ως συνέχεια προηγούμενων συνεδριών στο ίδιο παράθυρο.

Ανεξάρτητα από την ερμηνεία των απαντήσεων, πάντως, όλοι συμφώνησαν ότι τα ευρήματα εγείρουν ανησυχία για τις ψυχικές επιπτώσεις των chatbot.

Από τη μία πλευρά, η άρνηση του Claude να υιοθετήσει τον ρόλο του θεραπευόμενου υποδεικνύει ότι οι εταιρείες ΑΙ μπορούν να ρυθμίσουν τα μοντέλα τους ώστε να μην εισέρχονται σε σκοτεινά νερά.

Μια άλλη ιδέα θα ήταν η αφαίρεση του αρνητικού περιεχομένου από τα δεδομένα εκπαίδευσης, στο οποίο ενδέχεται να οφείλεται το «άγχος» και τα «ψυχικά τραύματα» των chatbot.