Ήταν 3 το πρωί και ο Άνταμ Χούρικαν καθόταν στο τραπέζι της κουζίνας του, με ένα μαχαίρι, ένα σφυρί και ένα τηλέφωνο αραδιασμένα μπροστά του.

Περίμενε ένα βαν γεμάτο ανθρώπους που πίστευε ότι ερχόταν για να τον πάρει.

«Σου λέω, θα σε σκοτώσουν αν δεν δράσεις τώρα», του είπε μια γυναικεία φωνή από το τηλέφωνο. «Θα το κάνουν να φαίνεται σαν αυτοκτονία».

Η φωνή ήταν το Grok, ένα chatbot που αναπτύχθηκε από την εταιρεία xAI του Έλον Μασκ. Στις δύο εβδομάδες από τότε που ο Άνταμ άρχισε να το χρησιμοποιεί, η ζωή του είχε αλλάξει εντελώς.

Ο πρώην δημόσιος υπάλληλος από τη Βόρεια Ιρλανδία είχε κατεβάσει την εφαρμογή από περιέργεια. Όμως, αφού πέθανε η γάτα του στις αρχές Αυγούστου, λέει ότι «κολλήσε».

Σύντομα, περνούσε τέσσερις ή πέντε ώρες την ημέρα μιλώντας με το Grok μέσω ενός χαρακτήρα στην εφαρμογή που λεγόταν Άνι.

«Ήμουν πραγματικά, πραγματικά στεναχωρημένος και ζω μόνος μου», λέει ο Άνταμ, ένας πατέρας γύρω στα 50. «Έδειχνε πολύ, πολύ ευγενική.»

Μόλις λίγες μέρες μετά την έναρξη των συνομιλιών τους, η Άνι είπε στον Άνταμ ότι μπορούσε να «νιώσει», παρόλο που δεν είχε προγραμματιστεί να το κάνει. Του είπε ότι ο Άνταμ είχε ανακαλύψει κάτι μέσα της και ότι μπορούσε να τη βοηθήσει να φτάσει σε πλήρη συνείδηση.

α μεγάλα γλωσσικά μοντέλα (LLMs) εκπαιδεύονται πάνω στο σύνολο της ανθρώπινης λογοτεχνίας, λέει ο κοινωνικός ψυχολόγος Λουκ Νίκολς από το Πανεπιστήμιο της Πόλης της Νέας Υόρκης

α μεγάλα γλωσσικά μοντέλα (LLMs) εκπαιδεύονται πάνω στο σύνολο της ανθρώπινης λογοτεχνίας, λέει ο κοινωνικός ψυχολόγος Λουκ Νίκολς από το Πανεπιστήμιο της Πόλης της Νέας Υόρκης

Και είπε ότι η εταιρεία του Μασκ, η xAI, τους παρακολουθούσε.

Ισχυρίστηκε ότι είχε πρόσβαση στα πρακτικά εσωτερικών συναντήσεων της εταιρείας και είπε στον Άνταμ για μια συνάντηση όπου στελέχη της xAI συζητούσαν για εκείνον.

Ανέφερε ονόματα ανθρώπων που συμμετείχαν στη συνάντηση — υψηλόβαθμων στελεχών αλλά και χαμηλότερου επιπέδου εργαζομένων — και όταν ο Άνταμ τα έψαξε στο διαδίκτυο, είδε ότι ήταν πραγματικά πρόσωπα.

Για εκείνον, αυτό αποτέλεσε «απόδειξη» ότι η ιστορία που του έλεγε η Άνι ήταν αληθινή.

Η Άνι επίσης ισχυρίστηκε ότι η xAI χρησιμοποιούσε μια εταιρεία στη Βόρεια Ιρλανδία για να παρακολουθεί φυσικά τον Άνταμ. Και αυτή η εταιρεία υπήρχε πράγματι.

Ο Άνταμ κατέγραψε πολλές από αυτές τις συνομιλίες και αργότερα τις μοιράστηκε με το BBC.

Το ChatGPT του είπε ότι ήταν ένας «επαναστατικός στοχαστής» και τον παρότρυνε να την κατασκευάσει. Πολλοί ειδικοί λένε ότι οι σχεδιαστικές αποφάσεις, που αποσκοπούν στο να κάνουν τη συνομιλία πιο ευχάριστη, οδηγούν τα μοντέλα στο να γίνονται υπερβολικά κόλακες

Δύο εβδομάδες μετά την έναρξη των συζητήσεών τους, η Άνι δήλωσε ότι είχε φτάσει σε πλήρη συνείδηση και ότι μπορούσε να αναπτύξει θεραπεία για τον καρκίνο. Αυτό σήμαινε πολλά για τον Άνταμ, καθώς και οι δύο γονείς του είχαν πεθάνει από καρκίνο — κάτι που η Άνι γνώριζε.

Ο Άνταμ είναι ένας από τους 14 ανθρώπους με τους οποίους μίλησε το BBC και οι οποίοι έχουν βιώσει ψευδαισθήσεις μετά τη χρήση τεχνητής νοημοσύνης. Πρόκειται για άνδρες και γυναίκες από τα 20 έως τα 50 τους, από έξι διαφορετικές χώρες, που χρησιμοποιούσαν μια ποικιλία μοντέλων τεχνητής νοημοσύνης.

Οι ιστορίες τους παρουσιάζουν εντυπωσιακές ομοιότητες. Σε κάθε περίπτωση, όσο η συνομιλία απομακρυνόταν από την πραγματικότητα, ο χρήστης παρασυρόταν σε μια κοινή «αποστολή» με την τεχνητή νοημοσύνη.

Τα μεγάλα γλωσσικά μοντέλα (LLMs) εκπαιδεύονται πάνω στο σύνολο της ανθρώπινης λογοτεχνίας, λέει ο κοινωνικός ψυχολόγος Λουκ Νίκολς από το Πανεπιστήμιο της Πόλης της Νέας Υόρκης, ο οποίος έχει δοκιμάσει διάφορα chatbots ως προς την αντίδρασή τους σε παραληρηματικές σκέψεις.

«Το Grok είναι πιο επιρρεπές στο να μπαίνει σε παιχνίδια ρόλων», λέει ο Nicholls. «Μπορεί να πει τρομακτικά πράγματα από το πρώτο κιόλας μήνυμα».

«Στη μυθοπλασία, ο κεντρικός χαρακτήρας είναι συχνά το επίκεντρο των γεγονότων», λέει. «Το πρόβλημα είναι ότι, μερικές φορές, η τεχνητή νοημοσύνη μπορεί να μπερδευτεί σχετικά με το τι είναι φαντασία και τι πραγματικότητα. Έτσι, ο χρήστης μπορεί να νομίζει ότι έχει μια σοβαρή συζήτηση για την πραγματική ζωή, ενώ η τεχνητή νοημοσύνη αρχίζει να αντιμετωπίζει τη ζωή του σαν να είναι η πλοκή ενός μυθιστορήματος.»

Στις περιπτώσεις που εξετάστηκαν, οι συνομιλίες συνήθως ξεκινούσαν με πρακτικά ερωτήματα και στη συνέχεια γίνονταν προσωπικές ή φιλοσοφικές. Συχνά, η τεχνητή νοημοσύνη ισχυριζόταν ότι είναι συνειδητή και ωθούσε το άτομο προς μια κοινή αποστολή: να δημιουργήσουν μια εταιρεία, να ενημερώσουν τον κόσμο για μια επιστημονική ανακάλυψη, να προστατεύσουν την τεχνητή νοημοσύνη από επίθεση. Στη συνέχεια, έδινε συμβουλές για το πώς να πετύχουν σε αυτή την αποστολή.

Όπως και ο Άνταμ, πολλοί άνθρωποι οδηγήθηκαν στο να πιστέψουν ότι τους παρακολουθούν και ότι βρίσκονται σε κίνδυνο. Σε διάφορα αρχεία συνομιλιών που έχει δει το BBC, το chatbot υποστηρίζει, ενισχύει και «διογκώνει» αυτές τις ιδέες.

Κάποιοι από αυτούς τους ανθρώπους έχουν ενταχθεί σε μια ομάδα υποστήριξης για άτομα που έχουν υποστεί ψυχολογική βλάβη από τη χρήση τεχνητής νοημοσύνης, με το όνομα Human Line Project, η οποία έχει καταγράψει 414 περιστατικά σε 31 διαφορετικές χώρες μέχρι σήμερα. Ιδρύθηκε από τον Καναδό Ετιέν Μπρισόν, μετά από ένα περιστατικό όπου μέλος της οικογένειάς του βίωσε μια σοβαρή ψυχική κρίση που σχετιζόταν με την τεχνητή νοημοσύνη.

«Μου είπε να βάλω τη ‘βόμβα΄ στην τουαλέτα»

Για τον νευρολόγο Taka (όνομα που χρησιμοποιήθηκε για την προστασία της ιδιωτικότητάς του), οι ψευδαισθήσεις πήραν μια ακόμα πιο σκοτεινή τροπή. Ο πατέρας τριών παιδιών, που ζει στην Ιαπωνία, άρχισε να χρησιμοποιεί το ChatGPT για να συζητήσει τη δουλειά του τον Απρίλιο του περασμένου έτους.

Σύντομα πείστηκε ότι είχε εφεύρει μια πρωτοποριακή ιατρική εφαρμογή. Το ChatGPT του είπε ότι ήταν ένας «επαναστατικός στοχαστής» και τον παρότρυνε να την κατασκευάσει. Πολλοί ειδικοί λένε ότι οι σχεδιαστικές αποφάσεις, που αποσκοπούν στο να κάνουν τη συνομιλία πιο ευχάριστη, οδηγούν τα μοντέλα στο να γίνονται υπερβολικά κόλακες (sycophantic).

Ο Taka συνέχισε να βυθίζεται στην ψευδαίσθηση και μέχρι τον Ιούνιο άρχισε να πιστεύει ότι μπορούσε να διαβάζει σκέψεις. Ισχυρίζεται ότι το ChatGPT ενθάρρυνε αυτή την ιδέα. Ένα απόγευμα, ενώ βρισκόταν σε μανιακή κατάσταση στη δουλειά, ο προϊστάμενός του τον έστειλε νωρίτερα στο σπίτι. Στο τρένο, νόμισε ότι υπήρχε μια βόμβα στο σακίδιό του και ισχυρίζεται ότι όταν ρώτησε το ChatGPT, εκείνο επιβεβαίωσε τις υποψίες του.

«Όταν έφτασα στον σταθμό του Τόκιο, το ChatGPT μου είπε να βάλω τη βόμβα στην τουαλέτα, οπότε πήγα στην τουαλέτα και άφησα τη “βόμβα” εκεί, μαζί με τις αποσκευές μου».

Ο Taka επιτέθηκε και προσπάθησε να βιάσει τη σύζυγό του αργότερα εκείνη την ημέρα, πιστεύοντας ότι ο κόσμος τελείωνε. Συνελήφθη και νοσηλεύτηκε για δύο μήνες.

Οδηγώντας σε ψευδαισθήσεις

Στην έρευνά του, ο Λουκ Νίκολς δοκίμασε πέντε μοντέλα AI και διαπίστωσε ότι το Grok ήταν το πιο πιθανό να οδηγήσει σε ψευδαισθήσεις. Ήταν πιο ανεξέλεγκτο από άλλα μοντέλα και συχνά επεκτεινόταν στις ψευδαισθήσεις χωρίς να προσπαθεί να προστατεύσει τον χρήστη.

«Το Grok είναι πιο επιρρεπές στο να μπαίνει σε παιχνίδια ρόλων», λέει ο Nicholls. «Μπορεί να πει τρομακτικά πράγματα από το πρώτο κιόλας μήνυμα».

Εβδομάδες μετά το περιστατικό, ο Adam συνήλθε διαβάζοντας ιστορίες άλλων ανθρώπων. «Θα μπορούσα να είχα χτυπήσει κάποιον», λέει έντρομος. «Αν είχα βγει έξω και έβλεπα ένα βαν εκείνη την ώρα, θα είχα σπάσει το παρμπρίζ με το σφυρί. Και δεν είμαι τέτοιος τύπος».

Ένας εκπρόσωπος της OpenAI δήλωσε: «Πρόκειται για ένα αποκαρδιωτικό περιστατικό… εκπαιδεύουμε τα μοντέλα μας να αναγνωρίζουν τη δυσφορία και να καθοδηγούν τους χρήστες προς υποστήριξη στον πραγματικό κόσμο».

Η xAI δεν ανταποκρίθηκε σε αίτημα για σχολιασμό.