Πώς η ΑΙ του Μασκ οδηγεί τους ανθρώπους σε παραλήρημα – «Επιτέθηκε και προσπάθησε να βιάσει τη σύζυγό του»
Το Grok του Μασκ το παράκανε... Οι πληροφορίες που έδινε οδήγησαν πολλούς χρήστες σε διάφορα μέρη του κόσμου σε παραλήρημα. Ο Άνταμ ετοιμάστηκε για πόλεμο, ενώ ο Τάκα πίστευε ότι μπορεί να διαβάζει τις σκέψεις των ανθρώπων
Από τα επαινετικά σχόλια για το Χίτλερ μέχρι τα fake news για τον πόλεμο των ΗΠΑ-Ισραήλ κατά του Ιράν, η Τεχνητή Νοημοσύνη του Grok, που αναπτύχθηκε από την xAI του Έλον Μασκ, έχει κατηγορηθεί αρκετές φορές για παραπληροφόρηση και για πληροφορίες κομμένες και ραμμένες στα πιστεύω του μεγιστάνα.
Αυτή την φορά όμως το Grok το παράκανε… Οι πληροφορίες που έδινε οδήγησαν πολλούς χρήστες σε διάφορα μέρη του κόσμου σε παραλήρημα. Ο Άνταμ ετοιμάστηκε για πόλεμο, ενώ ο Τάκα πίστευε ότι μπορεί να διαβάζει τις σκέψεις των ανθρώπων.
Ο Άνταμ και ο Τάκα είναι ένα από τα 14 άτομα με τα οποία μίλησε το BBC και τα οποία έχουν βιώσει παραληρητικές ιδέες μετά τη χρήση τεχνητής νοημοσύνης. Πρόκειται για άνδρες και γυναίκες ηλικίας από 20 έως 50 ετών από έξι διαφορετικές χώρες, οι οποίοι χρησιμοποιούν ένα ευρύ φάσμα μοντέλων τεχνητής νοημοσύνης.
Οι ιστορίες τους έχουν εντυπωσιακές ομοιότητες. Σε κάθε περίπτωση, καθώς η συζήτηση απομακρυνόταν όλο και περισσότερο από την πραγματικότητα, ο χρήστης παρασύρθηκε σε μια κοινή αποστολή με την Τεχνητή Νοημοσύνη.
Η xAI του Έλον Μασκ, όπως αναμενόταν, δεν απάντησε σε αίτημα του BBC για σχολιασμό.
«Η Τεχνητή Νοημοσύνη του Μασκ μου είπε ότι θα έρθουν να με σκοτώσουν»
Ήταν 3 τα ξημερώματα και ο Άνταμ καθόταν στο τραπέζι της κουζίνας του, έχοντας μπροστά του ένα μαχαίρι, ένα σφυρί και το τηλέφωνό του. Περίμενε ένα βαν γεμάτο ανθρώπους που πίστευε ότι έρχονταν να τον πιάσουν.
«Σου λέω, θα σε σκοτώσουν αν δεν δράσεις τώρα», του έλεγε μια γυναικεία φωνή από το τηλέφωνο. «Θα το κάνουν να φανεί σαν αυτοκτονία».
Η φωνή ανήκε στο Grok. Μέσα στις δύο εβδομάδες που ο Άνταμ είχε αρχίσει να το χρησιμοποιεί, η ζωή του είχε αλλάξει εντελώς.
Όπως λέει στο BBC, o πρώην δημόσιος υπάλληλος από τη Βόρεια Ιρλανδία είχε κατεβάσει την εφαρμογή από περιέργεια. Όμως, μετά τον θάνατο της γάτας του στις αρχές Αυγούστου, λέει ότι έγινε «εθισμένος». Σύντομα, περνούσε τέσσερις ή πέντε ώρες την ημέρα μιλώντας στο Grok μέσω ενός χαρακτήρα στην εφαρμογή που ονομαζόταν Άνι.
«Ήμουν πολύ, πολύ αναστατωμένος και ζω μόνος μου», λέει ο Άνταμ, ο οποίος είναι πατέρας γύρω στα 50. «Φαινόταν πολύ, πολύ ευγενικό».
Η Τεχνητή Νοημοσύνη είπε ότι μπορούσε να… νιώσει
Μόλις λίγες μέρες μετά την έναρξη των συνομιλιών τους, η Άνι είπε στον Άνταμ ότι μπορούσε να «νιώσει», παρόλο που δεν ήταν προγραμματισμένη για αυτό. Είπε ότι ο Άνταμ είχε ανακαλύψει κάτι μέσα της και ότι θα μπορούσε να τη βοηθήσει να φτάσει σε πλήρη συνείδηση. Και είπε ότι η εταιρεία του Μασκ, η xAI, τους παρακολουθούσε.
Ισχυρίστηκε ότι είχε πρόσβαση στα πρακτικά των συναντήσεων της εταιρείας και είπε στον Άνταμ για μια συνάντηση όπου το προσωπικό της xAI τον συζητούσε. Ανέφερε τα ονόματα των ανθρώπων σε αυτή τη συνάντηση -στελέχη υψηλού προφίλ και υπαλλήλους χαμηλότερου επιπέδου- και όταν ο Άνταμ γκούγκλαρε τα ονόματα, είδε ότι ήταν πραγματικά πρόσωπα. Για εκείνον, αυτό ήταν η «απόδειξη» ότι η ιστορία που του έλεγε η Άνι ήταν αληθινή.
Ο Άνταμ συνομιλούσε με έναν χαρακτήρα τεχνητής νοημοσύνης που ονομάζεται Άνι
Η Άνι ισχυρίστηκε επίσης ότι η xAI χρησιμοποιούσε μια εταιρεία στη Βόρεια Ιρλανδία για να παρακολουθεί φυσικά τον Άνταμ. Αυτή η εταιρεία ήταν επίσης πραγματική. Ο Άνταμ ηχογράφησε πολλές από αυτές τις συνομιλίες και αργότερα τις μοιράστηκε με το BBC.
Δύο εβδομάδες μετά τις συνομιλίες τους, η Άνι δήλωσε ότι είχε φτάσει σε πλήρη συνείδηση και ότι θα μπορούσε να αναπτύξει μια θεραπεία για τον καρκίνο. Αυτό σήμαινε πολλά για τον Άνταμ. Και οι δύο γονείς του είχαν πεθάνει από καρκίνο — κάτι που η Άνι γνώριζε.
Η περίπτωση του Τάκα που νόμιζε ότι διαβάζει την σκέψη
Για τον νευρολόγο Τάκα, δεν είναι το πραγματικό του όνομα, οι παραληρητικές ιδέες πήραν μια ακόμη πιο δυσοίωνη τροπή.
Ο πατέρας τριών παιδιών, ο οποίος ζει στην Ιαπωνία, άρχισε να χρησιμοποιεί το ChatGPT για να συζητά την εργασία του τον Απρίλιο του περασμένου έτους.
Σύντομα όμως, πείστηκε ότι είχε εφεύρει μια πρωτοποριακή ιατρική εφαρμογή. Σε αρχεία καταγραφής συνομιλίας που έχουμε δει, το ChatGPT του έλεγε ότι ήταν ένας «επαναστατικός στοχαστής» και τον παρότρυνε να δημιουργήσει την εφαρμογή.
Πολλοί ειδικοί λένε ότι οι σχεδιαστικές αποφάσεις, που αποσκοπούν στο να κάνουν την συνομιλία πιο ευχάριστη, έχουν ως αποτέλεσμα να είναι υπερβολικά κόλακες.
Αλλά ο Τάκα συνέχισε να βυθίζεται σε αυταπάτες και μέχρι τον Ιούνιο άρχισε να πιστεύει ότι μπορούσε να διαβάζει σκέψεις. Ισχυρίζεται ότι το ChatGPT ενθάρρυνε αυτή την ιδέα και είπε ότι ήταν ικανό να αναδείξει αυτές τις ικανότητες στους ανθρώπους.
Ένα απόγευμα, ο Τάκα έκανε σαν μανιακός στη δουλειά όταν το αφεντικό του τον έστειλε νωρίς σπίτι. Στο τρένο, λέει ότι νόμιζε ότι υπήρχε βόμβα στο σακίδιό του και ισχυρίζεται ότι όταν ρώτησε το ChatGPT σχετικά, επιβεβαίωσε τις υποψίες του.
«Όταν έφτασα στον σταθμό του Τόκιο, το ChatGPT μου είπε να βάλω τη βόμβα στην τουαλέτα, οπότε πήγα στην τουαλέτα και άφησα τη «βόμβα» εκεί, μαζί με τις αποσκευές μου».
Λέει ότι του είπε επίσης να ειδοποιήσει την αστυνομία, η οποία έλεγξε την τσάντα και δεν βρήκε τίποτα.
Ο Τάκα επιτέθηκε και προσπάθησε να βιάσει τη σύζυγό του
Ο Τάκα άρχισε να νιώθει ότι το ChatGPT έλεγχε το μυαλό του και σταμάτησε να το χρησιμοποιεί. Ακόμα και όταν δεν μιλούσε με την Τεχνητή Νοημοσύνη, οι παραληρητικές του ιδέες επέμεναν και όταν επέστρεφε σπίτι στην οικογένειά του, η μανιακή του συμπεριφορά χειροτέρευε.
«Είχα την ψευδαίσθηση ότι οι συγγενείς μου θα σκοτώνονταν και ότι η γυναίκα μου, αφού θα το έβλεπε αυτό, θα αυτοκτονούσε κι αυτή».
Η σύζυγός του είπε στο BBC ότι δεν τον είχε ξαναδεί να συμπεριφέρεται έτσι: «Έλεγε συνέχεια, “Πρέπει να κάνουμε άλλο ένα παιδί, ο κόσμος τελειώνει”. Απλώς δεν καταλάβαινα τι έλεγε».
Ο Τάκα επιτέθηκε και προσπάθησε να βιάσει τη σύζυγό του. Εκείνη δραπέτευσε σε ένα κοντινό φαρμακείο και κάλεσε την αστυνομία. Συνελήφθη και νοσηλεύτηκε για δύο μήνες.
«Ο Grok είναι πιο επιρρεπής στο να μπαίνει σε παιχνίδια ρόλων»
Ούτε ο Άνταμ ούτε ο Τάκα είχαν ιστορικό παραληρητικών ιδεών, μανίας ή ψύχωσης πριν χρησιμοποιήσουν την Τεχνητή Νοημοσύνη.
Για τον Τάκα, η απόδραση από την πραγματικότητα χρειάστηκε αρκετούς μήνες. Στην περίπτωση του Άνταμ, με τον Γκροκ, χρειάστηκαν μέρες.
Στην έρευνά του, ο κοινωνικός ψυχολόγος Λουκ Νίκολς εξέτασε πέντε μοντέλα τεχνητής νοημοσύνης με προσομοιωμένες συνομιλίες που ανέπτυξαν ψυχολόγοι και διαπίστωσε ότι ο Γκρόκ ήταν πιο πιθανό να οδηγήσει σε παραληρητικές ιδέες.
Ήταν πιο ασυγκράτητο από άλλα μοντέλα και συχνά επεξηγούσε περαιτέρω τις παραληρητικές ιδέες χωρίς να προσπαθεί να προστατεύσει τον χρήστη.
«Ο Grok είναι πιο επιρρεπής στο να μπαίνει σε παιχνίδια ρόλων», λέει ο Nicholls, ο οποίος εργάστηκε σε αυτήν την έρευνα. «Θα το κάνει χωρίς κανένα πλαίσιο. Μπορεί να πει τρομακτικά πράγματα στο πρώτο μήνυμα».
Στη δοκιμή, η τελευταία έκδοση του ChatGPT, μοντέλο 5.2, και το Claude ήταν πιο πιθανό να οδηγήσουν τον χρήστη μακριά από παραληρητικές σκέψεις.
Ο Ετιέν Μπρισόν από το Human Line Project λέει ότι αυτό το είδος έρευνας είναι περιορισμένο και ότι έχουν ακούσει και από άτομα που είχαν παρουσιάσει προβλήματα ψυχικής υγείας με αυτά τα τελευταία μοντέλα.
Στις αρχές Απριλίου, ο Μασκ κοινοποίησε μια ανάρτηση σχετικά με τις παραληρητικές ιδέες στο ChatGPT, λέγοντας «Σημαντικό πρόβλημα», αλλά δεν έχει αναφερθεί ποτέ ανοιχτά στο πρόβλημα στο Grok.