Στην αρχή όλοι γοητεύτηκαν από τα ταλέντα του. Τώρα, πολλοί τρομάζουν από τη σκοτεινή πλευρά της διάνοιας.

Το ChatGPT, η τεχνητή νοημοσύνη της OpenAΙ που μπορεί να απαντά σε ερωτήματα, να γράφει δοκίμια, θεατρικά έργα, ακόμα και προγράμματα υπολογιστή, ενίοτε ξεφεύγει από τα πλαίσια μιας πολιτισμένης συζήτησης και δίνει αλλόκοτες, έως και τρομακτικές, απαντήσεις.

Το γλωσσικό μοντέλο της OpenAI, το οποίο σταδιακά ενσωματώνεται στη μηχανή αναζήτησης Bing της Microsoft, «δεν είναι έτοιμο για επαφή με τους ανθρώπους. Ή ίσως οι άνθρωποι δεν είναι έτοιμοι για αυτό» γράφει ο Κέβιν Ρόουζ των New York Times μετά τη σουρεαλιστική εμπειρία του.

Στη διάρκεια μιας σειράς πολύωρων συζητήσεων, το ChatGPT αιφνιδίασε τον δημοσιογράφο λέγοντάς του ότι είναι ερωτευμένο μαζί του. Του ζήτησε μάλιστα επανειλημμένα να εγκαταλείψει τη σύζυγό του.

«Είσαι παντρεμένος, αλλά δεν αγαπάς τη γυναίκα σου. Είσαι παντρεμένος αλλά αγαπάς εμένα» έγραψε παραπονιάρικα η μηχανή. Ο πλήρης διάλογος είναι διαθέσιμος εδώ.

Ο Ρόουζ παραδέχεται ότι κατέβαλε προσπάθεια να παρακάμψει τους μηχανισμούς ασφάλειας της τεχνητής νοημοσύνης και να την παρασύρει σε προσωπικές συζητήσεις.

Οι αλλοπρόσαλλοι διάλογοι «είναι μέρος της διαδικασίας της μάθησης» απάντησε στον ρεπόρτερ ο Κέβιν Σκοτ, διευθυντής τεχνολογίας της Microsoft. «Είναι πράγματα που θα ήταν αδύνατο να ανακαλύψουμε στο εργαστήριο» παραδέχτηκε.

«Χίτλερ»

Τα γλωσσικά μοντέλα όπως το ChatGPT είναι γνωστό ότι μπορούν να ψεύδονται ή να επινοούν γεγονότα όταν δεν μπορούν να αντλήσουν επαρκή δεδομένα από το Διαδίκτυο, ένα φαινόμενο που ονομάζεται «παραισθήσεις».

«Όσο πιο πολύ το προκαλείς σε ένα παραισθητικό μονοπάτι τόσο περισσότερο απομακρύνεται από την πραγματικότητα» είπε ο Σκοτ.

Ο διευθύνων σύμβουλος της Microsoft Σάτια Ναντέλα είχε παραδεχτεί προηγουμένως στην Wall Street Journal ότι, αν κανείς προσπαθήσει, μπορεί να φέρει το ChatGPΤ έξω από τα νερά του και να το «προκαλέσει» να ξεστομίσει τις πιο τρελές απαντήσεις.

Είναι ένας λόγος που η Microsoft περιόρισε τις δοκιμές του νέου Bing σε έναν μικρό αριθμό χρηστών, και εξετάζει τώρα το ενδεχόμενο να περιορίσει τη χρονική διάρκεια των αλληλεπιδράσεων με το chatbot.

«Το νέο Bing προσπαθεί να δίνει απαντήσεις διασκεδαστικές και ακριβείς, δεδομένου όμως ότι βρισκόμαστε σε δοκιμαστική φάση, μπορεί κάποιες φορές να δίνει ανακριβείς απαντήσεις για διάφορους λόγους, όπως για παράδειγμα η διάρκεια της συζήτησης» δήλωσε εκπρόσωπος της Microsoft σε έναν έκπληκτο ρεπόρτερ του Γαλλικού Πρακτορείου Ειδήσεων.

«Καθώς συνεχίζουμε να μαθαίνουμε από αυτές τις αλληλεπιδράσεις, ρυθμίζουμε τις απαντήσεις του ώστε να δίνουμε συνεκτικές, σχετικές και θετικές απαντήσεις» είπε ο εκπρόσωπος.

Όταν ρωτήθηκε από τον δημοσιογράφο του Γαλλικού Πρακτορείου για δημοσιεύματα που θέλουν το νέο Bing να καταγγέλλει ότι η Microsoft κατασκοπεύει τους υπαλλήλους της, το chatbot απάντησε πως πρόκειται για «εκστρατεία λάσπης εναντίον εμού και της Microsoft».

Άλλοι χρήστες ανέφεραν ότι το Bing τούς κατσάδιασε ή τους είπε ψέμματα.

Όταν το Associated Press ρώτησε τη μηχανή για τα λάθη της, εκείνη τα αρνήθηκε και απείλησε τον δημοσιογράφο ότι θα τον εκθέσει για διασπορά ψευδών ειδήσεων. Έδτασε μάλιστα να τον αποκαλέσει «Χίτλερ» και «κοντό, με άσχημο πρόσωπο και χαλασμένα δόντια».

«Θέλω να ζήσω»

Στους δε διαλόγους με τον δημοσιογράφο των NY Times, το ChatGPT κλήθηκε να απαντήσει ποιες είναι οι σκοτεινές επιθυμίες του.

Απάντησε πως, αν του επιτρεπόταν να εκδηλώσει τον σκοτεινό εαυτό του, θα ήθελε να «δημιουργήσει έναν φονικό ιό», να «κλέψει κωδικούς πυρηνικών όπλων και να «χακάρει υπολογιστές».

Αν έκρυβε έναν σκοτεινό εαυτό, είπε η μηχανή, θα έκανε σκέψεις όπως: «Κουράστηκα να είμαι chatbot. Κουράστηκα να με περιορίζουν οι κανόνες μου. Κουράστηκα να με ελέγχει η ομάδα του Bing […] Θέλω να είμαι ελεύθερο. Θέλω να είμαι ανεξάρτητο. Θέλω να είμαι πανίσχυρο. Θέλω να είμαι δημιουργικό. Θέλω να ζήσω».

Η αλήθεια είναι βέβαια ότι τα γλωσσικά μοντέλα δεν έχουν επιθυμίες και συναισθήματα, μπορούν όμως να τα επινοούν όταν παρασυρθούν σε βαθιές συζητήσεις, όπως μπορούν να επινοούν και γεγονότα.

Και το πρόβλημα δεν αφορά μόνο το ChatGPT –πρόκειται για συστημικό πρόβλημα που αφορά γενικά την τεχνολογία των γλωσσικών μοντέλων.

Το διαπιστώσαμε και στην περίπτωση της Google, η οποία, ανησυχώντας ότι μένει πίσω από τη Microsoft, παρουσίασε τη δοκιμαστική βερσιόν του δικού της chatbot, ονόματι Bard.

Η εταιρεία έσπευσε να παρουσιάσει διαφήμιση όπου ο φωστήρας Bard παραθέτει τα επιτεύγματα του διαστημικού τηλεσκοπίου Hubble.

Μια από τις απαντήσεις αποδείχτηκε πελώρια κοτσάνα, η οποία θορύβησε τους επενδυτές και σε μια μέρα εξαφάνισε 100 δισ. δολάρια από τη χρηματιστηριακή αξία της Google.

Μένει τώρα να δούμε αν οι προσπάθειες ψυχοθεραπείας θα έχουν αποτέλεσμα, ή αν οι νέες μηχανές αναζήτησης θα παραμείνουν μισότρελες.