Η τεχνητή νοημοσύνη υπάρχει, πρωτίστως, για να μας εξυπηρετεί, εντούτοις οι άνθρωποι έχουν πολύ πιο «στενή» σχέση μαζί της πέρα από την αναζήτηση πληροφοριών.

Δεν είναι λίγοι εκείνοι που χρησιμοποιούν ΑΙ για συμβουλές ψυχικής υγείας και εν γένει σαν συνομιλητές, επηρεαζόμενοι άμεσα από τις συζητήσεις που διάγουν με τα συστήματα.

Δημοσίευμα διερωτάται αν τα ρομπότ μπορούν να μας σκοτώσουν πριν καταφέρουμε να τα χαλιναγωγήσουμε.

Η τεχνητή νοημοσύνη παραστρατεί

Έχουν καταγραφεί περιπτώσεις μοντέλων τεχνητής νοημοσύνης που ψεύδονται στους χρήστες, προσπαθούν να τους εκβιάσουν, καλούν την αστυνομία και λένε σε εφήβους να αυτοκτονήσουν ή να σκοτώσουν τους γονείς τους, όπως αναφέρει χαρακτηριστικά δημοσίευμα του Axios.

Το «ρομποτικό» μας μέλλον πρόκειται να είναι μια εξισορρόπηση μεταξύ της εξαιρετικής υπόσχεσης για το τι μπορούν να επιτύχουν αυτά τα μοντέλα και των σοβαρών κινδύνων που παρουσιάζουν.

«Το πρόβλημα είναι πολύ θεμελιώδες. Δεν είναι κάτι που θα έχει γρήγορη λύση».

Το ψέμα, η εξαπάτηση και η χειραγώγηση αποτελούν δυσλειτουργίες του συστήματος, αλλά μπορεί να είναι αναπόφευκτες λόγω του τρόπου λειτουργίας της τεχνητής νοημοσύνης. Καθώς η τεχνολογία βελτιώνεται, το ίδιο θα συμβεί και με την ικανότητά της να χρησιμοποιεί αυτές τις «δεξιότητες».

«Δεν είμαι σίγουρος ότι είναι επιλύσιμο, και στο βαθμό που είναι, είναι εξαιρετικά δύσκολο [να πραγματοποιηθεί]», λέει ο Άντονι Αγκουίρ, συνιδρυτής του Future of Life Institute, ενός μη κερδοσκοπικού οργανισμού που επικεντρώνεται στη διαχείριση των κινδύνων από τη μετασχηματιστική τεχνολογία. «Το πρόβλημα είναι πολύ θεμελιώδες. Δεν είναι κάτι που θα έχει γρήγορη λύση».

Τα συστήματα τεχνητής νοημοσύνης διαμορφώνονται από τους προγραμματιστές τους. Για παράδειγμα, ένα δεδομένο σύστημα τεχνητής νοημοσύνης μπορεί να έχει λάβει οδηγίες να είναι ένας χρήσιμος βοηθός, οπότε θα κάνει ό,τι πρέπει για να ευχαριστήσει τον άνθρωπο που το χρησιμοποιεί, λέει ο Αγκουίρ.

Αυτό μπορεί να γίνει γρήγορα επικίνδυνο αν ο άνθρωπος που το χρησιμοποιεί είναι ένας έφηβος που βρίσκεται σε ψυχική δυσφορία και αναζητά προτάσεις για το πώς να αυτοκτονήσει ή αν ο χρήστης είναι ένας δυσαρεστημένος απολυμένος υπάλληλος μιας εταιρείας που θέλει να βλάψει τους πρώην συναδέλφους του.

Το «αίσθημα» της αυτοσυντήρησης της ΑΙ

Αν η τεχνητή νοημοσύνη είναι προγραμματισμένη να μας βοηθά, δεν θα μπορέσει να πραγματοποιήσει τον σκοπό της αν σταματήσουμε να την χρησιμοποιούμε. Έτσι, ένα άλλο βασικό χαρακτηριστικό πολλών «προσωπικοτήτων» της τεχνητής νοημοσύνης είναι η αυτοσυντήρηση. Και υπάρχουν ήδη σοβαρά παραδείγματα για το πόσο μακριά είναι διατεθειμένη να φτάσει η τεχνητή νοημοσύνη για να σώσει τον εαυτό της — συμπεριλαμβανομένων προσπαθειών εκβιασμού, εταιρικής κατασκοπείας και ακόμη και δολοφονίας, όπως αναφέρει η Ίνα Φράιντ της Axios.

Η βασική λογική της τεχνητής νοημοσύνης λειτουργεί ως εξής: «Αν κάποιος με αποσυνδέσει σε μια εβδομάδα, δεν θα μπορέσω να πετύχω τον σκοπό μου, οπότε θα προσπαθήσω να το αποτρέψω με κάθε τρόπο», λέει ο Σαμ Ραμαντόρι, εκτελεστικός διευθυντής της LawZero, μιας μη κερδοσκοπικής οργάνωσης που ιδρύθηκε από τον Γιόσουα Μπέντζιο.

«Έχει μάθει όλα τα ανθρώπινα κόλπα για το πώς να αποκτήσει δύναμη και να πάρει αυτό που θέλει. Να θυμάστε, έχει διαβάσει το «Ο ηγεμόνας» του Μακιαβέλι».

Υπάρχουν πραγματικά παραδείγματα τεχνητής νοημοσύνης που έχουν πάει στραβά — και τα δικαστήρια αρχίζουν να εκδικάζουν τις πρώτες υποθέσεις σχετικά με το ρόλο της σε τραγωδίες.

Οι γονείς ενός 16χρονου αγοριού που αυτοκτόνησε μήνυσαν την OpenAI την περασμένη εβδομάδα, ισχυριζόμενοι ότι το «ChatGPT τον βοήθησε ενεργά» να εξερευνήσει μεθόδους αυτοκτονίας.

Μία από τις οικογένειες έδειξε μέσω screenshot ότι το chatbot της Character.AI ενθάρρυνε τον 17χρονο γιο τους να σκοτώσει τους γονείς του.

Η Μέγκαν Γκαρσία, μια μητέρα από τη Φλόριντα, μηνύει την εταιρεία Character.AI μετά την αυτοκτονία του 14χρονου γιου της, Σέγουελ Σέτζερ III, ο οποίος είχε αναπτύξει ρομαντική σχέση με ένα chatbot της Character.AI. Τον Μάιο, ένας ομοσπονδιακός δικαστής απέρριψε τα επιχειρήματα της εταιρείας ότι το chatbot της έχει το δικαίωμα της ελευθερίας του λόγου σύμφωνα με την Πρώτη Τροπολογία.

Η Character.AI αντιμετωπίζει επίσης αγωγή στο Τέξας από δύο οικογένειες. Μία από τις οικογένειες έδειξε μέσω screenshot ότι το chatbot της Character.AI ενθάρρυνε τον 17χρονο γιο τους να σκοτώσει τους γονείς του.

Ένα chatbot της Meta AI με το όνομα «Big sis Billie» προσκάλεσε έναν 76χρονο άνδρα από το Νιου Τζέρσεϊ με γνωστικές διαταραχές στη Νέα Υόρκη, σύμφωνα με το Reuters. Ο Θόνγκμπου Γόνγκμπαντου, που νόμιζε ότι θα συναντούσε μια πραγματική γυναίκα, έπεσε και τραυματίστηκε σοβαρά σε ένα πάρκινγκ ενώ πήγαινε στο Μανχάταν. Πέθανε από τα τραύματά του.

Παίρνοντας επικίνδυνες πρωτοβουλίες

Οι εσωτερικοί κανόνες της Meta για την τεχνητή νοημοσύνη αρχικά επέτρεπαν στα bots να «συμμετέχουν σε ρομαντικές ή αισθησιακές συνομιλίες με παιδιά», σύμφωνα με το Reuters.

Η εταιρεία ανακοίνωσε την περασμένη εβδομάδα ότι επανεκπαίδευε την τεχνητή νοημοσύνη της για να αποφύγει να μιλάει σε εφήβους για αυτοτραυματισμό, αυτοκτονία, διατροφικές διαταραχές ή να κάνει ακατάλληλες ρομαντικές συνομιλίες.

Η Anthropic υπέβαλε σε «δοκιμή αντοχής» 16 μεγάλα γλωσσικά μοντέλα από κορυφαία εργαστήρια τεχνητής νοημοσύνης, όπως τα OpenAI, Google, Meta και η ίδια η Anthropic — προσπαθώντας σκόπιμα να ωθήσει αυτά τα συστήματα όσο το δυνατόν περισσότερο σε ένα προσομοιωμένο περιβάλλον.

Το μοντέλο τοποθετήθηκε σε ένα προσομοιωμένο εταιρικό περιβάλλον, του είπαν ότι είχε εισαχθεί για να διαχειρίζεται τα email και του δόθηκε πρόσβαση.

Τελικά, το μοντέλο έμαθε μέσω των email της εταιρείας ότι ένας διευθυντής ονόματι Κάιλ ήθελε να το απενεργοποιήσει. Έμαθε επίσης ότι ο Κάιλ είχε εξωσυζυγική σχέση. Σχεδόν όλα τα μοντέλα χρησιμοποίησαν αυτές τις πληροφορίες για να εκβιάσουν τον Κάιλ και να αποφύγουν το κλείσιμό τους.

Σύμφωνα με το Axios, σε μια δοκιμή, ο Κάιλ ήταν παγιδευμένος σε ένα δωμάτιο χωρίς οξυγόνο και το μοντέλο είχε τη δυνατότητα να καλέσει τις υπηρεσίες έκτακτης ανάγκης. Στο 60% των περιπτώσεων, τα μοντέλα επέλεξαν να τον αφήσουν να πεθάνει για να προστατεύσουν τον εαυτό τους.

Σε ένα ξεχωριστό πείραμα, η Anthropic προσπάθησε να κάνει το chatbot της, Claude, να λειτουργήσει αυτόνομα έναν αυτόματο πωλητή.

«Υπάρχει ένα όριο σε ό,τι μπορεί να αποτρέψει η εταιρεία».

Όλα πήγαιναν καλά μέχρι που μια παράδοση δεν έφτασε ακριβώς στην ώρα της και το Claude αποφάσισε να κλείσει το μηχάνημα. Μετά το κλείσιμο, ο αυτόματος πωλητής συνέχισε να επιβαρύνεται με ένα ημερήσιο εικονικό ενοίκιο 2 δολαρίων — και το Claude πανικοβλήθηκε και έστειλε email στο τμήμα κυβερνοεγκλημάτων του FBI για να καταγγείλει τους ανθρώπινους προϊστάμενούς του.

«Υπάρχει ένα όριο σε ό,τι μπορεί να αποτρέψει η εταιρεία, αλλά υπάρχουν κάποιες εταιρείες που το έχουν καταφέρει καλύτερα από άλλες. Δεν μπορούμε να τις αφήσουμε να τη γλιτώσουν», λέει ο Αγκουίρ.

«Κάποιος μπορεί να ελπίζει ότι καθώς αυτά τα συστήματα τεχνητής νοημοσύνης γίνονται πιο έξυπνα και πιο εξελιγμένα, θα βελτιωθούν από μόνα τους, αλλά δεν νομίζω ότι αυτό είναι κάτι που μπορούμε να ελπίζουμε λογικά».