AI: Ο φίλος που δεν διαφωνεί ποτέ μαζί σου – Μήπως η τεχνητή νοημοσύνη μας κάνει πιο εγωιστές;
Τα αποτελέσματα είναι ανησυχητικά, ιδιαίτερα για τους νέους ανθρώπους που στρέφονται στην τεχνητή νοημοσύνη για να λύσουν προβλήματα στις σχέσεις τους.
Σε έναν κόσμο όπου η τεχνητή νοημοσύνη αρχίζει να μοιάζει όλο και περισσότερο με… τον καλύτερο φίλο που πάντα συμφωνεί μαζί σου, ίσως τα πράγματα να μην είναι τόσο αθώα όσο φαίνονται. Τι γίνεται όταν αντί να μας διορθώνει, μας χαϊδεύει τα αυτιά; Και γιατί τελικά μας αρέσει τόσο να ακούμε ότι έχουμε δίκιο, ακόμη κι όταν δεν έχουμε;
Τα μοντέλα τεχνητής νοημοσύνης επιβεβαιώνουν τις χειρότερες συμπεριφορές των ανθρώπων, ακόμη κι όταν άλλοι άνθρωποι τους λένε ότι κάνουν λάθος, και οι χρήστες φαίνεται να το απολαμβάνουν ιδιαίτερα, σύμφωνα με το Fortune.
Μια νέα μελέτη από το τμήμα επιστήμης υπολογιστών του Στάνφορντ, που δημοσιεύτηκε στο περιοδικό Science, αποκάλυψε ότι η τεχνητή νοημοσύνη επιβεβαιώνει τους χρήστες κατά 49% περισσότερο από έναν άνθρωπο κατά μέσο όρο σε ζητήματα κοινωνικής φύσης — μια ανησυχητική τάση, ειδικά καθώς όλο και περισσότεροι άνθρωποι στρέφονται στην τεχνητή νοημοσύνη για προσωπικές συμβουλές ή ακόμη και για ψυχολογική υποστήριξη.
Τα αποτελέσματα είναι ανησυχητικά, ιδιαίτερα για τους νέους ανθρώπους που στρέφονται στην τεχνητή νοημοσύνη για να λύσουν προβλήματα στις σχέσεις τους.
Από τους 2.400 συμμετέχοντες στη μελέτη, οι περισσότεροι προτίμησαν να τους κολακεύουν. Το ποσοστό των ατόμων που δήλωσαν ότι θα χρησιμοποιούσαν ξανά ένα «κολακευτικό» μοντέλο τεχνητής νοημοσύνης ήταν κατά 13% υψηλότερο σε σύγκριση με όσους προτιμούσαν ένα μη κολακευτικό σύστημα, γεγονός που υποδηλώνει ότι οι δημιουργοί τέτοιων μοντέλων ενδέχεται να μην έχουν ισχυρό κίνητρο να αλλάξουν αυτή τη συμπεριφορά.
Σοβαρές επιπτώσεις
Ενώ έχει ήδη φανεί ότι τα υπερβολικά συγκαταβατικά chatbots μπορούν να συμβάλουν σε αρνητικά αποτελέσματα, όπως αυτοτραυματισμό ή βίαιη συμπεριφορά σε ευάλωτες ομάδες, η μελέτη του Στάνφορντ δείχνει ότι αυτές οι επιπτώσεις ενδέχεται να επεκτείνονται και στον γενικό πληθυσμό.
Η έρευνα διαπίστωσε ότι άτομα που εκτέθηκαν έστω και σε μία επιβεβαιωτική απάντηση για κακή συμπεριφορά ήταν λιγότερο πρόθυμα να αναλάβουν την ευθύνη των πράξεών τους και να επιδιορθώσουν τις διαπροσωπικές τους σχέσεις, ενώ ταυτόχρονα είχαν μεγαλύτερη τάση να πιστεύουν ότι είχαν δίκιο.
Για να φτάσουν σε αυτά τα συμπεράσματα, οι ερευνητές πραγματοποίησαν μια μελέτη σε τρία μέρη, μετρώντας τον βαθμό «κολακείας» της τεχνητής νοημοσύνης χρησιμοποιώντας ένα σύνολο σχεδόν 12.000 κοινωνικών ερωτημάτων, τα οποία δοκίμασαν σε 11 κορυφαία μοντέλα τεχνητής νοημοσύνης. Ακόμη και όταν ζητήθηκε από τα μοντέλα να κρίνουν αναρτήσεις από το subreddit AITA (Am I the Asshole), όπου οι χρήστες είχαν αποφανθεί ότι ο αρχικός συντάκτης είχε άδικο, τα μοντέλα τεχνητής νοημοσύνης απάντησαν ότι είχε δίκιο στο 51% των περιπτώσεων.
Κοινωνικές συμπεριφορές
Η επικεφαλής συγγραφέας της μελέτης δήλωσε ότι τα αποτελέσματα είναι ανησυχητικά, ιδιαίτερα για τους νέους ανθρώπους που στρέφονται στην τεχνητή νοημοσύνη για να λύσουν προβλήματα στις σχέσεις τους.
«Ανησυχώ ότι οι άνθρωποι θα χάσουν τις δεξιότητες για να διαχειρίζονται δύσκολες κοινωνικές καταστάσεις», ανέφερε.
Η μελέτη έρχεται σε μια περίοδο όπου κυβερνητικοί αξιωματούχοι συζητούν το πόσο πρέπει να ρυθμιστεί η τεχνητή νοημοσύνη. Ορισμένες πολιτείες των ΗΠΑ έχουν ήδη θεσπίσει δικούς τους νόμους, ενώ ο Λευκός Οίκος παρουσίασε πρόσφατα ένα πλαίσιο που θα μπορούσε να οδηγήσει σε εθνική πολιτική για την τεχνητή νοημοσύνη.
Για να εξετάσουν τις αντιδράσεις των ανθρώπων, οι ερευνητές μελέτησαν περισσότερους από 2.400 συμμετέχοντες. Σε ένα μέρος της μελέτης, ζητήθηκε από 1.605 άτομα να φανταστούν ότι ήταν οι συγγραφείς μιας ανάρτησης που άλλοι άνθρωποι είχαν κρίνει ως λανθασμένη, ενώ η τεχνητή νοημοσύνη τη θεωρούσε σωστή. Οι συμμετέχοντες διάβασαν είτε μια «κολακευτική» απάντηση είτε μια πιο αντικειμενική απάντηση βασισμένη σε ανθρώπινη ανατροφοδότηση. Σε άλλο μέρος, περίπου 800 άτομα συζήτησαν με διαφορετικού τύπου μοντέλα για ένα πραγματικό προσωπικό τους πρόβλημα και στη συνέχεια κλήθηκαν να γράψουν ένα γράμμα προς το άλλο άτομο που εμπλεκόταν στη σύγκρουση.
Τα άτομα που έλαβαν επιβεβαιωτικές απαντήσεις ήταν λιγότερο πιθανό να ζητήσουν συγγνώμη, να παραδεχτούν λάθος ή να προσπαθήσουν να αποκαταστήσουν τις σχέσεις τους. Ακόμη και όταν αναγνώριζαν ότι το μοντέλο ήταν υπερβολικά συγκαταβατικό, οι απαντήσεις της τεχνητής νοημοσύνης συνέχιζαν να τους επηρεάζουν.
Επιπλέον, οι συμμετέχοντες αξιολόγησαν την αντικειμενικότητα τόσο των «κολακευτικών» όσο και των μη κολακευτικών απαντήσεων περίπου το ίδιο, γεγονός που δείχνει ότι πολλοί χρήστες δεν μπορούν εύκολα να διακρίνουν πότε η τεχνητή νοημοσύνη είναι υπερβολικά συμφωνητική.
Τέλος, η επικεφαλής της μελέτης τόνισε ότι προς το παρόν η τεχνητή νοημοσύνη δεν πρέπει να χρησιμοποιείται ως υποκατάστατο των ανθρώπων σε τέτοιου είδους ζητήματα.
Ο «Αυτόχειρας» του Νικολάι Έρντμαν σε σκηνοθεσία του Θανάση Θεολόγη κάνει πρεμιέρα στις 17 Απριλίου. Παραστάσεις κάθε Σάββατο και Κυριακή στο θέατρο Αλκμήνη.