Τα τελευταία χρόνια, η Τεχνητή Νοημοσύνη έχει προσελκύσει ολοένα και μεγαλύτερη προσοχή για την ικανότητά της να βελτιώνει την παραγωγικότητα, να αυτοματοποιεί τις διαδικασίες και να προωθεί την καινοτομία.
Παραδοσιακά, η Τεχνητή Νοημοσύνη θεωρούνταν ως ένα εργαλείο για τη λήψη αποφάσεων που βασίζονται στη λογική και τα δεδομένα, χειριζόμενη δομημένες εργασίες ταχύτερα και με μεγαλύτερη ακρίβεια από τους ανθρώπους.
Ωστόσο, τώρα επεκτείνεται σε τομείς που κάποτε θεωρούνταν ότι απαιτούσαν μοναδικά ανθρώπινα χαρακτηριστικά – όπως η δημιουργικότητα, η ενσυναίσθηση και η συναισθηματική νοημοσύνη. Και αυτό ακριβώς είναι το επικίνδυνο… Η Τεχνητή νοημοσύνη μπορεί να μην έχει πάρει ακόμα τη δουλειά σου, αλλά ήδη γράφει το μήνυμα του χωρισμού σου.
Σταματήστε να αφήνετε την Τεχνητή Νοημοσύνη να διαχειρίζεται την κοινωνική σας ζωή
«Πιστεύω ολόψυχα ότι η Τεχνητή Νοημοσύνη μετατοπίζει το σχεσιακό υπόβαθρο της κοινωνίας», λέει η Ρέιτσελ Γουντ, ειδικός στην κυβερνοψυχολογία και ιδρύτρια του AI Mental Health Collective, μιλώντας στο TIME.
«Οι άνθρωποι την χρησιμοποιούν πραγματικά για να διευθύνουν την κοινωνική τους ζωή: Αντί για τις συζητήσεις που κάναμε παλιά – με γείτονες ή σε κλαμπ ή στα χόμπι μας ή στις θρησκευτικές μας κοινότητες – αυτές οι συζητήσεις ανακατευθύνονται σε chatbots».
Καθώς μια ολόκληρη γενιά μεγαλώνει αναθέτοντας κοινωνικές αποφάσεις σε μεγάλα γλωσσικά μοντέλα (LLM) όπως το ChatGPT, το Claude και το Gemini, ο Wood ανησυχεί για τις επιπτώσεις της ανάθεσης της συναισθηματικής εργασίας της σύνδεσης σε μια μηχανή.
Τι σημαίνει αυτό – για τον τρόπο με τον οποίο οι άνθρωποι επικοινωνούν, διαφωνούν, βγαίνουν ραντεβού και κατανοούν ο ένας τον άλλον – μόλις τώρα αρχίζει να γίνεται πιο σαφές.
Όταν η Τεχνητή Νοημοσύνη γίνεται ο κοινωνικός σας συγκυβερνήτης
Συχνά ξεκινά ως μια δεύτερη γνώμη. Μια γρήγορη επικόλληση ενός μηνύματος κειμένου σε ένα chatbot τεχνητής νοημοσύνης. Μια ερώτηση που πληκτρολογείται αδιάφορα: «Τι νομίζεις ότι εννοούσαν με αυτό;»
«Οι άνθρωποι θα το χρησιμοποιήσουν για να αναλύσουν μια λεπτομερή περιγραφή ενός καβγά που είχαν με κάποιον», λέει η Γουντ ή για να αποκωδικοποιήσουν διφορούμενα μηνύματα.
«Ίσως μόλις αρχίζουν να βγαίνουν ραντεβού και το βάζουν εκεί και λένε: «Ο φίλος μου μόλις μου έστειλε αυτό μήνυμα. Τι σημαίνει πραγματικά;»». Μπορεί επίσης να ρωτήσουν: Πιστεύει ο/η ναρκισσιστής/τρια ότι το άτομο με το οποίο αλληλογραφούν είναι ναρκισσιστής; Φαίνεται να έχει ελεγχθεί; Έχει ένα μοτίβο ενοχής ή μετατόπισης ευθυνών;
Μερικοί χρήστες στρέφονται στην Τεχνητή Νοημοσύνη ως χώρο κοινωνικής πρόβας, λέει η Δρ. Νίνα Βάσαν, κλινική επίκουρη καθηγήτρια ψυχιατρικής στο Πανεπιστήμιο Στάνφορντ και ιδρύτρια και διευθύντρια του Brainstorm: The Stanford Lab for Mental Health Innovation.
Οι άνθρωποι έλκονται από αυτά τα εργαλεία επειδή «προσπαθούν να βρουν τις σωστές λέξεις πριν ρισκάρουν τη σχέση», λέει. Αυτό μπορεί να σημαίνει ότι πρέπει να ζητήσουν από τον κάτοχο του LLM της επιλογής τους να συντάξει μηνύματα σε φίλους, να επεξεργαστεί email στο αφεντικό τους, να τους βοηθήσει να καταλάβουν ποιες ερωτήσεις να κάνουν σε ένα πρώτο ραντεβού ή να πλοηγηθούν σε δύσκολες δυναμικές ομαδικής συνομιλίας.
Η Βάσαν έχει επίσης δει ανθρώπους να χρησιμοποιούν εργαλεία τεχνητής νοημοσύνης για να δημιουργούν προφίλ σε εφαρμογές γνωριμιών, να απαντούν σε παθητικά-επιθετικά μέλη της οικογένειας και να θέτουν όρια που δεν είχαν ποτέ πριν καταφέρει να εκφράσουν.
«Κάποιοι το χρησιμοποιούν για να κάνουν πρόβες σε δύσκολες συζητήσεις πριν τις κάνουν», λέει. «Άλλοι επεξεργάζονται τις κοινωνικές αλληλεπιδράσεις στη συνέχεια, ουσιαστικά ρωτώντας την τεχνητή νοημοσύνη: «Το χειρίστηκα σωστά;»». Το ChatGPT και άλλα LLM, λέει, έχουν γίνει τρίτο μέρος σε πολλές από τις πιο προσωπικές μας συζητήσεις.
Τι διακυβεύεται
Η ανάθεση κοινωνικών καθηκόντων στην Τεχνητή Νοημοσύνη είναι «βαθιά κατανοητή», λέει η Βάσαν, «και έχει βαθιά σημασία». Μπορεί να υποστηρίξει μια πιο υγιή επικοινωνία, αλλά μπορεί επίσης να βραχυκυκλώσει τη συναισθηματική ανάπτυξη.
Από την πιο χρήσιμη πλευρά των πραγμάτων, έχει δει άτομα με κοινωνικό άγχος να ζητούν τελικά από κάποιον ραντεβού επειδή ο Gemini τους βοήθησε να συντάξουν το μήνυμα.
Άλλες φορές, οι άνθρωποι το χρησιμοποιούν στη μέση ενός καβγά – όχι για να αποδείξουν ότι έχουν δίκιο, αλλά για να σκεφτούν πώς μπορεί να νιώθει το άλλο άτομο και για να καταλάβουν πώς να πουν κάτι με τρόπο που θα έχει πραγματικά νόημα.
«Αντί να κλιμακωθούν σε καβγά ή να αποσυρθούν εντελώς, χρησιμοποιούν την Τεχνητή Νοημοσύνη για να κάνουν ένα βήμα πίσω και να ρωτήσουν: «Τι πραγματικά συμβαίνει εδώ; Τι χρειάζεται να ακούσει ο σύντροφός μου; Πώς μπορώ να το εκφράσω αυτό χωρίς να πληγώσω;»», λέει.
Σε αυτές τις περιπτώσεις, «βοηθά τους ανθρώπους να ξεφύγουν από καταστροφικά πρότυπα επικοινωνίας και να χτίσουν πιο υγιείς δυναμικές με τους ανθρώπους που αγαπούν περισσότερο».
Ωστόσο, αυτό δεν εξηγεί τους πολλούς δυνητικά επιβλαβείς τρόπους με τους οποίους οι άνθρωποι χρησιμοποιούν τα LLM. «Βλέπω ανθρώπους που έχουν γίνει τόσο εξαρτημένοι από τις αντιδράσεις που παράγονται από την Τεχνητή Νοημοσύνη που περιγράφουν ότι αισθάνονται σαν ξένοι στις δικές τους σχέσεις», λέει η Βάσαν.
«Η Τεχνητή Νοημοσύνη στην κοινωνική μας ζωή είναι ένας ενισχυτής: Μπορεί να εμβαθύνει τη σύνδεση ή μπορεί να την αδειάσει». Το ίδιο εργαλείο που βοηθά κάποιον να επικοινωνεί πιο στοχαστικά, λέει, μπορεί επίσης να τον βοηθήσει να αποφύγει να είναι συναισθηματικά παρών.
Κοιτάζοντας μπροστά
Όταν ο Pat Pataranutaporn σκέφτεται τις επιπτώσεις της μακροχρόνιας χρήσης της Τεχνητής Νοημοσύνης, το κύριο ερώτημά του είναι το εξής: Περιορίζει την ικανότητά μας να εκφραζόμαστε; Ή μήπως βοηθά τους ανθρώπους να εκφράζονται καλύτερα;
Ως ιδρυτικός διευθυντής της ερευνητικής ομάδας κυβερνοψυχολογίας και συν-διευθυντής του ερευνητικού προγράμματος Advancing Humans with AI του MIT Media Lab, ο Pataranutaporn ενδιαφέρεται για τους τρόπους με τους οποίους οι άνθρωποι μπορούν να χρησιμοποιήσουν την Τεχνητή Νοημοσύνη για να προωθήσουν την ανθρώπινη ευημερία, την φιλοκοινωνική αλληλεπίδραση και την αλληλεπίδραση ανθρώπου με άνθρωπο.
Ο στόχος είναι να χρησιμοποιηθεί αυτή η τεχνολογία για να «βοηθήσει τους ανθρώπους να γίνουν καλύτεροι, να αποκτήσουν μεγαλύτερη ελευθερία δράσης και να νιώσουν ότι έχουν τον έλεγχο της ζωής τους», λέει, «αντί να τους περιορίζει η τεχνολογία όπως τα μέσα κοινωνικής δικτύωσης ή οι προηγούμενες τεχνολογίες».
«Δεν πρέπει να σχεδιάζουμε την Τεχνητή Νοημοσύνη για να εκτελεί σχέσεις για εμάς — θα πρέπει να τη σχεδιάζουμε έτσι ώστε να ενισχύει την ικανότητά μας να τις έχουμε», λέει.
«Το βασικό ερώτημα δεν είναι αν η Τεχνητή Νοημοσύνη εμπλέκεται. Είναι αν σε βοηθά να φαίνεσαι πιο ανθρώπινος ή αν σε αφήνει να κρυφτείς. Διεξάγουμε ένα τεράστιο ανεξέλεγκτο πείραμα πάνω στην ανθρώπινη οικειότητα και η ανησυχία μου δεν είναι ότι η Τεχνητή Νοημοσύνη θα βελτιώσει τα μηνύματά μας. Είναι ότι θα ξεχάσουμε πώς ακούγεται η δική μας φωνή».