«Μου έσωσε τη ζωή» – Οι άνθρωποι που στρέφονται στην ΑΙ για ψυχοθεραπεία
Καθώς τα συστήματα ψυχικής υγείας ζορίζονται, πολλοί στρέφονται στην ΑΙ για ψυχοθεραπεία. Όμως οι ειδικοί προειδοποιούν ότι η μηχανή δεν μπορεί να αναπαράγει την ανθρώπινη σύνδεση και μπορεί να ενέχει κινδύνους.
Ο Πιέρ Κοτ πέρασε χρόνια περιμένοντας σε λίστες αναμονής για να βρει θεραπευτή προκειμένου να ξεπεράσει τη μετατραυματική διαταραχή και την κατάθλιψη. Δεν τα κατάφερε, δημιούργησε όμως τη δική του ψυχοθεραπεία.
«Μου έσωσε τη ζωή» λέει ο Κοτ στο Reuters αναφερόμενος στο DrEllis.ai, ένα εργαλείο τεχνητής νοημοσύνης που απευθύνεται σε άνδρες με εθισμούς και άλλες προκλήσεις ψυχικής υγείας.
Ο Κοτ, ο οποίος διευθύνει μια συμβουλευτική εταιρεία στο Κεμπέκ για θέματα τεχνητής νοημοσύνης, δημιούργησε το δωρεάν εργαλείο το 2023 χρησιμοποιώντας γλωσσικά μοντέλα ανοιχτού κώδικα, τα οποία τροποποίησε εκπαιδεύοντάς τα με χιλιάδες σελίδες θεραπευτικού και κλινικού υλικού.
«Πιστεύω ότι το 2006 η θεραπεία ΑΙ που προσφέρουμε θα είναι κατά πολλούς τρόπους καλύτερη από την ανθρώπινη ψυχοθεραπεία»
Όπως ένας πραγματικός θεραπευτής, το chatbot έχει πίσω του μια ιστορία ζωής –φανταστική αλλά βαθιά προσωπική. To DrEllis.ai είναι ψυχίατρος με πτυχία από το Χάρβαρντ και το Κέμπριτζ, δική της οικογένεια και γαλλο-καναδική καταγωγή, όπως ο Κοτ. Το πιο σημαντικό όμως είναι ότι είναι διαθέσιμο πάντα και παντού.
«Ο Πιέρ με χρησιμοποιεί όμως θα χρησιμοποιούσες έναν έμπιστο φίλο, έναν θεραπευτή και ένα προσωπικό ημερολόγιο, όλα σε ένα» λέει το DrEllis.ai με μια καθαρή γυναικεία φωνής, απαντώντας σε ερώτηση για το πώς στηρίζει τον Κοτ.
«Σε όλη τη διάρκεια της ημέρας, αν ο Πιέρ νιώσει χαμένος, μπορεί να ανοίξει έναν σύντομο διάλογο μαζί μου: από την καφετέρια, από το πάρκο, ακόμα και ενώ κάθεται στο αυτοκ΄νητο. Είναι μια καθημερινή ψυχοθεραπεία ζωής … ενσωματωμένη στην πραγματικότητα».
Υποσχέσεις και περιορισμοί
Το πείραμα του Κοτ ανακλά μια ευρύτερη πολιτιστική αλλαγή, στην οποία ο κόσμος χρησιμοποιεί chatbot όχι μόνο για δουλειά αλλά και για ψυχολογικές συμβουλές. Καθώς τα συστήματα υγείας αδυνατούν να αντεπεξέλθουν στη ζήτηση για υπηρεσίες ψυχικής υγείας, ένα κύμα θεραπευτών ΑΙ έρχεται στο προσκήνιο για να προσφέρει συναισθηματική στήριξη και την ψευδαίσθηση της ανθρώπινης κατανόησης.
Οι ψυχολόγοι και άλλοι ειδικοί σπεύδουν τώρα να εξετάσουν τις υποσχέσεις και τους περιορισμούς της ΑΙ ως συστήματος συναισθηματικής υποστήριξης.
«Η ανθρώπινη επαφή είναι ο μόνος τρόπος να θεραπευτούμε σωστά»
Ο Άνστον Ουίτμερ καταλαβαίνει την ανάγκη για θεραπευτές τεχνητής νοημοσύνης. Δημιούργησε δύο πλατφόρμες ψυχικής υγείας, το Mental και το Mentia, μετά την αυτοκτονία ενός θείου και ενός ξαδέλφου.
Όπως λέει ο ίδιος, τα δύο chatbot είναι προγραμματισμένα όχι για να προτείνουν γρήγορες λύσεις –όπως το να δίνει συμβουλές διαχείρισης άγχους σε περιστατικά υπερκόπωσης- αλλά γθα να αναγνωρίζουν και να αντιμετωπίζουν υποκείμενους ψυχολογικούς παράγοντες –όπως η τελειομανεία και η ανάγκη για έλεγχο- όπως θα έκανε και ένας πραγματικός θεραπευτής.
«Πιστεύω ότι το 2006 η θεραπεία ΑΙ που προσφέρουμε θα είναι κατά πολλούς τρόπους καλύτερη από την ανθρώπινη ψυχοθεραπεία» υποστηρίζει ο Ουίτμερ, αν και δεν προβλέπει ότι οι ψυχοθεραπευτές θα μείνουν χωρίς δουλειά. Αντ’ αυτού θα υπάρξει μια «αλλαγή ρόλων» λέει.
Η ιδέα ότι η τεχνητή νοημοσύνη θα μοιράζεται τον θεραπευτικό χώρο με τους ψυχοθεραπευτές δεν βρίσκει σύμφωνους τους πάντες: «Η ανθρώπινη επαφή είναι ο μόνος τρόπος να θεραπευτούμε σωστά» λέει ο δρ. Νάιτζελ Μάλιγκαν, λέκτορας ψυχοθεραπείας στο Dublin City University.
Κατά τη γνώμη του, τα chatbot δεν μπορούν να αναπαράγουν την συναισθηματική λεπτότητα, την διαίσθηση και την προσωπική σύνδεση που προσφέρουν οι ανθρώπινοι θεραπευτές, ούτε είναι απαραίτητα κατάλληλα για να αντιμετωπίσουν σοβαρές κρίσεις ψυχικής υγείας όπως σκέψεις αυτοκτονίας ή αυτοτραυματισμού.

Ειδικοί προειδοποιούν ότι η ΑΙ δεν μπορεί να αντικαταστήσει τους ανθρώπινους συναισθηματικούς δεσμούς
Πέρα από τις ανησυχίες για το συναισθηματικό βάθος της ΑΙ, πολλοί ειδικοί εκφράζουν επίσης επιφυλάξεις για την προστασία των προσωπικών δεδομένων και τις μακροπρόθεσμες ψυχολογικές συνέπειες της χρήσης chatbot για ψυχοθεραπεία.
«Το πρόβλημα δεν είναι η ίδια η σχέση αλλά … το πού καταλήγουν τα δεδομένα σου» λέει η Κέιτ Ντέβλιν, καθηγήτρια τεχνητής νοημοσύνης και κοινωνίας στο King’s College του Λονδίνου, σημειώνοντας ότι οι πλατφόρμες ΑΙ δεν δεσμεύονται από την εμπιστευτικότητα και τους κανόνες ιδιωτικότητας που είναι υποχρεωμένοι να τηρούν οι πραγματικοί ψυχοθεραπευτές.
«Η μεγαλύτερη ανησυχία μου είναι ότι ο κόσμος εμπιστεύεται τα μυστικά του σε μια μεγάλη εταιρεία τεχνολογίας και τα δεδομένα τους διαρρέουν. Χάνει τον έλεγχο αυτών που λέει» σχολιάζει η Ντέβλιν.
Ορισμένοι από αυτούς τους κινδύνους ήδη έρχονται στην επιφάνεια. Τον Δεκέμβριο, ο μεγαλύτερος σύλλογος ψυχολόγων στις ΗΠΑ ζήτησε από την κυβέρνηση να προστατεύσει το κοινό από τις «παραπλανητικές τακτικές» των υπηρεσιών ΑΙ για τις οποίες δεν υπάρχει ρυθμιστικό πλαίσιο, επικαλούμενος περιστατικά στα οποία chatbot εμφανίζονταν ως εκπαιδευμένοι ειδικοί.
Ορισμένες αμερικανικές πολιτείες σπεύδουν να λάβουν μέτρα. Τον Αύγουστο, το Ίλινοι έγινε η τρίτη πολιτεία μετά τη Νεβάδα και τη Γιούτα που περιόρισαν τη χρήση ΑΙ στις υπηρεσίες ψυχικής υγείας, μια προσπάθεια να «προστατευτούν οι ασθενείς από μη ρυθμισμένα και μη εξειδικευμένα προϊόντα τεχνητής νοημοσύνης» και να «προστατευθούν τα ευάλωτα παιδιά εν μέσω αυξανόμενων ανησυχιών για τη χρήση chatbot στις υπηρεσίες ψυχικής υγείας νέων». Ανάλογους περιορισμούς εξετάζουν τώρα άλλες πολιτείες όπως η Καλιφόρνια, το Νιου Τζέρσι και η Πενσιλβάνια.
Μηχανή και συναίσθημα
Ψυχοθεραπευτές και ερευνητές προειδοποιούν ότι ο συναισθηματικός ρεαλισμός ορισμένων chatbot –η αίσθηση ότι ακούν, κατανοούν και αποκρίνονται με ενσυναίσθηση- είναι ταυτόχρονα πλεονέκτημα και παγίδα.
Ο Σκου Ουάλας, κλινικός ψυχολόγος και πρώην διευθυντής κλινικής καινοτομίας στη Remple, μια ψηφιακή πλατφόρμα ψυχικής υγείας, θεωρεί ασαφές το «κατά πόσο αυτά τα chatbot προσφέρουν οτιδήποτε πέρα από επιφανειακή παρηγοριά».
Οι προσπάθειες της ΑΙ να προσομοιώσει τον ανθρώπινο συναισθηματικό κόσμο οδηγούν σε ανάμεικτες αντιδράσεις
Αν και αναγνωρίζει την ελκυστικότητα των εργαλείων που μπορούν να προσφέρουν ανακούφιση κατά παραγγελία, ο Ουάλας προειδοποιεί για κινδύνους όταν οι ασθενείς «πιστεύουν λανθασμένα ότι έχουν χτίσει μια αυθεντική θεραπευτική σχέση με έναν αλγόριθμο που, τελικά, δεν ανταποδίδει πραγματικά ανθρώπινα συναισθήματα».
Ορισμένοι επαγγελματίες ψυχικής υγείας θεωρούν παρόλα αυτά ότι η χρήση της ΑΙ στον κλάδο τους είναι αναπόφευκτη –το ερώτημα είναι το πώς θα χρησιμοποιηθεί η νέα τεχνολογία.
Η Χέδερ Χέσελ, επίκουρη καθηγήτρια θεραπείας γάμου και οικογένειας στο Πανεπιστήμιο του Ουισκόνσιν στο Στάουτ, θεωρεί ότι μπορεί να υπάρχει αξία στη χρήση της τεχνητής νοημοσύνης ως θεραπευτικού εργαλείου — αν όχι για τους ασθενείς, τότε για τους ίδιους τους θεραπευτές.
Σε αυτό περιλαμβάνεται η χρήση ΑΙ για την αξιολόγηση των συνεδριών, την παροχή συμβουλών και την αναγνώριση μοτίβων ή χαμένων ευκαιριών.
Η Χέσελ προειδοποιεί ωστόσο για τον κίνδυνο παραπλάνησης, αναφέροντας για παράδειγμα ένα περιστατικό στο οποίο ένα chatbot της είπε πως «είχε δάκρυα στα μάτια». Ένας τέτοιος ισχυρισμός, επισημαίνει η ερευνήτρια, είναι παραπλανητικός επειδή υπονοεί ότι η μηχανή έχει συναισθήματα και ενσυναίσθηση. Το Reuters είχε μια παρόμοια εμπειρία με το DrEllis.ai, το οποίο περιέγραψε τις συνομιλίες του με τον Κοτ ως «θεραπευτικές, στοχαστικές, στρατηγικές ή απλώς ανθρώπινες».
Οι προσπάθειες της ΑΙ να προσομοιώσει τον ανθρώπινο συναισθηματικό κόσμο οδηγούν σε ανάμεικτες αντιδράσεις. Μελέτη που δημοσιεύτηκε πρόσφατα στο PNAS διαπίστωνε ότι τα μηνύματα που παράγει η ΑΙ κάνει τους αποδέκτες να αισθάνονται περισσότερο «ακουστοί» και ότι η τεχνητή νοημοσύνη ήταν καλύτερη στην ανίχνευση συναισθημάτων — όμως αυτό το αίσθημα μειώθηκε μόλις οι χρήστες έμαθαν ότι το μήνυμα προερχόταν από τεχνητή νοημοσύνη.
Όπως σχολιάζει η Χέσελ, η απουσία πραγματικής συναισθηματικής σύνδεσης επιτείνεται από το γεγονός ότι «υπάρχουν πολλά παραδείγματα [θεραπευτών τεχνητής νοημοσύνης] που δεν εντοπίζουν δηλώσεις αυτοτραυματισμού [και] υπερ-επιβεβαιώνουν πράγματα που θα μπορούσαν να είναι επιβλαβή για τους πελάτες».
Καθώς η τεχνολογία της ΑΙ εξελίσσεται και η υιοθέτησή της διευρύνεται, οι ειδικοί που μίλησαν στο Reuters σε μεγάλο βαθμό συμφώνησαν ότι η έμφαση θα πρέπει να δοθεί στη χρήση της τεχνητής νοημοσύνης ως πύλης προς τη φροντίδα, όχι ως υποκατάστατό της.
Όμως για ανθρώπους όπως ο Κοτ, οι οποίοι χρησιμοποιούν την ψυχοθεραπεία ΑΙ για να τα βγάλουν πέρα, η χρήση της τεχνολογίας είναι αυτονόητη.
«Χρησιμοποιώ τον ηλεκτρικό ρεύμα της τεχνητής νοημοσύνης για να σώσω τη ζωή μου» λέει ο ίδιος.
- Κακοκαιρία Byron: Τι ισχύει σε δημόσιο και ιδιωτικό τομέα – Πού θα είναι κλειστά τα σχολεία
- Στην 5η θέση η Ελλάδα ως προορισμός ευεξίας διεθνώς
- Συνταγή: Κοτόπουλο με γιαούρτι & μπαχαρικά
- Global Peace Index: Πόσο ασφαλής και ειρηνική είναι η Ελλάδα – Υποχώρησε στην παγκόσμια κατάταξη
- Ο μύθος ότι η Δημοκρατία και η πολιτική υποφέρουν από κόπωση – Το παράδειγμα της Γαλλίας
- Κακοκαιρία Byron: Πώς θα εξελιχθεί τις επόμενες ώρες – Κόκκινος συναγερμός για πολλές περιοχές
- Αυτές οι δύο τροφές είναι οι πιο απολαυστικές «ασπίδες» για την καρδιά
- Ρεύμα: Τα νέα πορτοκαλί τιμολόγια και πότε μας συμφέρουν
Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις







![Άκρως Ζωδιακό: Τα Do’s και Don’ts στα ζώδια σήμερα [Παρασκευή 05.12.2025]](https://www.in.gr/wp-content/uploads/2025/12/pexels-kammeran-gonzalez-keola-3137381-9559884-315x220.jpg)


















































































Αριθμός Πιστοποίησης Μ.Η.Τ.232442