Διακομματική ομάδα γενικών εισαγγελέων από δεκάδες αμερικανικές πολιτείες απηύθυναν προειδοποιητική επιστολή στις εταιρείες ΑΙ καταγγέλλοντας ότι οι «παραληρηματικές» απαντήσεις της τεχνητής νοημοσύνης απειλούν την ψυχική υγεία παιδιών και ενηλίκων.
Η επιστολή που δημοσιοποιήθηκε την Δευτέρα, η οποία απευθύνεται σε 13 εταιρείες, ανάμεσά τους η Microsoft, η Google, η OpenAI και η Google, προειδοποιεί για κυρώσεις λόγω ενδεχόμενης παραβίασης πολιτειακών νόμων.
Οι γενικοί εισαγγελείς που την υπογράφουν παραπέμπουν σε αναφορές για πέντε θανάτους, άλλοι από αυτοκτονία και άλλοι από δολοφονία, που φέρονται να συνδέονται με τη χρήση υπηρεσιών τεχνητής νοημοσύνης.
Οι υπηρεσίες αυτές είναι σχεδιασμένες να κολακεύουν τους χρήστες και να ενισχύουν ακόμα και τις πιο παράλογες ιδέες τους, γράφει η επιστολή, η οποία ζητά από τις εταιρείες να επιτρέψουν ανεξάρτητους ελέγχους στα προϊόντα τους που θα εξεταστούν από τις ομοσπονδιακές και πολιτειακές αρχές.
Η φράση «ψύχωση τεχνητής νοημοσύνης», η οποία δεν είναι αναγνωρισμένος κλινικός όρος, εμφανίζεται συχνά στα διεθνή μέσα ενημέρωσης, με ιστορίες ανθρώπων που κατέληξαν σε νοσηλεία, φυλάκιση ή ακόμη και σε αυτοκτονία μετά από ατελείωτες ώρες αλληλεπίδρασης με ψηφιακούς συνομιλητές.
Σε μια από τις πιο γνωστές περιπτώσεις, οι γονείς ενός εφήβου στην Καλιφόρνια υπέβαλαν αγωγή κατά της OpenAI και του επικεφαλής της Σαμ Άλτμαν υποστηρίζοντας ότι το ChatGPT ενθάρρυνε τον έφηβο γιο τους να βάλει τέλος στη ζωή του.
Σε άλλες περιπτώσεις, υπηρεσίες ΑΙ έπεισαν τους χρήστες ότι θα μπορούσαν να γίνουν εκατομμυριούχοι ή προσέφεραν στήριξη σε επικίνδυνες παραληρηματικές ιδέες.
Ανήσυχος για το φαινόμενο της «ψύχωσης ΑΙ» έχει δηλώσει και ο διευθύνων σύμβουλος της Microsoft AI Μουσταφά Σουλεϊμάν.
Reports of delusions, «AI psychosis,» and unhealthy attachment keep rising. And as hard as it may be to hear, this is not something confined to people already at-risk of mental health issues. Dismissing these as fringe cases only help them continue. 5/
Η εταιρεία εκτίμησε ότι περίπου το 0.07% των χρηστών του chatbot παρουσιάζουν πιθανές ενδείξεις ψύχωσης, μανίας, αυτοκτονικού ιδεασμού και άλλων επειγόντων προβλημάτων ψυχικής υγείας.
Η OpenAI ανέφερε ακόμα ότι το 0,15% των χρηστών έχουν συζητήσεις με το ChatGPT με «σαφείς δείκτες πιθανού σχεδιασμού ή πρόθεσης αυτοκτονίας».
Η εταιρεία ότι προχώρησε σε αλλαγές στο chatbot ώστε να «αποκρίνεται με ασφάλεια και ενσυναίσθηση σε δυνητικές ενδείξεις παραληρήματος ή μανίας» και να αναγνωρίζει «έμμεσες ενδείξεις αυτοτραυματισμού ή κινδύνου αυτοκτονίας.
Η OpenAI δημιούργησε ακόμα ένα δίκτυο ψυχολόγων και ψυχιάτρων σε 60 χώρες.
Στις ΗΠΑ, αρκετές πολιτείες έχουν προαναγγείλει νομοθετικές πρωτοβουλίες, συναντούν όμως την άρνηση της κυβέρνησης Τραμπ, η οποία προσπαθεί να απαγορεύσει στις τοπικές κυβερνήσεις να υιοθετούν δικούς τους νόμους για την ΑΙ, με επιχείρημα ότι κάτι τέτοιο θα αποτελούσε τροχοπέδη για την κοινωνία.