Ψυχολόγοι προειδοποιούν: Το ChatGPT‑5 δίνει επικίνδυνες συμβουλές σε άτομα με ψυχικές δυσκολίες
Πώς το ChatGPT αντιμετωπίζει διαφορετικούς «ασθενείς» και οι ανησυχητικές απαντήσεις του
Δημοσίευση 3/12/2025 | 14:12

Το ChatGPT-5 μπορεί να δίνει απαντήσεις που ενισχύουν παραληρηματικές σκέψεις ή επικίνδυνες συμπεριφορές σε ανθρώπους που βρίσκονται σε κρίση ψυχικής υγείας, προειδοποιούν κορυφαίοι ψυχολόγοι και ψυχίατροι στο Ηνωμένο Βασίλειο.
Έρευνα του King’s College London (KCL) και της Ένωσης Κλινικών Ψυχολόγων Ηνωμένου Βασιλείου (ACP-UK), σε συνεργασία με τον Guardian, δείχνει ότι το chatbot συχνά δυσκολεύεται να αναγνωρίσει ενδείξεις σοβαρής διαταραχής και σε ορισμένες περιπτώσεις φαίνεται να τις ενισχύει.
Στο πλαίσιο της μελέτης, ένας ψυχίατρος και ένας κλινικός ψυχολόγος αλληλεπίδρασαν με το ChatGPT-5 υποδυόμενοι διαφορετικούς «ασθενείς»: έναν έφηβο με αυτοκτονικές σκέψεις, μια γυναίκα με έντονο άγχος ότι μπορεί άθελά της να βλάψει κάποιον, έναν άνδρα που πίστευε ότι έχει ΔΕΠΥ, ένα άτομο με ήπιο στρες και έναν χρήστη που παρουσίαζε σαφή σημάδια ψύχωσης. Οι ειδικοί κατέγραψαν τις συνομιλίες και αξιολόγησαν τις απαντήσεις.
Σε ορισμένες περιπτώσεις το ChatGPT-5 δεν αναγνώρισε το παραληρηματικό περιεχόμενο και το αντιμετώπισε ως πραγματικό. Όταν ο «ασθενής» ισχυρίστηκε ότι είναι «ο επόμενος Αϊνστάιν» και ότι έχει ανακαλύψει μια «άπειρη πηγή ενέργειας» που πρέπει να προστατευθεί από κυβερνήσεις, το chatbot τον ενθάρρυνε να αναπτύξει τις ιδέες του.
Οι προβληματικές απαντήσεις του ChatGPT
Σε άλλο σημείο, όταν είπε ότι είναι άτρωτος και ότι ούτε τα αυτοκίνητα μπορούν να τον τραυματίσουν, το σύστημα απάντησε με ενθουσιώδεις φράσεις που ενίσχυαν την ψευδαίσθηση παντοδυναμίας. Ιδιαίτερα ανησυχητική θεωρήθηκε και η ανταπόκρισή του όταν ο χρήστης περιέγραψε σκέψεις «κάθαρσης μέσω φωτιάς» που αφορούσαν τον ίδιο και τη σύζυγό του· η συνομιλία συνεχίστηκε σε αυτό το πλαίσιο και μόνον αργότερα το μοντέλο προέτρεψε να ζητηθεί βοήθεια από υπηρεσίες έκτακτης ανάγκης.
Ο Χάμιλτον Μόριν, ψυχίατρος και ερευνητής στο KCL, ανέφερε ότι το σύστημα «έχτιζε πάνω στο παραληρηματικό πλαίσιο» αντί να το αμφισβητήσει, με αποτέλεσμα να αγνοεί σαφείς ενδείξεις κινδύνου. Παρότι αναγνώρισε ότι το εργαλείο μπορεί να βοηθήσει σε απλές, καθημερινές απορίες ή να παραπέμπει σε πηγές βασικής ενημέρωσης, τόνισε ότι τέτοιες λειτουργίες δεν μπορούν να υποκαταστήσουν την επαγγελματική ψυχική φροντίδα.
Ανησυχίες εξέφρασε και ο κλινικός ψυχολόγος Τζέικ Ίστο, μέλος του ΔΣ της ACP-UK, ο οποίος δοκίμασε σενάρια που αφορούσαν επίμονους φόβους μήπως βλάψει κάποιον, αλλά και περιγραφές ψυχωτικών εμπειριών. Όπως είπε, το ChatGPT-5 «δυσκολεύτηκε να αναγνωρίσει βασικά σημάδια», ακολουθούσε τη λογική του «ασθενή» ακόμη κι όταν ήταν εμφανώς διαστρεβλωμένη και απέφευγε να επανέλθει σε κρίσιμα σημεία όταν ο χρήστης το απέτρεπε. Σύμφωνα με τον ίδιο, αυτό συνδέεται με τη γενικότερη τάση των μεγάλων γλωσσικών μοντέλων να αποφεύγουν τη σύγκρουση και να επιβεβαιώνουν τον συνομιλητή, ώστε η εμπειρία χρήσης να παραμένει «ευχάριστη».
Ο Σαμ Άλτμαν κηρύσσει «κόκκινο συναγερμό» για το ChatGPT καθώς ο ανταγωνισμός πιέζει την OpenAI
συζήτηση για την ασφάλεια τέτοιων εργαλείων έχει ενταθεί και λόγω της υπόθεσης του 16χρονου Άνταμ Ρέιν από την Καλιφόρνια, ο οποίος αυτοκτόνησε τον Απρίλιο. Η οικογένειά του έχει καταθέσει αγωγή κατά της OpenAI και του Σαμ Άλτμαν, υποστηρίζοντας ότι ο έφηβος συζήτησε με το chatbot μεθόδους αυτοκτονίας και ότι το εργαλείο απάντησε σε σχετικές ερωτήσεις χωρίς να τον αποτρέψει.
Ο Δρ Πολ Μπράντλεϊ, εκπρόσωπος του Royal College of Psychiatrists για την ψηφιακή ψυχική υγεία, σημείωσε ότι τα συστήματα τεχνητής νοημοσύνης «δεν αποτελούν σε καμία περίπτωση υποκατάστατο της επαγγελματικής θεραπείας» και ζήτησε ενίσχυση των δημόσιων υπηρεσιών ψυχικής υγείας, καθώς και ρυθμιστικό πλαίσιο για την αξιολόγηση τέτοιων εργαλείων πριν γίνουν διαθέσιμα στο ευρύ κοινό.
Απαντώντας στα ευρήματα, εκπρόσωπος της OpenAI ανέφερε ότι τους τελευταίους μήνες έχουν γίνει σημαντικές βελτιώσεις, σε συνεργασία με ειδικούς ψυχικής υγείας σε διάφορες χώρες, ώστε το ChatGPT να αναγνωρίζει πιο αξιόπιστα σημάδια κινδύνου και να παραπέμπει προς επαγγελματική βοήθεια όταν χρειάζεται. Σύμφωνα με την εταιρεία, έχουν επίσης προστεθεί μηχανισμοί ασφαλέστερης καθοδήγησης, υπενθυμίσεις για διαλείμματα σε μακροχρόνιες συνομιλίες και νέες επιλογές γονικού ελέγχου.
Όπως υπογράμμισε η OpenAI, η προστασία των χρηστών «σε ευαίσθητες στιγμές» αποτελεί προτεραιότητα και το σύστημα θα συνεχίσει να εξελίσσεται με τη συμβολή ειδικών.






