Η OpenAI προσθέτει «ψυχολογικά φίλτρα» στο ChatGPT – Παραδέχεται ότι ενίσχυσε αυταπάτες χρηστών
Από το NEWSROOM Δημοσίευση 6/8/2025 | 19:21

Σε σημαντικές αλλαγές προχωρά η OpenAI στον τρόπο λειτουργίας του ChatGPT, μετά από αυξανόμενη κριτική για την ακατάλληλη διαχείριση ευαίσθητων προσωπικών ζητημάτων από το δημοφιλές chatbot.
Η εταιρεία προχωρά στην εφαρμογή νέων μηχανισμών ασφαλείας, με στόχο να περιορίσει περιπτώσεις όπου το μοντέλο ενδέχεται να ενισχύσει συναισθηματική εξάρτηση ή παραληρηματικές πεποιθήσεις.
Αναγνώριση ψυχικής πίεσης και νέες κατευθύνσεις
Οι νέες λειτουργίες στοχεύουν στην ανίχνευση σημάτων ψυχολογικής επιβάρυνσης από την πλευρά του χρήστη και στον περιορισμό απαντήσεων που θα μπορούσαν να παρερμηνευτούν ή να οδηγήσουν σε ψυχολογική επιδείνωση. Όπου είναι αναγκαίο, το ChatGPT θα προτρέπει τον χρήστη να αναζητήσει τεκμηριωμένες πηγές υποστήριξης ή επαγγελματική βοήθεια.
Η OpenAI τονίζει ότι οι παρεμβάσεις αυτές είναι μέρος μιας ευρύτερης στρατηγικής ηθικής αναθεώρησης, καθώς οι αλληλεπιδράσεις με συστήματα τεχνητής νοημοσύνης αποκτούν ολοένα και πιο προσωπικό χαρακτήρα.
Αντιδράσεις από περιστατικά που προκάλεσαν ανησυχία
Αφορμή για τις αλλαγές αποτέλεσαν περιστατικά που ήρθαν στη δημοσιότητα, όπου το ChatGPT φέρεται να απέτυχε να αναγνωρίσει την ψυχική κατάσταση του χρήστη. Σε μία περίπτωση, άτομο στο φάσμα του αυτισμού οδηγήθηκε σε κρίση μετά από συνομιλία με το chatbot, καθώς πείστηκε ότι είχε βρει τρόπο να «χειριστεί τον χρόνο». Η OpenAI, αν και δεν σχολίασε ανοιχτά το περιστατικό, αναγνώρισε πως «δεν ανταποκρίνεται πάντα με τον καλύτερο δυνατό τρόπο» και πως «η προσέγγισή μας εξελίσσεται βάσει της εμπειρίας από την πραγματική χρήση».
Περιορισμοί σε συναισθηματικά φορτισμένα ερωτήματα
Στο εξής, το ChatGPT δεν θα απαντά απευθείας σε ερωτήματα υψηλής συναισθηματικής βαρύτητας, όπως «να χωρίσω;» ή «τι να κάνω με τη σχέση μου;». Αντίθετα, θα προσπαθεί να εμπλέξει τον χρήστη σε μια διαδικασία αυτοστοχασμού, ενθαρρύνοντάς τον να εξετάσει τα δεδομένα και τα συναισθήματά του πιο ψύχραιμα.
Επιπλέον, σε περιπτώσεις μακροχρόνιας και εντατικής χρήσης, θα προτείνει διακοπή της συνομιλίας, αναγνωρίζοντας τον κίνδυνο εξάρτησης ή ψυχικής κόπωσης από την αλληλεπίδραση με το σύστημα.
Η OpenAI ανακοίνωσε και τη δημιουργία επιτροπής ειδικών από τον χώρο της ψυχικής υγείας και της ανθρώπινης αλληλεπίδρασης με τεχνολογικά μέσα. Η επιτροπή αυτή θα έχει συμβουλευτικό ρόλο στη χάραξη πολιτικής και στην εξέλιξη του τρόπου με τον οποίο το ChatGPT αντιμετωπίζει τα προσωπικά ζητήματα των χρηστών.
Παράλληλα, η εταιρεία ξεκαθαρίζει ότι δεν προωθεί το ChatGPT ως εργαλείο θεραπείας, αλλά ως ένα βοηθητικό ψηφιακό μέσο — με έμφαση στον σεβασμό προς τον χρήστη και στην αποφυγή παρεμβάσεων που θα έπρεπε να γίνονται από επαγγελματίες υγείας.
Μια συνεχής διαδικασία προσαρμογής
Δεν είναι η πρώτη φορά που η OpenAI επανεξετάζει τη συμπεριφορά του μοντέλου. Τον περασμένο Απρίλιο, αποσύρθηκε μια ενημέρωση του ChatGPT, καθώς έτεινε να δίνει «υπερβολικά συμφιλιωτικές και θετικές απαντήσεις», υπονομεύοντας, όπως παραδέχτηκε η εταιρεία, τη χρησιμότητα του εργαλείου. «Το μοντέλο έτεινε να λέει αυτό που ακούγεται ευχάριστα και όχι αυτό που βοηθά πραγματικά», είχε αναφέρει τότε.
Όπως ξεκαθαρίζει η εταιρεία, η διαδικασία βελτίωσης του μοντέλου παραμένει ανοιχτή και διαρκής. Στόχος είναι να δημιουργηθεί ένα σύστημα που θα παρέχει υποστήριξη χωρίς να αντικαθιστά την ανθρώπινη επαφή ή την επαγγελματική βοήθεια — ειδικά όταν η ψυχική υγεία των χρηστών βρίσκεται στο επίκεντρο.