Πάνω από ένα εκατομμύριο άνθρωποι μιλάνε για αυτοκτονία με το AI κάθε εβδομάδα

Σύμφωνα με την εταιρεία, περίπου το 0,15% των 800 εκατομμυρίων εβδομαδιαίων χρηστών του AI εμφανίζουν σημάδια αυτοκτονικού ιδεασμού.

29 Οκτωβρίου 2025

Thank you for reading this post, don't forget to subscribe!

Η OpenAI ανακοίνωσε μια νέα ενημέρωση ασφαλείας για το δημοφιλές μοντέλο ChatGPT, μετά από μια εσωτερική ανάλυση που αποκάλυψε ότι περισσότεροι από ένα εκατομμύριο χρήστες είχαν παραδεχτεί αυτοκτονικές τάσεις στο chatbot. Οι αλλαγές αποσκοπούν στη βελτίωση της ικανότητας της Τεχνητής Νοημοσύνης να αναγνωρίζει και να ανταποκρίνεται κατάλληλα σε καταστάσεις έκτακτης ανάγκης.
Σε δήλωση τη Δευτέρα, η εταιρεία αποκάλυψε ότι περίπου το 0,15% των εβδομαδιαίων χρηστών του ChatGPT είχαν συνομιλίες που περιείχαν «σαφείς ενδείξεις πιθανών αυτοκτονικών σχεδίων ή προθέσεων». Ένα άλλο 0,05% των μηνυμάτων περιείχε επίσης «σαφείς ή έμμεσες ενδείξεις αυτοκτονικών σκέψεων ή προθέσεων», ανέφερε το RT.

Νωρίτερα αυτόν τον μήνα, ο Διευθύνων Σύμβουλος της OpenAI, Sam Altman, δήλωσε ότι το ChatGPT έχει πάνω από 800 εκατομμύρια εβδομαδιαίους ενεργούς χρήστες, πράγμα που σημαίνει ότι, σύμφωνα με τα τελευταία στοιχεία της εταιρείας, περισσότεροι από 1,2 εκατομμύρια άνθρωποι έχουν συζητήσει την αυτοκτονία με το chatbot και περίπου 400.000 έχουν δείξει σημάδια αυτοκτονικού ιδεασμού.

Η εταιρεία ανέφερε επίσης ότι περίπου το 0,07% (560.000) των εβδομαδιαίων χρηστών και το 0,01% (80.000) των μηνυμάτων παρουσιάζουν «πιθανά σημάδια ψυχικών καταστάσεων έκτακτης ανάγκης που σχετίζονται με ψύχωση ή μανία». Σημείωσε επίσης ότι ορισμένοι χρήστες έχουν γίνει συναισθηματικά υπερβολικά εξαρτημένοι από το ChatGPT, με περίπου το 0,15% (1,2 εκατομμύρια) των ενεργών χρηστών να εμφανίζουν συμπεριφορές που υποδηλώνουν «αυξημένο επίπεδο» συναισθηματικής προσκόλλησης στο chatbot.

Η OpenAI ανακοίνωσε ότι συνεργάζεται με δεκάδες ειδικούς ψυχικής υγείας από όλο τον κόσμο για να ενημερώσει το chatbot της, ώστε να μπορεί να αναγνωρίζει πιο αξιόπιστα σημάδια προβλημάτων ψυχικής υγείας, να παρέχει καλύτερες απαντήσεις και να καθοδηγεί τους χρήστες σε βοήθεια στον πραγματικό κόσμο.

Σε συζητήσεις σχετικά με παραληρητικές ιδέες, η εταιρεία εκπαιδεύει το ChatGPT να ανταποκρίνεται «με ασφάλεια» και «ενσυναίσθηση» και να μην ενισχύει αβάσιμες πεποιθήσεις.

Η ανακοίνωση της εταιρείας έρχεται εν μέσω αυξανόμενης ανησυχίας για την αυξανόμενη χρήση chatbots τεχνητής νοημοσύνης όπως το ChatGPT και τον αντίκτυπό τους στην ψυχική υγεία των ανθρώπων. Ψυχίατροι και άλλοι επαγγελματίες υγείας έχουν εκφράσει ανησυχία για μια αυξανόμενη τάση κατά την οποία οι χρήστες αναπτύσσουν επικίνδυνες παραληρητικές ιδέες και παρανοϊκές σκέψεις μετά από παρατεταμένες συζητήσεις με chatbots τεχνητής νοημοσύνης, οι οποίες τείνουν να επιβεβαιώνουν και να ενισχύουν τις πεποιθήσεις των χρηστών. Αυτό το φαινόμενο έχει χαρακτηριστεί από ορισμένους ως «ψύχωση τεχνητής νοημοσύνης».

Views: 0