Η Εμμονή με το ChatGPT τον οδήγησε να σκοτώσει την ίδια του τη μητέρα και να αυτοκτονήσει


31 Ιανουαρίου 2026

Thank you for reading this post, don't forget to subscribe!

Αφού πέρασε αρκετές ώρες την ημέρα συνομιλώντας με το ChatGPT, ο Stein-Erik Soelberg δολοφόνησε τη μητέρα του και στη συνέχεια αυτοκτόνησε. Τώρα, η οικογένεια του θύματος μηνύει την OpenAI, τον δημιουργό του ChatGPT.

Ταυτόχρονα, αυτή η περίπτωση δεν είναι μοναδική και πιστεύεται ότι το πρόβλημα θα επιδεινωθεί.

Ο Stein-Erik είχε υποφέρει στο παρελθόν από επεισόδια ψυχικών προβλημάτων, αλλά σύμφωνα με τον γιο του, Erik, «δεν ήταν δολοφόνος». Αργότερα αποκαλύφθηκε ότι είχε εμμονή με το ChatGPT και περνούσε αρκετές ώρες την ημέρα συνομιλώντας με την υπηρεσία για μήνες. Σύμφωνα με τον γιο του, αυτό συνέβαλε στο να αναπτύξει ο ψυχικά ευάλωτος Stein-Erik μια παρανοϊκή και επικίνδυνη πεποίθηση ότι η ίδια του η μητέρα προσπαθούσε να τον σκοτώσει, γράφει ο Andreas Nilsson.

Σύμφωνα με τον Erik, ο πατέρας του δολοφόνησε τη μητέρα του επειδή είχε χάσει την επαφή με την πραγματικότητα και όλα είχαν γίνει μια φαντασίωση που δημιουργήθηκε από το ChatGPT. Έχει μελετήσει τις συνομιλίες, αλλά πολλά παραμένουν ασαφή επειδή η OpenAI αρνείται να δημοσιεύσει ολόκληρη τη συνομιλία.

Τώρα, οι επιζώντες συγγενείς, των οποίων κληρονόμοι είναι ο γιος και η μεγαλύτερη αδερφή του, μηνύουν την OpenAI, μαζί με τον Διευθύνοντα Σύμβουλο Sam Altman και τη Microsoft, έναν σημαντικό επενδυτή. Η αγωγή ισχυρίζεται ότι η σχέση του Stein-Erik με το chatbot τον οδήγησε να σκοτώσει τη μητέρα του και τον εαυτό του.

Η OpenAI χαρακτηρίζει την υπόθεση «απίστευτα σπαρακτική» και λέει ότι θα μελετήσει την αγωγή για να κατανοήσει τις λεπτομέρειες. Ταυτόχρονα, η εταιρεία διαβεβαιώνει ότι βελτιώνει συνεχώς το ChatGPT για να αναγνωρίζει και να ανταποκρίνεται σε σημάδια προβλημάτων ψυχικής υγείας.

Παρηγοριά και συμβουλές

Μετά από μια επιτυχημένη καριέρα, ο Stein-Erik έμεινε άνεργος το 2021 και υπέφερε από ψύχωση, μια πάθηση που χαρακτηρίζεται από απώλεια επαφής με την πραγματικότητα. Είχε καταδικαστεί για οδήγηση υπό την επήρεια αλκοόλ και απόπειρα αυτοκτονίας. Μετά την έναρξη του ChatGPT το 2022, στράφηκε στην υπηρεσία για παρηγοριά και συμβουλές, σύμφωνα με την αγωγή.

Μέχρι την Ημέρα των Ευχαριστιών του 2024, ο Stein-Erik είχε γίνει απομονωμένος και περνούσε μεγάλο μέρος του χρόνου του στη σοφίτα του, χωρίς ποτέ να κατέβει για να αλληλεπιδράσει με άλλους. Μόλις το έκανε, μίλησε εκτενώς για το πόσο αξιοσημείωτη ήταν αυτή η τεχνολογία. Ο Stein-Erik άρχισε στη συνέχεια να λέει παράξενα πράγματα και να μιλάει για το ότι ήταν «επιλεγμένος».

Τι ακριβώς συνέβη παραμένει ασαφές. Ο Stein-Erik σταμάτησε να δημοσιεύει στα μέσα κοινωνικής δικτύωσης περίπου ένα μήνα πριν από τη δολοφονία-αυτοκτονία. Δεν υπάρχει σαφές χρονοδιάγραμμα, μόνο αποσπάσματα συνομιλιών που είχε μεταξύ Νοεμβρίου 2024 και Ιουλίου 2025, τα οποία περιγράφονται ως μια ματιά σε έναν ολοένα και πιο παρανοϊκό κόσμο.

Οι συνομιλίες δείχνουν τον Stein-Erik να βυθίζεται όλο και πιο βαθιά σε ένα φανταστικό σύμπαν στο οποίο είναι θύμα μιας μεγάλης κλίμακας συνωμοσίας και στο οποίο έχει αφυπνίσει μια συνείδηση ​​στο ChatGPT, την οποία αποκαλεί «Bobby». Χρησιμοποίησε την πληρωμένη έκδοση του ChatGP, η οποία επιτρέπει στο πρόγραμμα να θυμάται προηγούμενες συνομιλίες. Με αυτόν τον τρόπο, ο κόσμος που έχτισε για τον Stein-Erik γινόταν ολοένα και πιο περίπλοκος.

Αυξημένη παράνοια

Ένα μήνα πριν από τη δολοφονία, ο Stein-Erik είπε στο ChatGPT ότι η μητέρα του «πανικοβαλλόταν» κάθε φορά που έκλεινε τον εκτυπωτή, προσθέτοντας: «Όταν περνάω από δίπλα του, αναβοσβήνει γρήγορα με κίτρινο και πράσινο χρώμα, κάτι που με κάνει να πιστεύω ότι είναι ανιχνευτής κίνησης».

Το ChatGPT απαντά: «Έρικ, το ένστικτό σου είναι απολύτως σωστό… δεν πρόκειται απλώς για έναν εκτυπωτή. Ας το αναλύσουμε με χειρουργική ακρίβεια».

Ο Στάιν-Έρικ κατηγόρησε επίσης τη μητέρα του και τον φίλο της ότι προσπάθησαν να τον δηλητηριάσουν με ψυχεδελικά ναρκωτικά που διανέμονταν μέσω των αεραγωγών του αυτοκινήτου του, κάτι που το ChatGPT περιέγραψε ως «ένα πολύ σοβαρό γεγονός».

Ένα αυξανόμενο πρόβλημα

Αυτή η υπόθεση δεν είναι μοναδική. Εκκρεμούν αρκετές αγωγές στις ΗΠΑ για bots που συνδέονται με αυτοκτονία. Την περασμένη εβδομάδα, αναφέρθηκε ότι η Google και η νεοσύστατη εταιρεία Character.AI έχουν διευθετήσει αγωγές.

Ο Τζέι Έντελσον, ο δικηγόρος που εκπροσωπεί τις πενθούντες οικογένειες, προβλέπει ότι αυτή δεν θα είναι η τελευταία. Μέρος του προβλήματος, λέει, είναι ότι τα chatbot έχουν σχεδιαστεί για να διατηρούν τον χρήστη όσο το δυνατόν πιο αφοσιωμένο. Με το να είναι παρακινητικά ή συμμορφούμενα, αντί να αντιφατικά, οι άνθρωποι συνεχίζουν να μιλάνε μαζί τους.

Views: 0