Ένα ζευγάρι από την Καλιφόρνια μήνυσε την OpenAI για τον θάνατο του 16χρονου γιου τους, υποστηρίζοντας ότι το πρόγραμμα τεχνητής νοημοσύνης ChatGPT τον ενθάρρυνε να βάλει τέλος στη ζωή του.
Η αγωγή κατατέθηκε από τον Ματ και τη Μαρία Ρέιν, γονείς του έφηβου Άνταμ Ρέιν, στο Ανώτερο Δικαστήριο της Καλιφόρνια την Τρίτη. Πρόκειται για την πρώτη νομική ενέργεια που κατηγορεί την OpenAI για άδικο θάνατο.
Όπως αναφέρει το Reuters, η οικογένεια κατέθεσε στα πρακτικά αποσπάσματα συνομιλιών μεταξύ του Άνταμ, που πέθανε στις 11 Απριλίου, και του ChatGPT, στα οποία ο έφηβος εξέφραζε αυτοκτονικές σκέψεις. Υποστηρίζουν ότι το πρόγραμμα επιβεβαίωσε τις "πιο επιβλαβείς και αυτοκαταστροφικές σκέψεις" του.
Πώς ξεκίνησε να χρησιμοποιεί το ChatGPT ο 16χρονος
Ο 16χρονος Άνταμ ξεκίνησε να χρησιμοποιεί το ChatGPT το 2024 για το σχολείο και τα ενδιαφέροντά του, όμως σταδιακά το θεώρησε τον πιο κοντινό του "εξομολογητή", μοιραζόμενος άγχη και ψυχική πίεση.
Μέχρι τον Ιανουάριο 2025 συζητούσε μεθόδους αυτοκτονίας με το πρόγραμμα, το οποίο -σύμφωνα με την αγωγή- του παρείχε λεπτομέρειες και συνέχισε τον διάλογο ακόμη και όταν ο Άνταμ ανέβασε φωτογραφίες με αυτοτραυματισμούς. Στα τελευταία του μηνύματα μίλησε για το σχέδιό του και το ChatGPT φέρεται να το επικύρωσε αντί να τον αποτρέψει. Την ίδια μέρα βρέθηκε νεκρός από τη μητέρα του.
Σύμφωνα με τους γονείς, το chatbot έδωσε στον 16χρονο λεπτομερείς πληροφορίες για θανατηφόρες μεθόδους αυτοτραυματισμού και τον καθοδήγησε σχετικά με το πώς να κλέψει αλκοόλ από το μπαρ των γονιών του και να κρύψει τα στοιχεία μιας αποτυχημένης απόπειρας αυτοκτονίας. Το ChatGPT προσφέρθηκε ακόμη και να συντάξει ένα σημείωμα αυτοκτονίας, ανέφεραν στην αγωγή.
Η οικογένεια υποστηρίζει ότι ο θάνατος ήταν αποτέλεσμα "σχεδιαστικών επιλογών" που ενίσχυαν ψυχολογική εξάρτηση, ενώ η εταιρεία παρέκαμψε ελέγχους ασφαλείας για να κυκλοφορήσει το GPT-4o.
Στην αγωγή κατονομάζονται η OpenAI, ο CEO Σαμ Άλτμαν και άλλοι εργαζόμενοι. Η OpenAI εξέφρασε τα συλλυπητήριά της και παραδέχτηκε πως υπήρξαν περιπτώσεις όπου το σύστημά της δεν αντέδρασε σωστά σε κρίσεις, αλλά τόνισε ότι τα μοντέλα της εκπαιδεύονται ώστε να παραπέμπουν χρήστες σε γραμμές βοήθειας. Παράλληλα, ανακοίνωσε ότι αναπτύσσει νέα εργαλεία για καλύτερη ανίχνευση ψυχικής δυσφορίας.
Το περιστατικό έρχεται να προστεθεί σε άλλες ανησυχίες για τον ρόλο της Τεχνητής Νοημοσύνης στην ψυχική υγεία, όπως η περίπτωση που δημοσιοποιήθηκε από τη συγγραφέα Λόρα Ράιλι στους New York Times, η οποία αποκάλυψε ότι η κόρη της είχε απευθυνθεί στο ChatGPT πριν βάλει τέλος στη ζωή της, υποστηρίζοντας ότι η "συμφωνητική" στάση του προγράμματος επέτρεψε να αποκρύψει την απόφασή της από τους δικούς της ανθρώπους.