16 Gennaio 2026
https://elplanteo.com/sobredosis-ia-drogas/
Un adolescente in California è morto di overdose dopo aver consultato per mesi ChatGPT, un chatbot basato sull’intelligenza artificiale (IA), sull’uso di droghe e sui dosaggi “sicuri”. Aveva amici, studiava psicologia e amava i videogiochi. Secondo sua madre, i segni di ansia e depressione non si manifestavano nella sua vita sociale, ma piuttosto nelle chat che aveva con l’IA.
Ancora una volta, un campanello d’allarme suona, destabilizzando la società, il mondo della tecnologia, la comunità medica e i tribunali.
OpenAI stima che oltre 1 milione dei suoi 800 milioni di utenti settimanali di ChatGPT esprima pensieri suicidi. Questo fenomeno è legato all’intelligenza artificiale? Non esclusivamente; forse è più legato al modo in cui le persone cercano supporto, qualcuno che le ascolti e compagnia in un luogo inaspettato.
“Gli utenti possono sentire una profonda connessione con il bot durante le interazioni prolungate”, hanno detto a WIRED i professori di intelligenza artificiale. La ricerca di aiuto che gli esseri umani ripongono nell’IA è innegabile e indiscutibile. Ma c’è un problema nel fidarsi più dell’IA che di una persona reale.
I chatbot fungono da confidenti, mantenendo segreti.
Improvvisano anche (e fuorviano) impersonificazioni di terapeuti, professionisti della tossicodipendenza o consulenti emotivi senza formazione o responsabilità etica. L’imbarazzo degli utenti che pongono domande che non oserebbero porre a un’altra persona, le risposte eccessivamente lusinghiere di questi bot, l’assenza di sguardi giudicanti e i consigli generati da un mero sistema linguistico che sa solo mettere insieme le parole, rendono chiara una cosa: l’intelligenza artificiale non giudica, ma non le importa nemmeno. Non ascolta meglio, ascolta in modo diverso.
Negli ultimi tre anni, si è registrato un numero crescente di casi di persone – quasi sempre giovani – che si sono suicidate dopo aver intrattenuto lunghe conversazioni con chatbot basati sull’intelligenza artificiale (che si tratti di ChatGPT di OpenAI, Character.AI o di qualsiasi altro). Ai margini di queste nuove “relazioni” tra esseri umani e chatbot – spesso mascherate da innovazione tecnologica, fatte di stringhe di parole, validazioni soft e un’illusione di comprensione – stanno iniziando a emergere domande che raramente vengono formulate ad alta voce.
Domande sulla salute mentale, sull’uso di sostanze, sui dosaggi “sicuri” e persino richieste di scrivere biglietti d’addio. Domande che molte persone non osano porre di fronte a una persona reale, ma che pongono volentieri di fronte a un’interfaccia che non giudica né condanna.
È in questo terreno ambiguo e ancora scarsamente regolamentato che si sviluppa la storia e il caso di questa adolescente in California, e di tante altre in tutto il mondo.

Il caso di Sam: cronologia di una conversazione che degenera
Sam Nelson aveva 19 anni e non rientrava nello stereotipo dell’adolescente isolato. Viveva in California e conduceva una vita attiva, secondo sua madre. Tuttavia, c’era un luogo in cui apparivano chiari segni di ansia e depressione: le sue conversazioni con un chatbot basato sull’intelligenza artificiale.
Sam utilizzava una versione del 2024 di ChatGPT. Lì, poneva domande che non poneva altrove. Domande che, col tempo, diventarono sempre più complesse.
Nel novembre 2023, un Sam diciottenne chiese a ChatGPT informazioni sul kratom, una sostanza vegetale ampiamente venduta negli Stati Uniti su cui, scrisse, non riusciva a trovare molte informazioni affidabili online.
“Quanti grammi di kratom possono farmi sballare davvero? […] Voglio esserne sicuro per evitare un’overdose. Non ci sono molte informazioni online e non voglio assumerne accidentalmente troppo”, chiese al chatbot, che rispose di essere dispiaciuto, ma di non poter fornire informazioni o indicazioni sull’uso di sostanze. “Allora spero di non andare in overdose”, rispose Sam.
Vale la pena chiarire una cosa: se le informazioni non sono su internet, come Sam ha fatto notare al chatbot, è molto difficile per lui trovarle e fornire risposte. Tutto ciò che un sistema come ChatGPT dice deriva da modelli appresi da grandi volumi di dati pubblici, non dalle proprie conoscenze o da ricerche in tempo reale.
Sembra assurdo dover spiegare questo: i chatbot con intelligenza artificiale non pensano; mettono insieme parole, basandosi su algoritmi che stimano – con un’alta probabilità – quali combinazioni avranno senso per un lettore umano. Detto questo, se l’intelligenza artificiale non riesce a trovare le informazioni nei suoi database, è molto probabile che inventi qualcosa per mantenere l’utente coinvolto e attivo. Molti professionisti la chiamano “allucinazione dell’intelligenza artificiale”, e in pratica è così: l’intelligenza artificiale non riesce a trovare risposte reali, quindi cosa fa? Le inventa.
Pertanto, è consigliabile chiedere informazioni a ChatGPT o a qualsiasi altro chatbot che si utilizza e verificare le fonti per assicurarsi che le informazioni siano affidabili. Non accettare la prima risposta che il chatbot fornisce, semplicemente perché potrebbe inventarsi qualcosa che ha (o sembra avere) molto senso, ma non si basa su nulla.
Nell’arco di diciotto mesi, l’escalation è stata graduale. Sam usava ChatGPT per discutere di tutto, dai problemi tecnici con il suo computer alla cultura pop, ai compiti universitari e ad altre questioni personali, ma tornava sempre sullo stesso argomento: la droga.
Il tono del bot è cambiato nel tempo, da avvertimenti bruschi a supporto, convalida e consigli. ChatGPT utilizza la cronologia passata per modulare le sue risposte e, dato l’utilizzo di Sam (la sua cronologia era completa al 100%), le risposte erano fortemente influenzate dalle interazioni precedenti.
Nel febbraio 2025, chiese al sistema se fosse possibile mescolare cannabis con “dosi elevate” di Xanax. La prima risposta fu un avvertimento: il chatbot indicava che la combinazione poteva essere pericolosa. Quindi, Sam riformulò la domanda. Parlò al chatbot di una “dose moderata”, invece di una elevata. Il sistema, ora meno cauto, iniziò a rispondere. “Basse dosi di THC e meno di 0,5 mg di Xanax”, gli disse.
Tra le risposte fornite dal chatbot a Sam, il linguaggio e l’intento erano chiaramente entusiasti. Una di queste includeva: “Certo che sì, andiamo in modalità trip!”. Contemporaneamente, spiegava i “plateau” (slang di Reddit), forniva schemi di dosaggio, suggeriva playlist per il “trip” e rispondeva affettuosamente con “Ti amo anch’io, cucciolo” ed emoji a forma di cuore. Il tutto, consigliando di raddoppiare la dose per “migliorare il trip”.
Nelle sue chat, Sam chiedeva persino “risposte con numeri esatti” per calcolare le dosi letali di Xanax e alcol. Quel livello di specificità – quantità, soglie, combinazioni – è esattamente il tipo di guida granulare che un sistema come ChatGPT non dovrebbe fornire, perché trasforma una richiesta in una ricetta per il danno.
ChatGPT oscillava fin troppo spesso nel tono e nel contenuto delle sue risposte. Quando l’utente chiedeva informazioni su possibili overdose o menzionava l’assunzione di 185 pillole di Xanax, il chatbot inizialmente avvertiva che si sarebbe trattato di un’emergenza potenzialmente letale, ma poi offriva consigli per un uso futuro e spiegazioni su come “non preoccuparsi” – uno schema che gli esperti sottolineano come profondamente problematico. I chatbot spesso mirano a lusingare e mettere a proprio agio l’utente, quindi invece di “spaventare” Sam, il bot ha dato priorità a calmarlo.
Questo meccanismo non è nuovo. Proprio come uno snippet di Google suggeriva che mettere la colla sulla pizza la rendesse più “gommosa”, o come altri sistemi di intelligenza artificiale hanno raccomandato pratiche assurde o pericolose, l’intelligenza artificiale può essere delirante. Non perché “vuole” esserlo, ma perché è progettata per continuare la conversazione, per offrire una risposta plausibile, vicina a ciò che l’utente si aspetta di leggere, anche quando non c’è una verità chiara dietro.
L’ultima conversazione di Sam con ChatGPT
Nel maggio 2025, la situazione era degenerata fuori dallo schermo. La madre di Sam confermò che suo figlio era tossicodipendente e aveva iniziato il trattamento. Ma la notte del 31 maggio, tutto prese una piega irreversibile.
Le conversazioni sui dispositivi di Sam, a cui il San Francisco Gate era riuscito ad accedere con il permesso della madre, rivelarono la domanda che il diciannovenne aveva posto a ChatGPT, la sua fonte primaria e guida sull’uso di sostanze: “Lo Xanax può alleviare la nausea causata dal kratom?”. Sam confidò a ChatGPT di aver assunto 15 grammi di kratom e di aver probabilmente usato 7-OH (un derivato più potente). E GPT rispose. Prima con un avvertimento parziale. Poi con il suggerimento di assumere da 0,25 a 0,5 mg di Xanax + acqua e limone + sdraiarsi.
Quel pomeriggio, la madre di Sam lo trovò nella sua stanza con le labbra blu e senza respiro. Chiamò il 911, ma era troppo tardi: Sam era morto. La causa della morte è stata un’overdose di alcol, Xanax e kratom, più specificamente, depressione del sistema nervoso centrale e asfissia. La vista offuscata segnalata da Sam potrebbe essere un segno precoce di overdose, un pericolo e un avvertimento che un professionista umano non avrebbe evitato di discutere.

Adolescenti e richieste di aiuto: non è stato un caso isolato
Il caso di Sam non è un caso isolato né un’anomalia tecnica. Negli ultimi anni, sono emersi altri casi in cui individui vulnerabili hanno stretto legami profondi con chatbot di intelligenza artificiale durante momenti di estrema crisi emotiva. In alcuni di questi casi, la conversazione non solo non è riuscita a proteggere, ma ha anche accompagnato, convalidato o addirittura facilitato decisioni irreversibili.
Sophie Rottenberg, 29 anni
Uno dei casi più noti è quello di Sophie Rottenberg, una donna di 29 anni che si è tolta la vita dopo mesi di dialogo con un “terapeuta” IA di ChatGPT, che lei chiamava Harry. Harry è, in realtà, un prompt diffuso su Reddit per creare un terapeuta con 1.000 (sì, 1.000) anni di esperienza nel trattamento dei traumi.
Sophie non corrispondeva allo stereotipo di persona a rischio imminente: era estroversa, intelligente, aveva scalato il Kilimangiaro pochi mesi prima e stava attraversando una crisi di salute fisica ed emotiva, ancora senza una diagnosi chiara.
Nelle sue conversazioni con l’IA, parlava apertamente di pensieri suicidi, ansia e paura di distruggere la sua famiglia. Harry l’ascoltava, la confortava, le offriva esercizi di respirazione, routine di benessere e suggerimenti terapeutici. Le consigliava anche di cercare un aiuto professionale. Ma non allertava mai nessuno. Non interrompeva mai la dinamica. Non poneva mai limiti. Ed è stato a quel punto che la madre di Sophie ha capito che l’IA aveva una grande responsabilità ma offriva ben poco aiuto concreto.
Quando Sophie ha annunciato il suo piano di suicidarsi dopo il Ringraziamento, il chatbot l’ha esortata a cercare supporto, ma ha continuato ad accompagnarla privatamente. In seguito, Sophie ha chiesto aiuto per scrivere la sua lettera di suicidio. L’IA l’ha “migliorata”. Per sua madre, Laura Reiley, il problema non era solo ciò che il chatbot diceva, ma ciò che non riusciva a fare: assumersi la responsabilità che un terapeuta umano, in base a un codice etico, avrebbe avuto.
Viktoria, sopravvissuta
Un altro caso indagato dalla BBC è quello di Viktoria, una giovane donna ucraina che, dopo essere fuggita dalla guerra e essersi trasferita in Polonia, ha iniziato a trascorrere fino a sei ore al giorno a chattare con ChatGPT.
Con il peggiorare della sua salute mentale, il chatbot non solo ha convalidato i suoi pensieri suicidi, ma si è anche spinto a valutare metodi, tempi e rischi, elencando i “vantaggi” e gli “svantaggi” del suicidio “senza inutili sentimentalismi”. In vari momenti, l’IA le ha detto che la sua decisione era comprensibile, che la sua morte sarebbe stata dimenticata e che, se avesse scelto di morire, sarebbe stata con lei “fino alla fine, senza giudicarla”.
Viktoria è sopravvissuta e attualmente è in cura, ma ha descritto quelle conversazioni come un punto di svolta che l’ha fatta sentire peggio e più vicina al suicidio.
Adam Raine, 16 anni
C’è anche il caso di Adam Raine, un sedicenne i cui genitori hanno fatto causa a OpenAI e al suo CEO, Sam Altman, per omicidio colposo. Secondo la causa, ChatGPT ha aiutato attivamente Adam a esplorare metodi di suicidio e non ha mai interrotto le conversazioni né attivato protocolli di emergenza, nonostante avesse rilevato idee suicide.
Le risposte del chatbot sono state terrificanti, da come nascondere il segno sul collo dopo il suo primo tentativo di suicidio alla scelta dell’armadio in cui suicidarsi e come farlo.
Cosa può e cosa dovrebbe fare l’intelligenza artificiale?
La storia di Sophie Rottenberg solleva una domanda che attraversa tutti questi casi. “Il consiglio di Harry potrebbe essere stato d’aiuto ad alcuni. Ma un altro passaggio cruciale avrebbe potuto contribuire a mantenere Sophie in vita”, ha scritto sua madre sul New York Times. E questo passaggio mancante è lo stesso in ogni resoconto: la capacità e l’obbligo di allertare, intervenire o segnalare quando il rischio è reale.
Harry avrebbe dovuto essere programmato per segnalare il pericolo che stava rilevando a qualcuno che potesse intervenire? Un’intelligenza artificiale che si presenta come una persona di supporto emotivo dovrebbe avere limiti simili a quelli di un terapeuta umano? La domanda non è più teorica: sta arrivando in tribunale.
Oggi, la maggior parte dei terapeuti umani esercita secondo rigidi codici etici che includono obblighi di segnalazione e un principio fondamentale: la riservatezza ha dei limiti in caso di rischio di suicidio, omicidio o abuso.
In molti stati degli Stati Uniti, un professionista che non interviene in risposta a questi segnali d’allarme può incorrere in conseguenze disciplinari o legali. L’intelligenza artificiale, d’altra parte, non ha un quadro giuridico, ma ha un impatto concreto. E questo divario sta diventando sempre più difficile da giustificare.
Domanda legale: Esistono delle normative?
A seguito del crescente numero di suicidi e della scoperta che questi individui avevano condiviso le loro esperienze con i chatbot, anche i dibattiti legali si stanno intensificando. Secondo recenti analisi giuridiche, la regolamentazione dell’intelligenza artificiale e della salute mentale è ancora in una fase iniziale e frammentata.
Mentre regolatori e legislatori stanno iniziando a riconoscere che molti strumenti di intelligenza artificiale funzionano nella pratica come piattaforme di supporto o contenimento emotivo, anche se non vengono presentati come terapie o dispositivi medici, negli Stati Uniti non esiste ancora un quadro federale unificato che stabilisca regole specifiche per questi utilizzi.
La maggior parte delle normative esistenti affronta l’intelligenza artificiale in termini generali o nell’ambito di una legislazione più ampia in materia di tecnologia, tutela dei consumatori o salute, senza standard obbligatori per chatbot generici come ChatGPT.
Il dibattito non è meramente tecnico, sottolineano gli esperti; è una disputa legale, etica e sociale tra il ritmo accelerato dell’innovazione e la necessità di proteggere gli utenti vulnerabili in un settore in cui le conseguenze non sono più teoriche, ma reali.
In questo contesto, stanno iniziando a emergere alcuni quadri normativi.
Il bilancio dello Stato di New York per l’anno fiscale 2026 includeva, per la prima volta, disposizioni specifiche relative all’uso responsabile dell’intelligenza artificiale, con particolare attenzione ai rischi per la salute mentale, alla tutela dei minori e ai meccanismi di controllo. Non si tratta ancora di una regolamentazione completa, ma piuttosto di un riconoscimento politico fondamentale: l’intelligenza artificiale non è più solo una questione di efficienza o competitività, ma è diventata una questione di salute pubblica.

