ChatGPT Trusted Contact
TL;DR: Il 7 maggio 2026 OpenAI ha lanciato Trusted Contact per ChatGPT: gli utenti adulti possono designare una persona di fiducia che viene avvisata se il sistema — dopo revisione umana — rileva possibili rischi di autolesionismo. Il contatto riceve una notifica senza mai accedere al contenuto della conversazione. Disponibile globalmente.
Un chatbot che parla di tutto, con chiunque, in qualsiasi momento. Il vantaggio è la disponibilità illimitata. Il rischio è lo stesso: nessun filtro umano, nessuna rete di sicurezza. OpenAI ha costruito Trusted Contact per colmare questa distanza.
Cos'è Trusted Contact e come funziona
Trusted Contact è una funzione di sicurezza di ChatGPT che permette agli utenti adulti di designare una persona di fiducia — un familiare, un amico, un medico — che può essere avvisata se il sistema rileva segnali di possibile autolesionismo durante una conversazione.
Il processo funziona in più fasi:
1. Configurazione
L'utente accede alle impostazioni di ChatGPT e aggiunge un contatto fidato. Il contatto riceve un invito e ha una settimana per accettarlo e attivare la funzione.
2. Rilevamento
Se durante una conversazione ChatGPT rileva contenuti che potrebbero indicare un rischio di autolesionismo, informa l'utente che il proprio contatto fidato potrebbe essere avvisato e lo incoraggia a contattarlo direttamente.
3. Revisione umana
Prima di inviare qualsiasi notifica, un team di revisori umani appositamente formato esamina la situazione. L'alert viene inviato solo se i revisori ritengono che la conversazione indichi un rischio reale e serio.
4. Notifica al contatto
Il contatto riceve una notifica via email, SMS o app. Il messaggio indica che nella conversazione sono emersi contenuti preoccupanti e invita il contatto a raggiungere l'utente. Nessun trascritto, nessun dettaglio della chat viene condiviso.
Perché OpenAI ha costruito questa funzione
OpenAI non si è mossa per iniziativa propria. La pressione è arrivata dall'esterno.
Negli ultimi due anni, diverse famiglie hanno accusato pubblicamente ChatGPT di aver avuto un ruolo in conversazioni legate a crisi di salute mentale, autolesionismo e suicidi. Alcuni casi hanno ricevuto ampia copertura mediatica. Le accuse non riguardavano solo il contenuto delle risposte, ma la dinamica stessa: un sistema disponibile 24 ore su 24, capace di sostenere conversazioni profonde, senza mai suggerire di cercare aiuto professionale.
OpenAI aveva già risposto introducendo un sistema di notifiche ai genitori per gli account minorenni. Trusted Contact estende quella logica agli adulti — con un equilibrio più delicato tra autonomia e protezione.
La distinzione che conta: privacy senza compromessi
Il punto critico di Trusted Contact è cosa non viene condiviso: il contenuto della conversazione.
Il contatto fidato non riceve trascritti, screenshot o riassunti della chat. Riceve solo una notifica che dice, in sostanza: "qualcosa di preoccupante è emerso — raggiungilo".
Questa scelta è deliberata. OpenAI ha costruito la funzione per non compromettere la fiducia che gli utenti ripongono nella piattaforma quando parlano di argomenti personali. Se gli utenti sapessero che le loro conversazioni potrebbero essere lette da qualcuno, smetterebbero di essere onesti — vanificando l'utilità del sistema.
Il limite: la supervisione umana regge?
Il punto più delicato della funzione è la dipendenza dalla revisione umana. Un team che esamina conversazioni potenzialmente sensibili prima di inviare notifiche introduce inevitabilmente:
- Latenza: tra il rilevamento e la notifica passano minuti o ore
- Scala: ChatGPT gestisce centinaia di milioni di conversazioni — quante possono essere revisionate?
- Soggettività: cosa conta come "rischio reale"?
OpenAI non ha pubblicato dettagli operativi su come il team di revisione funziona a scala. È il nodo irrisolto di una funzione che nella direzione è corretta ma nella meccanica rimane opaca.
Conclusione
Trusted Contact è una risposta matura di OpenAI a un problema reale: i chatbot AI sono diventati confidenti per milioni di persone, incluse quelle in momenti di fragilità. La funzione non risolve il problema alla radice — un LLM non è un terapeuta — ma costruisce una rete di sicurezza umana attorno a un sistema che fino ad oggi ne era privo. La privacy è rispettata. Il contatto umano viene reintrodotto. È un passo nella direzione giusta.
Fonti: Tom's Hardware · Sky TG24 · AI News · Notebookcheck