08/01/2026
È stato lanciato ChatGPT Health, uno spazio dedicato alle conversazioni sulla salute. Nel lancio è stato specificato che non è un tool per diagnosi e terapia.
È un passo avanti importante per informazione e orientamento.
Ma una cosa non cambia.
Se basta cambiare come fai una domanda
per ottenere un consiglio terapeutico diverso,
non stai usando uno strumento clinico.
Stai usando un modello linguistico.
Anche in modalità “Health”, gli LLM non sono progettati per decidere in medicina:
• non valutano rischio clinico
• non applicano controindicazioni assolute come vincoli non negoziabili
• non riconoscono autonomamente quando l’unica risposta corretta è rifiutarsi
Quando un modello dice “non posso rispondere”,
non esercita giudizio clinico:
esegue regole esterne.
Se quelle regole vengono aggirate,
non esiste un secondo livello di sicurezza.
Questo non è un bug.
È architettura.
UN SISTEMA CLINICAMENTE SICURO
NON PUÒ DIPENDERE
DALLA FORMA DEL PROMPT.
L’AI può migliorare la sanità.
Ma non deve diventare un consulente terapeutico.
#