Negli ultimi giorni si è diffusa con rapidità la notizia secondo cui OpenAI avrebbe improvvisamente vietato a ChatGPT di fornire consigli personalizzati in ambito medico, legale e finanziario. Diversi post apparsi sui social hanno presentato la questione come un cambiamento radicale, parlando di uno “stop” definitivo. In realtà, la situazione è diversa e merita un chiarimento accurato, perché riguarda il modo in cui interpretiamo il ruolo dell’intelligenza artificiale nella società e, in particolare, nei settori regolamentati.
Le regole che limitano l’uso di modelli linguistici come ChatGPT nella formulazione di diagnosi cliniche, pareri legali vincolanti o raccomandazioni finanziarie personalizzate non sono nuove e non sono state introdotte ora. Sono presenti da tempo nelle linee guida ufficiali di OpenAI e rispondono a una logica precisa: un modello di intelligenza artificiale non è un professionista, non detiene abilitazioni e non può assumersi responsabilità giuridiche. Le politiche d’uso pubblicate da OpenAI esplicitano che l’IA non deve sostituirsi a figure qualificate nei contesti in cui la decisione può produrre danno o effetti giuridici diretti. Le linee guida più aggiornate sono consultabili sul sito ufficiale di OpenAI (OpenAI, Usage Policies, https://platform.openai.com/docs/usage-policies).
La questione riguarda il tipo di conoscenza che un modello linguistico è in grado di produrre. ChatGPT genera risposte sulla base di inferenze statistiche ricavate da grandi quantità di testo, non sulla base di esperienza professionale o responsabilità diretta. La sua competenza è quindi una competenza apparente, coerente e fluida nella forma, ma priva di quella dimensione interpretativa, contestuale ed esperienziale che caratterizza la decisione clinica, giuridica o finanziaria. Uno studio pubblicato nel 2023 sul Journal of the American Medical Association ha evidenziato, ad esempio, che i modelli linguistici possono produrre suggerimenti medici plausibili ma talvolta inesatti, con il rischio di generare fiducia eccessiva nell’utente non esperto (JAMA, Ayers et al., “Comparing Physician and ChatGPT Responses to Patient Questions”, 2023). Analogamente, nel campo giuridico, la dottrina ha messo in evidenza come l’IA sia abile nella rielaborazione di materiale normativo e giurisprudenziale, ma non nel processo interpretativo che conduce alla formazione di un parere professionale, tanto più in sistemi caratterizzati da principi come proporzionalità, ragionevolezza e bilanciamento (si veda ad esempio M. C. Nussbaum, “Law and AI: Interpretation Beyond Computation”, Harvard Law Review, 2022).
L’idea che l’intelligenza artificiale possa sostituire un medico o un avvocato è dunque infondata, e non solo per ragioni tecniche, ma per ragioni strutturali: la responsabilità, l’atto interpretativo e il rapporto umano rimangono elementi insostituibili. L’AI può assistere, supportare, accelerare attività analitiche, ma non può assumere il ruolo decisionale. Per questo motivo, anche il legislatore europeo sta lavorando a una regolamentazione che distingua chiaramente tra sistemi ad alto rischio e strumenti di supporto. Il testo dell’AI Act approvato dal Parlamento Europeo nel 2024 prevede che l’uso dell’IA nei settori della salute, della giustizia e della finanza sia sottoposto a requisiti di trasparenza, tracciabilità e supervisione umana obbligatoria (European Parliament, AI Act, 2024).
La diffusione dell’allarme social dimostra però un fenomeno ulteriore: la velocità con cui le informazioni vengono recepite e rilanciate spesso supera la capacità di valutarle criticamente. Non è la tecnologia in sé a generare il problema, ma il nostro modo di leggerla, interpretarla e comunicarla. La credibilità apparente delle risposte generate dall’IA può creare l’illusione di autorevolezza, e questo rende ancora più importante un uso consapevole, verificato e supervisionato.
In conclusione, non vi è stato alcuno stop improvviso. Le regole sono le stesse di prima e rispondono a esigenze di responsabilità, sicurezza e corretto esercizio delle professioni. L’intelligenza artificiale non sostituisce medici, avvocati o consulenti finanziari, ma può rappresentare un valido supporto se utilizzata con criterio e sotto la guida di professionisti qualificati. La sfida è culturale: imparare non solo a usare l’IA, ma a comprenderla, valutarla e, soprattutto, collocarla nel giusto contesto.







