Immagine realizzata con strumenti di Intelligenza Artificiale
Ha senso (o c’è obbligo) di dichiarare l’uso della IA nella scrittura dei testi?
di Achille De Tommaso
A seguito del recente domanda-risposta tra l’amico Davide Torrielli e il sottoscritto sul tema, gradisco scrivere delle note in merito. Lo faccio non perché ritenga utile completare le mie risposte per Davide, quanto per il fatto che considero la questione comunque interessante ai fini editoriali di “Nel Futuro”.
La richiesta di dichiarare esplicitamente l’uso dell’IA nella scrittura di testi è, a mio parere, mal posta perché, prima di tutto ignora la realtà profonda del processo creativo contemporaneo. E poi non è in linea con molte opinioni giuridiche autorevoli, anche se dibattute. Di seguito spiego do alcuni riferimenti tratti dal mercato anglosassone, che è sicuramente più avanzato di quello italiano in materia. Fornisco al termine anche informazioni regolatorie UE.
***
La richiesta di “dichiarare esplicitamente l’uso dell’intelligenza artificiale” nella scrittura di testi nasce, più da un riflesso morale che da un principio logico o giuridico; è più un bisogno a mio parere mal posto, che ignora la realtà profonda del processo creativo contemporaneo. Nel mondo anglosassone, dove il dibattito su questi temi è già maturo, tale obbligo è considerato da molti inutile; concettualmente contraddittorio e addirittura dannoso. Anche se è, come dicevo, dibattuto.
La distinzione tra umano e macchina è ormai sfumata
Gli strumenti di IA generativa non sostituiscono l’autore: ne amplificano le capacità cognitive.
Chiedere ad uno scrittore se “ha usato l’IA” per i suoi testi, È un gesto retorico, non etico, né tecnico. La vera qualità sta nel contenuto, non nel software usato. La richiesta è assimilabile a chiedergli se ha usato un word processor, un correttore ortografico, oppure un motore di ricerca per scrivere. Ancora meglio: chiederlo, equivarrebbe a chiedere ad un fotografo professionista di dichiarare se ha usato Photoshop o una reflex digitale per i suoi lavori; oppure ad un compositore/esecutore di musiche, se ha usato un sintetizzatore; a un cantante se ha usato un “chorus” o un “autotune” (v. ultimo “Sanremo”). Sono strumenti di supporto alla creatività, non entità creative autonome.
Come afferma lo U.S. Copyright Office (USCO), la titolarità resta completamente all’essere umano “quando l’autore esercita controllo creativo sul risultato” (Copyright and Artificial Intelligence – Part II, 2025).
In altri termini, il valore di un testo dipende dalle idee, non dal mezzo tecnico impiegato per formularle.
L’IA non scrive: co-scrive
“Many people use generative AI tools in their creative processes, just as many use cameras, according to Robert Mahari, a Ph.D. in the MIT Human Dynamics Group and a J.D. candidate at Harvard Law School, who recently co-wrote a paper on the topic in Science. Mahari points to an example set by Jason Allen, an artist who took an output of Midjourney—a generative AI system—and refined it with more than 900 iterations to create a piece that won an award at the Colorado State Fair.” (IHE)
Ogni output di un modello linguistico è il frutto di un dialogo: domande, revisioni, riscritture, selezione dei riferimenti; l’intelligenza artificiale non “decide” cosa scrivere, esegue. L’autore resta pienamente responsabile delle scelte semantiche e morali. Senza la guida di un’intenzione umana, nessun testo generato da IA può essere considerato opera creativa nel senso giuridico del termine.
La policy, che sicuramente si stanno facendo strada, di chiedere evidenza dell’uso della IA, non solo danneggiano l’immagine dell’autore, ma accrescono la diffidenza verso la tecnologia.
Come scrive il Center for AI and Digital Policy (2024), “richiedere la dichiarazione d’uso della IA non solo non migliora la qualità dell’informazione, ma è inutile, alimenta la diffidenza verso la tecnologia e possono essere discriminatori” (CAIDP Brief, 2024).
RIPORTO IN MERITO ALCUNI INTERESSANTI STUDI:
Il Dilemma della Trasparenza e l'Erosione della Fiducia
Questo studio dimostra sperimentalmente che l'onestà nell'ammettere l'uso dell'IA danneggia la percezione di affidabilità dell'autore, un risultato paradossale che mina gli obiettivi della trasparenza.
|
Elemento |
Testo (Inglese Originale) |
Traduzione (Italiano) |
Weblink |
|
Citazione |
"Thirteen experiments consistently demonstrate that actors who disclose their AI usage are trusted less than those who do not... Ironically, people who try to be trustworthy, by transparently disclosing AI usage, are trusted less." |
"Tredici esperimenti dimostrano sistematicamente che gli attori che rivelano il loro uso dell'IA sono meno fidati di quelli che non lo fanno... Ironia della sorte, le persone che cercano di essere degne di fiducia – rivelando in modo trasparente l'uso dell'IA – sono meno fidate." |
2. Impraticabilità e Irrilevanza come Assistenza alla Scrittura
Questa fonte argomenta che, per le attività di assistenza alla scrittura (e non di generazione di contenuti originali di ricerca), chiedere la disclosure è un onere inutile e impossibile da applicare con coerenza, specialmente data l'ubiquità degli strumenti.
|
Elemento |
Testo (Inglese Originale) |
Traduzione (Italiano) |
Weblink |
|
Citazione |
"Mandatory disclosure policies are unnecessary, lead to tensions, and are counterproductive... It is impractical (if not impossible) to accurately distinguish between writing assistance and writing entire sentences/paragraphs from scratch." |
"Le politiche di divulgazione obbligatoria sono inutili, portano a tensioni e sono controproducenti... È impraticabile (se non impossibile) distinguere accuratamente tra l'assistenza alla scrittura e la scrittura di intere frasi/paragrafi da zero." |
3. La Minaccia ai testi “Non-Nativi” e i Bias dei Rilevatori
Questo punto chiave evidenzia come l'affidamento sui rilevatori di IA e le politiche di disclosure possano discriminare, poiché i testi non nativi sono spesso etichettati erroneamente come generati dalla macchina, a causa della loro sintassi più semplice.
|
Elemento |
Testo (Inglese Originale) |
Traduzione (Italiano) |
Weblink |
|
Citazione |
"Algorithmic approaches to automatically detect text (co-)produced using GenAI tools... can result in consistent biases against specific user groups (e.g., non-native English writers)." |
"Gli approcci algoritmici per rilevare automaticamente il testo (co-)prodotto utilizzando strumenti di IA generativa... possono comportare pregiudizi sistematici contro specifici gruppi di utenti (ad esempio, scrittori di inglese non madrelingua)." |
Detto ciò, è anche vero che, ad esempio, si sta facendo strada, da parte di riviste scientifiche (soprattutto mediche), l’uso di richiedere la “disclosure” agli autori che hanno usato la IA. Ma questo può essere comprensibile in un’ottica di sicurezza scientifica circa dati forniti che possano impattare la salute; o di dubbi circa la competenza dell’autore. Ma per sciogliere questo ultimo dubbio può bastare la consultazione del suo cv…
C’E’ OBBLIGO LEGALE DI DICHIARARE L’USO DELLA IA NELLA SCRITTURA DEI TESTI?
E’ invalso l’uso, in alcune (invero le più drastiche sul tema) case editrici anglosassoni, di mettere in guardia gli autori più o meno come segue: “Il materiale generato dall’intelligenza artificiale non è considerato essere “originale” da parte tua e quindi non è tutelabile dal diritto d’autore. Ti faccio presente che l’inclusione, nel manoscritto finale, di una quantità più che minima di testo generato dall’IA, costituirà una violazione della garanzia che fornisci all’editore.”.
Ma, per quanto mi risulta, queste raccomandazioni non corrispondono alla realtà giuridica.
Veniamo infatti alla formalità legale circa la proprietà intellettuale di testi “assistiti da IA”; essa può essere riassunta con: “il diritto d’autore è pienamente valido anche con “IA assistita”, a patto che “la paternità resti umana”. Preciso: la frase: “La paternità resta umana” va intesa intendendo che il contributo umano deve essere “sufficientemente creativo e controllato” per ottenere protezione. Il diritto d’autore protegge infatti la creazione intellettuale originale di una persona fisica. Finché l’autore decide cosa, come e perché, un suo testo viene generato o modificato, la titolarità resta sua. Negli Stati Uniti, lo U.S. Copyright Office (USCO) richiede formalmente che un’opera abbia un autore umano per poter essere registrata come diritto d’autore. (sic!) Nel marzo 2023, lo stesso U.S. Copyright Office aveva pubblicato la guida Registration Guidance: Works Containing Material Generated by Artificial Intelligence, che precisa: “L’uso di strumenti di intelligenza artificiale non esclude la protezione del diritto d’autore se il contributo umano è creativo, intenzionale e controllato.”
Anche la World Intellectual Property Organization (WIPO) ha dichiarato nel 2024 che le opere create con strumenti di IA possono essere coperte da copyright, se l’apporto umano è “creativo, intenzionale e controllato”. I sistemi di proprietà intellettuale “sono concepiti per proteggere la creazione umana, indipendentemente dagli strumenti tecnologici impiegati”.
Sul piano giuridico, quindi, la questione dovrebbe essere abbastanza chiara (negli USA): Il diritto d’autore protegge la creazione intellettuale originale di una persona fisica. Finché l’autore decide cosa, come e perché un testo viene generato o modificato, la titolarità rimane sua.
Nessuna autorità legale, né negli USA, ma neanche nel Regno Unito, ha quindi mai introdotto un obbligo di dichiarazione dell’uso della IA in fase di pubblicazione o registrazione. Ciò che conta non è lo strumento, ma la mente che lo guida. E, finché a scrivere è una coscienza, non un algoritmo, la responsabilità, il merito e il diritto restano umani.
Poi le case editrici scrivono quello che vogliono per tutelarsi. (ma difficilmente controllano…)
REGOLAMENTAZIONE UE:
E’ vero che nessuna normativa UE richiede di indicare se un autore ha usato strumenti digitali o di IA?
Non esattamente.
Come sappiamo, la UE è molto arretrata nello sviluppo di sistemi IA, ma molto avanzata nella loro regolamentazione.
L'AI Act e l'Obbligo di Trasparenza
Il Regolamento (UE) 2024/1689 (AI Act), pubblicato nel luglio 2024, introduce un obbligo di disclosure per i contenuti generati dall'IA, ma con limiti molto precisi.
Obbligo di Disclosure per i Testi (Art. 50 AI Act)
L'obbligo di dichiarare che un contenuto è generato o manipolato dall'IA si applica in modo diretto ai testi solo in un caso specifico:
Se il testo generato dall'IA è destinato a informare il pubblico su materie di interesse pubblico (ad esempio, articoli di stampa, comunicati istituzionali).
Esistono comunque due eccezioni cruciali che rendono l'obbligo nullo per l'autore individuale:
- Revisione Umana: L'obbligo non si applica se il testo è stato sottoposto a un processo di revisione umana o controllo editoriale (human review or editorial control), e una persona (l’autore) o ente (es. l’Editore) si assume la responsabilità editoriale della pubblicazione.
- Uso Non Ingannatore: L'obbligo non si applica se il testo è palesemente artistico, satirico, fittizio o analogo.
Quindi, se un autore usa l'IA per migliorare lo stile o fare brainstorming, ma il testo finale è revisionato e approvato da un editore o dall'autore stesso (che se ne assume la responsabilità), la disclosure non è obbligatoria per legge.
Quello che conta è la responsabilità finale dell’opera:; l’autore ne risponde e ne gode i diritti. La legge non protegge il mezzo, ma il risultato dell’ingegno.
FONTI
Le seguenti fonti stabiliscono il principio legale fondamentale per cui solo la creatività umana è protetta da copyright, rendendo l'autore l'unico soggetto responsabile, indipendentemente dallo strumento utilizzato.
|
Organizzazione |
Documento / Sezione Chiave |
Weblink |
|
U.S. Copyright Office (USCO) |
Registration Guidance: Works Containing Material Generated by Artificial Intelligence, Marzo 2023. |
|
|
U.S. Copyright Office (USCO) |
Copyright and Artificial Intelligence – Part 2: Copyrightability, Febbraio 2025. |
|
|
World Intellectual Property Organization (WIPO) |
Generative AI: Navigating Intellectual Property, Factsheet 2024. |
|
|
UK Intellectual Property Office (UK IPO) |
Copyright and Artificial Intelligence: Consultation Report, 2023–2024. |
https://www.gov.uk/government/consultations/copyright-and-artificial-intelligence |
|
Center for AI and Digital Policy (CAIDP) |
AI Transparency and Human Accountability, Policy Brief 2024. |
Articoli rilevanti sul merito
- Harvard Business Review (HBR) – How Generative AI Can Augment Human Creativity: Use it to promote divergent thinking (Vol. 101, No. 4, 2023)
→ https://hbr.org/2023/07/how-generative-ai-can-augment-human-creativity SSRN
Rilevanza: questo articolo mostra chiaramente che HBR affronta la questione dell’IA nella scrittura/creatività, e parla di “augmenting human creativity” più che “replacement”. - MIT Technology Review Insights – AI is turbocharging media production and democratizing creativity … (Feb 2025)
→ https://www.prnewswire.com/news-releases/ai-is-turbocharging-media-production-and-democratizing-creativity-but-challenges-persist-for-the-industry-reveals-new-mit-technology-review-insights-research-report-302374744.html PR Newswire
Rilevanza: conferma l’idea che l’IA è vista come partner o strumento nella creatività, più che come automatismo che annulla l’autore umano. - The Atlantic – Would Limitlessness Make Us Better Writers? (Aprile 2024)
→ https://www.theatlantic.com/books/archive/2024/04/ai-writing-novels-mortality-limits/678167/ The Atlantic
Rilevanza: discute il ruolo dell’IA nella scrittura creativa e le implicazioni per l’autore umano. - Articolo su disclosure IA – The ethics of disclosing the use of artificial intelligence tools (2023)
→ https://www.ncbi.nlm.nih.gov/pmc/articles/PMC11694804/ PMC
Rilevanza: studio accademico, non giornalistico, che esamina proprio la questione della dichiarazione d’uso dell’IA e gli effetti sulla percezione della qualità del testo. - Agenda Digitale – “Il futuro della scrittura: perché l’IA non sostituirà l’uomo e conviene imparare a usarla” (27 giugno 2024)
Rilevanza: L’articolo sostiene che la scrittura non verrà sostituita dall’IA, bensì che la cooperazione uomo-macchina sarà la cifra del futuro. In questo contesto si argomenta che l’intervento dell’IA va visto come strumento di supporto, non come creatore autonomo — il che indebolisce l’idea che ogni uso di IA debba essere dichiarato come se fosse “co-autore”.
- Fondazione Leonardo – “Come distinguere se un testo è scritto da intelligenza artificiale o da una mente umana” (12 novembre 2024)
→ https://www.fondazioneleonardo.com/stories/come-distinguere-testo-scritto-ai-umana
Rilevanza: L’articolo esplora i limiti pratici del “rivelare” che una parte del testo è stata generata da IA, evidenziando che la distinzione appare sempre più sfumata. Questo supporta la tesi che l’obbligo di disclosure potrebbe essere tecnicamente e praticamente problematico.

Clicca qui per ascoltare