{"id":20366,"date":"2025-10-06T09:44:32","date_gmt":"2025-10-06T07:44:32","guid":{"rendered":"https:\/\/www.thron.com\/?p=20366"},"modified":"2025-11-24T17:21:21","modified_gmt":"2025-11-24T16:21:21","slug":"ai-act","status":"publish","type":"post","link":"https:\/\/www.thron.com\/it\/blog\/approfondimenti\/ai-act\/","title":{"rendered":"AI Act: guida a etichette, log e governance"},"content":{"rendered":"\n<p>L\u2019<strong>AI Act<\/strong> \u00e8 la <a href=\"https:\/\/www.europarl.europa.eu\/topics\/en\/article\/20230601STO93804\/eu-ai-act-first-regulation-on-artificial-intelligence\/\" target=\"_blank\" rel=\"noreferrer noopener\">legge europea<\/a> che regola l\u2019uso dell\u2019intelligenza artificiale per livelli di rischio. Stabilisce cosa \u00e8 vietato, quando servono requisiti pi\u00f9 stringenti e introduce obblighi di <strong>trasparenza<\/strong> per i contenuti generati o modificati dall\u2019IA. Riguarda in primo luogo chi costruisce, integra e governa piattaforme e processi digitali in azienda: team <strong>IT<\/strong>, <strong>CIO<\/strong> e responsabili di <strong>data &amp; content governance<\/strong>. Per loro, gli aspetti operativi pi\u00f9 importanti sono la <strong>tracciabilit\u00e0<\/strong> dei contenuti generati dall&#8217;intelligenza artificiale, la qualit\u00e0 dei <strong>metadati<\/strong> e un sistema di controllo leggibile che documenti come l&#8217;AI viene utilizzata.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\" style=\"margin-bottom:var(--wp--preset--spacing--30)\"><img loading=\"lazy\" decoding=\"async\" width=\"1290\" height=\"587\" src=\"https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/PROVA-1290x587.webp\" alt=\"Bubble AI che interseca tre concetti fondamentali per IT Team, CIO e Data&amp;Content Governance Team: tracciabilit\u00e0, metadati e sistemi di controllo.\" class=\"wp-image-20431\" srcset=\"https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/PROVA-1290x587.webp 1290w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/PROVA-650x296.webp 650w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/PROVA-768x350.webp 768w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/PROVA-1536x699.webp 1536w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/PROVA-2048x932.webp 2048w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/PROVA-350x159.webp 350w\" sizes=\"auto, (max-width: 1290px) 100vw, 1290px\" \/><\/figure>\n\n\n\n<p><strong>La legge \u00e8 gi\u00e0 in vigore, ma adesso entrano in gioco le regole pi\u00f9 operative<\/strong>: informare ed etichettare i contenuti generati dall\u2019AI, rendere tracciabile la loro provenienza con metadati coerenti, scegliere in modo consapevole i modelli di uso generale (GPAI) e e mantenere registri delle attivit\u00e0 (log) che dimostrino come l&#8217;AI opera nel quotidiano.<\/p>\n\n\n\n<p>In questo articolo trovi, in modo pratico: cosa cambia per <strong>etichette e watermarking<\/strong> dei contenuti creati dall\u2019AI, quali <strong>metadati<\/strong> e <strong>log<\/strong> servono per dimostrare la <strong>provenienza<\/strong> e l\u2019<strong>audit trail<\/strong>, come impostare <strong>monitoraggio<\/strong> e <strong>controllo umano<\/strong>, cosa prevede l\u2019<strong>AI act italiano<\/strong> e quali criteri seguire per scegliere i modelli di intelligenza artificiale pi\u00f9 adatti alla tua azienda.<\/p>\n\n\n\n<div class=\"wp-block-rank-math-toc-block\" id=\"rank-math-toc\"><h2>Indice<\/h2><nav><ul><li class=\"\"><a href=\"#Calendario-e-scadenze-applicative-dell-EU-AI-Act\">Calendario e scadenze applicative dell\u2019EU AI Act<\/a><\/li><li class=\"\"><a href=\"#etichettare-i-contenuti-generati-dallintelligenza-artificiale\">Etichettare i contenuti generati dall&#8217;intelligenza artificiale<\/a><\/li><li class=\"\"><a href=\"#thron-per-l-accessibilita\">AI Act italiano: cosa prevede la legge nazionale?<\/a><\/li><li class=\"\"><a href=\"#i-vantaggi-per-l-eaa-di-ununica-soluzione-ai-saa-s\">European AI Act e metadati: provenienza e qualit\u00e0 dei dati<\/a><\/li><li class=\"\"><a href=\"#i-vantaggi-per-l-eaa-di-ununica-soluzione-ai-saa-s-1\">Come progettare un audit trail leggibile<\/a><\/li><li class=\"\"><a href=\"#i-vantaggi-per-l-eaa-di-ununica-soluzione-ai-saa-s-1-1\">General-Purpose AI (GPAI): linee guida per la selezione<\/a><\/li><li class=\"\"><a href=\"#i-vantaggi-per-l-eaa-di-ununica-soluzione-ai-saa-s-1-1-1\">Domande frequenti (FAQ)<\/a><\/li><\/ul><\/nav><\/div>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"Calendario-e-scadenze-applicative-dell-EU-AI-Act\"><strong><strong><strong>Calendario e scadenze applicative dell\u2019EU AI Act<\/strong><\/strong><\/strong><\/h2>\n\n\n\n<p>L&#8217;<strong>AI Act europeo <\/strong>parte da un&#8217;idea semplice: <strong>non tutte le tecnologie di intelligenza artificiale sono uguali<\/strong>. Ad esempio, un chatbot per il servizio clienti non pu\u00f2 avere le stesse regole di un sistema che valuta i curriculum per le assunzioni. Per questo la normativa divide i sistemi di IA in <a href=\"https:\/\/digital-strategy.ec.europa.eu\/en\/policies\/regulatory-framework-ai\/\" target=\"_blank\" rel=\"noreferrer noopener\">categorie di rischio<\/a> crescente. Ogni categoria ha obblighi specifici e, soprattutto, date precise entro cui essere conformi. <strong>La legge si applica a chi usa<\/strong> questi sistemi nelle proprie aziende, <strong>non solo ai fornitori delle tecnologie<\/strong>, quindi sei tu responsabile di rispettare le regole.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1290\" height=\"455\" src=\"https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/Infografica_rischi-1290x455.webp\" alt=\"Schema con cerchi arancioni che rappresentano i livelli di rischio AI: inaccettabile, alto, limitato, minimo e GPAI, con relative scadenze.\" class=\"wp-image-20433\" srcset=\"https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/Infografica_rischi-1290x455.webp 1290w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/Infografica_rischi-650x229.webp 650w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/Infografica_rischi-768x271.webp 768w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/Infografica_rischi-1536x542.webp 1536w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/Infografica_rischi-2048x722.webp 2048w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/Infografica_rischi-350x123.webp 350w\" sizes=\"auto, (max-width: 1290px) 100vw, 1290px\" \/><\/figure>\n\n\n\n<p>Ecco il calendario completo con i relativi ambiti d&#8217;uso:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li style=\"margin-top:0;margin-right:0;margin-bottom:0;margin-left:0\"><strong>Rischio inaccettabile: divieti attivi dal 2 febbraio 2025.<\/strong><br>Parliamo di usi che ledono diritti e libert\u00e0, come manipolazione subliminale o ingannevole, social scoring di persone e raccolta massiva non mirata di immagini facciali per creare database non autorizzati.<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong><strong>Rischio alto: requisiti operativi dal 2 agosto 2026.<\/strong><\/strong><br>Rientrano qui i sistemi usati in occupazione e HR (screening dei CV), istruzione (valutazione studenti), biometria, migrazione e giustizia. Servono gestione del rischio, qualit\u00e0 dei dati, documentazione tecnica, log degli eventi, supervisione umana. Se il sistema \u00e8 incorporato in prodotti regolati, transizione estesa fino al <strong>2 agosto 2027<\/strong>.<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong><strong>Rischio limitato: trasparenza obbligatoria dal 2 agosto 2026.<\/strong><\/strong><br>Se l&#8217;IA crea o modifica sostanzialmente contenuti rendendoli potenzialmente fuorvianti, va segnalato. Un semplice ritocco fotografico, come la rimozione di uno sfondo, non richiede etichettature, ma se vengono generati contenuti sintetici serve trasparenza, e i metadati devono riportarne l\u2019origine. I chatbot devono rendere evidente che sono sistemi di IA, non persone reali.<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong><strong>Rischio minimo<\/strong><\/strong>: nessun obbligo specifico aggiuntivo e nessuna scadenza dedicata, oltre alla normativa generale applicabile. Qui rientrano la maggior parte delle applicazioni correnti, come spam filter o funzioni IA nei videogiochi.<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Modelli di uso generale (GPAI): obblighi di trasparenza dal<\/strong> <strong>2 agosto 2025<\/strong>.<br>I modelli gi\u00e0 sul mercato prima di questa data devono adeguarsi entro il <strong>2 agosto 2027<\/strong>. Non sono un \u201clivello di rischio\u201d, ma hanno regole dedicate perch\u00e9 alimentano tanti casi d\u2019uso.<\/li>\n<\/ul>\n\n\n\n<p>La vera sfida non \u00e8 solo rispettare le scadenze dell&#8217;AI Act, <strong>ma costruire una governance dell&#8217;intelligenza artificiale che rafforzi la fiducia dei clienti<\/strong>. Quando un&#8217;azienda deve etichettare le proprie immagini promozionali o i contenuti del sito come &#8220;generati artificialmente&#8221;, <strong>rischia di comunicare una percezione di minore autenticit\u00e0 e cura<\/strong>. Chi gestisce contenuti digitali e dati ha l&#8217;opportunit\u00e0 di <strong>anticipare questi scenari<\/strong>, organizzando fin da subito processi, responsabilit\u00e0 e controlli strategici che evitino compromessi tra compliance e reputazione aziendale, <strong>trasformando l\u2019obbligo normativo in vantaggio competitivo<\/strong>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"etichettare-i-contenuti-generati-dallintelligenza-artificiale\"><strong>Etichettare i contenuti generati dall&#8217;intelligenza artificia<\/strong>le<\/h2>\n\n\n\n<p>L\u2019AI Act introduce <a href=\"https:\/\/artificialintelligenceact.eu\/article\/50\/\" target=\"_blank\" rel=\"noreferrer noopener\">obblighi di <strong>trasparenza<\/strong> e <strong>marcatura<\/strong><\/a>: gli output devono essere <strong>contrassegnati<\/strong> in modo chiaro, che siano testi, immagini, audio o video.<\/p>\n\n\n\n<p>I <strong>deepfake<\/strong> (contenuti dove l&#8217;IA sostituisce il volto o la voce di una persona con quelli di un&#8217;altra) devono essere <strong>etichettati<\/strong> e, quando tecnicamente possibile, <a href=\"https:\/\/www.europarl.europa.eu\/RegData\/etudes\/BRIE\/2023\/757583\/EPRS_BRI%282023%29757583_EN.pdf\" target=\"_blank\" rel=\"noreferrer noopener\">dotati di una <strong>marca digitale<\/strong><\/a> (watermark) che le macchine possano riconoscere. Questo aiuta a tracciare il contenuto lungo tutto il suo ciclo di vita, dalla creazione alla distribuzione.<\/p>\n\n\n\n<p>Per accompagnare l\u2019adozione, la Commissione ha pubblicato il <a href=\"https:\/\/digital-strategy.ec.europa.eu\/en\/policies\/contents-code-gpai\" target=\"_blank\" rel=\"noreferrer noopener\"><strong>General-Purpose AI Code of Practice<\/strong><\/a> (10 luglio 2025) e <a href=\"https:\/\/digital-strategy.ec.europa.eu\/en\/policies\/guidelines-gpai-providers\" target=\"_blank\" rel=\"noreferrer noopener\"><strong>Linee guida<\/strong><\/a> per chiarire quando e come si applicano gli obblighi ai fornitori di GPAI (31 luglio 2025). Il Codice non sostituisce la legge, ma \u00e8 uno <strong>strumento volontario<\/strong> per dimostrare conformit\u00e0; le linee guida precisano scopo e aspettative operative.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"thron-per-l-accessibilita\"><strong>AI Act italiano: cosa prevede la legge nazionale?<\/strong><\/h2>\n\n\n\n<p>A <strong>settembre 2025<\/strong> <a href=\"https:\/\/www.reuters.com\/technology\/italy-enacts-ai-law-covering-privacy-oversight-child-access-2025-09-17\/\" target=\"_blank\" rel=\"noreferrer noopener\">l\u2019Italia ha approvato una legge nazionale<\/a> che <strong>affianca<\/strong> l\u2019AI Act con misure di <strong>coordinamento<\/strong> e <strong>vigilanza<\/strong>, incaricando l\u2019<strong>Agenzia per l\u2019Italia Digitale (AgID)<\/strong> e l\u2019<strong>Agenzia per la Cybersicurezza Nazionale (ACN)<\/strong> dell\u2019attuazione della normativa. \u00c8 previsto anche un <strong>fondo<\/strong> da 1 miliardo di euro per sostenere AI e cybersecurity nel Paese. Per le imprese, questo si traduce in <strong>referenti chiari<\/strong>, controlli rafforzati e maggiore attenzione a <a href=\"https:\/\/www.agendadigitale.eu\/cultura-digitale\/ai-act-ci-siamo-ecco-come-plasmera-il-futuro-dellintelligenza-artificiale-in-europa\/\" target=\"_blank\" rel=\"noreferrer noopener\"><strong>trasparenza<\/strong>, <strong>tracciabilit\u00e0<\/strong> e <strong>supervisione umana<\/strong><\/a> nei settori sensibili.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1290\" height=\"587\" src=\"https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/Infografica_1ML-1290x587.webp\" alt=\"Italia: investimento di 1ML di euro in intelligenza artificiale e cybersecurity.\" class=\"wp-image-20435\" srcset=\"https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/Infografica_1ML-1290x587.webp 1290w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/Infografica_1ML-650x296.webp 650w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/Infografica_1ML-768x350.webp 768w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/Infografica_1ML-1536x699.webp 1536w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/Infografica_1ML-2048x932.webp 2048w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/Infografica_1ML-350x159.webp 350w\" sizes=\"auto, (max-width: 1290px) 100vw, 1290px\" \/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"i-vantaggi-per-l-eaa-di-ununica-soluzione-ai-saa-s\"><strong><strong><strong>European AI Act e metadati: provenienza e qualit\u00e0 dei dati<\/strong><\/strong><\/strong><\/h2>\n\n\n\n<p>Nei casi d\u2019uso pi\u00f9 sensibili, il regolamento richiede <a href=\"https:\/\/artificialintelligenceact.eu\/article\/12\/\" target=\"_blank\" rel=\"noreferrer noopener\"><strong>documentazione<\/strong> e <strong>registrazione degli eventi<\/strong><\/a>,<strong> <\/strong>ossia tracce operative che un sistema di IA registra lungo il suo ciclo di vita, come l\u2019avvio o la conclusione di una esecuzione. Senza <strong>metadati omogenei<\/strong> su <strong>origine<\/strong>, <strong>trasformazioni<\/strong> e <strong>versioni<\/strong> dei contenuti, diventa difficile garantire <strong>accountability<\/strong>, indagare incidenti o risalire all\u2019origine dei dati. La <strong>provenienza<\/strong> non \u00e8 un&#8217;etichetta aggiuntiva, ma un requisito fondamentale: i contenuti devono includere le informazioni necessarie fin dal momento della creazione, cos\u00ec che la trasparenza sia nativa e non aggiunta successivamente.<\/p>\n\n\n\n<p>In questo contesto, <a href=\"https:\/\/www.thron.com\/it\/blog\/prodotto\/ambra-ai\/\" target=\"_blank\" rel=\"noreferrer noopener\"><strong>AMBRA AI<\/strong><\/a>, l\u2019intelligenza artificiale nativa di THRON Platform, aiuta a semplificare<strong> l\u2019adeguamento all\u2019AI Act<\/strong> e a <strong>recuperare tempo automatizzando i passaggi ripetitivi<\/strong> fin dal primo caricamento in piattaforma. THRON Platform fornisce la struttura con campi e template, tassonomie coerenti e versioning centralizzati. AMBRA AI lavora dentro questa struttura:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Genera testi coerenti<\/strong> nelle lingue necessarie, come titoli e descrizioni, rispettando stile e linee guida redazionali.<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Propone tag allineati<\/strong> agli attributi esistenti, identificando soggetti e contesti nei contenuti tramite il riconoscimento visivo.<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Crea sottotitoli automaticamente<\/strong> per migliorare accessibilit\u00e0 e ricercabilit\u00e0 degli asset.<\/li>\n<\/ul>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1290\" height=\"587\" src=\"https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/grafica_AMBRA-AI-1-1290x587.webp\" alt=\"Schermata con esempio di scheda prodotto e pulsante \u201cGenerate with AMBRA AI\u201d per generare una descrizione.\" class=\"wp-image-20442\" srcset=\"https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/grafica_AMBRA-AI-1-1290x587.webp 1290w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/grafica_AMBRA-AI-1-650x296.webp 650w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/grafica_AMBRA-AI-1-768x350.webp 768w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/grafica_AMBRA-AI-1-1536x699.webp 1536w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/grafica_AMBRA-AI-1-2048x932.webp 2048w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/grafica_AMBRA-AI-1-350x159.webp 350w\" sizes=\"auto, (max-width: 1290px) 100vw, 1290px\" \/><\/figure>\n\n\n\n<p>Il risultato \u00e8 <strong>meno lavoro ripetitivo<\/strong>, <strong>meno errori<\/strong> e una <strong>pubblicazione pi\u00f9 veloce<\/strong>. Cos\u00ec ogni contenuto entra in piattaforma con un set coerente di metadati, pronto ad accogliere etichette e avvertenze per i contenuti sintetici e a essere tracciato lungo tutto il ciclo di vita. Questo <strong>riduce lavorazioni manuali<\/strong>, <strong>rende i contenuti pi\u00f9 rintracciabili<\/strong> e <strong>facilita la conformit\u00e0<\/strong>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"i-vantaggi-per-l-eaa-di-ununica-soluzione-ai-saa-s-1\"><strong><strong><strong><strong>Come progettare un audit trail leggibile<\/strong><\/strong><\/strong><\/strong><\/h2>\n\n\n\n<p>Alla qualit\u00e0 dei metadati va affiancata la <strong>tracciabilit\u00e0 operativa<\/strong>. La legge prevede <strong>registri degli eventi (log)<\/strong> e <a href=\"https:\/\/artificialintelligenceact.eu\/article\/72\/\" target=\"_blank\" rel=\"noreferrer noopener\"><strong>monitoraggio continuo<\/strong><\/a> per i sistemi ad alto rischio; chiede inoltre ai <strong>deployer<\/strong> di conservare i log \u201cper un periodo appropriato\u201d per indagini, audit e miglioramento continuo. In sostanza: senza uno <strong>storico verificabile<\/strong> delle esecuzioni, la conformit\u00e0 resta solo teorica.<\/p>\n\n\n\n<p>Il nuovo <strong>Automation Studio<\/strong> di THRON offre un centro di controllo unico per disegnare, attivare e <strong>monitorare<\/strong> le automazioni. Visualizza le automazioni disponibili con <strong>stato<\/strong> e <strong>descrizione<\/strong>, centralizza la <strong>configurazione<\/strong>, mantiene lo <strong>storico delle esecuzioni<\/strong> con <strong>log consultabili<\/strong>, rispetta i <strong>permessi per ruolo<\/strong> e invia <strong>notifiche<\/strong> in caso di errore, producendo un <strong>audit trail<\/strong> leggibile per controlli interni ed esterni.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"i-vantaggi-per-l-eaa-di-ununica-soluzione-ai-saa-s-1-1\"><strong><strong><strong><strong><strong>General-Purpose AI (GPAI): linee guida per la selezione<\/strong><\/strong><\/strong><\/strong><\/strong><\/h2>\n\n\n\n<p>Per chi integra modelli di uso generale (<strong>GPAI<\/strong>), la Commissione Europea ha pubblicato un <strong>Codice di Condotta<\/strong> <a href=\"https:\/\/digital-strategy.ec.europa.eu\/en\/policies\/ai-code-practice\" target=\"_blank\" rel=\"noreferrer noopener\">volontario<\/a> e <strong>Linee guida<\/strong> che spiegano <strong>cosa<\/strong> documentare e <strong>come<\/strong> farlo: trasparenza sui dati di addestramento, rispetto del copyright, gestione dei rischi sistemici.<\/p>\n\n\n\n<p>Il Codice include anche modelli pratici, come il <strong>Model Documentation Form<\/strong>, utili nelle valutazioni dei fornitori. Le regole sui GPAI sono entrate in vigore dal <strong>2 agosto 2025<\/strong>: inserire questi requisiti in RFP e contratti riduce incertezze e tempi di adeguamento.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"i-vantaggi-per-l-eaa-di-ununica-soluzione-ai-saa-s-1-1-1\">Domande frequenti (<strong><strong><strong><strong><strong><strong>FAQ<\/strong><\/strong><\/strong><\/strong><\/strong><\/strong>)<\/h2>\n\n\n\n<figure class=\"wp-block-image size-large\" style=\"margin-bottom:var(--wp--preset--spacing--40)\"><img loading=\"lazy\" decoding=\"async\" width=\"1290\" height=\"294\" src=\"https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/banner_FAQ-1290x294.webp\" alt=\"Sfondo con grandi punti interrogativi arancioni e bianchi su base blu scuro.\" class=\"wp-image-20439\" srcset=\"https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/banner_FAQ-1290x294.webp 1290w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/banner_FAQ-650x148.webp 650w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/banner_FAQ-768x175.webp 768w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/banner_FAQ-1536x350.webp 1536w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/banner_FAQ-2048x467.webp 2048w, https:\/\/www.thron.com\/wp-content\/uploads\/2025\/10\/banner_FAQ-350x80.webp 350w\" sizes=\"auto, (max-width: 1290px) 100vw, 1290px\" \/><\/figure>\n\n\n\n<p><strong>Cos\u2019\u00e8 l\u2019\u201cEU AI Act\u201d in poche parole?<\/strong><br>\u00c8 la legge europea che regola l\u2019IA dividendola per livelli di rischio: prevede trasparenza, controlli per i casi pi\u00f9 delicati e regole specifiche per i GPAI. \u00c8 gi\u00e0 in vigore, con applicazione scaglionata tra 2025 e 2027.<\/p>\n\n\n\n<p><strong>Quando devo etichettare un contenuto come generato dall\u2019IA?<\/strong><br>Quando un output \u00e8 sintetico (cio\u00e8 creato direttamente da un\u2019Intelligenza Artificiale) o manipolato e pu\u00f2 sembrare reale. Serve un\u2019etichetta chiara e, dove tecnicamente fattibile, un watermark leggibile da software e piattaforme. Prevedere questi passaggi nei metadati riduce i rischi di errore.<\/p>\n\n\n\n<p><strong>Se uso un modello \u201cgeneral-purpose\u201d (GPAI), cosa devo fare oggi?<\/strong><br>Garantire documentazione, istruzioni d\u2019uso, conformit\u00e0 copyright e pubblicare una sintesi delle fonti di training. Se il modello supera determinate soglie di capacit\u00e0 (rischio sistemico), servono misure aggiuntive di valutazione e mitigazione del rischio.<\/p>\n\n\n\n<p><strong>I log sono obbligatori anche per chi \u201cdeploya\u201d il sistema?<\/strong><br>S\u00ec: i deployer devono mantenere i log generati dai sistemi ad alto rischio per un periodo appropriato, supportando tracciabilit\u00e0 e investigazioni. I fornitori devono predisporre sistemi che registrino automaticamente gli eventi.<\/p>\n\n\n\n<p><strong>Cosa comporta l\u2019\u201cAI Act italiano\u201d per le aziende?<\/strong><br>Stabilisce autorit\u00e0 di coordinamento (AgID, ACN), introduce tutele e sanzioni per abusi come i deepfake dannosi e rafforza la richiesta di trasparenza e supervisione umana. Per le imprese, significa processi tracciabili e referenti chiari.<\/p>\n\n\n\n<p><strong>Che relazione c\u2019\u00e8 tra AI act e \u201cAI act italiano\u201d?<\/strong><br>Il quadro europeo \u00e8 direttamente applicabile, mentre quello italiano si concentra su coordinamento, vigilanza e sanzioni specifiche, allineando autorit\u00e0 e responsabilit\u00e0. Per le aziende, cambia l\u2019operativit\u00e0 dei controlli e la collaborazione con i regolatori.<\/p>\n\n\n\n<p><strong>Come mi aiutano metadati e automazioni \u201cin regola\u201d?<\/strong><br>Metadati coerenti e un audit trail leggibile sono la base probatoria della conformit\u00e0; una console con log e storico esecuzioni rende i processi dimostrabili senza rallentare l\u2019operativit\u00e0.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>AI Act: etichette, metadati e audit trail. Scopri come trasformare i nuovi obblighi europei in pratiche concrete con processi tracciabili.<\/p>\n","protected":false},"author":14,"featured_media":20450,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[25],"tags":[],"class_list":["post-20366","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-approfondimenti"],"acf":[],"_links":{"self":[{"href":"https:\/\/www.thron.com\/it\/wp-json\/wp\/v2\/posts\/20366","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.thron.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.thron.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.thron.com\/it\/wp-json\/wp\/v2\/users\/14"}],"replies":[{"embeddable":true,"href":"https:\/\/www.thron.com\/it\/wp-json\/wp\/v2\/comments?post=20366"}],"version-history":[{"count":31,"href":"https:\/\/www.thron.com\/it\/wp-json\/wp\/v2\/posts\/20366\/revisions"}],"predecessor-version":[{"id":22391,"href":"https:\/\/www.thron.com\/it\/wp-json\/wp\/v2\/posts\/20366\/revisions\/22391"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.thron.com\/it\/wp-json\/wp\/v2\/media\/20450"}],"wp:attachment":[{"href":"https:\/\/www.thron.com\/it\/wp-json\/wp\/v2\/media?parent=20366"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.thron.com\/it\/wp-json\/wp\/v2\/categories?post=20366"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.thron.com\/it\/wp-json\/wp\/v2\/tags?post=20366"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}