Il 10 ottobre, a seguito della pubblicazione nella Gazzetta Ufficiale n. 223 del 25 settembre 2025, della Legge 23 settembre 2025, n. 132, è stato introdotto il reato di cui all’art. 612-quater c.p. “Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale“, ai sensi del quale: “Chiunque cagiona un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni. Il delitto è punibile a querela della persona offesa. Si procede tuttavia d’ufficio se il fatto è connesso con altro delitto per il quale si deve procedere d’ufficio ovvero se è commesso nei confronti di persona incapace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate “.
ll problema che si pone in seguito all’introduzione della nuova norma di legge è quindi quello di stabilire quando e come possano definirsi davvero genuini un’immagine o un video; il che riporta alla possibilità dell’applicazione dei cosiddetti watermark cioè una sorta di filigrana elettronica che, posta all’interno di un file, possa contrassegnarlo e stabilire che lo stesso è autentico.
I watermark, già utilizzati in relazione alle norme sul diritto d’autore sui marchi (articoli 102 quater e 102 quinquies della Legge 633/41), prevedevano che i titolari di diritti d’autore potessero apporre sulle opere di ingegno o sui materiali protetti dette indicazioni che costituiscono, sostanzialmente, delle informazioni che vanno a indicare in modo univoco l’opera o il materiale di interesse, in modo da identificare quale sia l’autore o il titolare di diritti sul medesimo. I watermark, peraltro, sono metadati non applicabili a tutti i media: si potranno applicare su un semplice testo, una poesia, un articolo di giornale o un atto giudiziario?
Ovviamente, con riferimento al settore dell’intelligenza artificiale, il watermark funzionerebbe in modo diametralmente opposto; ed infatti, mentre nel settore della proprietà intellettuale va a definire ciò che è autentico, nell’intelligenza artificiale, andrebbe a significare che un documento è stato realizzato in modo artificioso e che quindi il suddetto non è genuino, non è “umano”.
Il problema dell’affidabilità di questi marchi digitali, tuttavia, è stato più volte posto in discussione in quanto non pare sia attualmente possibile creare watermark davvero immuni da possibilità di modifica, sicché la loro apposizione potrebbe far passare per genuino qualcosa che non lo è e, viceversa, far passare per falso qualcosa che, invece, è genuino: la legge inciampa, illudendosi di poter precorrere i tempi, svelando un secolare ritardo programmatico.
L’uomo, quindi, per potersi difendere da un’intelligenza artificiale che sta di fatto prendendo sopravvento sulla “vera” intelligenza che egli possiede (o meglio che si sta estendendo a dismisura, fagocitandola, atteso che anch’essa non è altro che una mera estensione umana, come qualsiasi strumento creativo), non ha potuto che reintrodurre strumenti antichi per proteggersi dall’invadente quanto inarrestabile avanzare della fittizietà: ed infatti, nelle aziende non solo si svolgono esercitazioni periodiche per prevenire attacchi di fake, ma stanno iniziando ad essere introdotti veri e propri strumenti di protezione che fanno sorridere poiché riportano un po’ indietro nel tempo (all’epoca in cui, per aprirti un portone, ti chiedevano di fornire una parola segreta, quella che solo gli invitati alla festa potevano possedere).
Ad esempio, quando un soggetto all’interno dell’azienda riceve una chiamata che possa essere in qualche modo considerata creata artificiosamente, gli è stato insegnato di utilizzare dei termini chiave; termini che fanno spesso riferimento alla sua vita personale e che soltanto il reale interlocutore può conoscere.
Tutti gli strumenti di rilevamento automatico sono infatti strumenti che si basano su software di analisi sofisticati e quindi vanno ad identificare pause anomale, tonalità che non sono propriamente umane nel linguaggio ma non possono essere considerati in via definitiva efficaci per prevenire le insidie proprie dell’intelligenza artificiale: sono la cura della malattia che vorrebbero debellare, il vaccino che è anche batterio, l’ossimoro del controllo.
E’ quindi soltanto l’uomo che può veramente riconoscere ombre e persone e, con strumenti che l’intelligenza artificiale non conosce quali l’astuzia ed i sentimenti (sì, i sentimenti, perché quali termini chiave credete ricordi una persona? La password del computer o il soprannome che gli amici gli avevano affibbiato?), proteggersi da un’invasione ormai sempre più pressante del fake nella realtà.
Ormai non esiste nessun volto, nessuna voce e nessuna firma digitale che possano proteggerci dai cloni di noi stessi: per rimanere veramente individui non potremo che tornare ad essere umani; fallibili, forse, ma almeno non replicabili.
Anche in questo settore, oggetto di continua (e multiforme) evoluzione, Forence dà peso alle tue ragioni!
Laura Bellomi
