L'uso dell'IA in LCG
L’intelligenza artificiale può essere un valido strumento di supporto per aumentare l’efficienza, migliorare la qualità dei contenuti, facilitare la comunicazione e rendere più agili alcune attività ripetitive o di preparazione.
Come per ogni strumento con potenzialità da calibrare, il suo utilizzo richiede piena conoscenza del funzionamento, responsabilità e consapevolezza.
Questa Policy ha lo scopo di definire le modalità di utilizzo dell’AI all’interno dello Studio, indicando quali attività non sono consentite, cosa è ammesso, cosa è sconsigliato e quali principi devono sempre guidarne l’utilizzo.
Punti cardine
-
Consapevolezza
Siamo consapevoli che l’IA, pur essendo una tecnologia avanzata, presenta limiti intrinseci: può generare contenuti errati, imprecisi o non aggiornati alle novità normative, giurisprudenziali e dottrinali più recenti, e - talvolta - produrre informazioni generiche o frutto di "allucinazioni".
Pertanto, nessuna informazione generata dall’IA può essere accettata come veritiera senza un’approfondita verifica.
Pertanto, nessuna informazione generata dall’IA può essere accettata come veritiera senza un’approfondita verifica.
-
Strumenti autorizzati
Possono essere utilizzati gli strumenti forniti e autorizzati dallo Studio. Questi strumenti sono stati verificati per sicurezza, affidabilità e compliance normativa, ivi inclusa la normativa in materia di protezione dei dati personali.
Qualsiasi dato, documento o informazione resta strettamente confidenziale. I dati non vengono condivisi con terze parti né utilizzati per l'addestramento dei modelli di intelligenza artificiale esterni.
Qualsiasi dato, documento o informazione resta strettamente confidenziale. I dati non vengono condivisi con terze parti né utilizzati per l'addestramento dei modelli di intelligenza artificiale esterni.
-
Spirito critico
L’IA deve essere utilizzata come supporto al pensiero critico, mai in sostituzione di esso.
Manteniamo sempre una valutazione personale e autonoma, mettendo in discussione le risposte generate e utilizzando l'IA per stimolare e arricchire il nostro ragionamento, non per sostituirlo.
Manteniamo sempre una valutazione personale e autonoma, mettendo in discussione le risposte generate e utilizzando l'IA per stimolare e arricchire il nostro ragionamento, non per sostituirlo.
-
Verifica dei contenuti
Ogni contenuto prodotto dall’IA deve essere verificato e validato attentamente.
Dati, informazioni e riferimenti proposti devono essere sistematicamente controllati. Nessuna risposta può essere considerate giuste e definitive senza un’approfondita revisione umana. La responsabilità finale è sempre del professionista, non dell’intelligenza artificiale.
Dati, informazioni e riferimenti proposti devono essere sistematicamente controllati. Nessuna risposta può essere considerate giuste e definitive senza un’approfondita revisione umana. La responsabilità finale è sempre del professionista, non dell’intelligenza artificiale.
Impegno etico e deontologico
È fondamentale che ogni professionista mantenga un ruolo attivo e critico nell'utilizzo dell'IA, garantendo che le decisioni finali siano sempre frutto del proprio giudizio e della propria responsabilità.
L'intelligenza artificiale rappresenta un'opportunità significativa per migliorare l'efficienza e la qualità del lavoro legale. Tuttavia, come sottolineato nella Carta dei Principi per l'uso consapevole dei sistemi di intelligenza artificiale in ambito forense dell'Ordine degli Avvocati di Milano, "la responsabilità decisionale deve restare sempre nelle mani del professionista. L’IA può assistere, ma mai sostituirsi all’avvocato, la cui competenza resta il fulcro della consulenza legale".
Per approfondire ulteriormente le linee guida e i principi etici sull'uso dell'IA in ambito forense, si rimanda alla lettura integrale della Carta dei Principi disponibile sul sito ufficiale dell'Ordine degli Avvocati di Milano.