Lextel AI e l'uso consapevole dell'AI
Lextel AI fornisce strumenti per poter controllare il processo decisionale della macchina e la trasparenza degli algoritmi.
L’Avvocato non è uno spettatore passivo dei processi di intelligenza artificiale ma, al contrario, una figura attiva e determinante nel controllo delle scelte compiute dalla tecnologia che ha la facoltà di appurare che i diritti alla privacy siano rispettati e garantire che non vengano diffuse informazioni che ledano la riservatezza del mandato fiduciario.
In conformità al quadro normativo, Tinexta Visura, seguendo le linee guida del Gruppo societario cui appartiene, ha sottoposto Lextel AI ad un severo esame di tutte le componenti in gioco, analizzando aspetti relativi alla Sicurezza, alla tutela dei Dati Personali, alla Sostenibilità ambientale ed alla difesa dei diritti fondamentali dell’uomo.
Verifiche e test di conformità
Per verificare la conformità con la legge UE sull’IA, abbiamo tenuto conto delle principali disposizioni e requisiti della legislazione, prestando particolare attenzione ad aspetti critici come la trasparenza, la gestione dei dati, la sicurezza e la protezione dei diritti fondamentali.
La documentazione del sistema di Intelligenza Artificiale in questione è stata analizzata con attenzione, esaminando le politiche sulla privacy, le metodologie di raccolta e trattamento dei dati e le misure adottate per garantire equità e non discriminazione.
Sono stati effettuati una serie di test e controlli incrociati per verificare che tutte le funzioni del sistema rispettino le linee guida stabilite dalla norma vigente. Il risultato dell’analisi ha mostrato che il sistema in esame è conforme ai requisiti della norma UE sull’IA.

L'approccio basato sul rischio
La legge sull’IA affronta i potenziali rischi per la salute, la sicurezza e i diritti fondamentali dei cittadini e fornisce requisiti e obblighi chiari a sviluppatori e operatori per quanto riguarda gli usi specifici dell’IA, riducendo nel contempo gli oneri amministrativi e finanziari per le imprese.
La norma introduce un quadro uniforme in tutti i paesi dell’UE, basato su una definizione lungimirante di IA e su un approccio basato sul rischio.
Lextel AI si colloca sulla fascia di rischio specifico per la trasparenza, in quanto utilizza l’AI generativa per produrre conclusioni al termine di più o meno complesse ricerche giuridiche.
Rischio specifico per la trasparenza: i sistemi come i chatbot devono informare chiaramente gli utenti che stanno interagendo con una macchina, mentre alcuni contenuti generati dall’IA devono essere etichettati come tali.