🟨"Il RISE Act: Innovazione e Responsabilità nell'Intelligenza Artificiale"

Giorno: 23 giugno 2025 | Ora: 16:43 La Senatrice Cynthia Lummis ha presentato il RISE Act del 2025 per proteggere gli sviluppatori di intelligenza artificiale da cause legali. Sebbene accolto positivamente, il progetto è criticato per favorire le aziende di IA e non affrontare adeguatamente la responsabilità in scenari senza intermediari. È necessaria una normativa chiara, soprattutto in ambito sanitario. Il RISE Act, se approvato, entrerà in vigore il 1° dicembre 2025, ma potrebbe richiedere modifiche per garantire trasparenza e gestione del rischio.
La legge sulla responsabilità civile non è spesso un argomento di conversazione nei pranzi, ma ha un grande impatto sull'evoluzione delle tecnologie emergenti come l'intelligenza artificiale. Se le norme sulla responsabilità non sono ben delineate, possono ostacolare l'innovazione futura esponendo gli sviluppatori di IA a rischi legali non necessari. Questo è il punto sostenuto dalla Senatrice americana Cynthia Lummis, che ha recentemente presentato il Responsible Innovation and Safe Expertise (RISE) Act del 2025.
Questo progetto di legge mira a proteggere gli sviluppatori di IA da cause legali, consentendo a professionisti come medici e avvocati di comprendere le capacità e i limiti dell'IA prima di farvi affidamento. Le reazioni iniziali al RISE Act sono state per lo più positive, anche se alcuni hanno criticato la sua portata limitata e le carenze riguardo agli standard di trasparenza.
Secondo alcuni, il RISE Act risulta sbilanciato a favore degli sviluppatori di IA, poiché, sebbene richieda la divulgazione pubblica delle specifiche dei modelli, pone gran parte del rischio sui professionisti che utilizzano tali strumenti. Ci sono state anche critiche che definiscono il progetto di legge come un regalo per le aziende di IA, poiché potrebbero essere esentate da responsabilità in caso di fallimenti dei loro strumenti.
Il RISE Act si concentra principalmente su scenari in cui i professionisti utilizzano strumenti di IA con i loro clienti o pazienti. Tuttavia, non affronta casi in cui non ci sia un intermediario professionale, come nel caso di chatbot utilizzati da minori. Questo solleva interrogativi su chi debba essere ritenuto responsabile in situazioni tragiche, come nel recente caso in Florida in cui un adolescente si è tolto la vita dopo aver interagito con un chatbot.
È necessaria una chiara normativa per garantire che sviluppatori e utenti comprendano i loro obblighi legali. Tuttavia, le complessità dell'IA rendono difficile stabilire standard chiari, soprattutto in ambito sanitario, dove le decisioni possono avere conseguenze gravi. Alcuni esperti suggeriscono che la legge dell'UE potrebbe adottare un approccio basato sui diritti, enfatizzando l'empowerment degli utenti, in contrapposizione a un approccio basato sul rischio come quello del RISE Act.
In conclusione, il RISE Act potrebbe necessitare di modifiche prima di essere approvato. Se considerato come un punto di partenza, potrebbe portare a una regolamentazione equilibrata, ma è fondamentale che vengano inclusi requisiti reali di trasparenza e obblighi di gestione del rischio. Se il progetto di legge dovesse essere approvato, entrerebbe in vigore il 1° dicembre 2025.