Company name: Dynamic Solutions s.r.l.
Address: VIA USODIMARE 3 - 37138 - VERONA (VR) - Italy

E-Mail: [email protected]

Entrata in vigore della legge europea sull’IA: ecco cosa cambia per aziende e cittadini

La nuova regolamentazione europea sull'intelligenza artificiale mira a garantire affidabilità e rispetto dei diritti fondamentali. Scopri come influenzerà le aziende e la società.
  • La legislazione prevede che l'85% delle aziende di IA rientri nella categoria a rischio minimo, con regolamentazione minima.
  • Dal febbraio 2025, saranno vietate pratiche come il riconoscimento facciale tramite scraping di Internet.
  • La Commissione Europea investirà 1 miliardo di euro nel 2024 e 20 miliardi di euro entro il 2030 per supportare l'IA.

Oggi, 1 agosto 2024, segna un momento storico per l’Unione Europea con l’entrata in vigore della prima regolamentazione completa sull’intelligenza artificiale (IA). Questa legislazione, concepita dalla Commissione Europea, mira a garantire che l’IA sviluppata nell’UE sia affidabile e rispetti i diritti fondamentali dei cittadini. La vicepresidente dell’esecutivo comunitario, Margrethe Vestager, ha sottolineato come l’approccio europeo alla tecnologia metta i cittadini al primo posto, garantendo che i loro diritti siano preservati. Il commissario al mercato interno, Thierry Breton, ha descritto questa giornata come una pietra miliare nella leadership europea per un’IA affidabile.

La legislazione sull’IA rappresenta un passo importante per garantire che l’adozione della tecnologia IA sia conforme alle norme dell’UE. Le norme della legislazione entreranno in vigore il 2 agosto 2026, con divieti sui sistemi di intelligenza artificiale a rischio inaccettabile che entreranno in vigore dopo sei mesi, e le regole per i modelli di intelligenza artificiale per scopi generali che entreranno in vigore dopo 12 mesi. Durante il periodo transitorio prima della piena attuazione, la Commissione ha lanciato il Patto AI, invitando gli sviluppatori di IA ad adottare volontariamente gli obblighi chiave della legislazione prima delle scadenze legali.

Impatto sulle aziende e sulla società

La legge europea sull’uso dell’intelligenza artificiale è stata accolta con un misto di preparazione e preoccupazione dalle aziende. La presidente della Commissione Europea, Ursula von der Leyen, ha dichiarato che la legge guiderà lo sviluppo dell’IA in modo che i cittadini europei possano fidarsi della tecnologia. La legge sull’IA valuta le aziende in base al rischio, assegnando regole a quattro livelli: nessun rischio, rischio minimo, rischio elevato e sistemi di IA vietati. Dal febbraio 2025, l’UE vieterà alcune pratiche, come quelle che manipolano il processo decisionale dell’utente o espandono i database di riconoscimento facciale attraverso lo scraping di Internet.

I sistemi di IA ad alto rischio, come quelli che raccolgono dati biometrici utilizzati per infrastrutture critiche o decisioni in ambito occupazionale, saranno soggetti a norme più severe. Le aziende dovranno mostrare i dati di addestramento dell’IA e fornire prova della supervisione umana. Secondo Thomas Regnier, portavoce della Commissione Europea, l’85% delle aziende di IA rientra nella categoria del “rischio minimo”, che richiede una regolamentazione minima.

Heather Dawe, responsabile dell’IA presso la società di consulenza UST, ha affermato che potrebbero essere necessari dai tre ai sei mesi per rendere le aziende conformi alla nuova legge, a seconda delle dimensioni dell’azienda e del ruolo dell’IA nel flusso di lavoro. Le aziende potrebbero considerare l’istituzione di comitati interni di governance dell’IA, con esperti legali, tecnologici e di sicurezza per un audit completo delle tecnologie utilizzate.

Il ruolo della Commissione Europea e delle autorità nazionali

La Commissione Europea ha istituito l’Ufficio AI per controllare il rispetto delle regole per i modelli di intelligenza artificiale. Sessanta membri del personale interno della Commissione sono stati trasferiti all’ufficio, e altri 80 candidati esterni saranno assunti nel prossimo anno. Il comitato per l’AI, composto da delegati di alto livello dei 27 Stati membri dell’UE, ha gettato le basi per l’attuazione della legge nella sua prima riunione di giugno. Il consiglio lavorerà con l’Ufficio AI per garantire l’applicazione armonizzata della legge nell’UE.

Oltre 700 aziende hanno sottoscritto il Patto per l’AI, impegnandosi a conformarsi tempestivamente alla legge. Gli Stati membri dell’UE hanno tempo fino al prossimo agosto per istituire autorità nazionali che supervisionino l’applicazione delle norme. La Commissione Europea sta preparando un aumento degli investimenti nell’IA, con un finanziamento di 1 miliardo di euro nel 2024 e 20 miliardi di euro entro il 2030.

Risto Uuk, responsabile della ricerca europea presso il Future of Life Institute, ritiene che la Commissione Europea debba fornire chiarimenti su alcune tecnologie ritenute rischiose. Ad esempio, l’uso di droni per fotografare la rete idrica che necessita di riparazioni non sembra super rischioso, nonostante rientri nella categoria ad alto rischio della legislazione. Uuk ha affermato che la legge è attualmente generica e che la Commissione dovrà fornire feedback più specifici una volta avviata l’attuazione.

Consultazione pubblica e coinvolgimento degli stakeholder

La Commissione Europea ha deciso di avviare una consultazione pubblica per raccogliere pareri dagli stakeholder nella prossima bozza del codice di condotta per i modelli di intelligenza artificiale generica (GPAI). Questa decisione è stata presa in risposta a una richiesta di un gruppo di europarlamentari, tra cui il relatore dell’AI Act, Brando Benifei, che ha scritto alla Commissione per rendere più inclusivo il processo di stesura del codice di condotta.

L’Ufficio europeo per l’IA ha chiesto di presentare contributi a un’ampia gamma di soggetti interessati, tra cui il mondo accademico, esperti indipendenti, rappresentanti del settore, fornitori di modelli di IA, organizzazioni della società civile, titolari di diritti e autorità pubbliche. La consultazione, aperta fino al 10 settembre, verterà su settori critici come la trasparenza, le norme sul copyright, l’identificazione e la valutazione del rischio, la mitigazione del rischio e la gestione interna del rischio.

L’AI Act prevede un approccio a due livelli per i modelli GPAI, con obblighi più stringenti per i modelli a rischi sistemici. Questa consultazione pubblica rappresenta un passo importante per garantire che il codice di condotta rifletta le esigenze e le preoccupazioni di tutti gli stakeholder coinvolti.

Bullet Executive Summary

L’entrata in vigore della legge europea sull’intelligenza artificiale rappresenta una svolta significativa nel panorama economico e finanziario moderno. Questa legislazione, la prima del suo genere, mira a garantire che l’IA sviluppata nell’UE sia affidabile e rispetti i diritti fondamentali dei cittadini. La legge valuta le aziende in base al rischio e impone norme più severe per i sistemi di IA ad alto rischio. La Commissione Europea ha istituito l’Ufficio AI per controllare il rispetto delle regole e ha avviato una consultazione pubblica per raccogliere pareri dagli stakeholder sul codice di condotta per i modelli di intelligenza artificiale generica.

In conclusione, questa nuova regolamentazione europea sull’IA rappresenta un equilibrio delicato tra innovazione e protezione dei diritti dei cittadini. La nozione base di economia e finanza correlata a questo tema è il concetto di regolamentazione del mercato, che si riferisce all’insieme di norme e leggi che governano il funzionamento dei mercati per garantire la concorrenza leale e proteggere i consumatori. Una nozione avanzata applicabile a questo tema è il principio di precauzione, che implica l’adozione di misure preventive in presenza di rischi potenziali per la salute pubblica o l’ambiente, anche in assenza di prove scientifiche complete.

Questa legislazione non solo protegge i cittadini, ma crea anche un ambiente favorevole all’innovazione, incoraggiando le aziende a sviluppare soluzioni di IA all’avanguardia. Tuttavia, resta da vedere come le aziende e le autorità nazionali si adatteranno a queste nuove norme e come la Commissione Europea affronterà le sfide future nella regolamentazione delle tecnologie emergenti.


Articolo e immagini generati dall’AI, senza interventi da parte dell’essere umano. Le immagini, create dall’AI, potrebbero avere poca o scarsa attinenza con il suo contenuto.(scopri di più)
0 0 votes
Article Rating
Subscribe
Notificami
guest
0 Commenti
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
0
Ci interessa la tua opinione, lascia un commento!x