Accordo tra i leader del G7 sui principi guida per l'intelligenza artificiale

I leader del G7 hanno raggiunto l’accordo in merito ai principi guida internazionali sull'intelligenza artificiale (IA) e a un codice di condotta volontario per gli sviluppatori di IA nel quadro del processo di Hiroshima sull'IA. Questi principi e il codice di condotta volontario integreranno, a livello internazionale, le norme giuridicamente vincolanti che i co-legislatori dell'UE stanno attualmente mettendo a punto nel quadro della normativa dell'UE sull'IA

Garantire la sicurezza e l'affidabilità della tecnologia

Gli undici principi guida adottati dai leader dei sette paesi e dall'UE, che insieme costituiscono il G7, offrono orientamenti alle organizzazioni che sviluppano, diffondono e utilizzano sistemi avanzati di IA, come i modelli di base e gli strumenti di IA generativa, per promuovere la sicurezza e l'affidabilità della tecnologia.

Comprendono impegni per mitigare i rischi e gli abusi, individuare le vulnerabilità e promuovere una condivisione responsabile delle informazioni, la segnalazione degli incidenti e gli investimenti nella cibersicurezza, nonché un sistema di etichettatura che consenta agli utenti di individuare i contenuti generati dall'IA.  

Questi principi, che si basano sui risultati di un'indagine tra le parti interessate, sono stati sviluppati congiuntamente dall'UE e dagli altri membri del G7 nel quadro del processo di Hiroshima sull'intelligenza artificiale.

A loro volta i principi guida sono serviti come base per l'elaborazione di un codice di condotta che fornirà orientamenti dettagliati e pratici alle organizzazioni che sviluppano l'IA. Il codice di condotta volontario promuoverà inoltre una governance responsabile dell'IA a livello mondiale.

Entrambi i documenti saranno riesaminati e aggiornati, se necessario, anche tramite consultazioni multipartecipative e inclusive, per fare in modo che rimangano adatti allo scopo che perseguono e tengano il passo con questa tecnologia in rapida evoluzione. I leader del G7 hanno invitato le organizzazioni che sviluppano sistemi avanzati di IA ad assumere l'impegno di applicare il codice di condotta internazionale. I primi firmatari saranno annunciati nel prossimo futuro.

Contesto

Il processo di Hiroshima sull'intelligenza artificiale è stato istituito in occasione del vertice G7 del 19 maggio 2023 per promuovere misure a livello mondiale per i sistemi avanzati di IA. L'iniziativa fa parte di una serie più ampia di discussioni internazionali sulle misure protettive per l'IA, anche in seno all'OCSE, al Partenariato globale sull'intelligenza artificiale e al Consiglio UE-USA per il commercio e la tecnologia, così come nel quadro dei partenariati digitali dell'UE.

Da quando ha annunciato per la prima volta l'intenzione di lavorare a un codice di condotta in occasione della riunione ministeriale del TTC del 31 maggio 2023, la Commissione europea ha collaborato attivamente con i principali partner internazionali in seno al G7 per sviluppare i principi e il codice di condotta sull'IA. Questi impegni internazionali sono coerenti con le norme giuridicamente vincolanti attualmente oggetto di negoziati nel quadro della più completa normativa sull'intelligenza artificiale, che si applicherà nell'UE.

La proposta di normativa dell'UE sull'intelligenza artificiale garantirà la sicurezza e i diritti fondamentali dei cittadini e delle imprese, rafforzando nel contempo la diffusione dell'IA, gli investimenti e l'innovazione in tutta l'UE. La normativa sull'IA introdurrà norme giuridicamente vincolanti basate sul rischio per i sistemi di IA immessi sul mercato o messi in servizio nel mercato dell'Unione.

Maggiori informazioni

Condividi
Aggiornato al:
29.11.2023
Article ID:
178381456