Notice: Undefined index: HTTP_ACCEPT_LANGUAGE in /web/htdocs/www.crosshub.it/home/common.php on line 169

Notice: Undefined index: HTTP_ACCEPT_LANGUAGE in /web/htdocs/www.crosshub.it/home/common.php on line 169
Regolamento Ue sull’intelligenza artificiale e Gdpr - CROSSHUB - Network of Competences
  Back Regolamento Ue sull’intelligenza artificiale e Gdpr cross hub

Regolamento Ue sull’intelligenza artificiale e Gdpr

La Commissione Europea ha presentato il Regolamento 2021/106 che delinea un quadro armonizzato sull’intelligenza artificiale. Ne parliamo con Piero Ricciardi, esperto di Compliance integrata in particolare su privacy e protezione dati

Postato il: 28-May-2021

1)Buongiorno Piero, il 21 aprile 2021 la Commissione Europea ha presentato la proposta di regolamento sull’intelligenza artificiale definita come un insieme di tecnologie in rapida evoluzione finalizzate ad ottimizzare il benessere sociale. Rispetto al nuovo  regolamento, potresti spiegarci quali obiettivi si pone e se esistono punti di contatto con il Gdpr?

 

Piero: L’obiettivo della fonte normativa è declinare i vantaggi derivanti dall’impiego di sistemi di intelligenza artificiale come:

  • il miglioramento nella fruizione dei servizi del cittadino,
  • l'agevolazione dello sviluppo delle imprese,
  • il conferimento di maggiore efficienza ai servizi di interesse pubblico

con i risvolti negativi che potrebbero concretizzarsi, ove i primi venissero impiegati mediante un uso distorto o abusivo.

 

Nello specifico, gli obiettivi che il Regolamento si propone di realizzare sono:

  • garantire che i sistemi di IA immessi sul mercato dell'Unione siano sicuri e rispettino le leggi esistenti sui diritti fondamentali e sui valori dell'unione
  • garantire la certezza del diritto per facilitare gli investimenti e l'innovazione nell’IA
  • migliorare la governance e l'effettiva applicazione delle leggi esistenti sui diritti fondamentali e sui requisiti di sicurezza applicabili IA sistemi di IA
  • facilitare lo sviluppo di un mercato unico applicazioni di IA legali, sicure e affidabili, prevenendo la frammentazione del mercato interno.

 

Rispetto ai punti di contatto con il Gdpr, la risposta è Si.

Esistono notevoli assonanze tra il cd. Gdpr e la proposta di Regolamento sull’intelligenza artificiale (IA); un rapido excursus ci aiuterà a comprenderle meglio. Il 21 aprile 2021 la Commissione Europea ha presentato la propria proposta di Regolamento europeo sull’Intelligenza Artificiale (IA), volto ad introdurre una disciplina unanime e condivisa tra gli Stati Membri nell’ottica di garantire i diritti e le libertà fondamentali di tutti i cittadini europei.

 

Analogamente a quanto è accaduto col Gdpr, anche questo sulla IA avrà un proprio iter declinato tra approvazione e messa in esecuzione. Con questo Regolamento verranno introdotte, salvo modifiche, una serie di obblighi particolarmente significativi relativamente ai sistemi di IA, che ricalcheranno l’approccio del Regolamento europeo sulla protezione dei dati.

 

2) Chiariti gli obiettivi della proposta di regolamento, possiamo affermare che al suo interno vi siano varie tipologie di rischi inerenti all'IA?

 

Piero: In effetti, si parte dalla individuazione di un rischio inaccettabile; qui si tratta di sistemi IA che mettono a rischio i diritti e le libertà dei cittadini UE e che, pertanto, saranno sostanzialmente banditi.

 

In tali casi di parla di IA forte in quanto questa tecnologia è in grado di riprodurre processi intellettivi analoghi a quelli umani; rientrano in questa classe:

  • i sistemi di IA che utilizzino tecniche subliminali che, al di là della consapevolezza di una persona, possa manipolare materialmente il suo comportamento in un modo tale da causare (o è probabile che possa causare a quella persona o a un'altra persona) danni fisici o psicologici;

 

  • i sistemi di IA che sfruttino una qualsiasi delle vulnerabilità di un gruppo specifico di persone a causa della loro età, disabilità fisica o mentale, al fine di manipolare materialmente il comportamento di una persona appartenente a quel gruppo in un modo da causare (o è probabile che possa causare) a quella persona o un'altra persona danni fisici o psicologici;

 

  • i sistemi di IA da parte della pubblica autorità (o per suo conto) per la valutazione o la classificazione dell’affidabilità delle persone fisiche per un determinato periodo di tempo in base al loro comportamento sociale o a caratteristiche personali o di personalità note o previste, con l’attribuzione di un punteggio sociale (c.d. social scoring);

 

  • l'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico per finalità di law enforcement (fatte salve alcune eccezioni relative: alla ricerca mirata di specifiche potenziali vittime di reati, compresi bambini scomparsi; la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o sicurezza fisica delle persone fisiche o di un attacco terroristico; l'individuazione, la localizzazione, l'identificazione o il perseguimento di un autore o sospettato di un reato punibile nel membro Stato interessato da una pena detentiva o un ordine di detenzione per a periodo massimo di almeno tre anni, come determinato dalla legge dello stesso Stato membro).

 

3) Si può pensare che una IA così pervasiva possa trovare un ambito di applicazione?

 

Piero: Si, ma è necessario ed opportuno che in questi casi si debba predisporre una serie di sistemi atti a limitarne o a gestirne l’uso; ad esempio:

 

  • predisporre, implementare e documentare un sistema di gestione del rischio (art. 9); nei sistemi di IA ad alto rischio che utilizzano tecniche che comportano la formazione di modelli con i dati, devono essere sviluppati sulla base di set di dati di addestramento, convalida e test che soddisfano i criteri di qualità specifici (art. 10);

 

  • redigere la documentazione tecnica prima delle data di immissione sul mercato o della messa in servizio e deve essere costantemente aggiornata (art. 11)

 

  • essere progettati e sviluppati con capacità che consentano la registrazione automatica degli eventi ("log") durante il loro funzionamento; tali capacità di registrazione devono essere conformi a standard riconosciuti o comuni specifiche (art. 12)

 

  • essere progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente per consentire agli utenti di interpretare il sistema output e utilizzarlo in modo appropriato (art. 13)

 

  • essere progettati e sviluppati in modo tale - (anche con strumenti di interfaccia uomo-macchina appropriati) - da poter essere efficacemente controllati da persone fisiche durante il periodo in cui è in uso il sistema di IA (art. 14);

 

  • i fornitori garantiscono che i sistemi di IA destinati a interagire con le persone fisiche siano progettati e sviluppati in modo tale che le persone fisiche siano informate che stanno interagendo con un sistema di intelligenza artificiale; tale obbligo non si applica ai sistemi di IA autorizzati per legge a individuare, prevenire, indagare e perseguire reati:

 

  • gli utenti di un sistema di riconoscimento delle emozioni o di un sistema di classificazione biometrica devono informare del funzionamento del sistema le persone fisiche ad esso esposte. Questo obbligo non si applica ai sistemi di IA utilizzati per la categorizzazione biometrica, nei casi consentiti, per rilevare, prevenire e indagare sui reati.

 

  • Gli utenti di un sistema IA che genera o manipola contenuti immagine, audio o video che assomiglino sensibilmente a persone, oggetti, luoghi o altre entità o eventi esistenti e che sembrino falsamente una persona reale («deep fake»), deve rivelare che il contenuto è stato generato o manipolato artificialmente.

 

4) All'interno della proposta di regolamento, si sente spesso parlare di sistemi invasivi utilizzati per il riconoscimento facciale. Puoi spiegarci meglio?

 

Piero: per i sistemi IA di riconoscimento facciale biometrico utilizzati dalle forze dell’ordine per ragioni di law enforcement, pur rientrando in questa classe, i limiti saranno molto più stringenti. Il loro utilizzo da parte della pubblica autorità sarà consentito solo in casi eccezionali, quali la ricerca di un soggetto smarrito o IA fini di prevenzione di una specifica ed imminente minaccia terroristica.

 

A riguardo, è necessario sottolineare che il Garante Europeo ha manifestato un po’ di malumore verso la scelta della Commissione di non inibire completamente l’utilizzo di questi strumenti, ritenendoli misure di sorveglianza di massa che avrebbero meritato limiti ulteriori rispetto a quelli correlati al solo utilizzo per ragioni di law enforcement.

 

5) Definiti gli obiettivi e gli ambiti dell'IA, potresti dirci quali sono le principali linee guida di tali applicazioni? Inoltre all'interno della proposta, è previsto l'intervento delle autorità di controllo e sono previste delle sanzioni?

 

Piero: In estrema sintesi possiamo indicare come prioritaria la protezione della dignità umana e la tutela dei diritti umani e delle libertà fondamentali, in particolar modo quando le IA sono impiegate nei processi decisionali; le IA che trattano dati personali devono operare secondo un approccio basato sugli requisiti analoghi a quelli previsti dal Regolamento 679/2016 (GDPR), e cioè: liceità, correttezza, specificazione delle finalità, proporzionalità del trattamento, privacy by design, privacy by default, accountability, trasparenza, sicurezza dei dati e gestione dei rischi.

 

Per lo sviluppo delle IA è necessario un approccio che prevenga e attenui i potenziali rischi del trattamento dei dati personali e nella valutazione del rischio, ed è necessario, altresì, adottare una prospettiva più ampia che tenga conto non solo dei diritti umani e delle libertà fondamentali ma anche del funzionamento delle democrazie, dei valori sociali ed etici dei Paesi dell’Unione europea; le IA devono rispettare pienamente i diritti degli interessati e devono sempre consentire un controllo da parte degli interessati.

 

Ancora, si deve adottare un approccio preventivo per valutare l’impatto di possibili conseguenze negative derivante dallo sviluppo di applicazioni IA in tutte le fasi del trattamento dei dati personali, avendo un approccio volto a garantire la tutela dei diritti umani dalle fasi di progettazione, evitando così qualsiasi pregiudizio o altri effetti negati sui diritti umani e le libertà fondamentali degli interessati; valutare la qualità, la natura, l’origine e la quantità dei dati personali utilizzati, eliminando i dati superflui e utilizzato dati sintetici (rappresentativi dei dati reali originali) quando possibile.

 

Per ottemperare a tali requisiti è necessario che l’utilizzo di modelli algoritmici siano sempre contestualizzati per non produrre impatti negativi sulle persone e la società.

 

Anche gli sviluppatori, produttori e fornitori di servizi IA devono coinvolgere nei processi di sviluppo delle applicazioni comitati indipendenti di esperti per garantire la trasparenza e il rispetto dei diritti umani ed evitare potenziali pregiudizi.

 

Sicuramente, ma alle autorità di controllo devono essere forniti i mezzi sufficienti per attuare i programmi di vigilanza sugli algoritmi. L’intervento umano deve essere preservato nei processi decisionali; gli sviluppatori, produttori e fornitori di IA, qualora ritengano che l’applicazione possa incidere in modo significativo sui diritti umani e sulle libertà fondamentali, dovrebbero consultare le preposte autorità di controllo e dovrebbero promuovere la cooperazione tra le diverse autorità competenti in materia di protezione dei dati personali, di concorrenza e diritti del consumatore.

Per questo motivo è necessario garantire l’indipendenza dei comitati di esperti.

 

I legislatori devono garantire la partecipazione e l’inclusione attiva di individui, gruppi o altre parti interessate al dibattito sul ruolo della IA.

 

Analogamente a quanto previsto dal GDPR, ogni Stato designerà la propria Autorità di controllo mentre a livello centrale sarà creato il European Artificial Intelligence Board, autorità che ricalca il modello dell’EDPB.

I policy maker devono effettuare investimenti nella direzione di una necessaria alfabetizzazione digitale per aumentare la consapevolezza degli interessati riguardo alle applicazioni IA e i loro effetti.

 

Per il sistema sanzionatorio invece, esso si articolerà su tre livelli:

  • per l’utilizzo dei sistemi proibiti o per la mancata implementazione dei sistemi di data governance previsti per i sistemi ad alto rischio, la sanzione potrà arrivare a 30 milioni di euro o al 6% del fatturato globale medio annuo;
  • per la violazione degli altri obblighi, l’ammontare arriva fino a 20 milioni o il 4% del fatturato globale medio annuo;
  • per la violazione degli obblighi informativi o di notificazione degli eventuali incidenti di sicurezza verso le autorità di controllo, è prevista una fascia sanzionatoria ad hoc che può arrivare a 10 milioni o al 2% del fatturato globale medio annuo.

Non perdere gli ultimi articoli!

Inserisci la tua email 

TAG CLOUD

innovazione finanza covid-19 startup pmi operations innovation manager PMI marketing coronavirus risorse umane innovazione tecnologica innovazione digitale digital transformation andrà tutto bene smart working bilancio di sostenibilità innovazione aziendale internazionalizzazione consulenza finanziaria industria 4.0 gestione risorse umane controllo di gestione sostenibilità aziendale voucher innovation manager 2021 temporary manager digital marketing fintech impresa business hr manager hr e-commerce economia impresa digitale innovation export lavoro agile digitalizzazione gestione del rischio hr management prototipazione rapida green economy io resto a casa sostenibilità Innovazione business development credito d'imposta HR digital voucher innovation manager Impresa Innovation Manager IoT PMI innovative MISE investimenti Digital Transformation mercati esteri open innovation CFO Al marketing digitale CRM Ricerca & Sviluppo legge finanziaria 2020 liquidità impresa GDPR big data consulenza gestione aziendale comunicazione d'impresa finanza agevolata covid equity crowdfunding crescita aziendale fase 2 gestione finanziaria gestione impresa human resources human resources management piano impresa 4.0 campania campi flegrei compliance cina cash flow aziende sostenibili finanza sostenibile risk management temporary management vendita online pmi innovative sviluppo impresa soft skill system integration soft skills trasformazione digitale stampa 3d turismo venture capital aziende innovative tecnologie della sanità batterie di sabbia beni di lusso bonus impresa bonus pubblicità blockchain bilancio sociale tecnologie 4.0 tecnologia avanzata asset management analisi paese Sviluppo Tax governance Temporary Export Manager Strumento a complemento della finanza tradizionalenel segno dell’innovazione e della trasparenza Sostenibilità Sanità 4.0 Sicurezza Informatica Temporary management Voucher Consulenza in Innovazione alibaba tecnologia tecnologie digitali agevolazioni acceleratore startup Voucher Innovation Manager Voucher T.E.M. andràtuttobene business plan comunicazione aziendale conad concorrenzasleale sviluppo organizzativo community come fare un business plan commissione di massimo scoperto consulente sviluppo business consumi contact tracing contributo a fondo perduto consulenza impresa supporto imprese consulenza HR consulenza aziendale cloud computing cloud business travel buzzoole caffè carbonelli business plan startup Salva banche business intelligence business opportunity cambio valuta sviuppo impresa cfo sviluppo risorse umane clausola salvaguardia sviluppo sostenibile capitale umano capacità di feedback capitale della cultura tech Rendiconto finanziario ERP Ecommerce Exponential Technologies voucher internazionalizzazione Cyber Security Consulenza direzionale Credito d'Imposta ExtraMot Financial Controller voucher innovazione Gestione del personale Gestione manageriale Fractional management Fractional Manager Financial Controller Manager Fintech Consulenza Comunicazione interna welfare aziendale Analisi di bilancio Apple Developer Academy AR ADHD 2watch 3d printing Bankitalia webidoo Cloud Comfort Zone Commissione europea Change Management Campania innovativa web marketing CRM aziendale evoluto Giorgio Ventre H R Lean organization transizione energetica Marketing Lean manufacturing Lean Iot Kaizen Material Requirement Planning Mise Reverse Engineering tecnologie verdi Risk Management supply chain Produzione 4.0 tracciamento dati Procida capitale della cultura 2022 Internazionalizzazione Intelligenza artificiale IA IMHERO IP Management Human resources Human Resources voucher consulenza in innovazione Harmont & Blaine IT Il controllo di gestione Innovazione Impresa Insuretech Innovation management Industrial Controller Impresa 4.0 innovativa Impresa digitale Risorse Umane corporate social responsability innovation management remote working regolamento Ue rendiconto finanziario influencer marketing industria digitale influencer realtà aumentata public relations integrazione digitale dei processi aziendali integrazione processi aziendali intelligenza artificiale insurtech innovazone digitale pubblicità innovazone report di sostenibilità incentivi impresa riduzione sprechi reverse engineering il ruolo dell'advisor rischio cambio risk manager hi-tech high-tech retail impresa 4.0 imprese incentivi incentivi economici impresa smart impresa innovativa responsabilità d'impresa impresa green intelligenza emotiva international market maxi decreto metodi formativi metodi organizzativi aziendali innovativi marketing territoriale privacy processi di gestione marketing automation minibond modello business opensource pmi green organizzazione aziendale pmi innovativa normativa new normal newfinance manager esterno malazè invitalia project manager italia smart investimenti green protezione dati protezione dati personali intervista lavoro product placement made in italy magaldi make to order processi operativi let's talk leadership procida capitalde della cultura green manager risorse finanziarie digitalizzazione aziendale digitalizzazione impresa e-finance soft skill” digitale sparring partner sostenibilità ambientale e-learning ecommerce social media marketing esg esg reporting energie rinnovabili employee experience emergenza coronavirus emergenza covid spinup dialogo uomo-macchina sport virtuale criptovaluta crisi economica strategia d'impresa strategia di comunicazione stratup pasta garofalo crowdfunding cybersecurity decreto rilancio deliver to stock development decreto liquidità decreto cura Italia data protection dati esports expo 2020 gestione del credito screening gestione efficiente settore fashion gdpr fund raising gdo scaleup sanità 4.0 giffoni giffoni innovation hub grande distribuzione organizzata robotica avanzata gestione rischi fiscali gestione personale gestione rischi freesource formazione manageriale sicurezza dati shared innovation finanza green feedback fasi del risk management social advertising sicurezza informatica wycon cosmetics finanzalternativa formazione a distanza formazione aziendale. hr management formazione 4.0 fonti di finanziamento finanziamenti imprese settore food controllo rischio fiscale
Iscriviti alla newsletter
Cross Hub Logo

Affiancare le imprese, enti ed istituzioni in tutti gli aspetti di natura strategica ed operativa attraverso la "mobilitazione integrata" (CROSS) di competenze ed esperienze (HUB) in risposta alle specifiche esigenze aziendali.

CONTACT INFO

DIREZIONE GENERALE

Via Morgantini, 3 

80134 - Napoli

 

SEDE OPERATIVA

Via Alberto Cadlolo, 134

00136 Roma

 

P.IVA: 08060921213

info@crosshub.it

crosshub@b2bpec.it

Tel 345 142 09 59

cross hub vince le fonti awards 2022 consulenza
Follow us