Notice: Undefined index: HTTP_ACCEPT_LANGUAGE in /web/htdocs/www.crosshub.it/home/common.php on line 169

Notice: Undefined index: HTTP_ACCEPT_LANGUAGE in /web/htdocs/www.crosshub.it/home/common.php on line 169
Regolamento Ue sull’intelligenza artificiale e Gdpr - CROSSHUB - Network of Competences
  Back Regolamento Ue sull’intelligenza artificiale e Gdpr cross hub

Regolamento Ue sull’intelligenza artificiale e Gdpr

La Commissione Europea ha presentato il Regolamento 2021/106 che delinea un quadro armonizzato sull’intelligenza artificiale. Ne parliamo con Piero Ricciardi, esperto di Compliance integrata in particolare su privacy e protezione dati

Postato il: 28-May-2021

1)Buongiorno Piero, il 21 aprile 2021 la Commissione Europea ha presentato la proposta di regolamento sull’intelligenza artificiale definita come un insieme di tecnologie in rapida evoluzione finalizzate ad ottimizzare il benessere sociale. Rispetto al nuovo  regolamento, potresti spiegarci quali obiettivi si pone e se esistono punti di contatto con il Gdpr?

 

Piero: L’obiettivo della fonte normativa è declinare i vantaggi derivanti dall’impiego di sistemi di intelligenza artificiale come:

  • il miglioramento nella fruizione dei servizi del cittadino,
  • l'agevolazione dello sviluppo delle imprese,
  • il conferimento di maggiore efficienza ai servizi di interesse pubblico

con i risvolti negativi che potrebbero concretizzarsi, ove i primi venissero impiegati mediante un uso distorto o abusivo.

 

Nello specifico, gli obiettivi che il Regolamento si propone di realizzare sono:

  • garantire che i sistemi di IA immessi sul mercato dell'Unione siano sicuri e rispettino le leggi esistenti sui diritti fondamentali e sui valori dell'unione
  • garantire la certezza del diritto per facilitare gli investimenti e l'innovazione nell’IA
  • migliorare la governance e l'effettiva applicazione delle leggi esistenti sui diritti fondamentali e sui requisiti di sicurezza applicabili IA sistemi di IA
  • facilitare lo sviluppo di un mercato unico applicazioni di IA legali, sicure e affidabili, prevenendo la frammentazione del mercato interno.

 

Rispetto ai punti di contatto con il Gdpr, la risposta è Si.

Esistono notevoli assonanze tra il cd. Gdpr e la proposta di Regolamento sull’intelligenza artificiale (IA); un rapido excursus ci aiuterà a comprenderle meglio. Il 21 aprile 2021 la Commissione Europea ha presentato la propria proposta di Regolamento europeo sull’Intelligenza Artificiale (IA), volto ad introdurre una disciplina unanime e condivisa tra gli Stati Membri nell’ottica di garantire i diritti e le libertà fondamentali di tutti i cittadini europei.

 

Analogamente a quanto è accaduto col Gdpr, anche questo sulla IA avrà un proprio iter declinato tra approvazione e messa in esecuzione. Con questo Regolamento verranno introdotte, salvo modifiche, una serie di obblighi particolarmente significativi relativamente ai sistemi di IA, che ricalcheranno l’approccio del Regolamento europeo sulla protezione dei dati.

 

2) Chiariti gli obiettivi della proposta di regolamento, possiamo affermare che al suo interno vi siano varie tipologie di rischi inerenti all'IA?

 

Piero: In effetti, si parte dalla individuazione di un rischio inaccettabile; qui si tratta di sistemi IA che mettono a rischio i diritti e le libertà dei cittadini UE e che, pertanto, saranno sostanzialmente banditi.

 

In tali casi di parla di IA forte in quanto questa tecnologia è in grado di riprodurre processi intellettivi analoghi a quelli umani; rientrano in questa classe:

  • i sistemi di IA che utilizzino tecniche subliminali che, al di là della consapevolezza di una persona, possa manipolare materialmente il suo comportamento in un modo tale da causare (o è probabile che possa causare a quella persona o a un'altra persona) danni fisici o psicologici;

 

  • i sistemi di IA che sfruttino una qualsiasi delle vulnerabilità di un gruppo specifico di persone a causa della loro età, disabilità fisica o mentale, al fine di manipolare materialmente il comportamento di una persona appartenente a quel gruppo in un modo da causare (o è probabile che possa causare) a quella persona o un'altra persona danni fisici o psicologici;

 

  • i sistemi di IA da parte della pubblica autorità (o per suo conto) per la valutazione o la classificazione dell’affidabilità delle persone fisiche per un determinato periodo di tempo in base al loro comportamento sociale o a caratteristiche personali o di personalità note o previste, con l’attribuzione di un punteggio sociale (c.d. social scoring);

 

  • l'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico per finalità di law enforcement (fatte salve alcune eccezioni relative: alla ricerca mirata di specifiche potenziali vittime di reati, compresi bambini scomparsi; la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o sicurezza fisica delle persone fisiche o di un attacco terroristico; l'individuazione, la localizzazione, l'identificazione o il perseguimento di un autore o sospettato di un reato punibile nel membro Stato interessato da una pena detentiva o un ordine di detenzione per a periodo massimo di almeno tre anni, come determinato dalla legge dello stesso Stato membro).

 

3) Si può pensare che una IA così pervasiva possa trovare un ambito di applicazione?

 

Piero: Si, ma è necessario ed opportuno che in questi casi si debba predisporre una serie di sistemi atti a limitarne o a gestirne l’uso; ad esempio:

 

  • predisporre, implementare e documentare un sistema di gestione del rischio (art. 9); nei sistemi di IA ad alto rischio che utilizzano tecniche che comportano la formazione di modelli con i dati, devono essere sviluppati sulla base di set di dati di addestramento, convalida e test che soddisfano i criteri di qualità specifici (art. 10);

 

  • redigere la documentazione tecnica prima delle data di immissione sul mercato o della messa in servizio e deve essere costantemente aggiornata (art. 11)

 

  • essere progettati e sviluppati con capacità che consentano la registrazione automatica degli eventi ("log") durante il loro funzionamento; tali capacità di registrazione devono essere conformi a standard riconosciuti o comuni specifiche (art. 12)

 

  • essere progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente per consentire agli utenti di interpretare il sistema output e utilizzarlo in modo appropriato (art. 13)

 

  • essere progettati e sviluppati in modo tale - (anche con strumenti di interfaccia uomo-macchina appropriati) - da poter essere efficacemente controllati da persone fisiche durante il periodo in cui è in uso il sistema di IA (art. 14);

 

  • i fornitori garantiscono che i sistemi di IA destinati a interagire con le persone fisiche siano progettati e sviluppati in modo tale che le persone fisiche siano informate che stanno interagendo con un sistema di intelligenza artificiale; tale obbligo non si applica ai sistemi di IA autorizzati per legge a individuare, prevenire, indagare e perseguire reati:

 

  • gli utenti di un sistema di riconoscimento delle emozioni o di un sistema di classificazione biometrica devono informare del funzionamento del sistema le persone fisiche ad esso esposte. Questo obbligo non si applica ai sistemi di IA utilizzati per la categorizzazione biometrica, nei casi consentiti, per rilevare, prevenire e indagare sui reati.

 

  • Gli utenti di un sistema IA che genera o manipola contenuti immagine, audio o video che assomiglino sensibilmente a persone, oggetti, luoghi o altre entità o eventi esistenti e che sembrino falsamente una persona reale («deep fake»), deve rivelare che il contenuto è stato generato o manipolato artificialmente.

 

4) All'interno della proposta di regolamento, si sente spesso parlare di sistemi invasivi utilizzati per il riconoscimento facciale. Puoi spiegarci meglio?

 

Piero: per i sistemi IA di riconoscimento facciale biometrico utilizzati dalle forze dell’ordine per ragioni di law enforcement, pur rientrando in questa classe, i limiti saranno molto più stringenti. Il loro utilizzo da parte della pubblica autorità sarà consentito solo in casi eccezionali, quali la ricerca di un soggetto smarrito o IA fini di prevenzione di una specifica ed imminente minaccia terroristica.

 

A riguardo, è necessario sottolineare che il Garante Europeo ha manifestato un po’ di malumore verso la scelta della Commissione di non inibire completamente l’utilizzo di questi strumenti, ritenendoli misure di sorveglianza di massa che avrebbero meritato limiti ulteriori rispetto a quelli correlati al solo utilizzo per ragioni di law enforcement.

 

5) Definiti gli obiettivi e gli ambiti dell'IA, potresti dirci quali sono le principali linee guida di tali applicazioni? Inoltre all'interno della proposta, è previsto l'intervento delle autorità di controllo e sono previste delle sanzioni?

 

Piero: In estrema sintesi possiamo indicare come prioritaria la protezione della dignità umana e la tutela dei diritti umani e delle libertà fondamentali, in particolar modo quando le IA sono impiegate nei processi decisionali; le IA che trattano dati personali devono operare secondo un approccio basato sugli requisiti analoghi a quelli previsti dal Regolamento 679/2016 (GDPR), e cioè: liceità, correttezza, specificazione delle finalità, proporzionalità del trattamento, privacy by design, privacy by default, accountability, trasparenza, sicurezza dei dati e gestione dei rischi.

 

Per lo sviluppo delle IA è necessario un approccio che prevenga e attenui i potenziali rischi del trattamento dei dati personali e nella valutazione del rischio, ed è necessario, altresì, adottare una prospettiva più ampia che tenga conto non solo dei diritti umani e delle libertà fondamentali ma anche del funzionamento delle democrazie, dei valori sociali ed etici dei Paesi dell’Unione europea; le IA devono rispettare pienamente i diritti degli interessati e devono sempre consentire un controllo da parte degli interessati.

 

Ancora, si deve adottare un approccio preventivo per valutare l’impatto di possibili conseguenze negative derivante dallo sviluppo di applicazioni IA in tutte le fasi del trattamento dei dati personali, avendo un approccio volto a garantire la tutela dei diritti umani dalle fasi di progettazione, evitando così qualsiasi pregiudizio o altri effetti negati sui diritti umani e le libertà fondamentali degli interessati; valutare la qualità, la natura, l’origine e la quantità dei dati personali utilizzati, eliminando i dati superflui e utilizzato dati sintetici (rappresentativi dei dati reali originali) quando possibile.

 

Per ottemperare a tali requisiti è necessario che l’utilizzo di modelli algoritmici siano sempre contestualizzati per non produrre impatti negativi sulle persone e la società.

 

Anche gli sviluppatori, produttori e fornitori di servizi IA devono coinvolgere nei processi di sviluppo delle applicazioni comitati indipendenti di esperti per garantire la trasparenza e il rispetto dei diritti umani ed evitare potenziali pregiudizi.

 

Sicuramente, ma alle autorità di controllo devono essere forniti i mezzi sufficienti per attuare i programmi di vigilanza sugli algoritmi. L’intervento umano deve essere preservato nei processi decisionali; gli sviluppatori, produttori e fornitori di IA, qualora ritengano che l’applicazione possa incidere in modo significativo sui diritti umani e sulle libertà fondamentali, dovrebbero consultare le preposte autorità di controllo e dovrebbero promuovere la cooperazione tra le diverse autorità competenti in materia di protezione dei dati personali, di concorrenza e diritti del consumatore.

Per questo motivo è necessario garantire l’indipendenza dei comitati di esperti.

 

I legislatori devono garantire la partecipazione e l’inclusione attiva di individui, gruppi o altre parti interessate al dibattito sul ruolo della IA.

 

Analogamente a quanto previsto dal GDPR, ogni Stato designerà la propria Autorità di controllo mentre a livello centrale sarà creato il European Artificial Intelligence Board, autorità che ricalca il modello dell’EDPB.

I policy maker devono effettuare investimenti nella direzione di una necessaria alfabetizzazione digitale per aumentare la consapevolezza degli interessati riguardo alle applicazioni IA e i loro effetti.

 

Per il sistema sanzionatorio invece, esso si articolerà su tre livelli:

  • per l’utilizzo dei sistemi proibiti o per la mancata implementazione dei sistemi di data governance previsti per i sistemi ad alto rischio, la sanzione potrà arrivare a 30 milioni di euro o al 6% del fatturato globale medio annuo;
  • per la violazione degli altri obblighi, l’ammontare arriva fino a 20 milioni o il 4% del fatturato globale medio annuo;
  • per la violazione degli obblighi informativi o di notificazione degli eventuali incidenti di sicurezza verso le autorità di controllo, è prevista una fascia sanzionatoria ad hoc che può arrivare a 10 milioni o al 2% del fatturato globale medio annuo.

Non perdere gli ultimi articoli!

Inserisci la tua email 

TAG CLOUD

innovazione covid-19 finanza startup operations pmi coronavirus PMI innovation manager marketing innovazione tecnologica innovazione digitale risorse umane smart working andrà tutto bene internazionalizzazione digital transformation bilancio di sostenibilità business impresa innovazione aziendale industria 4.0 fintech consulenza finanziaria voucher innovation manager 2021 digital marketing controllo di gestione temporary manager prototipazione rapida sostenibilità aziendale Innovazione lavoro agile io resto a casa innovation HR green economy impresa digitale business development credito d'imposta e-commerce digital digitalizzazione export gestione del rischio voucher innovation manager economia covid Ricerca & Sviluppo legge finanziaria 2020 marketing digitale MISE pmi innovative IoT crescita aziendale piano impresa 4.0 PMI innovative open innovation mercati esteri equity crowdfunding big data cash flow aziende sostenibili gestione finanziaria gestione impresa campania campi flegrei gestione aziendale cina fase 2 investimenti consulenza finanza agevolata compliance comunicazione d'impresa gestione risorse umane liquidità impresa Impresa stampa 3d soft skill sostenibilità temporary management Al risk management Digital Transformation soft skills trasformazione digitale CRM CFO GDPR sviluppo impresa Innovation Manager turismo vendita online venture capital system integration capitale della cultura Comunicazione interna Comfort Zone cloud cloud computing clausola salvaguardia cfo Consulenza Commissione europea cambio valuta business plan business plan startup business opportunity business intelligence Ecommerce ERP business travel buzzoole Credito d'Imposta capacità di feedback Cyber Security come fare un business plan caffè carbonelli Consulenza direzionale conad corporate social responsability ADHD AR controllo rischio fiscale contributo a fondo perduto Analisi di bilancio 3d printing web marketing crowdfunding cybersecurity crisi economica criptovaluta 2watch contact tracing consumi Campania innovativa CRM aziendale evoluto comunicazione aziendale Change Management community Cloud concorrenzasleale consulente Apple Developer Academy consulenza impresa Bankitalia consulenza aziendale consulenza HR commissione di massimo scoperto blockchain Rendiconto finanziario IA Reverse Engineering Produzione 4.0 IMHERO IP Management Procida capitale della cultura 2022 Human resources Human Resources data protection Sicurezza Informatica Sanità 4.0 Salva banche Risk Management Risorse Umane IT Mise Iot Kaizen Industrial Controller Innovation management Internazionalizzazione Insuretech Intelligenza artificiale Impresa digitale Lean Marketing Material Requirement Planning Il controllo di gestione Lean organization Lean manufacturing Impresa 4.0 innovativa Sostenibilità Harmont & Blaine Financial Controller Manager asset management aziende innovative andràtuttobene Fintech Fractional management Fractional Manager Financial Controller ExtraMot bonus impresa Exponential Technologies Innovazione Impresa bilancio sociale batterie di sabbia beni di lusso Gestione del personale analisi paese Temporary Export Manager Giorgio Ventre Tax governance H R Strumento a complemento della finanza tradizionalenel segno dell’innovazione e della trasparenza Sviluppo Temporary management Gestione manageriale agevolazioni alibaba acceleratore startup Voucher T.E.M. Voucher Consulenza in Innovazione Voucher Innovation Manager bonus pubblicità feedback project manager protezione dati protezione dati personali product placement procida capitalde della cultura privacy processi di gestione processi operativi pubblicità public relations retail reverse engineering riduzione sprechi responsabilità d'impresa rendiconto finanziario realtà aumentata regolamento Ue remote working pmi innovativa pmi green marketing territoriale maxi decreto metodi formativi marketing automation manager esterno magaldi make to order malazè metodi organizzativi aziendali innovativi minibond opensource organizzazione aziendale pasta garofalo normativa newfinance modello business new normal rischio cambio risk manager sviluppo risorse umane sviluppo sostenibile sviuppo impresa sviluppo organizzativo sviluppo business stratup supply chain supporto imprese tech tecnologia tracciamento dati transizione energetica voucher consulenza in innovazione tecnologie verdi tecnologie digitali tecnologia avanzata tecnologie 4.0 tecnologie della sanità strategia di comunicazione strategia d'impresa settore fashion settore food shared innovation screening scaleup risorse finanziarie robotica avanzata sanità 4.0 sicurezza dati sicurezza informatica sparring partner spinup sport virtuale sostenibilità ambientale soft skill” social advertising social media marketing made in italy let's talk finanzalternativa finanziamenti imprese fonti di finanziamento finanza sostenibile finanza green fasi del risk management voucher innovazione webidoo formazione 4.0 formazione a distanza gestione del credito gestione efficiente gestione personale gdpr gdo formazione manageriale freesource fund raising expo 2020 esports dialogo uomo-macchina digitale digitalizzazione aziendale development deliver to stock decreto cura Italia decreto liquidità decreto rilancio digitalizzazione impresa e-finance employee experience energie rinnovabili esg emergenza covid emergenza coronavirus e-learning ecommerce gestione rischi gestione rischi fiscali innovazone digitale insurtech integrazione digitale dei processi aziendali innovazone voucher internazionalizzazione influencer influencer marketing innovation management integrazione processi aziendali intelligenza emotiva italia smart lavoro leadership invitalia investimenti green international market intervista industria digitale incentivi impresa high-tech hr hr management hi-tech green manager giffoni giffoni innovation hub grande distribuzione organizzata human resources management il ruolo dell'advisor imprese incentivi incentivi economici impresa smart impresa innovativa impresa 4.0 impresa green dati
Iscriviti alla newsletter
Cross Hub Logo

Affiancare le imprese, enti ed istituzioni in tutti gli aspetti di natura strategica ed operativa attraverso la "mobilitazione integrata" (CROSS) di competenze ed esperienze (HUB) in risposta alle specifiche esigenze aziendali.

CONTACT INFO

SEDE LEGALE

Via dei Mille, 47

80121 - Napoli

 

SEDE OPERATIVA

Via Morgantini, 3 

80134 - Napoli

 

SEDE OPERATIVA

Via Bruno Buozzi 59

00197 Roma

 

P.IVA: 08060921213

info@crosshub.it

crosshub@b2bpec.it

Tel 345 142 09 5

cross hub vince le fonti awards 2022 consulenza
Follow us