Notice: Undefined index: HTTP_ACCEPT_LANGUAGE in /web/htdocs/www.crosshub.it/home/common.php on line 169

Notice: Undefined index: HTTP_ACCEPT_LANGUAGE in /web/htdocs/www.crosshub.it/home/common.php on line 169
Regolamento Ue sull’intelligenza artificiale e Gdpr - CROSSHUB - Network of Competences
  Back Regolamento Ue sull’intelligenza artificiale e Gdpr cross hub

Regolamento Ue sull’intelligenza artificiale e Gdpr

La Commissione Europea ha presentato il Regolamento 2021/106 che delinea un quadro armonizzato sull’intelligenza artificiale. Ne parliamo con Piero Ricciardi, esperto di Compliance integrata in particolare su privacy e protezione dati

Postato il: 28-May-2021

1)Buongiorno Piero, il 21 aprile 2021 la Commissione Europea ha presentato la proposta di regolamento sull’intelligenza artificiale definita come un insieme di tecnologie in rapida evoluzione finalizzate ad ottimizzare il benessere sociale. Rispetto al nuovo  regolamento, potresti spiegarci quali obiettivi si pone e se esistono punti di contatto con il Gdpr?

 

Piero: L’obiettivo della fonte normativa è declinare i vantaggi derivanti dall’impiego di sistemi di intelligenza artificiale come:

  • il miglioramento nella fruizione dei servizi del cittadino,
  • l'agevolazione dello sviluppo delle imprese,
  • il conferimento di maggiore efficienza ai servizi di interesse pubblico

con i risvolti negativi che potrebbero concretizzarsi, ove i primi venissero impiegati mediante un uso distorto o abusivo.

 

Nello specifico, gli obiettivi che il Regolamento si propone di realizzare sono:

  • garantire che i sistemi di IA immessi sul mercato dell'Unione siano sicuri e rispettino le leggi esistenti sui diritti fondamentali e sui valori dell'unione
  • garantire la certezza del diritto per facilitare gli investimenti e l'innovazione nell’IA
  • migliorare la governance e l'effettiva applicazione delle leggi esistenti sui diritti fondamentali e sui requisiti di sicurezza applicabili IA sistemi di IA
  • facilitare lo sviluppo di un mercato unico applicazioni di IA legali, sicure e affidabili, prevenendo la frammentazione del mercato interno.

 

Rispetto ai punti di contatto con il Gdpr, la risposta è Si.

Esistono notevoli assonanze tra il cd. Gdpr e la proposta di Regolamento sull’intelligenza artificiale (IA); un rapido excursus ci aiuterà a comprenderle meglio. Il 21 aprile 2021 la Commissione Europea ha presentato la propria proposta di Regolamento europeo sull’Intelligenza Artificiale (IA), volto ad introdurre una disciplina unanime e condivisa tra gli Stati Membri nell’ottica di garantire i diritti e le libertà fondamentali di tutti i cittadini europei.

 

Analogamente a quanto è accaduto col Gdpr, anche questo sulla IA avrà un proprio iter declinato tra approvazione e messa in esecuzione. Con questo Regolamento verranno introdotte, salvo modifiche, una serie di obblighi particolarmente significativi relativamente ai sistemi di IA, che ricalcheranno l’approccio del Regolamento europeo sulla protezione dei dati.

 

2) Chiariti gli obiettivi della proposta di regolamento, possiamo affermare che al suo interno vi siano varie tipologie di rischi inerenti all'IA?

 

Piero: In effetti, si parte dalla individuazione di un rischio inaccettabile; qui si tratta di sistemi IA che mettono a rischio i diritti e le libertà dei cittadini UE e che, pertanto, saranno sostanzialmente banditi.

 

In tali casi di parla di IA forte in quanto questa tecnologia è in grado di riprodurre processi intellettivi analoghi a quelli umani; rientrano in questa classe:

  • i sistemi di IA che utilizzino tecniche subliminali che, al di là della consapevolezza di una persona, possa manipolare materialmente il suo comportamento in un modo tale da causare (o è probabile che possa causare a quella persona o a un'altra persona) danni fisici o psicologici;

 

  • i sistemi di IA che sfruttino una qualsiasi delle vulnerabilità di un gruppo specifico di persone a causa della loro età, disabilità fisica o mentale, al fine di manipolare materialmente il comportamento di una persona appartenente a quel gruppo in un modo da causare (o è probabile che possa causare) a quella persona o un'altra persona danni fisici o psicologici;

 

  • i sistemi di IA da parte della pubblica autorità (o per suo conto) per la valutazione o la classificazione dell’affidabilità delle persone fisiche per un determinato periodo di tempo in base al loro comportamento sociale o a caratteristiche personali o di personalità note o previste, con l’attribuzione di un punteggio sociale (c.d. social scoring);

 

  • l'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico per finalità di law enforcement (fatte salve alcune eccezioni relative: alla ricerca mirata di specifiche potenziali vittime di reati, compresi bambini scomparsi; la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o sicurezza fisica delle persone fisiche o di un attacco terroristico; l'individuazione, la localizzazione, l'identificazione o il perseguimento di un autore o sospettato di un reato punibile nel membro Stato interessato da una pena detentiva o un ordine di detenzione per a periodo massimo di almeno tre anni, come determinato dalla legge dello stesso Stato membro).

 

3) Si può pensare che una IA così pervasiva possa trovare un ambito di applicazione?

 

Piero: Si, ma è necessario ed opportuno che in questi casi si debba predisporre una serie di sistemi atti a limitarne o a gestirne l’uso; ad esempio:

 

  • predisporre, implementare e documentare un sistema di gestione del rischio (art. 9); nei sistemi di IA ad alto rischio che utilizzano tecniche che comportano la formazione di modelli con i dati, devono essere sviluppati sulla base di set di dati di addestramento, convalida e test che soddisfano i criteri di qualità specifici (art. 10);

 

  • redigere la documentazione tecnica prima delle data di immissione sul mercato o della messa in servizio e deve essere costantemente aggiornata (art. 11)

 

  • essere progettati e sviluppati con capacità che consentano la registrazione automatica degli eventi ("log") durante il loro funzionamento; tali capacità di registrazione devono essere conformi a standard riconosciuti o comuni specifiche (art. 12)

 

  • essere progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente per consentire agli utenti di interpretare il sistema output e utilizzarlo in modo appropriato (art. 13)

 

  • essere progettati e sviluppati in modo tale - (anche con strumenti di interfaccia uomo-macchina appropriati) - da poter essere efficacemente controllati da persone fisiche durante il periodo in cui è in uso il sistema di IA (art. 14);

 

  • i fornitori garantiscono che i sistemi di IA destinati a interagire con le persone fisiche siano progettati e sviluppati in modo tale che le persone fisiche siano informate che stanno interagendo con un sistema di intelligenza artificiale; tale obbligo non si applica ai sistemi di IA autorizzati per legge a individuare, prevenire, indagare e perseguire reati:

 

  • gli utenti di un sistema di riconoscimento delle emozioni o di un sistema di classificazione biometrica devono informare del funzionamento del sistema le persone fisiche ad esso esposte. Questo obbligo non si applica ai sistemi di IA utilizzati per la categorizzazione biometrica, nei casi consentiti, per rilevare, prevenire e indagare sui reati.

 

  • Gli utenti di un sistema IA che genera o manipola contenuti immagine, audio o video che assomiglino sensibilmente a persone, oggetti, luoghi o altre entità o eventi esistenti e che sembrino falsamente una persona reale («deep fake»), deve rivelare che il contenuto è stato generato o manipolato artificialmente.

 

4) All'interno della proposta di regolamento, si sente spesso parlare di sistemi invasivi utilizzati per il riconoscimento facciale. Puoi spiegarci meglio?

 

Piero: per i sistemi IA di riconoscimento facciale biometrico utilizzati dalle forze dell’ordine per ragioni di law enforcement, pur rientrando in questa classe, i limiti saranno molto più stringenti. Il loro utilizzo da parte della pubblica autorità sarà consentito solo in casi eccezionali, quali la ricerca di un soggetto smarrito o IA fini di prevenzione di una specifica ed imminente minaccia terroristica.

 

A riguardo, è necessario sottolineare che il Garante Europeo ha manifestato un po’ di malumore verso la scelta della Commissione di non inibire completamente l’utilizzo di questi strumenti, ritenendoli misure di sorveglianza di massa che avrebbero meritato limiti ulteriori rispetto a quelli correlati al solo utilizzo per ragioni di law enforcement.

 

5) Definiti gli obiettivi e gli ambiti dell'IA, potresti dirci quali sono le principali linee guida di tali applicazioni? Inoltre all'interno della proposta, è previsto l'intervento delle autorità di controllo e sono previste delle sanzioni?

 

Piero: In estrema sintesi possiamo indicare come prioritaria la protezione della dignità umana e la tutela dei diritti umani e delle libertà fondamentali, in particolar modo quando le IA sono impiegate nei processi decisionali; le IA che trattano dati personali devono operare secondo un approccio basato sugli requisiti analoghi a quelli previsti dal Regolamento 679/2016 (GDPR), e cioè: liceità, correttezza, specificazione delle finalità, proporzionalità del trattamento, privacy by design, privacy by default, accountability, trasparenza, sicurezza dei dati e gestione dei rischi.

 

Per lo sviluppo delle IA è necessario un approccio che prevenga e attenui i potenziali rischi del trattamento dei dati personali e nella valutazione del rischio, ed è necessario, altresì, adottare una prospettiva più ampia che tenga conto non solo dei diritti umani e delle libertà fondamentali ma anche del funzionamento delle democrazie, dei valori sociali ed etici dei Paesi dell’Unione europea; le IA devono rispettare pienamente i diritti degli interessati e devono sempre consentire un controllo da parte degli interessati.

 

Ancora, si deve adottare un approccio preventivo per valutare l’impatto di possibili conseguenze negative derivante dallo sviluppo di applicazioni IA in tutte le fasi del trattamento dei dati personali, avendo un approccio volto a garantire la tutela dei diritti umani dalle fasi di progettazione, evitando così qualsiasi pregiudizio o altri effetti negati sui diritti umani e le libertà fondamentali degli interessati; valutare la qualità, la natura, l’origine e la quantità dei dati personali utilizzati, eliminando i dati superflui e utilizzato dati sintetici (rappresentativi dei dati reali originali) quando possibile.

 

Per ottemperare a tali requisiti è necessario che l’utilizzo di modelli algoritmici siano sempre contestualizzati per non produrre impatti negativi sulle persone e la società.

 

Anche gli sviluppatori, produttori e fornitori di servizi IA devono coinvolgere nei processi di sviluppo delle applicazioni comitati indipendenti di esperti per garantire la trasparenza e il rispetto dei diritti umani ed evitare potenziali pregiudizi.

 

Sicuramente, ma alle autorità di controllo devono essere forniti i mezzi sufficienti per attuare i programmi di vigilanza sugli algoritmi. L’intervento umano deve essere preservato nei processi decisionali; gli sviluppatori, produttori e fornitori di IA, qualora ritengano che l’applicazione possa incidere in modo significativo sui diritti umani e sulle libertà fondamentali, dovrebbero consultare le preposte autorità di controllo e dovrebbero promuovere la cooperazione tra le diverse autorità competenti in materia di protezione dei dati personali, di concorrenza e diritti del consumatore.

Per questo motivo è necessario garantire l’indipendenza dei comitati di esperti.

 

I legislatori devono garantire la partecipazione e l’inclusione attiva di individui, gruppi o altre parti interessate al dibattito sul ruolo della IA.

 

Analogamente a quanto previsto dal GDPR, ogni Stato designerà la propria Autorità di controllo mentre a livello centrale sarà creato il European Artificial Intelligence Board, autorità che ricalca il modello dell’EDPB.

I policy maker devono effettuare investimenti nella direzione di una necessaria alfabetizzazione digitale per aumentare la consapevolezza degli interessati riguardo alle applicazioni IA e i loro effetti.

 

Per il sistema sanzionatorio invece, esso si articolerà su tre livelli:

  • per l’utilizzo dei sistemi proibiti o per la mancata implementazione dei sistemi di data governance previsti per i sistemi ad alto rischio, la sanzione potrà arrivare a 30 milioni di euro o al 6% del fatturato globale medio annuo;
  • per la violazione degli altri obblighi, l’ammontare arriva fino a 20 milioni o il 4% del fatturato globale medio annuo;
  • per la violazione degli obblighi informativi o di notificazione degli eventuali incidenti di sicurezza verso le autorità di controllo, è prevista una fascia sanzionatoria ad hoc che può arrivare a 10 milioni o al 2% del fatturato globale medio annuo.

Non perdere gli ultimi articoli!

Inserisci la tua email 

TAG CLOUD

innovazione finanza covid-19 startup pmi innovation manager operations coronavirus PMI marketing risorse umane innovazione digitale innovazione tecnologica smart working digital transformation innovazione aziendale internazionalizzazione andrà tutto bene sostenibilità aziendale hr bilancio di sostenibilità gestione risorse umane industria 4.0 business impresa hr manager voucher innovation manager 2021 controllo di gestione temporary manager consulenza finanziaria digital marketing fintech prototipazione rapida HR innovation credito d'imposta export digital e-commerce Innovazione io resto a casa business development voucher innovation manager digitalizzazione lavoro agile economia green economy hr management gestione del rischio impresa digitale mercati esteri Ricerca & Sviluppo marketing digitale legge finanziaria 2020 gestione impresa PMI innovative MISE gestione aziendale piano impresa 4.0 open innovation cash flow gestione finanziaria campi flegrei crescita aziendale investimenti cina human resources human resources management big data consulenza equity crowdfunding finanza agevolata pmi innovative campania fase 2 aziende sostenibili comunicazione d'impresa covid compliance liquidità impresa Innovation Manager trasformazione digitale CRM turismo temporary management GDPR CFO Impresa sviluppo impresa Digital Transformation vendita online stampa 3d IoT risk management sostenibilità venture capital soft skills Al system integration soft skill cloud Consulenza direzionale capitale umano cfo come fare un business plan Consulenza Comunicazione interna cloud computing clausola salvaguardia ERP business travel buzzoole business plan startup Exponential Technologies ExtraMot caffè carbonelli cambio valuta capitale della cultura Cyber Security capacità di feedback commissione di massimo scoperto Ecommerce Credito d'Imposta concorrenzasleale Analisi di bilancio corporate social responsability controllo rischio fiscale Apple Developer Academy contact tracing contributo a fondo perduto AR ADHD crowdfunding cybersecurity crisi economica criptovaluta 3d printing 2watch consumi consulenza impresa Financial Controller Cloud conad comunicazione aziendale Commissione europea Comfort Zone Change Management consulente consulenza aziendale Bankitalia consulenza HR CRM aziendale evoluto Campania innovativa community business opportunity Impresa 4.0 innovativa Sanità 4.0 Sicurezza Informatica Salva banche Impresa digitale Risk Management Risorse Umane Sostenibilità Strumento a complemento della finanza tradizionalenel segno dell’innovazione e della trasparenza Il controllo di gestione Temporary management Temporary Export Manager Tax governance Sviluppo data protection Industrial Controller Reverse Engineering Internazionalizzazione Marketing Material Requirement Planning Iot Lean organization Lean manufacturing Kaizen Intelligenza artificiale Mise Produzione 4.0 Rendiconto finanziario Procida capitale della cultura 2022 Innovation management Insuretech Innovazione Impresa Voucher Consulenza in Innovazione IT Gestione del personale Fractional management bilancio sociale beni di lusso Gestione manageriale Giorgio Ventre batterie di sabbia blockchain bonus impresa Fintech business plan Lean business intelligence bonus pubblicità Fractional Manager H R Harmont & Blaine agevolazioni alibaba acceleratore startup IP Management Voucher Innovation Manager Voucher T.E.M. analisi paese IMHERO Human resources Human Resources IA aziende innovative andràtuttobene asset management Financial Controller Manager finanza green public relations realtà aumentata regolamento Ue pubblicità protezione dati personali product placement project manager protezione dati remote working rendiconto finanziario risk manager risorse finanziarie robotica avanzata rischio cambio riduzione sprechi responsabilità d'impresa retail reverse engineering procida capitalde della cultura processi operativi minibond modello business new normal metodi organizzativi aziendali innovativi metodi formativi marketing automation marketing territoriale maxi decreto newfinance normativa pmi innovativa privacy processi di gestione pmi green pasta garofalo opensource organizzazione aziendale sanità 4.0 scaleup tecnologia tecnologia avanzata tecnologie 4.0 tech sviuppo impresa sviluppo organizzativo sviluppo risorse umane sviluppo sostenibile tecnologie della sanità tecnologie digitali voucher internazionalizzazione web marketing webidoo voucher innovazione voucher consulenza in innovazione tecnologie verdi tracciamento dati transizione energetica sviluppo business supporto imprese sicurezza informatica social advertising social media marketing sicurezza dati shared innovation screening settore fashion settore food soft skill” sostenibilità ambientale strategia di comunicazione stratup supply chain strategia d'impresa sport virtuale sparring partner spinup manager esterno malazè finanziamenti imprese fonti di finanziamento formazione 4.0 finanzalternativa finanza sostenibile fasi del risk management feedback welfare aziendale formazione a distanza formazione aziendale. hr management gestione del credito gestione efficiente gestione personale gdpr gdo formazione manageriale freesource fund raising expo 2020 esports dialogo uomo-macchina digitale digitalizzazione aziendale development deliver to stock decreto cura Italia decreto liquidità decreto rilancio digitalizzazione impresa e-finance employee experience energie rinnovabili esg emergenza covid emergenza coronavirus e-learning ecommerce gestione rischi gestione rischi fiscali intelligenza artificiale intelligenza emotiva international market integrazione processi aziendali integrazione digitale dei processi aziendali innovazone innovazone digitale insurtech intervista investimenti green made in italy magaldi make to order let's talk leadership invitalia italia smart lavoro innovation management influencer marketing high-tech il ruolo dell'advisor impresa 4.0 hi-tech green manager giffoni giffoni innovation hub grande distribuzione organizzata impresa green impresa innovativa incentivi impresa industria digitale influencer incentivi economici incentivi impresa smart imprese dati
Iscriviti alla newsletter
Cross Hub Logo

Affiancare le imprese, enti ed istituzioni in tutti gli aspetti di natura strategica ed operativa attraverso la "mobilitazione integrata" (CROSS) di competenze ed esperienze (HUB) in risposta alle specifiche esigenze aziendali.

CONTACT INFO

SEDE LEGALE

Via dei Mille, 47

80121 - Napoli

 

SEDE OPERATIVA

Via Morgantini, 3 

80134 - Napoli

 

SEDE OPERATIVA

Via Bruno Buozzi 59

00197 Roma

 

P.IVA: 08060921213

info@crosshub.it

crosshub@b2bpec.it

Tel 345 142 09 5

cross hub vince le fonti awards 2022 consulenza
Follow us