Riconoscimento facciale e (il)liceità del trattamento di dati biometrici
Massimazione e Commenti ai Provvedimenti del Garante a cura dell’Osservatorio Privacy collegato con il Corso di Alta Formazione in Data Protection e Privacy Officer dell’Università di Bologna https://site.unibo.it/dpo
Massima (1) – Ove il titolare del trattamento non individui un proprio stabilimento in Europa, al fine di condurre una valutazione in ordine all’applicabilità della normativa europea in materia di protezione dei dati personali al trattamento da questi posto in essere, occorre verificare la sussistenza dei criteri di cui all’art. 3, par. 2, del GDPR (c.d. targeting). Tali criteri sono individuati nell’offerta di beni o servizi ad interessati che si trovano nell’Unione oppure nello svolgimento, rispetto a questi ultimi, di un’attività correlata al monitoraggio del comportamento di essi, nella misura in cui quest’ultimo ha luogo nell’Unione.
Massima (2) – Ove un Internet Service Provider con stabilimento extra UE decida di chiudere gli account europei e di non offrire più i suoi prodotti e servizi nel contesto dell’Unione europea, inibendo l’accesso agli IP europei, può ugualmente evincersi che, nel periodo precedente a tale decisione, il Provider indirizzava – e aveva l’intenzione di farlo – i propri prodotti e servizi anche in Europa. In ragione di ciò può pertanto trovare applicazione la disciplina europea in materia di protezione dei dati personali, qualora, ai sensi dell’art. 3, par. 2, lett. a), GDPR, si desumano dalla fattispecie concreti elementi che possano far ritenere sussistente l’intenzione del titolare del trattamento di offrire beni e servizi a destinatari che si trovino in Europa, anche nella ipotesi in cui il bene e servizio non venga mai commercializzato.
Massima (3) – La creazione di un archivio di dati personali che riguarda un interessato presente nell’Unione che si compone di informazioni articolate nel tempo o di riferimenti a momenti temporali diversi, arricchito con tutte le informazioni associabili alla persona stessa ed i cui dati vengono analizzati comparativamente, integra il requisito del monitoraggio del comportamento dell’interessato.
Massima (4) – Il trattamento posto in essere da un Internt Service Provider, consistente nella raccolta di immagini dal web (c.d. web scraping) e nella loro elaborazione con strumenti automatizzati al fine di creare rappresentazioni vettoriali di volti e, successivamente, sottoporli ad hash per indicizzare i dati, operazione necessaria per stabilire una eventuale correlazione con le immagini oggetto di comparazione caricate dagli utenti, è attività che non appare sovrapponibile a quella posta in essere da un qualsiasi motore di ricerca, tenuto conto del fatto che il titolare compie una rielaborazione tecnica delle immagini raccolte, tanto da renderle “dati biometrici”, alle quali sono peraltro associate informazioni certamente idonee ad identificare la persona ritratta, a cui viene correlato un archivio di risorse che si snoda attraverso il tempo. La valutazione di tale circostanza, unitamente alla finalità comparativa sopra evidenziata, è idonea ad integrare, come richiesto nel Considerando 24, un’attività assimilabile al controllo del comportamento dell’interessato, ossia al monitoraggio dell’interessato, in quanto posta in essere tramite il tracciamento in Internet e la successiva profilazione. Ove tale attività sia posta in essere da un provider stabilito al di fuori dell’UE, è ravvisabile l’ambito territoriale di applicazione del GDPR ai sensi dell’art. 3, par. 2, lett. b).
Massima (5) – Ove un provider statunitense, privo di un proprio stabilimento nell’UE, ponga in essere un trattamento di dati personali qualificabile come “transfrontaliero” ai sensi dell’art. 4, par. 1, n. 23 del GDPR, in quanto idoneo ad incidere su interessati in più di uno Stato membro, trova applicazione quanto previsto dall’art. 55, par. 1, GDPR, ai sensi del quale «ogni Autorità di controllo è compente ad eseguire i compiti assegnati e a esercitare i poteri ad essa conferiti a norma del (…) regolamento nel territorio del rispettivo Stato membro». Tale disposizione è idonea a fondare la competenza dell’Autorità di protezione dati italiana in ordine alla valutazione, con riguardo al proprio territorio, della conformità al Regolamento europeo del trattamento di dati personali posto in essere da tale provider e ad esercitare i poteri ad essa riconosciuti dall’art. 58 GDPR.
Massima (6) – La rappresentazione vettoriale di dati biometrici non fa venire meno il carattere biometrico della rappresentazione stessa.
Massima (7) – Per legittimare un’attività di trattamento, un titolare che tratta categorie particolari di dati non può mai invocare soltanto un fondamento giuridico ai sensi dell’art. 9 GDPR, ma dovrà applicare, in maniera cumulativa, anche le previsioni dell’art. 6 GDPR al fine di garantirne il livello di tutela pertinente. L’applicazione cumulativa delle tutele previste dagli articoli citati risulta dirimente anche per escludere interpretazioni che portino a sostenere la possibilità di trattare categorie particolari di dati, senza rispettare l’art. 6, in presenza delle sole eccezioni di cui all’art. 9. Per tale ragione, ad esempio, sarebbe inappropriato concludere che il fatto che qualcuno abbia reso alcune categorie particolari di dati manifestamente pubbliche, ai sensi dell’art. 9, par. 2, lett. e), del GDPR, sia (sempre in sé e per sé) una condizione sufficiente a consentire qualunque tipo di trattamento dei dati, senza effettuare un test comparativo degli interessi e dei diritti in gioco in conformità dell’art. 6, par. 1, lett. f), del GDPR.
Massima (8) – La pubblicazione di dati personali in Internet, per il solo fatto del loro pubblico stato, non legittima il loro trattamento da parte di titolari terzi per finalità proprie, ulteriori e non compatibili rispetto a quelle originariamente perseguite con la pubblicazione.
Massima (9) – Se un soggetto – nel caso di specie un Internet Service Provider – decide da solo le finalità e le modalità delle operazioni che precedono o sono successive nella catena del trattamento, tale soggetto – il provider – deve considerarsi unico titolare dell’operazione precedente o successiva. Pertanto, la circostanza che i clienti di un provider possano perseguire finalità ulteriori rispetto a quelle connesse alle sue attività di trattamento non infinge, né risulta incompatibile con il ruolo di titolare del trattamento del provider medesimo.
Provvedimento: GPDP, Docweb n. 9751362 del 10 febbraio 2022
Link: https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9751362
Keywords: Riconoscimento facciale, Biometria, Dati biometrici, Dati particolari, Intelligenza artificiale, Internet e social media, Ambito territoriale di applicazione, Base giuridica, Finalità, Diritti dell’interessato, Conservazione dei dati, Condizioni di liceità, Piattaforme digitali, Monitoraggio, Indirizzo IP, Trasferimenti transfrontalieri, Trasferimenti extra UE, Competenza del Garante, Titolare unico del trattamento.
Riferimenti normativi: Artt. 3, 5, par. 1 lett. a), b) ed e), 6, 9, 12, 13, 14, 15, e 27 GDPR
Data del commento: 16 luglio 2022
Massime e Commento di Dalia Pizzocchero
1. Il caso
Con il provvedimento in esame l’Autorità Garante ha ritenuto illecito il trattamento di dati relativi a persone che si trovano sul territorio italiano svolto da Clearview, società statunitenze che ha realizzato un motore di ricerca per il riconoscimento facciale (facial recognition search engine). Ha così imposto alla società una sanzione pecuniaria pari ad euro 20.000.000, il divieto a proseguire il trattamento e l’ulteriore raccolta dei dati mediante il predetto sistema di trattamento, disponendo altresì la cancellazione dei dati già raccolti.
Clearview è una società statunitense che propone ai propri clienti, principalmente forze dell’ordine, un servizio di ricerca delle informazioni online, basato sul riconoscimento facciale, utile – secondo la ricostruzione effettuata dal Garante per la protezione dei personli – alla identificazione e al tracciamento delle persone oggetto di ricerca da parte dell’utente.
Il servizio fornisce all’utente tutte le immagini relative alla persona cercata presenti nella base dati di Clearview, arricchendo il risultato con anche tutte le ulteriori informazioni di cui è in possesso (indirizzi url, dati di localizzazione, etc.).
Clearview ha costituito la propria base dati scaricando in modo sistematico, massivo ed automatizzato (scraping) fotografie di persone pubblicamente accessibili sul web (social network, blog, siti, video online, etc.), come pure tutti i relativi metadati di interesse; le immagini venivano altresì arricchite utilizzando informazioni ottenute da banche dati esterne.
Più precisamente, come riportato dal Garante nel provvedimento in esame, le immagini facciali raccolte online «vengono elaborate con tecniche biometriche al fine di estrarre le caratteristiche identificative di ognuna di esse e, successivamente, trasformate in “rappresentazioni vettoriali”. Tali rappresentazioni, costituite da 512 vettori che ricalcano le diverse linee uniche di un volto, vengono successivamente sottoposte ad hashing per finalità di indicizzazione del database e di successiva ricerca. La Società crea, dunque, dei modelli (template) biometrici che, nella fase della ricerca vengono sottoposti a comparazione con il campione oggetto della ricerca generando un processo di verifica 1 a N (one to many). L’image hash, l’identificativo univoco di ogni immagine (una sorta di impronta digitale facciale), agevola, come detto, l’indicizzazione e la successiva ricerca. La piattaforma è dichiaratamente stata creata al fine di generare degli investigation lead di alta qualità».
Inoltre, precisa ancora il Garante nel medesimo provvedimento, «Ogni immagine può essere arricchita con i metadati associati (ad esempio, il titolo dell’immagine o della pagina web, il link della fonte, la geolocalizzazione, il genere, la data di nascita, la nazionalità, la lingua) cosicché quando il software identifica una corrispondenza, estrae dal database tutte le relative immagini e le presenta al cliente del servizio come risultato della ricerca unitamente ai metadati e ai link associati, permettendo così di risalire ad ogni singola pagina sorgente. Un’immagine così raccolta rimane nel database anche nell’ipotesi in cui la foto originaria o la pagina web di riferimento sia successivamente rimossa o resa privata». Per comprendere la mole delle informazioni trattate, il Garante ha rimarcato che la società Clearview nel proprio sito web ha dichiarato di trattare, tramite il proprio database, «oltre 10 miliardi di immagini facciali estratte da fonti web pubbliche, inclusi mezzi di informazione, siti web di foto segnaletiche, social media pubblici e altre fonti di pubblico accesso».
L’attività ispettiva dell’Autorità ha preso il via d’ufficcio a seguito di diverse notizie diffuse a mezzo stampa ed è stata successivamente condotta anche sulla base della presentazione di segnalazioni e reclami da parte di alcune persone presenti sul territorio italiano che si sono rese conto che le loro fotografie e dati erano presenti nella base dati di Clearview. A questi reclami si sono affiancati anche segnalazioni presentate da organizzazioni impegnate nella difesa della privacy e di altri diritti fondamentali, tutte concordi nel lamentare rilevanti criticità nella condotta tenuta da Clearview nel trattamento dei dati personali.
Il principale rilievo mosso dai reclamanti è relativo al fatto che le foto entrate nella disponibilità di Clearview fossero state acquisite all’insaputa delle persone stesse e sovente anche in contrasto con i termini e le condizioni delle pagine web. Per dare seguito alle diverse istanze di accesso presentate dagli interessati, il Provider chiedeva sistematicamente copia del documento di identità degli istanti.
2. Le questioni
Diverse sono le questioni affrontate nel provvedimento, tra cui di particolare interesse sono (a) quella relativa all’ambito di applicazione materiale territoriale del GDPR ai sensi degli artt. 2 e 3 GDPR ed alla verifica della sussistenza della giurisdizione e competenza del Garante italiano; (b) la questione relativa alla rilevanza, ai fini della disciplina sulla privacy, del trattamento in esame, in ragione della natura dei dati oggetto di trattamento e delle operazione effettuate su di essi mediante la ricerca di informazioni basate sul riconsocimento facciale; (c) la questione relativa alla individuazione della base giudica legittimante il trattamento ed il rapporto tra l’art. 6 e l’art. 9, con riguardo ai dati particolari; nonché (d) quella relativa alla individuazione del corretto ruolo privacy da assegnare a Clearview, rispetto al trattamento effettuato dai propri utenti ed infine (e) quella relativa alle violazioni del GDPR ed all’individuazione delle misure correttive da apportare al trattamento.
2.1. Ambito di applicazione del GDPR e sussistenza della giurisdizione e competenza del Garante
Sulla prima questione, il Garante ha affermato che il trattamento di dati personali posto in essere da Clearview rientra nell’ambito di applicazione materiale e territoriale del GDPR ed ha altresì affermato la sussistenza della propria competenza a valutare la conformità dei trattamenti ai sensi del Regolamento.
Nello specifico con riguardo all’ambito territoriale di applicazione del GDPR, il Garante ha risolto in senso negativo la questione relativa alla applicabilità del criterio definito dall’art. 3 par.1 del GDPR: Clearview, infatti, è una società statunitense, non stabilita in Europa e che non svolge attività di trattamento nell’ambito di uno stabilimento nell’UE, indipendentemante dal fatto che il trattamento sia effettuano o meno in Europa.
Ha invece ritenuto che al caso in esame siano applicabili le condizioni individuate dell’art. 3 al par. 2 del GDPR ed ha altresì affermato la propria competenza a giudicare.
Quanto alla applicabilità del criterio individuato al par. 2 dell’art. 3 (criterio dell’indirizzamento – targeting – del trattamento), entrambe le condizioni di applicabilità, individuate rispettivamente alle lett. a) e b), sono state ritenute applicabili, precisando che «Nel caso di specie, il fatto che Clearview effettui un trattamento di dati personali di soggetti che si trovano nell’Unione europea e, in particolare in Italia, si evince dai riscontri che la Società ha fornito ai reclamanti, da cui risulta pacificamente che sono state raccolte immagini degli stessi, che tali immagini sono state associate a metadati e sottoposte ad elaborazione biometrica (tali immagini sono, infatti, l’esito dell’identificazione risultante dal confronto dei dati memorizzati nel database con il campione fornito dai reclamanti), ma anche, indirettamente, dalle evidenze emerse nell’ambito dei procedimenti avviati dalle Autorità di controllo europee (cfr. decisione dell’Autorità di controllo tedesca del Land di Amburgo (decisione 545/2020; 32.02-102) e della Commission Nationale de l’Informatique et des Liberté (CNIL, Decision n° MED 2021-134 of 1st November 2021 issuing an order to comply to the company CLEARVIEW AI)».
In particolare, l’applicabilità del dettato della lett. a) del par. 2 dell’art 3 è stata affermata poiché le attività poste in essere da Clearview sono a tutti gli effetti classificabili come offerta di beni e servizi in favore di persone presenti in Europa. Nello specifico gli elementi istruttori raccolti sono stati sufficienti a provare la concreta e deliberata intenzione di Clearview di offrire beni e servizi sul territorio europeo, sebbene dopo il momento di avvio delle indagini e la prima richiesta di informazioni al Provider da parte del Garante, il servizio non avesse utenti europei e\o italiani attivi e Clearview avesse, mediante interventi correttivi della propria privacy policy e dei termini del servizio, altrettanto chiaramente manifestato la volontà di non più volerli offrire in Europa.
L’approccio interpretativo adottato è stato concreto ed olistico, coerente con i contenuti del considerando n. 23 del GDPR ed in toto aderente anche all’approccio metodologico proposto dall’EDPB nelle proprie Guidelines 3/2018 on territorial scope, Guidelines che a loro volta mutuano l’approccio adottato dalla CGUE nel dirimere questioni in materia di competenza, di riconoscimento ed esecuzione delle decisioni in materia civile e commerciale.
In sintesi, l’utilizzo di dati di persone presenti in Europa determina l’applicazione del regime del GDPR, sia quando il trattamento è fatto durante l’erogazione del servizio o la vendita del bene, sia quando il trattamento è preliminare al loro collocamento sul mercato.
È sufficiente, perché il GDPR trovi applicazione, che venga provata l’intenzione di mettere il bene o il servizio sul mercato, anche se poi nel concreto il titolare non procedesse mai alla sua effettiva commercializzazione.
Nel caso di specie il Garante ha rinvenuto l’intenzione di rivolgersi al mercato europeo da parte di Celarview, la quale «emerge in modo evidente anche dai termini in cui è stata formulata la privacy policy anteriormente alle modifiche apportate a partire dal 20 marzo 2021, ovvero in un tempo collocabile tra la prima richiesta di informazioni da parte del Garante, datata 9 marzo 2021, ed il successivo riscontro fornito dalla società il 25 marzo 2021. Fino ad allora detta informativa conteneva, infatti, una serie di indicatori dai quali era possibile desumere la volontà del titolare del trattamento di rivolgere l’offerta del proprio servizio anche ad utenti dell’Unione europea, tra cui la base giuridica del trattamento, in linea con quanto previsto dall’art. 6 del Regolamento, l’impegno ad adottare garanzie adeguate per conformare alle norme in materia di protezione di dati personali l’eventuale trasferimento di dati al di fuori dello Spazio economico europeo e la previsione della possibilità per i residenti dello Spazio economico europeo o della Svizzera di presentare reclamo all’Autorità di protezione dati competente riguardo al trattamento effettuato nei loro confronti da parte di Clearview».
L’applicazione di questo approccio interpretativo estensivo ribadisce la volontà della Autorità di garantire alle persone che si trovano nel territorio italiano che la tutela dei loro dati personali sia effettiva e che il livello di protezione loro garantito dal GDPR non risulti attenuato o addirittura venga meno per il solo fatto che il titolare del trattamento ed il trattamento stesso vengono svolti fuori dall’Europa.
Con riferimento alla condizione del monitoraggio del comportamento di cui alla lett. b) del par. 2 dell’art. 3, il Garante ha superato la posizione di Clearview, che negava l’applicabilità del criterio, provando, nella fattispecie concreta, l’effettivo monitoraggio dei comportamenti dalle persone che si trovavano in Italia.
Anche in questo caso l’approccio metodologico adottato è armonico rispetto al dettato del considerando n. 24 del GDPR ed aderisce in toto all’approccio metodologico proposto dal EDPB nella Guideline di cui sopra, ma anche dal WP nelle linee guida 251 rev.01 sul processo decisionale automatizzato relativo alle persone fisiche e sulla profilazione ai fini del Reg. UE 2016/679
Nello specifico il Garante ha comprovato come Clearview non si sia limitata alla archiviazione e\o organizzazione delle immagini, utilizzando criteri di ricerca quali l’età, il sesso, etc.
Il criterio di ricerca che Clearview ha sviluppato ed utilizza per rispondere alle interrogazioni degli utenti si basa proprio su una tecnologia di identificazione biometrica che estrae e compara le caratteristiche fisiche identificative della persona, tenendo peraltro in debita considerazione i cambiamenti fisici che la persona ritratta ha manifestato nel corso del tempo.
Interrogando la banca dati l’utente accede non solo a tutte le foto della persona oggetto di ricerca ma anche a tutti gli innumerevoli dati con cui le immagini via via sono state arricchite (ad es. dati di localizzazione, gli url di pubblicazione delle immagini etc.).
Questo fa sì che l’utente abbia la possibilità non solo di identificare la persona oggetto della ricerca ma anche di analizzarne i comportamenti e tracciarla.
Usufruendo del servizio di Clearview l’utente accede ad un archivio che va ben oltre l’insieme delle immagini che contiene, è un archivio che si snoda attraverso il tempo e lo spazio, consentendo così in concreto di integrare l’ipotesi del monitoraggio del comportamento della persona richiesto dall’art. 3, par. 2, lett. b), del GDPR.
Il monitoraggio non avviene solo tracciando l’attività della persona in Internet o in un dato contesto geografco, ma anche osservando l’evoluzione delle sue caratteristiche fisiche nel tempo e delle sue abitudini nello spazio.
La soluzione di identificazione biometrica utilizzata da Clearview quale criterio di ricerca porta pertanto a differenziare il servizio da questa fornito rispetto a quello di un normale motore di ricerca, in quanto l’estrazione dei dati biometrici e l’analisi della loro variazione nel tempo, con associazione anche di tutte le informazioni di carattere personale contenute nei metadati e rifeirte al soggetto ritratto, tra cui la sua possibile localizzazione, integra a tutti gli effetti un’ipotesi di profilazione, avendone tutti gli elementi caratterizzanti.
Si ha dunque una forma automatizzata di trattamento di dati personali che ha come obiettivo quello di valutare aspetti della persona e, con particolare riguardo al momento valutativo (richiamato nella definizione di «profilazione» di cui all’art. 4, par. 1, n. 4, GDPR), questo si viene a concretizzare «con l’attività di comparazione biometrica – effettuata a seguito dell’esecuzione di una ricerca da parte dell’utente – e con la successiva estrazione dei profili associabili all’immagine caricata nel sistema» (GPDP, Docweb n. 9751362, in commento).
Siamo quindi nell’ambito di un monitoraggio, peraltro profilato, dell’interessato, come appunto la lett. b) dell’art. 3, par. 2, GDPR richiede.
Passando alla questione della propria competenza, il Garante l’ha affermata argomentando a contrario: trattandosi di un trattamento cross country, poiché Clearview non ha nessuno stabilimento sul territorio europeo, non trova applicazione il meccanismo di cooperazione, pertanto non è competente a giudicare l’autorità del Paese di stabilimento del titolare ma ciascuna Autorità presente negli Stati nel cui territorio si trovano le persone i cui dati sono oggetto di trattamento, il che è pacifico.
2.2. Rilevanza del trattamento ai fini della disciplina sulla privacy, natura dei dati trattati e modalità del trattamento effettuato con sistemi di facial recognition
Sulla seconda questione, il Garante ha affermato che le attività poste in essere da Clearview, costituiscono a tutti gli effetti un trattamento di dati personali anche biometrici.
Le immagini trattate da Clearview, che sono ritratti fotografici di persone, hanno non solo la capacità di rendere il soggetto ritratto identificabile, caratteristica tipica di ogni dato personale ma, in ragione dell’ulteriore trattamento cui vengono sottoposte, sono anche in grado di consentirne o confermarne la identificazione univoca.
L’ulteriore trattamento cui le foto sono sottoposte utilizza proprio le univoche caratteristiche fisiche della persona ritratta, ricavate dalla fotografia mediante l’utilizzo di una tecnologia proprietaria, al fine di identificarla o confermarne l’identità.
È quest’ultimo ulteriore trattamento, il ricavare informazioni biometriche da una fotografia, di per sé non dato biometrico, che consente di classificare i dati trattati da Clearview come anche biometrici.
Nel dettaglio, Clearview ha massivamente scaricato dal web delle immagini e le ha trattate con una tecnologia proprietaria in grado di ricavare da ciascuna fotografia le caratteristiche biometriche della persona ivi ritratta.
Le caratteristiche biometriche ricavate dalle foto costituiscono poi il criterio di ricerca che Clearview utilizza al fine di estrarre dalla propria base dati tutte le foto riferite alla persona oggetto di ricerca, così da renderle disponibili all’utente.
La rappresentazione vettoriale delle caratteristiche biometriche proprie di ciascuna persona, ricavate dalle foto, non muta la natura delle informazioni sulla persona che tali vettori consentono di rappresentare. Il dato vettoriale mantiene la natura di dato biometrico e, nel sistema di trattamento delienato da Clearview, connota le informazioni di cui costituisce la rappresentazione matematica.
Al fine dell’individuazione corretta della natura di un dato non lo si può classificare facendo riferimento ad una sola fase del ciclo di vita del dato stesso, perché ciò condurrebbe ad un esito fuorviante, tanto più in un contesto di modelli di AI (Artificial Intelligence), ML (Machine Learning) o DL (Deep Learning). Un approccio di questo tipo potrebbe facilmente portare a classificare come non relevant un trattamento che tale non è.
L’esigenza di effettiva tutela degli interessati non può prescindere da una classificazione del dato che tenga bene conto del contesto in cui è trattato. Si pensi al fatto che si può arrivare a considerare come “personale” anche un dato ottenuto, osservato e\o inferito con un modello di AI, ML o DL applicato ad una base dati totalmente anonimizzata o “non relevant” ab initio, se, post-lavorazione, il dato, in considerazione del contesto in cui viene utilizzato, è comunque in grado di rendere la persona identificabile.
In questo provvedimento non è dunque stata persa l’occasione da parte del Garante di ribadire come la classificazione di un dato come personale e la definizione della sua natura vada fatta tenendo in considerazione il contesto, le caratteristiche del processo e le finalità nel concreto perseguite con il trattamento.
Ripercorrendo il provvedimento, dunque, emerge come, in relazione alla fattispecie in esame:
(i) sia stato identificato il “problema da risolvere” (ovvero, la “funzione” del sistema di trattamento), che è quello di fornire all’utente la possibilità di rintracciare tutte le foto riferite ad una certa persona, oggetto di ricerca, presenti in una base dati;
(ii) siano stati identificati e classificati, in relazione ad esso, i dati oggetto di ingestion pro-modellazione, che sono ritratti fotografici di persone dalle quali, durante il lifecycle del dato, vengono ricavate e codificate in linguaggio matematico le caratteristiche fisiche univoche delle persone fotografate;
(iii) sia stato sviluppato un modello in grado di risolvere il “problema” (ovvero, di svolgere la “funzione” per cui è stato costituito), che è un modello di identificazione biometrica basato sul riconoscimento facciale, di tipo probabilistico, che, attraverso una logica di raffronto “uno a molti”, funge anche da criterio di ricerca , il quale, applicato alla base dati, è in grado di rendere disponibili all’utente tutte le foto relative alla persona oggetto di ricerca presenti della base dati.
La natura biometrica dei dati trattatati rende applicabile la disciplina sul trattamento dei dati aventi natura particolare, di cui all’art. 9 GPDPR e si riflette anche sugli adempimenti richiesti a protezione dell’interessato, tenendo conto delle modalità specifiche di trattamento e delle operazioni poste in essere con il sofisticato sistema approntato da Clearview.
Il provvedimento in esame, per corroborare la natura biometrica dei dati trattati e la loro rilevanza ai fini della disciplina in materia di data protection, ha preso in considerazione anche la domanda di brevetto presentata dal provider sulla tecnologia utilizzata, da cuil Garante ricava precisi dettagli sul suo funzionamento, affermando che «Il sistema si snoda attraverso i seguenti passaggi: i) ricezione dei dati di immagine facciale che comprendano almeno un’immagine facciale del soggetto dal dispositivo di un utente; ii) trasformazione dei dati dell’immagine facciale in dati di riconoscimento facciale; iii) comparazione, via server, dei dati di riconoscimento facciale di riferimento con i dati di riconoscimento facciale associati a una pluralità di immagini facciali memorizzate al fine di identificare almeno un probabile candidato corrispondente all’immagine catturata; iv) sulla base della identificazione del candidato corrispondente all’immagine facciale acquisita, recupero dal database delle informazioni personali associate al candidato; v) restituzione delle informazioni personali al dispositivo dell’utente con assicurazione che tale dispositivo visualizzi le informazioni personali» (GDPR, Provv. del 10 febbraio 2022, docweb n. 9751362, in esame).
Il Garante sul punto conclude affermando che «Clearview, dunque, non raccoglie solamente immagini per renderle accessibili ai propri clienti, ma tratta le immagini raccolte mediante web scraping, attraverso un algoritmo proprietario di matching facciale, al fine di fornire un servizio di ricerca biometrica altamente qualificata.
Inoltre, secondo le informazioni disponibili nel sito di Clearview, il servizio gratuito offerto non è liberamente accessibile al pubblico, ma è destinato a determinate categorie di clienti (i.e. forze di polizia).
I profili appena descritti portano a ritenere che la piattaforma offerta da Clearview assuma caratteri peculiari che la differenziano da un comune motore di ricerca che non elabora né arricchisce le immagini presenti in rete. In particolare, Clearview non lavora su memoria cache, ma crea un database di istantanee di immagini che vengono memorizzate come presenti all’atto della raccolta e non aggiornate. Inoltre, come detto, Clearview elabora tali immagini con tecniche biometriche, le sottopone ad hashing e le associa ai metadati eventualmente disponibili.
Le affermazioni addotte dalla Società secondo cui il servizio da essa offerto è sovrapponibile a quello offerto da Google Search paiono, pertanto, del tutto destituite di fondamento».
Il provvedimento sorvola invece il tema della valutazione della accuratezza ed affidabilità del modello, temi rispetto ai quali non fornisce spunti utili a meglio valutare la soluzione in uso. Sebbene il riconoscimento biometrico sia per sua stessa natura un trattamento a rischio elevatissimo, tuttavia solo l’esatta valutazione caso per caso della accuratezza ed affidabilità del modello in uso può dare la concreta misura dei reali impatti che la persona potrebbe avere in conseguenza della applicazione del modello.
2.3. Base giuridica legittimante il trattamento dei dati personali e cumulo tra le condizioni di liceità di cui agli artt. 6 e 9 GDPR
L’istruttoria condotta dal Garante ha fatto emergere senza ombra di dubbio come i trattamenti posti in essere da Clearview siano stati svolti in assenza di presupposto legittimante alcuno e neppure adempiendo agli obblighi informativi previsti dal GDPR.
La conclusione raggiunta è che il database composto da circa 10 miliardi di immagini facciali che Clearview ha creato è stato di fatto raccolto all’insaputa degli interessati, in assenza di uno qualsiasi dei presupposti legittimanti previsti dalla disciplina di settore e spesso anche in violazione delle condizioni generali di utilizzo dei siti su cui le foto erano legittimamente pubblicate.
Questo significa che non solo la base dati, ma anche tutte le attività con essa svolte, dal training e retrainingdell’algoritmo proprietario di riconoscimento biometrico al servizio commercializzato, sono viziate.
In particolare, secondo il provvedimento in esame, Clearview ha violato l’obbligo di rispettare i principi di liceità, correttezza e trasparenza nel trattamento dei dati dell’interessato [art. 5, par. 1, lett. a) del GDPR], il principio di limitazione delle finalità [art. 5, par. 1, lett. b) del GDPR] ed anche gli artt. 6 e 9 del GDPR, avendo trattato i dati degli interessati in assenza di presupposto legittimante alcuno.
Oltre alle puntuali argomentazioni sviluppate violazione per violazione, il principale e chiaro portato del provvedimento è che la pubblicità dei dati – ossia la loro libera accessibilità attraverso sistemi di trattamento che li rendono fruibili al pubblico, anche mediante Internet – non fa venire meno l’esigenza di individuare un presupposto legittimante il loro ulteriore trattamento.
La pubblicità del dato non costituisce un’autorizzazione generalizzata al loro riutilizzo da parte di chiunque. L’individuazione di un presupposto legittimante il trattamento, come pure il rispetto dei principi declinati dal GDPR, deve sempre avere luogo, anche quando il dato è pubblico.
Inoltre, quando anche si voglia invocare come base legittimante il trattamento l’interesse legittimo, la sola pubblicità dei dati non è condizione sufficiente a fare ritenere che tutti i fattori chiave del bilanciamento di interessi – richiesto dall’art. 6, paf. 1, lett. f), GDPR – siano automaticamente integrati. Al contrario, nel caso in esame è stato rilevato come il bilanciamento di interessi, ove svolto, non avrebbe potuto avere esito positivo.
Tra i fattori da valutare in ciascun bilanciamento esposti a maggiore criticità vi sarebbero, innanzitutto, quelli relativi alla ragionevole aspettativa dell’interessato, considerato presupposto per l’applicazione di tale condizione di liceità, ed anche il non positivo rapporto tra beneficio perseguito dal titolare e pregiudizio per l’interessato, il cui rischio non è stato controbilanciato con alcuna misura di limitazione o attenuazione.
Le caratteristiche del processo sono infatti tali da fare ritenere senza ombra di dubbio che gli interessati non potessero ragionevolmente attendersi che le loro foto, pubblicate ad esempio su profili non privati di social network, venissero integrate in un servizio di identificazione biometrica e tracciamento messo a disposizione delle forze dell’ordine di più stati, nell’ambito di attività di lotta e prevenzione del crimine.
Inoltre, i trattamenti posti in essere da Clearview nell’ambito del servizio che commercializza sono per loro natura estremamente intrusivi ed in grado di creare concreti pregiudizi agli interessi ed ai loro diritti fondamentali.
Tutto questo a fronte di nessuna misura addizionale di protezione del dato e dei diritti degli interessati.
Il bilanciamento degli interessi perseguiti da Clearview, che sono esclusivamente di tipo economico, rispetto alla esigenza di tutela dei diritti e delle libertà fondamentali degli interessati, non può non avere un esito negativo, poiché le tutele fornite agli interessati sono non adeguate.
Quanto sopra a maggiore ragione in considerazione del fatto che la base dati di Clearview contiene anche foto di minori e persone vulnerabili.
Rispetto al tema dei dati particolari, alla cui categoria cui appartengono i dati biometrici, giova rimarcare, come ben chiarito nel provvedimento in esame, che il divieto generale al loro trattamento, posto dall’art. 9, par 1, del GDPR, è derogabile solo se le eccezioni che elenca al par. 2 siano applicate cumulativamente ai presupposti legittimanti di cui all’art. 6.
La necessità di cumulare le condizioni di liceità di cui agli artt. 6 e 9, per i trattamenti che abbiano ad oggetto dati particolari, impone di evitare il ricorso all’eccezione di cui all’art. 9, par. 2, lett. e), del GDPR, relativa alla pubblicità del dato, qualora non vi sia anche un’altra condizione di liceità prevista dall’art. 6.
Infatti, tale importate aspetto è chiarito dal Garante, nel provvedimento in esame, nella parte in cui si trova rimarcato come « la ratio della disposizione sia quella di prevedere una protezione rafforzata per talune categorie di dati richiedendo, sotto il profilo applicativo, un cumulo tra le garanzie dell’art. 6 e la disciplina dell’art. 9 del Regolamento. Questo significa anche che, per legittimare un’attività di trattamento, un titolare che tratta categorie particolari di dati non può mai invocare soltanto un fondamento giuridico ai sensi dell’art. 6, ma dovrà applicare, in maniera cumulativa, anche le previsioni dell’art. 9 citato al fine di garantirne il livello di tutela pertinente. In tal senso si è espresso, nelle Linee guida n. 8/2020 “on the targeting of social media users”, il Comitato per la Protezione dei dati personali, il quale ha ribadito che “oltre alle condizioni dell’articolo 9 GDPR, il trattamento di categorie particolari di dati deve fondarsi su una base giuridica stabilita nell’articolo 6 GDPR ed essere effettuato in conformità con i principi fondamentali di cui all’articolo 5 GDPR”. L’applicazione cumulativa delle tutele previste dagli articoli citati risulta dirimente anche per escludere interpretazioni che portino a sostenere la possibilità di trattare categorie particolari di dati, senza rispettare l’art. 6, in presenza delle eccezioni di cui all’art. 9. Come ribadito, ancora una volta, dal Comitato per la protezione dei dati personali “sarebbe inappropriato concludere per esempio che il fatto che qualcuno abbia reso alcune categorie particolari di dati manifestamente pubbliche ai sensi dell’articolo 8 [oggi art. 9 del GDPR], paragrafo 2, lettera e), sia (sempre in sé e per sé) una condizione sufficiente a consentire qualunque tipo di trattamento dei dati, senza effettuare un test comparativo degli interessi e dei diritti in gioco in conformità dell’articolo 7 [oggi art. 6 del GDPR], lettera f” (cfr. Parere 6/2014 – WP217)».
Tornando al tema del rischio di grado elevatissimo, ormai pacificamente attribuito ai trattamenti finalizzati alla identificazione biometrica nell’ambito di sistemi di sorveglianza ad uso delle forze dell’ordine, il provvedimento in esame chiarisce ulteriormente che «nell’Unione europea il dibattito sulla legittimità dell’utilizzo di tecniche che consentono il riconoscimento facciale è molto vivace e la soglia di attenzione si è innalzata a seguito dell’approvazione, in data 6 ottobre 2021, da parte del Parlamento europeo di una risoluzione in tema di intelligenza artificiale nel diritto penale e il suo utilizzo da parte delle autorità di polizia e giudiziarie in ambito penale. Con tale risoluzione è stato proposto (alla Commissione europea) un divieto permanente dell’utilizzo dei sistemi di analisi e/o riconoscimento automatici negli spazi pubblici non solo del volto, ma anche di altre caratteristiche umane quali l’andatura, le impronte digitali, il DNA, la voce e altri segnali biometrici e comportamentali. (…) in Italia, è stata disposta, col d.l. 139/2021, convertito con modificazioni nella l. 205/2021 (cd. “decreto capienze”), una moratoria dei sistemi biometrici di riconoscimento facciale in luoghi pubblici o aperti al pubblico fino al 31 dicembre 2023, ad eccezione, tuttavia, dei trattamenti effettuati dalle autorità competenti a fini di prevenzione e repressione dei reati o di esecuzione di sanzioni penali di cui al d.lgs. 51/2018 (attuativo della direttiva 2016/680, cd. Law Enforcement Directive)».
2.4. Ruolo soggettivo di Clearview
Quanto alla questione del ruolo privacy di Clearview, è stato classificato come di autonomo titolare del trattamento. Il Garante ha ritenuto infatti infondata in fatto ed in diritto la tesi, prospettata dal provider, secondo la quale a determinare i fini ed i mezzi del trattamento fossero gli utenti del servizio e che Clearview fosse un mero responsabile del trattamento.
Al contrario, sulla scorta degli elementi istruttori raccolti, è stato affermato come non vi sono dubbi sul fatto che sia Clearview a determinare i fini ed i mezzi del trattamento in modo del tutto autonomo.
Clearview persegue finalità puramente commerciali, proprie, autonome e distinte da quelle perseguite dagli utenti del servizio che sono, peraltro, prevalentemente forze dell’ordine nell’esercizio dei loro compiti istituzionali.
Il servizio è sviluppato, ospitato e gestito in totale autonomia da Clearview che non riceve istruzione alcuna dai clienti in merito al trattamento.
Clearview non customizza i criteri di ricerca in ragione dell’utente del servizio e non migliora il benchmark in ragione dalla propria base utenti.
Non si può pertanto ritenere che Clearview stia mettendo il servizio a disposizione dell’utente, trattando i dati in nome e per conto dello stesso.
L’onere della verifica del rispetto del dettato del GDPR permane pertanto in toto in capo a Clearview.
Esclusa la classificazione del ruolo privacy di Clearview in termini di responsabile privacy, il provvedimento in esame non ha affrontato in maniera ampia il tema della connotabilità in termini di joint controllership della relazione tra utente e Clearview, ritenendo esaustiva l’analisi fatta per argomentare il suo ruolo di titolare autonomo. Forse utile sarebbe stato comunque argomentare più diffusamente anche questo aspetto e specificare per quale motivo non si possa parlare di un ruolo di contitolarità tra Clearview ed i propri utenti, così da evitare di dare adito a speculazione alcuna. Il Garante affronta tuttavia il tema, limitandosi a richiamare a tal riguardo la posizione dell’EDPB, precisando che «se un soggetto decide da solo le finalità e le modalità delle operazioni che precedono o sono successive nella catena del trattamento, tale soggetto deve considerarsi unico titolare dell’operazione precedente o successiva (cfr. Linee Guida dell’EDPB 07/2020 on the concepts of controller and processor in the GDPR, par. 57). Pertanto, la circostanza che i clienti di Clearview possano perseguire finalità ulteriori rispetto a quelle connesse all’attività di Clearview non infinge, né risulta incompatibile con il ruolo di titolare del trattamento di quest’ultimo soggetto».
La posizione così assunta fa dedurre, senza motivo di obiettare, che nel caso in esame non è ravvisabile la possibilità che i due titolari perseguano fini condivisi o complementari, quindi joint controllers. L’impatto dell’uno sulla determinazione dei fini e dei mezzi dell’altro non è tangibile, tant’è che il venire meno dell’uno non ostacola il perseguimento dei fini e la determinazione dei mezzi dell’altro, così come il reciproco contributo dell’uno non è inseparabile, né inestricabilmente connesso a quello dell’altro.
I criteri declinati dall’EDPB al fine di supportare l’interprete nella identificazione del ruolo di joint controller, non trovano qui applicazione («An important criterion is that the processing would not be possible without both parties’ participation in the sense that the processing by each party is inseparable, i.e. inextricably linked. The joint participation needs to include the determination of purposes on the one hand and the determination of means on the other hand». Così EDPB, Guideline 07/2020 on the concepts of controller and processor in the GDPR, vers. 1.0, adopted on 2 Sept. 2020, p. 3).
La posizione appare inoltre coerente con le Linee Guida dell’EDPD 8/2020 on the targeting of social media users, con riferimento ai casi di pubblicità mirata sulla scorta di dati inferiti, osservati dal social media provider ed utilizzati dal targeter nella organizzazione delle proprie campagne pubblicitarie. Questi soggetti definiscono congiuntamente i criteri di selezione dei destinatari della campagna pubblicitaria. Con riguardo al caso di specie, invece, la definizione congiunta dei criteri di ricerca è, al momento della analisi, possibilità del tutto assente nel servizio offerto da Clearview ai propri utenti.
Clearview appare come una figura professionale maggiormente assimilabile ad un data broker o a un data management provider, in ogni caso ad una figura che va ben oltre l’intermediario di dati ai sensi del Data Governance act, poiché aggiunge, per certo, valore ai dati che tratta, arricchendoli con informazioni attinte da una pluralità di fonti, on operazioni che vanno ben oltre una mera attività di profilazione online.
2.5. Altre violazioni del GDPR
Il provvedimento ha inoltre individuato a carico di Clearview varie altre violazioni della normativa in materia di protezione dei dai personali, tra le quali quelle concerneni le disposizioni di cui: (i) all’art. 5, par. 1, lett. e) del GDPR, recante il principio di conservazione dei dati, violato in ragione della mancata identificazione ed implementazione dei criteri di retention dei dati; (ii) all’art. 12 del GDPR, per mancato o tardivo riscontro delle richieste di accesso degli interessati ed anche per aver formulato richieste di elementi identificativi eccedenti, avendo comunque avuto modo di identificare i richiedenti anche in assenza del documento di identità, il cui invio veniva sistematicamente richiesto a chi avanzata istanza per l’esercizio dei diritti dell’interessato; (iii) agli artt. 13, 14 e 15 del GDPR, per vizi dell’informativa presente sul sito (ad esempio, con riguardo ai tempi di conservazione delle informazioni ed all’indicazione del legittimo interesse, ove applicabile) ed infine all’art. 27 GDPR, per mancata designazione del rappresentante nell’Unione Europea, stabilito in uno degli Stati membri in cui si trovano gli interessati i cui dati sono trattati nell’ambito dell’offerta di beni e servizi o il cui comportamento è monitorato (il quale funge da interlocutore delle autorità di controllo e degli interessati per tutte le questioni riguardanti il trattamento).
Non è stata invece ravvisata violazione alcuna del dettato dell’art. 22 del GDPR, in quanto ritenuto non applicabile al caso di specie. Sul punto il Garante, nel provvedimento in esame, ha motivato precisando che «l’art. 22 prevede il diritto a non subire una decisione basata unicamente su di un trattamento automatizzato ma, da quanto emerso in fase istruttoria, tale decisione pare al più poter essere assunta dei clienti del servizio offerto da Clearview e non dalla Società, la quale ha implementato e reso disponibile a terzi il suo sistema di riconoscimento facciale».
2.6. Misure correttive
Il Garante, nel provvedimento che qui si commenta, a fronte delle violazioni agli artt. 5, 6 e 9 del GDPR e delle ulteriori disposizioni sopra considerate (artt. 12, 13, 14, 15 e 27), ha disposto nei confronti del provider con riguardo alla fattispecie esaminata: (i) il divieto di ulteriore raccolta, mediante tecniche di web scraping, di immagini e relativi metadati concernenti persone che si trovano nel territorio italiano; (ii) il divieto di ogni ulteriore operazione di trattamento dei dati, comuni e biometrici, elaborati dalla Società attraverso il suo sistema di riconoscimento facciale, relativi a persone che si trovano nel territorio italiano; (iii) l’ordine di cancellazione dei dati, comuni e biometrici, elaborati dal provider attraverso il suo sistema di riconoscimento facciale, relativi a persone che si trovano nel territorio italiano.
Il provvedimento ha quindi inibito il trattamento di dati di interessati presenti sul territorio italiano pro-futuro, ma contemporaneamente, imponendo la cancellazione dei dati personali già trattati, ha provveduto anche con riferimento al trattamento dei dati raccolti e processati in passato e ancora disponibili nel sistema usato del provider.
È da ritenersi pacifico che l’ordine riguardi anche i dati biometrici ricavati dall’applicazione della soluzione di riconoscimento biometrico, come pure dei dati utilizzati per il training ed il retraining del modello ed algoritmo proprietario sottostante il riconoscimento biometrico.
Non si vede, infatti, come l’algoritmo sviluppato utilizzando dati illecitamente raccolti e trattati possa continuare ad essere utilizzato da Clearview.
Il rischio, tuttavia, è che, in assenza di ulteriori e chiare precisazioni, la cancellazione venga realizzata con riferimento alla base dati in uso per il retraining dell’algoritmo, senza che si intervenga anche sui dati utilizzati per il trainingdell’algoritmo, in quanto fase già conclusa.
In altri termini il rischio è che l’utilizzo illecito dei dati, avvenuto durante la fase di allenamento dell’algoritmo, venga tollerata o che la sua dovuta eliminazione rimanga non eseguita.
Naturale portato del provvedimento dovrebbe invece essere che:
(i) l’algoritmo in uso venga cancellato, qualora sia stato in tutto o in parte realizzato anche sulla base dei dati trattati illecitamente, e ne venga richiesto il training ed il retraining ex novo, su una base dati che sia ridefinita al netto delle immagini che ritraggono interessati presenti sul territorio italiano (ed europeo), una volta soddisfatte le condizioni di liceità richieste dal GDPR agli artt. 6 e 9;
(ii) le analisi sull’affidabilità ed accuratezza della soluzione proprietaria sviluppata, analizzata anche dall’ENISA, vengano poste nuovamente in essere, in maniera scrupolosa, secono i parametri della necessaria valutazione di impatto, che il provider è tenuto ad effettuare ai sensi dell’art. 35 GDPR.
Da punto di vista tecnico è pacifico che l’allenamento di un algoritmo richieda sempre la preparazione del dato al fine della sua ingestion nell’ambiente di trainig e che quindi siamo di fronte all’utilizzo di dati elaborati sin dalla fase dell’allenamento dell’algoritmo.
Forse una presa di posizione esplicita da parte del Garante avrebbe potuto essere dirimente sul punto, così da aprire la via all’ “algorithmic disgorgement”, nuova frontiera del diritto alla cancellazione dei dati personali, avvicinando così l’Europa all’approccio da questo punto di vista più pragmatico preso per esempio negli Stati Uniti dalla FTC (Federal Trade Commission) nel caso Cambridge Analytica, che, nel Final Order emesso a fronte delle violazioni riscontrate (Docket n. 9383 del 25 novembre 2019), ha imposto non solo la cancellazione dei dati personali illecitamente trattati (Coveder Information), ma anche la cancellazione dell’algoritmo che fosse, in tutto o in parte, originato sulla base dei dati personali trattati.
Tra gli ulteriori procedenti signficativi relativi all’attività della FTC in tale materia si segnala anche il caso seguente: United States District Court – Northern District Of California, Case 3:22-cv-00946-TSH, Stilupated Order del 3 marzo 2022, in cui si riferisce ad un “Affected Work Product”, inteso come «any models or algorithms developed in whole or in part using Personal Information Collected from Children» (nel caso in questione viene previsto non solo l’ordine di “distruzione” delle “Personal Information”, ma anche dell’ “Affected Word Product”, ossia dei modeli o degli algoritmi sviluppati, in tutto o in parte, utilizzando i dati personali raccolti)
Si tratta di nuove frontiere del law enforcement in tale materia, che anche il Garante in materia di protezione dei dati personali dovrebbe tenere in considerazione.
Rimane il tema della validità della proprietà intellettuale degli algoritmi ottenuti utilizzando basi dati illegalmente gestite, che tuttavia esula dall’ambito delle competenze della autorità Garante.
3. Precedenti
Il Garante è più volte intervenuto sul tema del riconoscimento biometrico. Di seguito, in ordine tematico e cronologico, si riporta una selezione dei provvedimenti maggiormente significativi.
I. – In tema di riconoscimento facciale si segnalano: (a) il provv. n. 127 del 25 marzo 2021, docweb n. 9575877 (Parere sul sistema Sari Real Time) ed il relativo Comunicato stampa del 16 aprile 2021, Docweb n. 9575842 (Riconoscimento facciale: Sari Real Time non è conforme alla normativa sulla privacy); (b) i pareri del Garante resi in tema di valutazione di impatto al Ministero dell’interno, Dipartimento della pubblica sicurezza, e al Comando generale dell’Arma dei Carabinieri all’uso delle body cam per documentare situazioni critiche di ordine pubblico in occasione di eventi o manifestazioni (GPDP, Newsletter n. 481 del 10 settembre 2021, «Body cam: ok dal Garante privacy, ma no al riconoscimento facciale», docweb n. 9698442); (c) il provv. n. 155 del 15 marzo 2018, docweb n. 8789277 [«Verifica preliminare. Sistema di rilevazione delle immagini dotato di un software che permette il riconoscimento della persona (morfologia del volto)»]; (d) il provv. n. 60 del 16 febbraio 2017, docweb n. 6136705 («Verifica preliminare. Sistema di controllo accessi biometrico facciale»).
III. – In tema di biometria, tout court, e di firma grafometrica si segnalano: (a) il Provvedimento generale prescrittivo in tema di biometria, Deliberazione n. 513 del 12 novembre 2014, docweb n. 3556992 ; (b) il Provvedimento n. 16 del 15 gennaio 2015, docweb n. 3701432, contenente «Rettifica alla Deliberazione n. 513 del 12 novembre 2014 recante “Provvedimento generale prescrittivo in tema di biometria”»; (c) All. A al Provv. n. 513 del 12 novembre 2014, «Linee-guida in materia di riconoscimento biometrico e firma grafometrica», docweb 3563006 del 12 novembre 2014.
IV. – In tema di videosorveglianza e biometria: (a) si segnalano i riferimenti al trattamento dei dati biometrici unitamente ai sistemi di videosorveglianza nel Provvedimento generale in materia di videosorveglianza del 29 aprile 2004, docweb n. 1003482; (b) molteplici sono poi gli interventi, anche risalenti nel tempo, in materia di videosorveglianza e dati biometrici con riguardo all’accesso presso istituti di credito. Si veda, ad esempio, il provv. del 28 settembre 2001,docweb n. 39704 («Rilevazioni biometriche presso istituti di credito»);
È importante rilevare come tutti i provvedimenti, a partire da quelli a carattere generale, affrontano in maniera sempre coerente il tema della biometria applicata alla identificazione delle persone. In ragione del rischio elevatissimo di un uso distorto ed intrusivo della sfera privata delle persone che queste tecnologie presentano, l’approccio utilizzato nel valutare processi che ne implicassero l’utilizzo è sempre stato rigoroso e fortemente cautelativo.
Il caso Clearview è stato analizzato anche da Supervisory Authority estere. Si vedano, in particolare, quella francese e quella tedesca, nei provvedimenti seguenti:
(i) CNIL, Decisione No. MED-2021 di notifica formale a Clearview AI; (ii) Decisione della Autorità di controllo tedesca, Land di Amburgo (decisione 545/2020; 32.02-102), in tedesco e in inglese
Di particolare rilevanza è anche la disamina effettuata dall’EDPS sul sistema Clearview e tecnologie simili, per l’utilizzo da parte dell’Europol: EDPS, Opinion on the possibility to use Clearview AI and similar services at Europol (Case 2020-0372), Bruxelles, 29 marzo 2021
nonché EDPS, Decision on the retention by Europol of datasets lacking Data Subject Categorization (Cases 2019-0370 & 2021-0699), del 21 dicembre 2021
Si ricordano, inoltre, i precedenti statunitensi, già richiamati in chiusura del par. 2.6., in tema di ordine di cancellazione o distruzione non solo dei dati personali illecitamente trattati con algoritmo, ma anche dei modelli o degli algoritmi che siano stati in tutto o in parte ottenuti con il trattamento dei dati personali trattati illeciamente:
(i) FTC (Federal Trade Commission), caso Cambridge Analytica, Final Order – Docket n. 9383 del 25 novembre 2019; (ii) United States District Court – Northern District Of California, Case 3:22-cv-00946-TSH, Stilupated Order del 3 marzo 2022
4. Bibliografia
Sul caso italiano trattato nel provvedimento in esame si segnala la nota dell’EDPB, Facial recognition: Italian SA fines Clearview AI EUR 20 million,
Sulla giurisdizione e sulla competenza si vedano, tra le fonti di carattere istituzionale:
(i) EDPB, Linee guida 3/2018 sull’ambito di applicazione territoriale del GPDR (articolo 3); (ii) WP 244rev.01 Guidelines on the Lead Supervisory Authority (in ordine individuazione dell’Autorità capofila in caso di fattispecie di trattamento dei dati all’estero).
In dottrina si veda invece, tra gli altri, A. Spangaro, L’ambito di applicazione materiale della disciplina del regolamento europeo 679/2016, in G. Fnocchiaro (a cura di), La protezione dei dati personali in Italia. Regolamento UE n. 2016/679 e d.lgs. 10 agosto 2018, 101, Bologna, pp. 27 ss. (ove, a dispetto del titolo, si analizza anche l’ambito di applicazione territoriale, ivi, a pp. 44 ss.).
Sulla identificazione biometrica, tra le fonti istituzionali si segnalano:
(i) EDPB, Guidelines 05/2022 on the use of facial recognition technology in the area of law enforcement, vers. 1.0 del 12 maggio 2022; (ii) Council of Europe-Consultative Committee of Convention 108, Guidelines on Facial Recognition, del 28 gennaio 2021, T-PD(2020)03rev4; (iii) U.S. Patent No. 11,250,266, issued by the U.S. Patent and Trademark Office (USPTO); (iv) EDPB, Linee guida 3/2019 sul trattamento dei dati personali attraverso dispositivi video, vers. 2.0 del 29 gennaio 2020 (ove ai par. 5,1 e 5.2 si analizzano le connessioni con il trattamento dei dati biometrici).
In dottrina, tra gli altri, si segnalano, in tema di riconoscimento facciale, A. Mascolo. Riconoscimento facciale e autorità pubbliche, in Giornale di diritto amministrativo, 2021, 3, pp. 308-316; e sugli aspetti di carattere generale, S. Bisi, Il corpo come password: alcune considerazioni in tema di sistemi di autenticazione biometria, in Ciberspazio e diritto, 2005, 1, pp. 3-25.
In materia di intelligenza artificiale si vedano, tra le fonti istituzionali:
(i) Parlamento europeo, Risoluzione del 6 ottobre 2021 sull’intelligenza artificiale nel diritto penale e il suo utilizzo da parte delle autorità di polizia e giudiziarie in ambito penale (2020/2016(INI) https://www.europarl.europa.eu/doceo/document/TA-9-2021-0405_IT.html; (ii) Commissione europea, Proposta di Regolamento del parlamento europeo e del consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’unione, Bruxelles, 21.4.2021 COM (2021) 206 final 2021/0106 (COD); (iii) EDPB-GEPD, Parere congiunto 5/2021 sulla proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale), del 18 giugno 2021; (iv) ENISA, AI Cybersecurity Challenges. Threat Landscape for Artificial Intelligence, 2020
Quanto alle fonti dottrinali sull’intelligenza artificiale si rimanda, invece, a: G. Alpa (a cura di), Diritto e intelligenza artificiale, Pisa, 2020; G. Alpa, L’intelligenza artificiale. Il contesto giuridico, Modena, 2021; U. Ruffolo (a cura di), Intelligenza artificiale. Il diritto, i diritti, l’etica, Milano, 2020; G. Calabresi-E. Al Mureden, Driverless cars. Intelligenza artificiale e futuro della mobilità, Bologna, 2021; M. Tampieri, L’intelligenza artificiale e le sue evoluzioni, Milano, 2022; G. d’Acquisto, Intelligenza artificiale, Torino, 2021; G. Finocchiaro, Intelligenza Artificiale e protezione dei dati personali, in Giurisprudenza italiana, 2019, 7, pp. 1670-1677; F. Bravo. Software di intelligenza artificiale e istituzione del registro per il deposito del codice sorgente , in Contratto e impresa, 2020, 4, pp. 1412-1429; F. Bravo, Contrattazione telematica e contrattazione cibernetica, Milano, 2007. Per i primi studi dottrinali in Italia in materia si veda, invece, G. Sartor, Intelligenza artificiale e diritto. Un’introduzione, Milano, 1996.
Quanto alla base giuridica legittimante il trattamento dei dati personali si vedano, tra le fonti istituzionali si rimanda a: (i) Gruppo di lavoro ex art. 29, Parere n. 6/2014 sul concetto di interesse legittimo del responsabile del trattamento ai sensi dell’articolo della direttiva 95/46/CE (WP 217), del 9 aprile 2014
(ii) EDPB, Linea guida 2/2019 sul trattamento di dati personali ai sensi dell’articolo 6, paragrafo 1, lettera b), del regolamento generale sulla protezione dei dati nel contesto della fornitura di servizi online agli interessati, vers. 2.0 dell’8 ottobre 2019
(iii) CNIL, La réutilisation des données publiquement accessibles en ligne à des fins de démarchage commercial, 30 avril 2020
In dottrina si rimanda invece a F. Bravo, Le condizioni di liceità del trattamento di dati personali, in G. Finocchiaro (a cura di), La protezione dei dati personali in Italia. Regolamento UE n. 2016/679 e d.lgs. 10 agosto 2018, n. 101, Bologna, 2019, pp. 110-193; F. Bravo, Il consenso e le altre condizioni di liceità del trattamento di dati personali, in G. Finocchiaro (a cura di), Il nuovo Regolamento europeo sulla privacy e sulla protezione dei dati personali, Bologna, 2017, pp. 101-178; D. Poletti, Le condizioni di liceità del trattamento dei dati personali, in Giurisprudenza italiana, 2019, 12, pp. 2783-2789.
Sui ruoli soggettivi in materia di protezione dei dati personali, con particolare riguardo alla figura del titolare e del responsabile del trattamento ed a quella del rappresentante in UE ex art. 27 GDPR, si veda, in sede istituzionale:
(i) EDPB, Guidelines 07/2020 on the concepts of controller and processor in the GDPR, vers. 2.0 del 7 luglio2021; (ii) EDPB-EDPS, Parere congiunto 03/2021 sulla proposta di regolamento del Parlamento europeo e del Consiglio relativo alla governance europea dei dati (Atto sulla governance dei dati), vers. 1.1 del 10 marzo 2021.
In dottrina si veda, sul medesimo tema,
A. De Franceschi, Definizioni (comm. art. 4 GDPR), in R. D’Orazio-G. Finocchiario-O. Pollicino-G. Resta (a cura di), Codice della privacy e data protection (collana Le Fonti del Diritto Italiano), Milano, 2021, pp. 153 ss., con particolar eriferimento ai parr. 8 e 9, rispettivamente dedicati al titolare e al responsabile del trattamento; F. Pizzetti-L. Greco, Responsabile del trattamento (comm. art. 28 GDPR), in R. D’Orazio-G. Finocchiario-O. Pollicino-G. Resta (a cura di), op. cit., p. 456 ss.; F. Bravo, Sulla figura del responsabile “interno” del trattamento di dati personali, in Il diritto dell’informazione e dell’informatica, 2019, n. 4-5, pp. 951-978; F. Bravo, Rappresentanti di titolari del trattamento o dei responsabili del trattamento non stabiliti nell’Unione (comm. art. 27 GDPR), in R. D’Orazio-G. Finocchiario-O. Pollicino-G. Resta (a cura di), op. cit., pp. 449-456.
Sul tema della privacy by design e sull’introduzione di misure correttive volte rendere il trattamento conforme alla disciplina in materia di protezione dei dati personali si veda, in sede istituzionale:
(i) ENISA, Privacy by design in big data. An overview of privacy enhancing technologies in the era of big data analytics, 2015; (ii) ENISA, Tecniche di pseudonimizzazione e migliori pratiche, 2021 ,
In sede dottrinale si veda invece F. Bravo, Data Management Tools and Privacy by Design and by Default, in R. Senigaglia-C. Irti-A. Bernes (ed. by), Privacy and Data Protection in Software Services, Springer, 2022, pp. 85-95; nonché F. Bravo, L’ «architettura» del trattamento e la sicurezza dei dati e dei sistemi, in V. Cuffaro-R. D’Orazio-V. Ricciuto (a cura di), I dati personali nel diritto europeo, Torino, 2019, pp. 775-854
Si segnalano, da ultimo, i seguenti provvedimenti sugli altri temi di interesse evidenziati nel presente commento:
(i) EDPB, Linee guida 8/2020 sul targeting degli utenti di social media, vers. 2.0 del 13 aprile 2021; (ii) Gruppo di lavoro ex art. 29, Linee guida sul processo decisionale automatizzato relativo alle persone fisiche e sulla profilazione ai fini del regolamento 2016/679, WP 251rev.01, del 3 ottobre 2017, riviste il 6 febbraio 2018.
.
Massimazione e Commenti ai Provvedimenti del Garante a cura dell’Osservatorio Privacy collegato con il Corso di Alta Formazione in Data Protection e Privacy Officer dell’Università di Bologna https://site.unibo.it/dpo