Abbiamo deciso di regalare la nostra privacy ad un algoritmo?

Dal 18 al 21 ottobre a Città del Messico la 43° Conferenza Mondiale delle Autorità sulla Privacy

computer dati personali
(pixabay)

L’approccio umano-centrico nella discussione sulla privacy può mettere in evidenza i vantaggi e le falle della delega all’informatica nel trattamento dei dati sensibili.

In un comunicato stampa del Garante della Privacy si apprende che a Città del Messico si è svolto un summit sulla privacy. Le Autorità mondiali si confrontano sul lavoro di protezione dei dati, materia controversa che attraversa molte discipline.

In particolare quest’anno il focus è sulla protezione dei dati ai tempi della pandemia, tema molto discusso e che ha generato proteste in tutto il mondo, non ultime le manifestazioni No Pass in Italia. Già in un precedente comunicato il GPDP aveva rassicurato la popolazione sostenendo che le Autorità stavano facendo un buon lavoro di protezione dei dati sensibili, per cui non è stato quasi in nessun caso necessario ricorrere a sanzioni.

La Conferenza si è sviluppata con un approccio antropocentrico, nel quale si è discusso dell’introduzione delle nuove tecnologie nei sistemi di protezione della privacy. E’ interessante notare l’attenzione dell’intervento umano nell’elaborazione computerizzata dei dati. Questo merita una riflessione.

Da quanto accade da qualche decennio a questa parte, la garanzia di una “segretezza” è conferita dalle macchine e dalla tecnologia. E la digitalizzazione della pubblica amministrazione, come ad esempio nel settore concorsi pubblici, ne è una testimonianza.

In pratica, più si delega all’informatica e più è semplice garantire la protezione dei dati, perché la macchina “sa mantenere i segreti” meglio delle persone. Quindi l’intervento umano nei processi di elaborazione dati dovrebbe essere ridotto al minimo.

Ma le macchine possono essere compromesse, ed il vaso di Pandora dei dati sensibili essere aperto e reso merce da vendere. Il caso del “sequestro” dei dati sensibili dal portale della Regione Lazio ha mostrato quanto un sistema su cui si basava tutta la sanità pubblica fosse fragile e facilmente intaccabile.

Leggi anche: Le associazioni dei consumatori esprimono solidarietà con la Cgil

Inoltre, la responsabilità completa del trattamento dei dati delegata all’informatica, se portata alle estreme conseguenze, potrebbe dequalificare il ruolo della ricerca scientifica e sociologica in virtù di un’elaborazione algoritmica.

Leggi anche: Guterres: “Stiamo perdendo la nostra guerra suicida contro la natura”

La variabile umana da sempre ha reso interessanti e stimolanti le ricerche, perché consapevole della materia fragile e sensibile di cui trattava, l’essere umano. Un algoritmo di intelligenza artificiale può riuscirci? Questo è un quesito aperto dall’inizio del Novecento, che ancora non ha trovato risposta.

Impostazioni privacy