Um dos
pontos importantes que a Segurança e Privacidade começaram a cogitar, com a
chegada dos conceitos de Big Data, IoT e IA(Inteligência artificial) é o
chamado “Privacy by Design”, ou Privacidade através de projeto. No fundo, a
ideia é que os aspectos de privacidade e segurança de dados sejam parte
constituinte da solução dos sistemas, desde o início, ou seja “by design”. Esse
ponto torna-se fundamental na medida em que essa temática(privacidade e
segurança, quando em contextos de Big Data, IoT, e Inteligência artificial)
exigirão cuidados muito maiores do que aqueles que normalmente são dispensados
em sistemas até hoje. Por exemplo, os aspectos de Privacidade quando envolvidos
com algoritmos de Inteligência artificial, como aprendizado de máquinas,
demandará uma visão de muito mais cuidado e sensibilidade. Conceitos de
XAI(Explainable Artificial Intelligence) e GAI(Governed Artificial
Intelligence) já estão sendo trazidos
nestes domínios para definir algoritmos de IA que sejam explicáveis(XAI-eXplainable)
e que sejam governados(GAI-Governed). No fundo isso tenta estabelecer um
mecanismo de mitigação para os problemas relacionados com resultados
embaraçosos ou inexplicáveis produzidos pela Inteligência artificial. Resultados
errados em inferências médicas, ou em classificações indevidas de pessoas, além
de atribuição de responsabilidade em desastres de carros autônomos, por
exemplo, poderão ser resultantes da complexidade do ecossistema de IA. Será fundamental neste contexto, o
envolvimento de uma equipe multidisciplinar, com cientistas de dados, analistas
de sistemas, especialistas em IA e Gestores de dados que deverão dar o tom
correto do que se chama Inteligência artificial governada(GAI). A figura 01
mostra os conceitos que envolvem a Privacidade por projeto, onde aparecem
aspectos éticos como respeito ao usuário, ações proativas e não reativas(como
acontece hoje, quando soluções de privacidade e segurança são pensadas, com
profundidade, somente depois que a casa cai) e o foco preventivo como gancho,
minimizando os aspectos corretivos(a posteriori).
Figura 01-Esquema de Privacidade por projeto (design)
Em resumo, a Privacidade por
projeto(Privacy by design) representa ações planejadas, discutidas num arco de
amplo espectro e definidas nos níveis de
projeto(design), focando no ciclo completo dos dados, garantindo transparências
nas ações e mitigando os riscos que poderão advir de seus usos indevidos, tanto
pela empresa, quanto pela máquina. Como consultor na área de dados e um “data
geek” por natureza, fiquei em alerta para esse tema, depois de fazer dois
cursos(EAD) na área de Ética sobre os dados. Um na Universidade de Michigan
(Ethics on Data Science, com H.V. Jagadish) e outro na Universidade de Seattle, com apoio
da Microsoft (DAT249x: Ethics and Law in Analytics and AI, com Geneva
Lasprogata, Nathan Colaner e Ben Olsen) . Depois desses cursos, recebi um
artigo, escrito pelo meu ex-colega de Cemig, Virgílio Almeida e por Urs Gasser ,
publicado por Harvard.(1). O artigo, também versa sobre uma proposta de modelo
estruturado em camadas para a adoção de uma Governança de Inteligência
artificial. No fundo, haveria 3 camadas, uma com os elementos sociais e legais
(normas , leis e regulações), outra com aspectos éticos(critérios e princípios)
e uma terceira com aspectos técnicos e
os cuidados sobre os dados, envolvendo a GD-Governança de dados com padrões e a
responsabilização dos algoritmos. Ou seja, claramente a privacidade e segurança
de dados ganham contornos de preocupação com a aproximação da Inteligência
artificial, chamada de “incrustable”(impenetrável), onde os algoritmos
profundos de aprendizados de máquinas não são alcançados e plenamente entendidos e portanto, sugerem a
adoção de governança. O DMBoK® V2 já havia trazido a palavra ética e princípios
para dentro da seara de discussão de gestão/governança de dados, agora no seu
lançamento em meados de 2017. Dessa forma, conceitos de justiça e igualdade,
sem discriminação pelos dados, privacidade protegida ou até o grau de
substituição do trabalho do homem pelas máquinas, começam a ganhar espessura.
Isso vai sugerir novos olhos para a responsabilidade final(accountability) das
empresas e para a explicabilidade(explainability) que poderá ser demandada em
decisões polêmicas, feitas por “decisores” humanos ou algorítmicos. Assim,
chegamos à conclusão de que os filmes de Tom Cruise não estão mais tão
distantes , que Big Data é bem mais do que Data Lake com Hadoop e que IA, algo muito
mais profundo nos seus efeitos do que sugerem os frios e descansados algoritmos
de “deep learning”.
Referências:
1-Gasser, Urs, and Virgilio A.F. Almeida.2017. “A Layered
Model for AI Governance.” IEEE Internet Computing 21 (6) (November): 58-62.
doi: 10.1109/mic.2017.4180835
2-Jagadish, H. Ethics on Data
Science. Curso EAD.
Universidade de Michigan, 2017.
3-Lasprogata, G.,Colaner,N., Olsen,B. Curso EAD. Ethics and Law in
Analytics and AI. Universidade
de Seattle. 2017
Nenhum comentário:
Postar um comentário