Total de visualizações de página

quinta-feira, 22 de junho de 2017

Big Data e a democracia, segundo a Newsweek.


A revista Newsweek, de 16 de junho de 2017, trouxe uma reportagem inquietante sobre Big Data, manifestada na sua capa.  “Como Big Data está corrompendo a democracia, via a lavagem cerebral”. Estava aqui nos EUA, saindo do DGIQ-Data Governance & Information Quality, onde os assuntos “dados” e privacidade foram amplamente discutidos. “Big Data”, foi um tema muito tratado nas sessões mais tecnológicas, das quais participei, e “Privacidade”, de forma colateral, foi  destaque nas sessões mais focadas em GDPR-A Regulação da União Europeia sobre proteção aos dados. Claro que resolvi mergulhar na reportagem da revista, escrita em 12 páginas, pela importância do tema. Abaixo a síntese do que observei:
a)As coisas começaram pela suspeita de que a eleição de Trump tenha sido ganha, em parte, devido à ação da sua equipe digital, comandada por seu genro, Jared Kushner, hoje chefe do Escritório de Tecnologia e Inovação do Governo Americano. Ele, depois de um curso no FB(FaceBook), montou um forte time de especialistas para trabalhar o perfil dos quase 220 milhões de eleitores, que segundo dizem, está disponível nos Data Lakes de Zuckerberg. Nessa mina de ouro, há informações sobre o eleitorado americano, com detalhes maiores do que seríamos capazes de imaginar. Os dados dariam uma formidável possibilidade de estudos analíticos, passíveis de produzirem detalhes sobre comportamento, pensamento e emoções de todos os americanos e dos “facebuqueiros” do planeta. Já existiria uma ferramenta para tal, capaz de analisar os milhares de “data points” que cada um de nós teríamos nos Data Lakes gigantescos do FB.
b)A primeira suspeita surgiu numa apresentação, antes da eleição, feita por uma empresa, acerca de um produto chamado “Cambridge Analítica”, originado de estudos/pesquisas de AI(Inteligência Artificial) e desenvolvido na famosa Universidade que lhe dá parte do nome . O produto da classe dos “Analytics” seria capaz de produzir o que chamam de “perfil psicográfico”, onde certas dimensões da nossa “forma de ser e pensar” seriam detectadas pela análise do “Likes” que damos, ou pelos livros que lemos, ou dos dados que mostramos, por espontaneidade ou por indução. Na demonstração, foi feita uma análise com drill-down, a partir de um conjunto de dados de pessoas selecionadas e gradativamente sendo segmentado em conjuntos menores e mais focados, que por sua vez dariam origem a outros sempre com um foco refinado, até chegar num certo indivíduo específico. Isso se chama microtargeting e já é usado em outros campos, inferindo consumos e hábitos de internautas no mundo do marketing digital. No caso da aplicação política, o objetivo (foi) é criar um mecanismo de identificação de grupos de pessoas que possam ser persuadidas por mensagens que lhes falem de forma mais significativa. Se não para comprarem seus produtos, mas para “comprarem” ideias e aderirem aos candidatos “digitais” em eleições.
c)Segundo a reportagem, teoricamente as pessoas podem ser subdivididas em 2 grandes grupos gerais: As emotivas e as cognitivas. As emotivas são as mais susceptíveis a argumentos que lhes tocam em pontos vitais da camada emocional e são deixadas levar mais facilmente por ações de convencimentos (por exemplo, alguém que se vê “incomodado” com o excesso de estrangeiros no pais e tem uma tênue prevenção contra imigrantes, recebe um posicionamento de um candidato com forte propensão à criação de barreiras à migração. Bingo!). Os outros seriam os cognitivos, aquelas pessoas que, julgam ou decidem por aspectos de cognição(conhecimentos) e são mais resistentes à e-mails/propagandas de sedução fácil. Aplicam sempre um filtro mais racional antes de darem um passo.  Essa é a base da segmentação desejada por partidos políticos para poderem criar as táticas de persuasão digital, com a lupa do microtrageting apontada para as devidas camadas, sobre as quais desejam interferir.
d)A aplicação do sistema Cambridge Analytica foi baseada em algoritmos de “Cluster Analysis” já usados há anos pela IA(Inteligência artificial), principalmente no foco de segmentação de clientes por hábitos de compras e preferências. A Universidade de Cambridge não confirma a derivação do produto aplicado nas análises do Partido Republicano(vencedor), mas oferece , no seu site, um link para que você  a experimente no seu perfil. O repórter do Newsweek autorizou a análise do seu perfil de FB e eu também fui experimentar. Ao final deste artigo, mostrarei, alguns pontos sobre como que a inteligência artificial me avaliou dentro dos conceitos de perfis psicográficos. A ideia é entender as pessoas, baseadas nos seus dados no FB, procurando as tendências psicológicas descritas no acrônimo OCEAN: Openness(abertura), Conscientiousness (consciência), Extraversion(extroversão), Agreableness(concordância) e Neuroticism(instabilidade emocional ). Antes de analisar o “OCEAN” do eleitorado, a  equipe de Trump teria enriquecido o Banco de dados de 220 milhões de americanos com informações de registros de votação, registro de propriedade de armas, histórias de compras por cartões de créditos, além de outros trazidos de fontes monolíticas de dados como Experian(no Brasil, Serasa-Experian),Data Logix(grande rastreadora de hábitos de consumo, hoje pertencente à Oracle),Epsilon(outra gigante que fornece dados para aplicações de marketing direcionado)e Axciom, talvez a maior empresa americana em coleta e tratamento de dados.Com esse poder de fogo, foi montado o Projeto Alamo, que pode ter direcionado a virada de jogo na campanha de 2016, com a vitória de Trump. Os Republicanos não foram os primeiros(os democratas já haviam tentado algo, via Catalist), mas foram aqueles que cruzaram o poder de fogo do Lookalike do FB(busca por pessoas com hábitos e jeitos semelhantes aos seus amigos/clientes, mas que ainda não são) com o microtargeting. Assim, a campanha de Trump pôde estender seus tentáculos para assuntos considerados normalmente fora da “Overton Windows”, protocolo político contendo uma lista de assuntos considerados “politicamente incorretos” e que não devem ser tratados diretamente em discursos e políticas governamentais (sic).
e)Em resumo, segundo a Newsweek, na eleição de 2016, a Inteligência artificial com Big Data permitiu que conceitos cinzentos como (sentimentos de racismo, supremacia branca, restrições a refugiados, antissemitismo e misoginia violenta) alcançassem targets simpáticos de forma direta, porém silenciosa. Tudo pelos efeitos dos algoritmos de mineração e dos exabytes armazenados sobre nós.  Para 2020 prevê-se que esses algoritmos estarão mais refinados e a produção destas mensagens focadas alcançará um nível de automação infinitamente maior, quando centenas e milhares delas serão produzidas e distribuídas. Essa é a teoria desenvolvida no artigo da Newsweek, e que coloca o conceito de Big Data com analytics, cada vez mais na alça de mira da proteção dos dados, com segurança e respeito à privacidade. No futuro, a ética dos dados também deverá ser foco da Gestão e Governança de dados. Nunca governar os seus dados se  tornou tão crítico...

e)Os resultados apresentados pelo algoritmo supostamente “base” do produto Cambridge Analytica, quando entrei com meu ID do FB e o autorizei foi: 
Gênero Psicológico:  
A IA sugere que meu perfil digital é bastante andrógino. Sugere que eu seja do sexo Feminino(sic!!), mas que que reprimo meu lado masculino(sic!!!). Abaixo ele dá uma dica do porquê: Os livros nos quais dei “Like”. Interessante que ele me transforma em (mais feminino) por causa de um Like dado no filme “The boy in  the striped pyjama”. Um drama da guerra que fala sobre a amizade de dois meninos num campo de concentração!. Acho que o algoritmo se “embolou” quando analisou as palavras “boy” and “pyjamas”.....

Agora a interpretação dos 5 pontos a minha personalidade:

Resumo da ópera:
Alguns pontos de acerto e muitos erros foram cometidos pelos “engines” de inferências oferecidos para teste, no meu caso. Nada que um horóscopo não faça, com a mesma precisão, nos jornais diários. Você pode experimentar o seu perfil psicográfico, acessando ApplyMagicSauce.com  e autorizando o acesso ao seu perfil do FB. Mas não se assuste. Uma coisa é existir zetabytes de informações sobre nós. Outra coisa, é a ferramenta ter a capacidade inferencial refinada para interpretá-los, levando a estatística à uma quase adivinhação digital. Talvez numa assinatura “premium” do produto, os algoritmos aplicados sejam bem mais precisos...

quinta-feira, 15 de junho de 2017

DGIQ-2017-San Diego-Califórnia-12 a 14 de junho-2017


Evento:

Estivemos no DGIQ-Data Governance and Information Quality, em San Diego-Califórnia. O DGIQ gradativamente se transforma no maior evento do mundo dedicado exclusivamente ao assunto de Governança e Qualidade de dados. Com duas edições por ano, normalmente uma na Costa Leste no inverno americano(+- Novembro) e outra na Costa Oeste, próximo do verão deles(+-Junho/Julho), o evento reúne especialista do mundo inteiro, com mais de 50 palestras, tutoriais e dois cursos fechados. No evento passado, em DelRay Beach (FL), assisti ao curso de Formação de Gestores de Dados (The Complete Guide to Data Stewardship), com David Plotkin. O outro curso oferecido, com Danette McGilvray(Tem steps to Data Qualiy), eu já havia feito na forma virtual, pela Data Versity. Os cursos foram oferecidos novamente neste evento, em San Diego, pelo sucesso certamente alcançado. Na geografia, também a GD se expande. Na Flórida, no final de 2016, somente eu, como rep do Brasil. Aqui na Califórnia, encontrei com Glenda Amaral, analista do Banco Central. Além de nós 2 brasileiros, havia outros estrangeiros: 21 do Canadá, 2 da Irlanda, 2 da República Tcheca, 2 da Holanda,4 da Noruega, 2 da Suíça, 2 da França, 4 do México,1 da Dinamarca e 1 da Austrália. Isso mostra a capilaridade crescente do assunto em todo o mundo. 

Objetivo:

O objetivo da CBCA-Carlos Barbieri Consultores Associados, é botar uma lupa nos conceitos de GD-Governança de dados e Qualidade e aferir como estão essas práticas aqui na Terra de Tio Sam, comparadas com aquelas que aplicamos no Brasil. De imediato se percebe, claro e óbvio, que, por aqui, as coisas estão bem mais avançadas em termos de dados. Nos EUA devem existir em torno de 500 CDO´s e no Brasil não mais do que 5. No Brasil, ainda estamos começando com GD, com poucas empresas se movimentando para domar a fúria dos dados, que se avolumam em proporções assustadoras. Nos EUA e no restante dos países presentes, era nítido o número de organizações já com GD institucionalizada. Como o crescimento dos dados não vem acompanhado de um mínimo de organização e responsabilidade, as coisas tendem a ficar complicadas cada vez mais, na medida em que as organizações brasileiras ainda não se conscientizaram plenamente deste problema. Agora é que algumas começam a despertar desta sonolência , embora em proporção menor do que se espera. Certamente a crise e o momento Brasil estão freando a implementação de GD no nosso pais.

Alguns temas discutidos:

Analisando-se a programação e mergulhando em alguns dos PDF´s distribuídos, observa-se a seguinte temática:

a)Há uma prevalência pelo tema geral Como Implementar GD nas empresas, com relatos de experiências e pontos a se observar nesses programas. Aqui o ganho tangível é analisar os sucessos e tropeços descritos, aplicando-se os devidos coeficientes de adaptação (do país, da indústria, da maturidade da empresa e da cultura de cada uma). O exemplo que mais chamou a atenção foi a palestra “key note” com  HoChun Ho e Kathy Patterson. Ambos da gigante JLL, que tem 78.000 empregados, 300 escritórios em 80 países, com um faturamento bruto de US$6,8 bilhões. Segundo HoChun, diretor global de GD do conglomerado, eles implementaram o programa em mais de 50% das empresas do grupo, num exemplo ainda não igualado. De assustar...

b)Outro assunto que despontou foi Metadados: Finalmente parece que o patinho feio da GD começa a ganhar importância, quando se fala de Governança de dados. Um tutorial dedicado à construção do Glossário de Negócios(do qual participei) revela esse novo momento em termos de Metadados. Palestras versando sobre Catalogação, profiling, tagging e linhagem de dados também aconteceram para criar espessura no assunto. No mercado das ferramentas, fundamentais para se tratar metadados, observa-se claramente o seguinte: As empresas europeias que se destacam nesse segmento(a belga Collibra e a francesa Orchestra), começam a perceber o crescimento de concorrentes americanas(Datum, Podium e outras) e a aproximação nítida da gigante americana IBM, decidida a entrar no mercado crescente de Governança de dados. A SAP, outrora mais focada no core ERP, também já apresenta uma camada forte de Information Management. Ela e a IBM foram as grandes patrocinadoras do evento(naquelas cotas do tipo platina, ouro,etc);

c)O assunto GD com Big Data também é outro que mereceu um tutorial(com Sunil Soares) e algumas outras sessões, principalmente focadas nos conceitos de Data Lake e dados não estruturados. Discussões surgiram com perguntas provocativas de David Plotkin(autor de um excelente livro-Data Stewardship-An Actionable Guide to effective Data management and Data Governance), hoje gerente de Data Stewardship do banco Wells Fargo. Plotkin disparou perguntas para cima da mesa dos debatedores, liderada por Sunil Soares( o autor com o maior número de livros sobre GD). A questão central: Existe diferença entre GD de Big data e de normal data. No Blog do Barbi, e no curso de PG da Puc-Minas já discutimos muito sobre isso e vamos desenvolver ainda mais o assunto;

d)O assunto GDPR-General Data Protection Regulation esteve em 4 palestras e foi motivo de algumas perguntas minhas para os palestrantes/consultores, pelas dúvidas que ainda restam sobre a regulação da União Europeia sobre privacidade de dados e não claramente respondidas pelos especialistas europeus(os mais envolvidos). Ainda há incertezas no ar, segundo pude perceber nas conversas com os apresentadores dessas sessões, algumas das quais somente serão resolvidas na base da “toga”, acho eu;

e)A Dama Internacional esteve presente, com o patrocínio do “coffee break” de 2afa à tarde. Além disso, houve o tutorial de Sue Geuens (Measuring Data Governance-How to show value and prove success), sua presidente e ex-presidente da Dama da África do Sul. Tive a oportunidade de falar com ela sobre o meu processo de recertificação CDMP que encaminhei à Dama Internacional. No final do mês (dia 30 de junho), chega o DMBOK 2, que já pode ser reservado(no site da Dama Internacional) na sua forma digital(custa US$75);

f)Também mereceu destaque a entrega do prêmio anual de melhor implementação de GD, outorgado pela DGPO(DG Professional Organization), neste ano, ganho pela Vanguard Group, Inc. A Vanguard é uma gigante da área financeira que trabalha com fundos mútuos(maior dos EUA) e a segunda em fundos(Exchange-traded) e tem um ativo de 4 trilhões de dólares. A DGPO oferece um ótimo conteúdo de melhores práticas em GD para os associados, além de Webinars de altíssima qualidade. Tudo isso, por US$75/ano. Em conversa com a presidente desta associação, soube que, neste evento houve mais de 200 novas inscrições;
   
g)O tema GD ganha novas visões, pelas apresentações realizadas por Michael McMorrow, com quem encontrei na Flórida e troquei dúvidas sobre o GDPR, e Len Silverston, famoso especialista em Modelos de dados. O primeiro apresentou a palestra intitulada “Data Governance meets Psycology 101” e Len  fez uma roda, na beira da praia (da qual participei), no fundo do Hotel e apresentou “Zen with Len-What does Zen has to do with Data Governance”. Analisando o material de ambas, pode-se concluir que o conceito de GD, pelas barreiras culturais existentes, sugere fatores extra técnicos na sua abordagem. Daí as palestras que indicam cuidados de natureza psicológica no entendimento dos obstáculos e dos interlocutores, além de uma forma leve e envolvente de condução, a fim de se transpor os obstáculos constantes nos programas de GD. Sobre a inédita apresentação que misturava Zen com GD, vou escrever depois, talvez um #VejaBem, no FB. 
  

Em artigos futuros, falaremos sobre outros pontos importantes discutidos por aqui no DGIQ-2017.

segunda-feira, 8 de maio de 2017

Governança e Gestão de dados na prática-Parte X-final


Visão DMM-Data Management Maturity Model

Numa outra opção, poderia ser usado o modelo DMM do CMMI Institute, como referência para aferição de maturidade. Aqui poderá haver duas abordagens distintas: Um assessment formal, realizado por instituições credenciadas e autorizadas, o que conferirá uma certificação reconhecida pelo CMMI Institute e outra abordagem, usando os mesmos elementos de gestão de dados, sem um objetivo de busca de um certificado, somente trilhando os conceitos públicos e abertos de Governança  e Gerência de dados, aplicados também os conceitos de capacidade e maturidade do CMMI e MPS. O modelo DMM é parte da família desses modelos de qualidade, e guarda semelhanças também com o modelo MPS(para software, serviços e pessoas), que também teve sua gênese no CMMI e em normas ISO.  O modelo foi desenvolvido pelo CMMI Institute e contou, na sua equipe de revisão, com 3 brasileiros: Antônio Braga(Crest Consulting), Carlos Barbieri(CBCA-Fumsoft) e Mário Faria, hoje radicado nos EUA. Figuras expressivas da área de dados dos EUA, como Peter Chen e Bill Inmon, entre outros, foram também da equipe de revisores do DMM. O modelo já foi traduzido para o português.

Áreas de Processos: 

A ideia central, conforme o modelo lógico da figura 11 guarda semelhança com os outros modelos da família. Há as categorias, por onde se distribuem as PA´s(Áreas de processos), que são compostas de práticas funcionais. As práticas funcionais, por sua vez, estão categorizadas pela capacidade (no fundo a forma mais ou menos evoluída/amadurecida com que elas são realizadas), graduadas em 5 níveis(de 1 a 5), guardando certa semelhança com o modelo aplicado e descrito anteriormente (1-Realizado,2-Gerenciado,3-Definido,4-Medido,5-Otimizado). A figura 11 ilustra o modelo DMM, com suas categorias e os atributos de capacidade. 




               Figura 11-Visão geral do modelo DMM-Data Management Maturity Model- DMM



A figura 12 mostra os detalhes de Áreas de Processos por categorias(sem decomposição de práticas funcionais).



Figura-12-Tabela de Categorias e Áreas de Processos-Modelo Data Management Maturity  (página 5) versão em Português

No nível 1, essas práticas podem ser realizadas, digamos de forma restrita, sem grandes controles, normalmente em projetos isolados sem processo previamente escrito ou controlado. Digamos que, isso é feito numa iniciativa “particular”, motivada por uma área ou pessoa. 

No nível 2, as práticas são realizadas já com certa gerência, em projetos associados(um ou mais projetos), através de um processo que foi escrito para que elas(as práticas) seguissem um roteiro. Aqui poderemos já ter uma GD(Governança e Gerência)  inicial e localizada. Observe que já há uma evolução com relação ao nível anterior. 

No nível 3, as práticas já estão com um viés organizacional, havendo um controle de gestão e governança sobre elas. Já há um processo relativamente padronizado e definido para a sua aplicação e todos devem seguir esse processo padrão, ou solicitar adaptações caso ele (o processo padrão)  não atenda às especificidades daquela aplicação.

No nível 4, temos que a empresa já está com o nível 3 bem feitinho e agora adota alguns processos estatísticos para melhor controlar as suas práticas(os processos serão medidos). Há uma máxima que diz que você não controla o que você não mede. Se você acha esquisito, lembre-se do seu saldo bancário ou do seu nível de colesterol. Um você controla sempre numericamente, via seu extrato, quase todo dia. O outro, você também controla numericamente, via Hermes Pardini, de vez em quando. 

No nível 5, a prática já está madura, necessitando somente de sua manutenção e evolução em busca de uma melhoria contínua, refinando-a e modernizando-a, focando na busca de inovações. Aqui os processos serão otimizados

Vamos a um exemplo real: 

Suponha que você percebe a necessidade de realizar um “profiling” de dados em arquivos críticos (Mestres e Transacionais) da sua empresa. Por exemplo, no banco de dados de Clientes, onde você percebe que tem alguns “furos” de dados. O “profiling” varre todos os campos de todas as linhas da(s) tabela(s) e procura por possíveis inconsistências nos valores, identificando campos brancos, outros com erros de CEP, endereços incompletos, valores acima de patamares definidos por regras de negócios estabelecidas, etc. Também estabelece avaliações de integridade de referência entre as linhas daquela ou de outras tabelas.

No nível 1, você estaria somente executando essa rotina, que foi definida pela sua equipe, por sugestão de alguém, sem nenhum controle específico sobre ela(a menos dos resultados), que você e o time avaliam para as devidas correções;

No nível 2, já há a definição de um processo(conjunto de passos/procedimentos, entradas, saídas,etc), com certos controles de quem faz o quê, quando, quem analisa quando e como, quem verifica se foi feito, como foi feito, se deu certo, etc. Ou seja, nesse nível há uma visão processual sobre aquela rotina, anteriormente isolada, porém agora com envolvidos definidos e passos estabelecidos, seguidos e controlados. Aqui, neste nível, um outro projeto que tenha ouvido falar das vantagens da sua descoberta, fazendo “profiling”  nos arquivos importantes, também resolve fazer o mesmo No caso farão no BD de Pedidos, por exemplo. Você diz mais ou menos o que fez e eles(outra equipe, outro projeto) fazem da forma deles, seguindo as sugestões que você deu. Fizeram um processo de “profiling” deles, porém, provavelmente com diferenças do seu processo. Assim, a empresa está no nível 2, nesse aspecto de “profiling” de dados, pois embora realize essas práticas,  fazem de forma diferente, dependendo de cada projeto ou área.

Já no nível 3, continuamos com aquela visão processual do nível 2, mas com o processo de “profiling” agora  padronizado por sugestão da Governança/Gestão de dados. Há definições de Políticas, Processos, Procedimentos, Padrões, etc e a empresa passa a ter um processo  dito padronizado, ou seja uma receita mais ou menos única para orientar todos que forem fazer “profiling”. As áreas que agora  desejarem aplicar essa prática de dados num outro projeto/linha de negócios, deverão buscar esse padrão e adaptá-lo às suas necessidades, porém mantendo a linha “core” definida, além de documentar as modificações/customizações necessárias. Assim, a empresa pulou de patamar, pois agora tem um processo organizacional padronizado e aplicado em (quase todos) projetos  com ajustes conhecidos, documentados e aprovados.

No nível 4, a empresa continua fazendo o nível 3 como descrito, mas há melhorias no sentido de indicadores. Agora, haverá uma coleta de medições que produzirão indicadores sobre, por exemplo,  o número de campos com problemas, erros reincidentes em certos valores, tempo de execução das rotinas, tempo de retorno dos erros corrigidos, grau de intensidade com que as áreas  da organização estão realizando o “profile” dos seus dados, etc. Pronto, agora você melhorou os seus controles, colocando indicadores e tem uma visão numérica de como as coisas estão andando.

E finalmente no nível 5, a empresa continuamente vai buscando melhorias. Por exemplo, há um novo pacote de Data Quality, disponível no mercado, que faz profiling/limpeza de dados semiestruturados, como email, ou de dados não estruturados para serem aplicados em Big Data. Você, que já está com essa tecnologia na empresa,  implementa, avalia, adota e compartilha sua experiência em congressos, palestras, etc. Pronto, você está exercitando o nível 5. Isso tudo que acabamos de exemplificar, são práticas funcionais, dentro da área de processo(PA)  “Profiling de Dados”, que pertence à categoria “Qualidade de dados”. Você poderá fazer as mesmas melhorias em outras PA´s de outras categorias, aumentando a sua capacidade de gerir os dados. Essa práticas, no fundo, quando aplicadas nesses níveis estão mostrando a sua capacidade de fazer melhorias e evoluir em dados.


Práticas de Infraestrutura:

Existe porém um outro conjunto de práticas, mais associadas à engenharia de processos, que garante que você não só fará as práticas funcionais, mas as fará na forma de um processo  sustentável. Ou seja, aquele processo de Profiling de dados que você escreveu já no nível 2, (lembra-se?), deverá ser descrito e gerenciado segundo certas regras. Não pode ser uma folha onde você escreve um passo-a-passo simplório. Tem que ter um sabor mais formal. Assim chegamos nas práticas chamadas de Infraestrutura(de processos). Ou seja, todos os processos(leia-se PA´s-áreas de processos), deverão conter certos elementos e serem gerenciados, conforme regras da engenharia de processos. O que significa isso? Significa que todos os processos, que serão escritos, independentemente de que categoria sejam, deverão ter alguns elementos como Políticas(regras gerais normativas que devem ser observadas, que dizem o que se espera do processo (why), com que frequência(when), responsabilidades(Who), etc ), um plano de execução daquele processo (How)(dizendo como e quando ele é executado), recursos adequados de pessoas para fazê-lo (How much/many), todos devidamente treinados. Também haverá atribuição de autoridades e responsabilidades pelo processo (Who). Como o processo tem produtos, serão definidos pontos e procedimentos de controles sobre eles(por exemplo os relatórios de saída da execução de profiling), quem são os diversos envolvidos na sua execução, a monitoração  e o desempenho do processo pela alta gerência para ver como ele está sendo produtivo e alcançando os seus objetivos. Além disso, haverá práticas de infraestrutura também para verificar a aderência da execução do processo àquilo que foi definido(Quality assurance, Configuração, etc). Em resumo, haverá um conjunto de (outras) práticas, denominadas de infraestrutura/suporte que , aplicado ao processo garante a sua adequada execução(como processo), independente de seus objetivos(pode ser de profiling, de governança, de arquitetura,etc). Essas práticas gerais de suporte/sustentatibilidade, quando analisadas em conjunto com as práticas funcionais específicas, conferem o grau devido de maturidade àquele processo. Em resumo, a aplicação de modelos mais elaborados de avaliação de maturidade, como este, pode levar a uma visão inicial de como a empresa está conduzindo sua gestão e governança de dados, mas também pode ser realizada após um projeto de melhoria de dados desenvolvido, para se aferir o seu alcance. Independentemente de qual abordagem aplicar, a ideia é realizar uma fotografia inicial de como a sua empresa está gerindo os seus dados. A figura 13 mostra “fragmentos” de planilhas usadas no levantamento e avaliação de situação de dados numa empresa, enfatizando as práticas adotadas com os respectivos níveis de aplicação.

==


Figura-13-Planilha de avaliação adaptada do Modelo DMM-Data Management Maturity Model-CMMI Institute

Referências:

Data Management Maturity Model(DMM) Model.CMMI Institute August 2014-version 1.0.


Modelo Data Management Maturity(DMM). CMMI Institute-Agosto de 2014-versão 1.0 (em português).