Total de visualizações de página

domingo, 5 de abril de 2015

Visita ao EDW-2015-Washington-DC

Introdução:

Neste início de primavera, sem o esperado “blossom” das cerejeiras, estivemos participando do EDW-2015-Enterprise Data World-2015, em Washington-DC, entre 29 de Março e 3 de Abril. Para quem não sabe, esse evento é considerado um dos maiores( se não o maior)  sobre o assunto de dados do planeta e reune pessoas do mundo inteiro, para discutir, por uma semana, os caminhos do gerenciamento dos dados e das informações. O evento é promovido pela DAMA Internacional, tendo à frente a empresa DataVersity e outros apoiadores e traz os grandes nomes desse campo de dados e informações. Lá encontrei John Zachman, pai do conceito de Arquitetura Corporativa, com quem participei da sessão CDOVision. Estive na palestra de Gwen Thomas(fundadora do DGI-Data Governance Institute), hoje trabalhando na área de dados do Banco Mundial. Estive também  no evento de Robert Seiner(antigo militante da área de dados), com seu novo livro Non-Invasive Data Governance. Seiner é famoso pela TDAN-The Data Administration Newsletter, talvez o mais antigo periódico sobre dados, escrito desde 1997. Também participei de uma sessão do “CDOVision”  com  John Ladley(autor de dois excelentes livros na área de Governança de dados: Making EIM work for Business  e Data Governance). Outros gurus da área também circulavam por lá: Peter Aiken, autor de  livros sobre CDO e Monetização da informação, David Plotkin(tem um excelente livro sobre Data Stewardship, que recomendo) e  Steve Hoberman(considerado mestre na área de Modelagem de dados, e que vendia seus livros, ao vivo e a cores, no 3º nível, downstairs).  David Loshin e Danette MacGilvray, também renomados autores na área de Qualidade de dados, fizeram sessões de que eu não participei.

Visão geral sobre o evento:
Extremamente bem organizado, com distribuição de material na forma digital e em papel para palestras com inscrição antecipada, o evento aconteceu no gigantesco  Grand Hyatt de Washington DC. O evento tem o claro sabor Dama-Data Management Association. É importante termos uma visão de como estão as diversas linhas “ideológicas”  sobre dados e informações nos EUA. A Dama-Data Management Association, é a mais antiga e tradicional organização, associada com a certificação CDMP, do ICCP. Há outra linhagem, que vem com o apoio da IAIDQ-International Association for Information and Data Quality, que tem seus seminários e certificações próprias(IQCP).  Há outros consultores e competidores  que atuam de forma mais individualizada  e espalhados como o MIT (TDQM Program), com Richard Wang, forte na linha de Data Quality, assim como Larry English(Technology Transfer). De certa forma, observa-se a Dama com uma visão mais integrada, contemplando vários corpos de conhecimentos de DM(Data management) e os outros com forte foco em Qualidade de Dados, um dos corpos de conhecimento da Dama. A esse ring de opções, acaba de chegar o CMMI Institute, com o lançamento do DMM-Data Management Maturity Model, que vem com a força do seu coirmão CMMI e tem foco mais voltado para os aspectos de maturidade, item em que os outros (modelos, linhagens) não se dedicam totalmente. Na semana anterior ao EDW-2015, também em Washington-DC, fiz o curso de Introdução ao DMM, no CMMI Institute. A Fumsoft e a Crest Consulting são as duas primeiras instituições brasileiras a se tornarem DMM Partner, nesse programa.  Nesse evento do EDW-2015 houve 3 participações do CMMI Institute(DMM), sendo dois casos de implementação e uma  palestra em conjunto com Peter Aiken(da Dataversity e  ex-presidente da Dama).
O evento teve uma  Feira de exibidores, com os principais fornecedores de produtos na área de dados, com destaque para as ferramentas Collibra e Rochade, já com presenças no Brasil, segundo me informaram os representantes, além da já tradicional sessão de provas CDMP, feitas pelo ICCP, durante o evento. 
Do Brasil, estiveram  presentes também: Rossano Tavares(Presidente da Dama Brasil), Manoel Lopes(Diretor da Dama Brasil), Gustavo Barbato(analista da FIESC), Ronaldo Sachetto(Diretor de dados da Boa Vista Serviços), Evandro Silva(Engenheiro  químico da Petrobrás),Sérgio Zaccarelli(SAS Institute) e Flávio Reis(Gerente de Arquitetura da Telefônica).

Palestras assistidas:

1)Eight steps to a successful Data Governance Program, com Ann Marie Smith, da Alabama Yankee Systems, e membro da DAMA International:

Resumo: Palestra/curso com 3 horas, ministrada por Anne Marie Smith, consultora do time  experiente da linha Dama. O curso mostrou os principais aspectos que uma empresa deve seguir na adoção dos conceitos de GD(Governança de Dados). Os conceitos de GD já estão muito bem consolidados nos EUA, com as empresas, de forma geral, já tendo adotado a visão estratégica de Data Management, percebendo a importância de uma estrutura organizacional própria para cuidar dos seus dados. No Brasil, essa consciência ainda é absolutamente pontual e tímida, o que tornou a palestra um bom receituário para esse caminho. Os pontos mencionados pela autora, são os básicos e já estão na linha de ação dos consultores experientes em GD no Brasil, que hoje executam os primeiros trabalhos nas empresas. O curso foi excelente, com a apresentadora demonstrando domínio do assunto, mas teve um pequeno problema, ao seu final, quando lhe perguntei  a sua opinião sobre o DMM(Data Management Maturity Model), modelo do CMMI Institute, com forte foco em avaliação(assessment). A recusa em me responder a pergunta, numa atitude até inesperada   para uma plateia de mais de 200 pessoas (considerando a minha questão como “out of context”), me deu a clara impressão de que essas duas linhas “ideológicas”  sobre ações de dados nos EUA(Dama e DMM), ainda necessitam de certa maturidade para entender que são propostas complementares e não competidoras e que caberá às empresas a melhor definição de suas opções. Nesse caso, não deveria haver nenhum constrangimento, na medida em que o DMBOK(Dama), continua como a grande referência na área de dados nos EUA( e com capítulos no mundo) e com forte aplicação prática. Tem um corpo de “practitioners” de alto calibre e comanda o DMBOK, o respeitável corpo de conhecimentos sobre Data management, equivalente ao PMBOK.  Com o lançamento do DMBOK2, segundo Pat Cupolli, com quem conversei, previsto ainda para esse ano, o framework será complementado com processos de avaliação, o que nunca foi o seu forte,  e  irá preencher uma lacuna importante na sua estrutura. Já o DMM, virá com essa marca de nascença(avaliação), fruto do genoma do seu coirmão, o CMMI, modelo de maturidade consagrado no mundo todo, nas áreas de processos de software, com milhares de certificações. Por outro lado, o CMMI nunca foi  fortemente focado em implementações, tendo algumas empresas se utilizado, por aqui, do modelo MPS.BR, como eixo de implementação e realizada a avaliação CMMI, na busca de uma referência internacional. Essa  equação simples, mostra que os dois modelos terão encaixe  quase perfeito e não há (e nem seria bom que houvesse) disputas paroquiais de espaços, com prevalência de interesses  comerciais particulares, em detrimento da melhoria das opções de qualidade de dados para as empresas, seja na implementação, seja na avaliação de sua maturidade. A Fumsoft continua com sua missão de divulgar e atuar apoiando as empresas no modelo DMBOK, como eixo de consultoria, o que tem sido feito há anos e continuará firme nesta direção. A Fumsoft , com seus consultores de dados, possui o maior número de certificações CDMP (Prova de certificação mais provas de especialização) do Brasil. Por outro lado, a Fumsoft também se tornou uma DMM Partner, acreditando na força do modelo do CMMI Institute, no espaço de avaliações formais de maturidade de dados, espaço ainda não preenchido totalmente pelo DMBOK.. A figura abaixo mostra Carlos Barbieri(Fumsoft) e Melanie Mecca(CMMI Institute, responsável pelo Programa DMM), no EDW-2015.

2)Developing and implementing Policies and Standards to manage data as an enterprise asset, proferido por Janet Linchtenberger, responsável pela área de dados da Walgreens
Resumo: O trabalho mostrou a complexidade de uma empresa com o porte da Walgreens. A então gigante da área farmacêutica, sofreu um “merge” no final de 2014, o que aumentou a complexidade da sua Governança de dados. A empresa hoje tem mais de 370.000 funcionários, e 12800 lojas  em 11 países. A definição de Políticas e Padrões(2 dos P´s da GD, discutidos neste Blog) são definidas em função dos objetivos da empresa e da criticidade dos dados usados no seu business: dados de pacientes(compradores), de medicamentos, de doenças, etc que sugerem “compliances” rigorosas. A empresa apresenta gestores de dados por domínios(Drogas, Pagadores, Clientes, Fornecedores, Locais,etc) e também os Gestores de dados nas áreas de negócios que são os responsáveis pela aplicação de políticas e padrões nas suas respectivas áreas de influência . Essas áreas estão  representadas/subordinadas (no) ao Comitê de Governança de Dados, que por sua vez se vincula ao Comitê Executivo de Governança de Dados organizacional. Uma recomendação prática e simples definida, que merece observação, segundo Linchtenberger: Não definir Políticas e Padrões , além do necessário. Considere transferir os mesmos “recados” através de outros meios, como treinamento, coaching, charters,etc. Os aspectos de complexidade de Políticas são tão grandes na empresa, que o Comitê de GD, tem um subcomitê só para tratar das políticas. Nesse subcomitê há pessoas da área Jurídica, de Riscos, de Compliance, de Privacidade,etc. Há considerações sobre o rigor das Políticas definidas, que poderão variar de “recomendação”  a “obrigação”, com graduações entre os dois polos. As Políticas que versam sobre aspectos regulatórios deverão ser obrigatórias e organizacionais. No resumo, a palestra mostrou que , dependendo da empresa, do seu tamanho e do seu business, os dados deverão ser submetidos , cada vez mais, de forma cuidadosa às Políticas e Padrões, bem definidos e controlados na sua aplicação, sob a estrita observância da Governança de Dados.  

3)Progresssive topics in Data Governance, Big Data , Agile e IOT(Internet das coisas), com Robert Seiner , da KIK
Resumo: Foi uma das melhores palestras do Seminário, na minha opinião. Robert Seiner é um velho militante da área de dados. Publica o TDAN(The Data Administration News Letter) e recentemente lançou o livro Non-invasive data Governance., que já li e recomendo O conceito apregoado por Seiner, com o label “non-invasive” é que os dados hoje, de alguma forma, já estão nas mãos de “gestores”, pessoas que não tem propriamente esse nome ou papel, embora exerçam algum tipo de “gestão” sobre eles. A sua ideia é que a empresa, na implementação de GD, deverá cuidadosamente analisar essas pessoas que já estão envolvidas na gestão dos dados(embora sem esse nome) e tentar aproveita-las, com o devido polimento de GD, dai o conceito de “não-invasivo”. São os chamados SME(Subject matter experts) Isso, segundo ele, trará uma GD mais suave, e menos desruptiva e traumática. Aliado a isso, defende que a governança deve ser sobre as pessoas que tratam dos dados e não sobre os dados propriamente. A ideia central é a governança é sobre o comportamento das pessoas que tratam dos dados e esse comportamento é que deve ser cuidadosamente observado. Essa foi a introdução da sua palestra. A essência dela, entretanto, era tocar em temas que ainda estão se aproximando da esfera de GD, como Big data, Agile e IOT(Internet das coisas). Para os conceitos de Big Data, Seiner advoga que não existe necessidade de uma GD especializada. Vale a mesma GD aplicada para “Normal” Data, ou “Small”  Data, independentemente dos 5V do Big data. A consideração que fiz foi que, no caso de Big Data, há nuances de plataformas e arquiteturas, que poderão chegar à GD, para definições, políticas e padrões. Por exemplo, a necessidade de novas formas de armazenamento (Hadoop,MapReduce,NOSQL,etc) poderia ser uma consideração que a GD faria de forma diferenciada. Também os aspectos de tratamento em tempo (quase real) poderia ser outra “nuance” nesse casamento. Também  os aspectos de retenção de dados, pelo alto volume e velocidade de sua produção, talvez merecessem políticas diferenciadas, mas que no fundo são políticas, tais como as outras. Somente a temática diferenciada  seria considerada. No restante, a GD madura, poderia se ocupar dos conceitos emergentes de Big Data. Outro ponto colocado por Seiner foi o cruzamento de GD com os modelos ágeis. Os modelos ágeis, quando usados nos limites  de seu manifesto, tendem a considerar os dados com menor nível de preocupação. Eu diria que é o momento em que os dados voltam ao estágio de combustível de sistemas e não de ativos da empresa (visão minha). Há os conceitos de débitos técnicos que deixam a resolução de pendências para outros ciclos, onde os problemas de dados sempre se encaixam. A discussão, nessa matéria ficou , de certa forma, restrita á dualidade “fazer rápido” ou “fazer correto”, caindo na seara da eterna discussão que envolveu os modelos ágeis, desde a sua chegada. Não há um consenso definido para se abordar esse problema, que os americanos chamam de “conundrum”, ou seja um quebra-cabeça a ser desvendado. Uma possível estratégia, mostrada em outra apresentação (discutida mais a frente) foi a aplicação do chamado “Sprint zero”, ou seja um ciclo anterior aos sprints tradicionais de desenvolvimento, que seria dedicado à análise dos dados, à luz de modelagens conceituais, definições mais documentais, o que mitigaria esse problema e o aproximaria dos braços de controle da GD . De qualquer forma, isso expandiria o tempo do release, pois teríamos um Sprint a mais e o problema retorna novamente à dualidade “menos rápido e mais correto”. Por último, o autor tocou no aspecto da IOT(Internet das coisas), quando muitos milhões de devices estarão ligados entre si produzindo dados. A ideia da GD seria a mesma aplicada no Big Data, com a manutenção das mesmas premissas de governança, agora considerados aspectos de volume, variedade, velocidade, retenção, aliado aos aspectos, talvez mais críticos, já discutidos de privacidade, segurança,etc. A autor citou o exemplo da sua sogra, que está numa clínica para idosos, totalmente controlada remotamente por devices, que sinalizam a sua posição, seus movimentos, suspeita de quedas,etc. Esse assunto, já foi tratado por Sunil Soares num livro específico(Big Data Governance-an emerging imperative). Já li o livro de Sunil e o assunto é tratado de forma mais ou menos semelhante por Seiner. Sunil destaca os possíveis cuidados com a tal Big Data Governance, enquanto Seiner a considera irrelevante como subtipo da GD, podendo ser usada (quase) da mesma forma.

4)Palestra de abertura-KeyNote: Managing the data for decisions that affect the world, com Micheline Casey, do Federal Reserve Board(Banco Central dos EUA)
Resumo: A palestra tratou dos cuidados que o Banco Central dos EUA deve ter com os dados, na medida em que os trata visando produzir indicadores fundamentais que estabelecem pilares sobre a economia dos EUA e, de quebra, do mundo. Os dados servem para a definição de políticas monetárias públicas, a supervisão e a regulamentação de instituições bancárias, a detecção de instabilidades  e de riscos. Como não poderia ser diferente, o Banco Central Americano tem uma estrutura de CDO-Chief  Data Officer, comandado por Micheline Casey. Micheline, que esteve no DMCLATAM-2012,  foi a primeira  CDO “estatal” dos EUA, e é famosa na área de tratamento de dados públicos, tendo desenvolvido um extenso trabalho  no estado do Colorado, antes de ir para o Banco Central Americano(FRB). O tema central da palestra se concentrou na crescente complexidade dos dados e na necessidade de se definir estruturas para melhor absorvê-los e entendê-los. Isso sugeriu uma Estratégia de dados organizacional, com melhorias nas funções de GD e de DM(Data management).As consequentes mudanças culturais sugeriram contratações de perfis mais qualificados para esse tipo de tratamento. Dessa forma, o FRB estabeleceu uma estrutura de GD, com as camadas tradicionais contemplando os gestores de dados(data stewards), o Comitê de GD(com os Gestores de dados chefes) e um Conselho estratégico de dados(Board Data Council). As funções de DM que mereceram maior cuidado na estratégia foram: Gerência de Metadados, visando o significado dos dados que formam os indicadores, Segurança de Dados, pela criticidade do conteúdo, Qualidade de dados, pela necessidade de indicadores corretos e precisos, a Gerência de Dados de referência, a Gerência do ciclo de vida dos dados e a área de Analytics. Foram observados pontos que deveriam ser melhorados na ingestão de dados(captura e entrada), gerência de maior volume de dados não estruturados e melhoria da camada de analytics.

5)Sessões do CDOVision: Governance, Risk and Security; Innovation and Monetization; Organization and Structures.
As sessões chamadas CDOVision, foram feitas em local separado(dependências do Hotel Marriott, perto do Hyatt) , com foco na emergente dicotomia entre CDO x CIO. As sessões foram desenvolvidas durante um dia todo, com o formato conhecido hoje no Brasil, como Conhecimento emergente ou Learning 3.0.  No fundo, é a velha forma de se trazer temas para debates, com a presença de pessoas com certo domínio  inicial sobre um assunto(que ainda tem contornos indefinidos e verdades subjetivas). Conta também com a presença de um facilitador, que conduz, induz e atiça a platéia para as discussões, que produzirão mais conhecimentos, “insights”  ou frestas novas  sobre aquele conceito. Acresce-se a isso, pequenas palestras cronometradas de 10 minutos, feitas por convidados, sobre o tema. Numa delas, trouxeram duas CDO´s e um consultor(John Ladley). Essa abordagem faz parte da linha de aprendizado por Andragogia(ensino para adultos) e no Brasil são chamadas sessões de “shots” ou "meetups", que a Fumsoft introduziu em Minas Gerais, há 2 meses. O tema central foi sobre a emergência do CDO(não no sentido de urgência, mas de ser algo novo despontando/emergente  no cenário de GD e DM).  Foram discutidos, em separado, três temas: a)Governança, Risco e Segurança; b)Inovação e Monetização e c) Organização e estrutura. Todos os subtemas apresentados serviram de pretexto para induzir a discussão sobre a emergência da figura do CDO(Chief Data Officer) . A discussão foi rica, com a participação de figuras proeminentes como John Zachman, John Ladley, Peter Aiken e dezenas de CIO´s e CDO´s. A conclusão, a que chego,  é que nem mesmo os americanos tem uma equação pronta para definir se uma empresa  necessita de um CDO. Isso vai depender diretamente de alguns fatores:
a)Cultura e tipo de negócios da empresa, com a percepção de que empresas mais  regulamentadas estariam mais propensas a essa nova figura;
b)Empresas onde o “emagrecimento” gradual do CIO se torna visível, com o seu  deslocamento para outras áreas tecnológicas emergentes. Muitas empresas veem hoje o CIO muito mais como o responsável pela camada de tecnologia e não mais diretamente no envolvimento com o negócio, numa espécie de retorno ao começo(CPD dos anos 60/70). O foco seria  responsabilidade sobre a execução de sistemas e manutenção do "maquinário", hoje muito mais complexo e cheio de alternativas, como ERP´s, Cloud Computing, Virtualização, dados chegando em tempo real(ou quase ),etc. O aspecto negocial dos dados, cada vez mais critico, deve mudar de mãos, segundo alguns preceitos novos;
c)Empresas que, gradativamente, percebem o crescimento da importância dos dados, como um ativo e planejam uma dedicação gerencial especial e concentrada sobre eles, numa complementação ao fator b.
Hoje nos EUA há aproximadamente 200 CDO´s  e a presença deles no organograma varia. Alguns ainda estão sob o CIO (numa convivência harmoniosa), outros já se deslocaram para áreas críticas de negócios, onde os dados tornam-se fundamentais. Por exemplo, há CDO sob a Gerência de Operações da empresa, sob a gerência de Risco da empresa e há empresas com mais de um, dependendo de sua especificidade geográfica. Aqui , a figura do CDO começa a se aproximar dos gestores de dados de negócios, fazendo uma ligação forte entre a GD e os serviços de DM(Data management), sob a responsabilidade operacional dos CIO´s. Em resumo, entendo que no próximo evento, em San Diego, em Abril de 2016, esses contornos já estarão um pouco mais definidos, embora sem fórmulas genéricas prontas. Não conheço pesquisa sobre CDO no Brasil, mas a minha percepção é que não cheguemos ao número de 10 atualmente.  Abaixo duas fotos, mostrando a plateia do CDOVision, com destaque para o consultor John Ladley e Peter Aiken e na outra mostrando, ao fundo John Zachman, próximo da luminária.
6)Realizing an Enterprise Data Management Strategy and Architecture at Unum, com Edwinna Bice ae David Fanton, da área de dados da UNUM
Resumo: A empresa Unum, uma seguradora de presença mundial,  com forte presença nos EUA e no UK, se posiciona entre as 500 Fortunes (posição 272), com 9000 empregados e 20 milhões de segurados. Atua na área de seguros de vida, de incapacidade e de doenças críticas. A apresentação foi da sua estratégia corporativa de dados, depois de uma grande fusão, onde restaram milhares de sistemas legados, centenas de aplicações e múltiplos DW. O foco da estratégia foi direcionar a empresa para ser uma companhia “Data Driven”, com a criação de um framework que contemplava três pontos:  Visão, Gerência e Consumo de dados. Na “Visão”  se encaixava a estratégia de dados com a nova arquitetura e a Governança; na “Gerência” , as funções básicas de DM como aquisição,integração, virtualização,integridade, serviços de informação, etc,  e no Consumo (BI, relatórios, dashboards,analytics, análise preditiva,etc). Na área de Visão,  dentro do framework tecnológico, houve  a concentração em determinadas tecnologias, com o descarte de outras tantas. As prevalentes foram: IBM, Informática, Hadoop,Teradata, SAS e QlikView. A empresa fez uma opção não muito aplicada/comum  no Brasil, com a adoção de modelos prontos da indústria(no caso de seguros), como IBM, ACORD,etc. Também buscou  a adoção de modelos prontos para termos de negócios, modelos de dados, objetos de negócios,etc. Os modelos de projetos eram baseados no “core” adquirido com extensões de adaptação. Segundo a palestrante, isso permitiu o desenvolvimento de soluções mais rápidas e baratas. A percepção aqui é que isso talvez tenha sido totalmente viabilizado pela “homogeneidade” do negócio da empresa, concentrado em certos tipos de seguros, proporcionando a aquisição de modelos prontos e customizáveis.

7)Data Governance 2.0-Moving from tactical Data Governance to Strategic Data Governance for competitive advantage, com Michael Miller do HSBC
Resumo: O foco da palestra foi mostrar que chegamos ao momento de sair da fase da GD(Governança de Dados tática, que ele chama de GD1.0) para alcançarmos a GD Estratégica(GD 2.0). O apresentador, Arquiteto de Informação Global do HSBC, de início, falou que tudo o que seria dito, era em nome dele e não do banco. Ou seja, ele estava apresentando um conjunto de percepções pessoais que não necessariamente estavam sendo planejadas ou implementadas pelo HSBC. Isso acontece com as regras e políticas de certas organizações que não permitem que nada seja falado em seu nome, nem por gerentes altamente posicionados, como era o caso. O meu amigo Manoel Lopes, diretor da Dama-BR e ex gerente de dados do HSBC, confirmou essa política. A essência da palestra foi a concentração na necessidade de se colocar as digitais da alta direção, cada vez mais, na roda de direção da GD(o que ele chamou de GD 2.0). Segundo a sua premissa, a GD como praticada, ainda se concentra na camada tática, com Comitê de Gestores de dados e equivalentes(Escritório de dados,etc) e pouca coisa sobe para o Conselho, que faria as definições Estratégicas. Segundo ele, a GD está propulsionada pelos problemas de natureza de DM e não por visões estratégicas de negócios. São os problemas relacionados às obrigações de padrões de dados, às necessidades de consertos emergentes de dados que arranham os aspectos de compliance,etc que movem a GD de hoje, segundo ele. Os (gerentes de) projetos de sistemas , segundo o autor, não gostam de ouvir sobre GD, pois isso se traduziria em maior tempo e demora nos cronogramas. Com a perspectiva de catalizadores de produção de dados(IOT, Big data, maior regulamentação,etc) essas motivações de hoje deverão subir de escala para atiçar a camada estratégica.  Essa foi uma das boas palestras apresentadas, na minha opinião e o ponto a observar é que o HSBC tem seu HQ na Inglaterra e não nos EUA.  

8)The art of Data Story Telling, com Kimberly Nevala e Bree Baich, da SAS
Resumo: A apresentação se concentrou na nova tendência de “store telling”, mecanismo mais lúdico definido como a arte de montar uma narrativa arrebatadora em torno de dados(no caso), com o objetivo de melhorar as tomadas de decisão e produzir ações imediatas, pela compreensão instantânea. As técnicas centram na mesma base de mudança de linguagem para comunicação. Vem na esteira do pensamento visual(com desenhos e cartoons), ou novas trilhas de aprendizado como “shots”, “canvas”,etc. Há números mostrados que provam que estatísticas ditas numa apresentação tem o índice de retenção de 5%, enquanto as informações retidas por histórias contadas, tem 63% de fixação. Pela apresentação, uma história deve ser planejada em quatro etapas:
1)A primeira é basicona: Comece sempre pelo Why. Pense no porquê daquela mensagem, palestra, seus objetivos a alcançar, etc;
2)Desenhe algo que mostre a realidade atual, apontando direções e alguns obstáculos;
3) Mostre as possibilidades, com lados positivos e negativos;
4)Feche a apresentação, com links para o Why e ofereça algumas soluções para aqueles problemas apresentados em primeiro lugar.
Embora eu seja de outra geração, desde 1994, quando lancei o Livro Modelagem de Dados (IBPI-Press), eu já procurava essas formas de melhor retenção de conhecimento, e o desenho lúdico e brincalhão sempre foi uma delas. O livro foi construído para ensinar técnicas de modelagem de dados e possui uma série de desenhos(forma de cartoons), que desenvolvi, justamente para a fixação desses conceitos.  Isso está registrado no meu portfólio de desenhos, acessível no link abaixo:


Abaixo, segue um desenho que fiz para o Curso de Governança de Dados, para ilustrar uma dinâmica, cujo objetivo era pensar a gestão de dados no Museu de Inhotim(o maior museu de arte contemporânea da América Latina, localizado na grande BH).


9)Using Agile Data Governance Architecture to build the INC Research Enterprise Data Model, com Mark Ouska
Resumo: A apresentação, feita por Mark Ouska, da INC Research Enterprise foi muito interessante. A INC Research é uma empresa cujo negócio é realizar testes de remédios para a indústria farmacêutica. Tendo adotado o processo ágil para o desenvolvimento de software, há alguns anos, a empresa se ressentiu de também ajustar um desenvolvimento rápido de dados ao método Scrum tradicional, que usa sprints de 2 a 3 semanas. A proposta foi criar o que ele chamou de Sprint zero, com 2 a 3 dias(conceito já discutido em outra parte), realizado uma vez a cada duas semanas. Nesse Sprint, totalmente dedicado aos dados, uma equipe de dados participa  com membros da equipe ágil para a definição/consolidação da arquitetura de dados( modelos  conceituais de negócios, metadados, glossário de negócios alinhados e acordados entre equipes) necessários à gerência de dados, minimamente aderente aos preceitos de GD. Isso permitiu a criação de um cenário de dados com certo alinhamento entre os elementos de desenvolvimento. A estratégia do Sprint zero é na realidade uma reunião de JAD(velho JAD!!, dos anos 80/90 ), com a presença dos BME(especialistas em negócios) num encontro em grupo, direcionado para o consenso, com um facilitador neutro, ambiente controlado, instrumentalizado e orientado ao processo. Essa apresentação veio ao encontro da discussão levada na apresentação de Bob Seiner, que discutia o desafio de juntar Scrum com GD.

10) 9 Drawings every Data Worker should be able to whiteboard, com Gwen Thomas, do World Bank e do DGI
Resumo: Uma das palestras mais esperadas foi a de Gwen Thomas, com o tema “Nove (9) desenhos que qualquer “profissional de dados” deve fazer num quadro branco”. Com a sala totalmente lotada, com gente assistindo do lado de fora, pelas portas abertas, o estudo de caso apresentado pela criadora do DGI(Data Governance Institute) desapontou, na minha modesta opinião. Tentando se utilizar do estilo minimalista de desenhos  “kindergarten”(como ela própria definiu)  para mostrar desenvolvimento de soluções de dados, a grande diva da GD não foi feliz. Acabou produzindo uma apresentação rasa, tanto na forma como no conteúdo, frustrando a expectativa dos especialistas que esperavam  algo de maior substância, quanto mais não fosse, pela sua história em GD. Ficou devendo.

11)Case Study of DMM: Protecting your economy with Data Management, com Kenneth Lamar, do Federal Reserve Bank of New York e Melanie Mecca, do CMMI Institute
Resumo: A apresentação mostrou a aplicação do DMM como abordagem para uma avaliação inicial de maturidade  de dados, aplicado na área de Estatísticas do Federal Reserve Bank (FRB), de Nova Yorque. Melanie Mecca, responsável pelo programa DMM, com quem fiz o curso de DMM(Introduction), na semana anterior, dividiu a apresentação com Kenneth Lamar, responsável pela área. A apresentação serviu para introduzir o modelo DMM, lançado em Agosto de 2014 e que teve um desenvolvimento de 3,5 anos, com mais de 50 autores contribuintes, mais de 70 revisores e mais de 80 organizações envolvidas. O modelo contém 6 categorias e 25 áreas de processos. Foca mais no “o Quê” do que no “Como” e centra na percepção/avaliação de maturidade.  O modelo exigirá duas certificações profissionais: EDME(Enterprise Data management Expert) para avaliação inicial e start do programa e outra de DMM LA- Lead Appraiser(para realizar o benchmarking e monitorar as melhorias). Por outro lado, a área de estatística do FRB de NYC, tem a essência do seu trabalho concentrado em informações para produção de dados estatísticos. O Banco contribuiu para a definição do modelo DMM, desde a concepção, provendo considerações regulatórias e melhores práticas, desde 2011. O Banco foi submetido a um Assessment, que contribuiu para a detecção de gaps nas práticas de DM e viu no modelo um importante mecanismo para melhoria contínua.

12)Data Security Strategy, com Justin Lindsey, do FBI e Department of Justice
Resumo: A palestra, feita no fechamento do evento, trouxe um ar todo de “stand-up comedy”, desenvolvido por seu espetacular apresentador. Nada mais, nada menos do que responsável pelos dados do FBI, Justin Lindsey, com três diplomas do MTI(Engenharia, Computação e MBA em algo de que já me esqueci) soube circunscrever as óbvias limitações de “non-disclosure” do seu papel profissional, para palestrar com brilho. Com maestria, falou sobre o tema “Estratégia de segurança de dados (do FBI)”, de uma forma toda cheia de paródias, piadas e analogias , num verdadeiro show de encerramento, digno dos melhores comediantes “stand-up”. 

Conclusões:

Baseado no que ouvi, vi, conversei e inferi, observando o comportamento das empresas americanas, de maneira geral:
a)O Brasil está atrasado em Governança de dados, e o cenário econômico que se desenha está longe de sugerir melhoras. Pelo contrário, projetos de implementação de GD em empresas, que já estavam despertadas para a essência do problema, poderão sofrer atrasos significativos, num ambiente de retração econômica;
b)A Governança de Dados no Brasil, está sendo praticada de forma pontual, em empresas que possuem as seguintes motivações, nessa ordem de prioridade: empresas cujo “business” é dado; empresas cuja regulamentação sugere cuidados e riscos de penalizações significativas. Muito pouco;
c)A Governança de dados no Brasil, quando praticada, está mais para a GD 1.0,  motivada por problemas de natureza tática operacional, conforme apontado por  Michael Miller, do que a GD 2.0, com ampla motivação negocial/estratégica e apoio do alto “board”.
d)O sentimento sobre os dados no Brasil ainda é o de elemento “lubrificante” e/ou “combustível” de sistemas e não de uma ativo organizacional fundamental, cada vez mais precioso e fundamental de ser gerido por estruturas específicas e dedicadas;
e)Há uma percepção  clara nas empresas “start-up” brasileiras(e acho que isso é geral) de que os dados não devem ser problema no futuro, perdendo-se uma extraordinária chance de se começar sem grandes vícios sobre eles. Algo que chamei de uma "GD enxuta" poderia ser aplicada nesses contextos de start-ups;
f)Há movimentos de acertos de certas áreas de DM(Data management), como de integração(MDM), limpeza(profiling), cleansing e acertos de dados em grandes cadastros, mas isso isoladamente está longe de ser Governança de Dados. Entretanto, poderia ser um ótimo projeto trigger para o seu início e semeadura;
g)Os conceitos de Metadados e Glossário de negócios, já praticados nos EUA, com certa desenvoltura, ainda estão longe da realidade das empresas brasileiras;
h)Nos EUA, a GD após vencida essa etapa de adoção e conscientização organizacional da importância dos dados, espicha o binóculo em direção a novas trilhas: Internet das coisas, Big data e Agilidade. Em San Diego-2016, a gente vê como a coisas ficaram...

Nenhum comentário:

Postar um comentário