Apenas três princípios são necessários para agilizar a transferência de dados e, com isso, acelerar a inovação
Com a pandemia estendendo-se, há uma corrida entre as empresas para transferir dados de sistemas de TI lentas e ultrapassados para versões mais ágeis e modernas. Mas poucas dessas iniciativas de grande escala saem conforme o planejado ou dão o resultado esperado às companhias. É muito comum um programa de migração de dados de TI levar anos e dar errado — e, em geral, a um alto custo.
Uma saída para diminuir a probabilidade de enfrentar percalços pelo caminho é aceitar que “menos é mais”. Apresentamos três princípios a serem seguidos para uma empresa migrar dados para novas ferramentas no prazo de meses (e não anos) e, com isso, agilizar a inovação: identificar os que são essenciais, abandonar os que entram na categoria de nice-to-have, e baixar os padrões de qualidade de dados, mesmo que pouco (menos de 1%).
De forma geral, a meta de uma empresa quando faz a migração de dados é transferir todas as estruturas de dados fundamentais dos antigos para os novos sistemas de TI. Esse processo pode ser muito mais veloz se primeiro a companhia definir qual será a nova solução e, com base nisso, retroceder. O objetivo aqui é migrar apenas o que for indispensável.
Há o exemplo de uma instituição financeira que transferiu os dados de um de seus produtos em quatro meses, em vez de demorar dois anos, depois de rever o que seria realmente necessário a partir daquele momento. A ferramenta de TI anterior tinha milhares de colunas com informações históricas que mostravam como o valor do produto tinha mudado toda vez que tarifas ou taxa de juros sofreram algum reajuste. Mas era preciso transferir apenas o valor corrente e seu histórico de transações. Cada flutuação incremental da década anterior poderia ser recalculada no novo sistema, caso fosse necessário. Com isso, foi possível encurtar o tempo do projeto em anos.
Como hoje há opções de armazenamento mais acessíveis e econômicas, é mais fácil e seguro deixar dados de baixa atividade em soluções de cold storage e puxá-los, posteriormente, de diferentes sistemas. Isso significa que a prática tradicional de migrar todos os dados em uma única operação e em uma determinada data é obsoleta. Apesar dessa estratégia até dar a impressão de trazer vantagens iniciais, como implementação mais rápida e menor custo no front-end, é mais fácil, mais econômico e mais rápido deixar para outro momento a transferência de dados desnecessários.
A melhor maneira de definir quais dados farão parte do processo de transferência é dividi-los em três grandes categorias: os que são fundamentais por questões de segurança ou de compliance, os necessários por serem essenciais para atingir metas importantes, e aqueles que, embora sejam interessantes, são dispensáveis.
E prepare-se para incluir cada vez mais datasets na categoria nice-to-have à medida que o projeto avança. Uma empresa para a qual o compliance de estoques era crucial, por exemplo, queria transferir o número de peças e ferramentas de manutenção para um novo sistema operacional. Foi quando descobriu que desenvolvedores estavam levando meses para validar e limpar dados históricos. Toda vez que limpavam o conjunto de dados, as informações sobre algumas peças e os números de série não casavam perfeitamente. No final, os gerentes concluíram que seria mais barato e mais rápido ter alguém atualizando manualmente as informações de estoque.
Por último, é preciso incentivar a equipe de tecnologia a dizer “não” quando solicitada a dar muita atenção a dados que não têm caráter de criticidade. Quando executivos que não atuam na área de TI contribuem para a definição de padrões de dados, suas preferências por informações mais robustas acabam atravancando alguns processos, como a atualização de um sistema operacional com rapidez. Assim, a migração de dados para uma nova solução pode se arrastar indefinidamente.
Atrasos na transformação do sistema operacional ocorrem, em geral, porque ao longo do tempo a empresa remanejou colunas de dados ou até duplicou desnecessariamente a informação para contornar problemas da operação. Elementos de dados legados costumam estar espalhados por várias ferramentas, parcialmente disponíveis ou misturados em subconjuntos. Às vezes, estão simplesmente errados.
É melhor que os padrões de qualidade prevejam dados razoáveis, quantificáveis e testáveis do que total exatidão. Aumentar a exatidão de um conjunto de dados em 1% ou 2% pode levar mais tempo do que atingir um grau elevado de precisão, de 97%, por exemplo.
É fácil cair no erro de esperar por dados perfeitos. Os desafios impostos pela pandemia mostraram às empresas que a abordagem perfeccionista leva a se distanciar da meta principal, que é colocar o novo sistema de informação para funcionar de modo a atender melhor às necessidades da companhia. Os princípios acima ajudarão sua organização a gerenciar e a migrar dados de modo mais produtivo.
Confira mais artigos sobre data analytics no Fórum Data Science.“