Neste breve texto, busquei introduzir de maneira sucinta um método composto por 4 etapas, que tem como objetivo principal conduzir a otimização de processo de fabricação por meio de insights e análises de dados. Ao compreender as 4 etapas e abstraindo como elas poderiam ser aplicadas em seu chão de fábrica, é possível que você avance mais um passo em busca da otimização de seus processos.
Antes de iniciar, uma boa notícia! Este tipo de método pode ser aplicado em centenas de casos de uso na manufatura e utilizado em áreas como por exemplo: produção, qualidade, manutenção, custos, etc.
A primeira etapa consiste na adoção de pilares tecnológicos, que viabilizam as etapas seguintes e portanto, seus objetivos. Para alcançar aplicações práticas como por exemplo, manutenção e qualidade preditiva, o uso de dados, bigdata e inteligência artificial na manufatura é uma das principais vertentes do que chamamos de “indústria 4.0”. Portanto, para otimizar processos utilizando a abordagem aqui proposta, os seguintes pilares tecnológicos são fundamentais e que estejam disponíveis para profissionais da fábrica no dia a dia:
Aqui é onde a tecnologia implementada na etapa anterior é colocada em operação, isso se dá por especialistas e engenheiros de manufatura, com objetivos bem definidos, endereçando uma oportunidade de melhoria do chão de fábrica. Como mencionado anteriormente, implementando análise de dados de processo baseada em ML/IA, engenheiros podem identificar com rapidez causas de ineficiência como a formação de produtos indesejados, instabilidades de processos, impurezas, comportamento anômalo de equipamento, entre outros exemplos do dia a dia de uma fábrica. Esse tipo de investigação pode ser realizado com soluções denominadas “análise de causa raiz automatizada”.
Antes de abordarmos alguns benefícios desse tipo de análise, gostaria de rapidamente fazer uma comparação entre análise de causa raiz manual e automatizada.
Primeiramente, o método manual leva tempo – em média um dia – e para o levantamento de dados requer o envolvimento de vários profissionais e equipes diferentes. Com o enorme volume de dados capturados de milhares de TAGs a cada segundo, é quase impraticável operacionalizar investigações entre variáveis que levam o processo à ineficiência. Além disso, quanto mais tempo se leva para construir uma análise relevante, por mais tempo a ineficiência ocorre e maior é o impacto em metas operacionais.
Por esta razão as equipes operacionais precisam de um caminho mais ágil, despendendo o menor tempo possível em preparação de dados manual. Isso possibilita encontrar o quanto antes e com mais assertividade os eventos que levam às perdas de produção. Uma solução completa de análise de causa raiz automatizada enriquece e contextualiza dados de processos historiados e em tempo real, para então, aplicar técnicas de análise baseadas em algoritmos ML/IA, estatística e interpretação de dados. O resultado deste tipo de investigação apresenta um ranking das principais causas que possivelmente estão provocando à ineficiência investigada.
Com essa capacidade tecnológica em mãos, o time de operação consegue insights rápidos e precisos ainda nos sintomas precoces de ineficiências de processo, tornando muito mais rápido e assertivo mitigar causas raiz de eventos indesejáveis.
Possuir recursos que identificam as causas que levam a ineficiência operacional já é fantástico, concorda? Mas se você conseguir avançar mais um passo, também poderá obter insights e possivelmente antecipar quando eventos indesejáveis poderão acontecer. Após adquirir conhecimento das prováveis causas da ineficiência investigada, é o momento de validar hipóteses com análises exploratórias e colocar todo esse conhecimento para trabalhar por você. Isto é, treinar, validar e por fim operacionalizar o modelo de predição para antecipar a ineficiência em pauta.
A primeira fase deste processo é chamada de treinamento do modelo de predição. Descrevendo de maneira bem simplificada, esta etapa consiste em selecionar e manipular um conjunto de dados relevantes que descreve a ineficiência investigada. Este conjunto é denominado “dados de treinamento”. É necessário também selecionar o modelo de predição ML/IA mais adequado para o objetivo. Só então podemos finalmente, criar e treinar o modelo de predição.
Em seguida, inicia-se a fase de validação. Isto consiste em selecionar outro conjunto de dados denominado “dados de validação”. A técnica utilizada para avaliar a precisão do modelo pode ser descrita sucintamente da seguinte maneira: avalia-se o resultado do modelo, simulando o comportamento do cenário real da linha de produção através do conjunto de dados do passado – “dados de validação”. Essa abordagem funciona, pois os resultados reais do passado são conhecidos. Assim, é possível avaliar se o modelo treinado é preciso o suficiente, comparando o resultado do modelo (previsto) com o resultado dos “dados de validação” (real).
Avaliando o resultado previsto pelo modelo e constatando que este não atende aos requisitos necessários para operacionaliza-lo, o “ciclo de vida do modelo de machine learning” se reinicia. Isto é, o modelo de predição deverá ser re-treinado e re-avaliado utilizando uma abordagem diferente. Nesta fase são realizadas modificações em relação ao que foi feito anteriormente durante a etapa de treinamento, como por exemplo: selecionar outro conjunto de dados, manipular dados utilizando outras transformações, selecionar outro modelo de predição, etc. Esse ciclo é indispensável para construir modelos de predição que gerem valor. O ciclo é concluído – ou pelo menos temporariamente concluído – quando: valida-se que o modelo de predição possui precisão e acurácia ótima para atender a realidade do chão de fábrica.
O modelo de predição esta aprovado e entrará em operação. É neste instante, onde a mágica acontece, é como se profissionais tivessem a habilidade de traduzir dezenas e até centenas de dados a cada segundo em insights operacionais do que pode ocorrer no futuro. Modelos de machine learning podem ser treinados para identificar eventos relevantes e prever seus resultados. Com esses recursos em mãos, as equipes operacionais estão mais aptas a melhorar o rendimento de máquinas, previnir paradas por falha de equipamento, defeitos de qualidade, entre outros inúmeros casos de aplicação.
Uma vez que você já entendeu porque a ineficiência ocorre, já conseguiu inclusive receber alertas e insights antes que ela aconteça, é fundamental difundir o conhecimento. Dessa forma, é possível colocar em prática ações data-driven ao longo de toda a fábrica. Isso tudo somado com muito trabalho humano, resulta em otimização continua do processo de fabricação.
Disponibilizar e compartilhar o conhecimento através de dashboards personalizados para cada perfil de profissional de sua unidade fabril é indispensável. Um cenário bem comum no chão de fábrica, são análises úteis armazenadas apenas em computadores de profissionais especialistas, como engenheiros e analistas. Insights e ações oriundas de análises valiosas, muitas vezes, não são colocadas em prática. Isto infelizmente acontece, pois as equipes de operação possuem recursos limitados para a visualização de dados contextualizados e em tempo real.
É fundamental utilizar tecnologias que permitam não apenas a análise de dados e modelos de machine learning, mas também que forneçam recursos que democratizem conhecimento por toda a organização através de dashboards. A construção, ajustes e compartilhamento de dashboards deve se dar de maneira padronizada, fácil e escalável. Estes painéis eletrônicos devem acessar o digital twin e o big data de máquinas e linhas em tempo real. Esse é o caminho para que insights valiosos, possam não apenas ser gerados mas também compartilhados para todos os níveis de profissionais de uma fábrica – o que possivelmente resultará em valor para o negócio.
Acessando informações e insights em tempo real, Operadores, Supervisores, Engenheiros, Gerentes e Diretores, conseguem:
Para finalizar, vejo que a chegada da inteligência artificial e machine learning, especificamente na indústria, viabilizou a utilização da variedade e volume extraordinário de dados de produção armazenados pelas empresas durante décadas. Essa massa de dados é ainda inexplorada por muitas empresas e completamente sub-utilizada. Explorar os dados de produção para obter insights acionáveis, impulsionando a melhoria contínua nos processos de fabricação com tecnologia de dados, é indiscutivelmente uma realidade. A visualização do digital twin e o acesso ao bigdata de máquinas e linhas, faz com que agora seja possível que todos da corporação acessem insights e análises, sem a necessidade de outros profissionais especialistas, tomando providências dentro de um intervalo de tempo sem precedentes.
Espero que este conteúdo, ajude de alguma maneira pessoas e empresas a transformar dados de produção em valor para os negócios.