Big Data aplicado ao conceito Indústria 4.0

O termo Big Data foi criado em 1997 para designar um grande volume de informações virtuais desordenadas e em rápido crescimento. Hoje esta expressão se refere a um conjunto de macrodados ou megadados de múltiplas origens produzido num intervalo de tempo recente, e possibilita uma leitura da realidade em tempo real, desde que tais informações sejam submetidas ao tratamento adequado. Já o conceito Indústria 4.0 foi usado pela primeira vez em 2012, na Alemanha, e designou uma nova fase do segmento fabril, onde a manufatura é informatizada. Trata-se da quarta revolução industrial, com um amplo sistema de tecnologias avançadas, como inteligência artificial, robótica, internet das coisas e computação em nuvem, que juntas mudam a mecânica operacional, criando modelos de negócios e reduzindo custos.
De acordo com levantamento realizado pela Agência Brasileira de Desenvolvimento Industrial (ABDI), a redução de custos na indústria brasileira com a migração para o conceito 4.0 será de aproximadamente R$ 73 bilhões por ano. Dentro deste montante, a diminuição com reparos pode chegar a R$ 35 bilhões. Já os ganhos com eficiência produtiva podem ser de R$ 31 bilhões e os outros R$ 7 bilhões estão relacionados com a redução dos gastos com energia.
No entanto, essa migração exige um certo esforço. A Indústria 4.0 é diariamente retroalimentada pelo Big Data. Estamos falando de muita informação. O Google estima que a humanidade cria 5 exabytes de dados a cada 48 horas. É o mesmo volume de conhecimento criado por todos os povos do mundo desde a antiguidade até o ano de 2003. Apenas para lembrar, um exabyte tem mil petabytes. E um petabyte tem mil terabytes. A lendária biblioteca de Alexandria é um grão de areia nessa imensidão. Mas como trabalhar com tanta informação assim?
Bem, nós não coletaremos todos os dados produzidos ao redor do mundo. É preciso delimitar um recorte dentro desse universo virtual. Algo que ocorre naturalmente no cotidiano operacional. Aliás, quando falamos em Big Data passamos obrigatoriamente pelos cinco “Vs”, definidos pelos teóricos da Tecnologia da Informação:
- Volume, que se traduz na grande capacidade de dados que tal tecnologia consegue guardar;
- Velocidade, que representa a rapidez com que o hardware e o software conseguem trabalhar na coleta e processamento das informações;
- Veracidade, que demonstra a poder do algoritmo para filtrar os dados corretos que serão utilizados na análise;
- Variedade, que se refere às diversas fontes dos registros, tanto internas quanto externas;
- e o Valor, que representa a habilidade que o Big Data tem para agregar valor ao cotidiano do mundo corporativo.
Então podemos dizer que cada indústria construirá uma delimitação no primeiro V, sendo o volume de dados do Big Data. O que prejudicará a velocidade de processamento, o que não é verdade, o que não agrega valor, o que não diz respeito à atividade da indústria, (já conectada na fase 4.0, claro) é automaticamente eliminado pelo profissional de T. I., responsável pela implantação dessa rotina operacional na empresa. Mesmo assim é muita informação, de diferentes fontes.
Conforme o site Oncase, “as principais origens de dados que sustentam o funcionamento do Big Data na indústria 4.0 são:
- Social Data: são os dados coletados a partir de interações de usuários em redes sociais, pesquisas no Google ações com outros canais digitais da empresa. É por meio, principalmente, deles que é possível desenvolver o mapa de jornada do cliente, capaz de traçar os padrões de consumo e perfis comportamentais do público-alvo;
- Enterprise Data: são insumos disponibilizados pela empresa a todo momento, como dados de recursos humanos, financeiros, produtivos, além de outros registros. São fundamentais para alinhar a capacidade operacional da empresa com as demandas existentes”.
De forma prática podemos dar o seguinte exemplo: imagine que uma fábrica de carros esteja planejando pintar um determinado modelo de preto em maior quantidade, mas o departamento de vendas registra um grande volume de encomendas na cor vermelha. Além disso, vários internautas perguntam se o automóvel está disponível na cor vermelha. Rapidamente os planos são modificados, antes que a produção na cor preta seja iniciada. Isso tudo ocorreu em minutos, evitando a criação de um estoque desnecessário ou, no mínimo, o prejuízo do retrabalho.
Mas como implantar a tecnologia do Big Data em uma indústria 4.0? O site A Voz da Indústria diz que esse processo passa por 3 fases:
- “Fase 1 – Arquitetura da informação — A primeira ação é definir quais são os dados mais relevantes e quais são os objetivos da empresa com o uso destas informações. Com a definição dos dados que devem ser coletados neste planejamento, é necessário decidir a forma e o meio como eles devem ser apurados, desde a linha de produção até o sensor instalado e as máquinas, para assim chegarem em uma base de dados bem estruturada. Por isso, nesta fase é criada a arquitetura da informação, a organização das partes de um mesmo sistema para que ele seja compreensível. Essa ação irá evitar uma “colcha de retalhos” e criar um padrão de dados, com uma linguagem única para integrar as informações e as suas trocas entre todos os setores da indústria. As ações de planejar, arquitetar e definir onde a empresa quer chegar com os dados vão otimizar o uso do Big Data. Um dos exemplos é quando a indústria aposta em protocolos de comunicação de baixo consumo de energia associados à internet das coisas (IoT) ou de protocolos abertos de comunicação entre máquinas (Modbus ou OPCs) — ferramentas que potencializam a integração dos equipamentos e, consequentemente, dos dados. Atualmente também é possível instalar sensores magnéticos ou de presença, por exemplo, em processos ou equipamentos que não possuem uma forma própria de contabilização da produção. Como uma indústria metal mecânica, onde os processos de soldagem não possuíam mecanismos de contagem de peças produzidas e sensores magnéticos foram utilizados para realizar a detecção e contagem automaticamente. Outra possibilidade é usar os dados das máquinas, que muitas vezes já têm algum tipo de contador. Entre estas informações devem estar os KPIs (Key Performance Indicator) de produtividade, qualidade e custos de produção. Com estas questões bem alinhadas, a empresa terá segurança e clareza sobre as análises dos dados que serão executadas na fase seguinte.
- Fase 2 – Visualização de disseminação dos dados — Um dos desafios é fazer com que a informação chegue às pessoas certas e no momento correto para a tomada de decisão mais assertiva. As empresas costumam utilizar alguns modelos mais tradicionais como telões ou dashboards para a disposição desses dados, que podem estar associados a alarmes ou avisos de alerta para a equipe. Outro ponto que deve ser definido é o tempo que os dados vão ser consolidados. Uma possibilidade é coletá-los em períodos maiores, e não somente visualizá-los em tempo real, consolidando estes dados em semanas ou meses. Desta forma, é possível verificar a produtividade ao longo de um período para avaliar os problemas e propor soluções para otimizar a produção. Nesta fase é importante disseminar os dados a quem agirá na empresa e parar a produção quando um defeito crítico for identificado antes de causar prejuízos com o retrabalho ou de uso de matéria-prima. Ou determinar uma revisão em todo o processo produtivo, após uma análise do conjunto de dados em um período mais longo e alinhado com os KPIs da indústria.
- Fase 3 – Utilização dos dados para geração de cenários e tomada de decisão — Nesta última fase, após uma extração correta dos dados que foram visualizados claramente e disseminados nas duas fases anteriores, é possível fazer simulações estratégicas antes da intervenção na produção. A utilização de dados reais em simulações permite a implantação do conceito de digital twin na indústria. Essas simulações podem fornecer os melhores parâmetros e condições para uma produção confiável e eficiente. As simulações podem usar tecnologias como data analytics, business intelligence ou mesmo inteligência artificial para analisar dados históricos, evidenciando tendências, padrões ou correlação entre os dados. O principal objetivo com o uso destas inovações é direcionar o capital humano para situações mais estratégicas e colocar a máquina em ações operacionais. Por isso, depois destas simulações os dados poderão ser utilizados para tomadas de decisões mais assertivas e com baixo risco, evitando desperdício de energia ou necessidade de um novo processo de produção. A partir deste momento serão estabelecidas as ações necessárias para aumentar a produtividade e a qualidade do produto.”
Segundo o site do Portal da Indústria, “a incorporação da Robótica Avançada, dos Sistemas de Conexão Máquina-Máquina, da Internet das Coisas e dos Sensores e Atuadores utilizados em equipamentos de produção possibilita que máquinas “conversem” ao longo das operações industriais. Isso pode permitir a geração de informações e a conexão das diversas etapas da cadeia de valor, do desenvolvimento de novos produtos, projetos, produção, até o pós-venda.” É nesse cenário que as informações do Big Data serão utilizadas. Toda essa tecnologia ainda possibilita um crescimento médio de 22% na produtividade. Dá trabalho? Sim. Vale a pena? Com certeza.
Gostou do texto? Nós, da Águia Sistemas, somos líderes nacionais em Intralogística e podemos ajudar sua empresa a encontrar sempre a melhor solução dentro desse campo. Mantenha contato!
(O texto acima foi escrito com informações dos sites Oncase, A Voz da Indústria, Portal da Indústria).