Resumo do trabalho
|
Atualmente vive-se na era do Big Data, na qual instrumentos científicos ultramodernos, redes e mídias sociais, bem como mais recentemente dispositivos da Internet das Coisas têm gerado e transmitido diariamente pela Internet enormes quantidades de dados. No contexto da Internet das Coisas, um novo paradigma tem sido utilizado para prevenir
o envio de tantos dados à nuvem; assim, em contraste com a computação em nuvem, vem sendo cada vez mais adotado a computação em névoa. Quando o paradigma da computação em névoa é implementado no ambiente da Internet das Coisas, a maior parte do processamento e armazenamento de dados é realizado na borda da rede por gateways que transmitem para nuvem apenas o que não pode ser tratado localmente ou para atender aplicações específicas. Desta forma, em ambientes nos quais sensores capturam informações a cada segundo, por exemplo, em vez de se enviar cada uma das medidas auferidas para nuvem, o gateway adota uma estratégia de agregação de dados antes de transmiti-los; o que pode ser feito com ou sem perda de informação. Entretanto, como muitas aplicações precisam dos dados conforme medidos pelos dispositivos e a nuvem tem maior capacidade para atender um maior número de clientes que os gateways, o cenário ideal é que ela fosse capaz de reconstruir o histórico dos dados e entregá-los a estas aplicações. Este trabalho propõe o uso de redes neurais perceptron para reconstituir por interpolação o histórico dos dados dos sensores a partir dos valores agregados enviados a` nuvem. A fim de satisfazer esse objetivo foram desenvolvidas duas redes neurais para operar na borda da rede; uma que classifica automaticamente o tipo de sensor a fim de direcionar seus dados a uma segunda rede neural mais apropriada para aprender aquele conjunto de dados e uma rede neural na nuvem capaz de fazer a interpolação e o forescast a partir dos dados agregados enviados.
|