Navegando por Autor "Almeida, André Gustavo Duarte de"
Agora exibindo 1 - 11 de 11
- Resultados por página
- Opções de Ordenação
Tese AdaptMCloud: uma estratégia para adaptação dinâmica de aplicações Multi-Cloud(Universidade Federal do Rio Grande do Norte, 2015-11-25) Almeida, André Gustavo Duarte de; Batista, Thais Vasconcelos; ; http://lattes.cnpq.br/5521922960404236; ; http://lattes.cnpq.br/1800962258138555; Ferraz, Carlos André Guimarães; ; http://lattes.cnpq.br/7716805104151473; Madeira, Edmundo Roberto Mauro; ; http://lattes.cnpq.br/1870389730408675; Medeiros Neto, Francisco Dantas de; ; http://lattes.cnpq.br/5525562330158282; Cacho, Nélio Alessandro Azevedo; ; http://lattes.cnpq.br/4635320220484649; Kulesza, Uirá; ; http://lattes.cnpq.br/0189095897739979Aplicações Multi-Cloud são compostas de serviços oferecidos por múltiplas plataformas de nuvem, onde o usuário/desenvolvedor tem pleno conhecimento da utilização dessas plataformas. O uso de múltiplas plataformas de nuvem evita os seguintes problemas: (i) vendor lock-in, que consiste na dependência da aplicação de uma determinada plataforma de nuvem, o que é prejudicial no caso de degradação ou falha nos serviços da plataforma, ou até mesmo aumento do preço do uso do serviço; (ii) degradação ou falha da aplicação devido a flutuações da qualidade de serviço (QoS) provida por alguma plataforma de nuvem, ou mesmo devido a falha em algum serviço. No cenário multi-cloud é possível se trocar um serviço em falha ou com problemas de QoS por um equivalente de outra plataforma de nuvem. Para que uma aplicação consiga adotar a perspectiva multi-cloud é necessário criar mecanismos que sejam capazes de selecionar quais serviços de nuvem/plataformas devem ser usados, de acordo com os requisitos determinados pelo programador/usuário. Nesse contexto, as maiores dificuldades em termos de desenvolvimento de tais aplicações abrangem questões como: (i) a escolha de quais serviços e de plataformas de computação em nuvem subjacentes devem ser usadas com base nos requisitos definidos de funcionalidade e de qualidade pelo usuário, (ii) a necessidade de monitorar continuamente as informações dinâmicas (tais como tempo de resposta, disponibilidade, preço, disponibilidade), relacionadas com serviços de nuvem, além da variedade ampla de serviços, e (iii) a necessidade de se adaptar a aplicação no caso de violações de QoS que afetam os seus requisitos. Essa tese de doutorado propõe uma abordagem para adaptação dinâmica de aplicações multi-cloud que se aplica quando um serviço fica indisponível ou quando os requisitos definidos pelo usuário/desenvolvedor apontam que outra configuração multicloud disponível atende de forma mais eficiente. Dessa forma, esse trabalho propõe uma estratégia composta por duas fases. A primeira fase consiste na modelagem da aplicação, que explora a capacidade de representação de similaridades e variabilidades propostas no contexto do paradigma de linhas de produto de software (LPS). Nessa fase é usado um modelo de features estendido para especificar a configuração de serviços de nuvens a ser usado pela aplicação (similaridades) e os diferentes possíveis provedores para cada serviço (variabilidades). Além disso, os requisitos não-funcionais associados aos serviços de nuvem são especificados nesse modelo através de propriedades que descrevem informações dinâmicas sobre esses serviços. A segunda fase consiste em um processo autonômico baseado no loop de controle MAPE-K, que é responsável por selecionar, de forma otimizada, uma configuração multi-cloud que atenda aos requisitos estabelecidos, e que execute a adaptação. A estratégia de adaptação proposta é independente da técnica de programação usada para realizar a adaptação. Nesse trabalho implementamos a estratégia de adaptação usando várias técnicas de programação como programação orientada a aspectos, programação orientada a contexto e programação orientada a componentes e serviços. Com base nas etapas propostas, procuramos avaliar os seguintes itens: (i) se o processo de modelagem e especificação de requisitos não-funcionais é capaz de garantir o efetivo acompanhamento da satisfação do usuário; (ii) se o processo otimizado de seleção apresenta ganhos significativos quando comparado com abordagem sequencial; e (iii) quais técnicas apresentam a melhor relação custo-benefício, quando comparado os esforços para desenvolvimento/modularidade e desempenho.Dissertação Um ambiente multi-middleware para desenvolvimento de aplicações distribuídas(Universidade Federal do Rio Grande do Norte, 2008-02-12) Almeida, André Gustavo Duarte de; Batista, Thais Vasconcelos; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4784543T8; http://lattes.cnpq.br/1800962258138555; Delicatto, Flávia Coimbra; Madeira, Edmundo Roberto Mauro; http://lattes.cnpq.br/1870389730408675Este trabalho apresenta a proposta de um ambiente multi-middleware para desenvolvimento de aplicações distribuídas, o qual abstrai diferentes plataformas de middleware subjacentes. O trabalho descreve: (i) a arquitetura de referência especificada para o ambiente, (ii) uma implementação que valida tal arquitetura integrando CORBA e EJB, (iii) um estudo de caso ilustrando o uso do ambiente, (iv) a análise de desempenho. O ambiente proposto permite alcançar interoperabilidade de plataformas de middleware, promovendo o reuso de componentes de diferentes plataformas de forma transparente para o desenvolvedor e sem perdas expressivas em termos de desempenho. Na implementação desenvolvemos um plugin para IDE Eclipse que permite que os eventuais desenvolvedores obtenham maior produtividade ao desenvolver aplicações usando o ambienteTese Uma arquitetura de software baseada em Computação em Névoa para gestão dos registros médicos centrada no paciente(Universidade Federal do Rio Grande do Norte, 2020-11-10) Silva, Cícero Alves da; Aquino Júnior, Gibeon Soares de; ; http://lattes.cnpq.br/1254338144161360; ; http://lattes.cnpq.br/5665889551371243; Venâncio Neto, Augusto José; ; http://lattes.cnpq.br/1467664612924239; Batista, Thais Vasconcelos; ; http://lattes.cnpq.br/5521922960404236; Almeida, André Gustavo Duarte de; ; http://lattes.cnpq.br/1800962258138555; Trinta, Fernando Antônio Mota; ; http://lattes.cnpq.br/8908026219336623O envelhecimento da população mundial e o crescimento do número de pessoas com do-enças crônicas têm aumentado os gastos com atendimento médico. Desse modo, o uso de soluções tecnológicas, inclusive as baseadas em Internet das Coisas, vêm sendo am-plamente adotadas na área médica no intuito de melhorar a saúde dos pacientes. Neste contexto, abordagens baseadas em Computação em Nuvem têm sido adotadas para re-alizar o armazenamento e processamento das informações geradas nessas soluções. No entanto, o uso de Nuvem pode gerar atrasos intoleráveis para aplicações médicas. Assim,o paradigma de Computação em Névoa surgiu como uma alternativa para contornar esse problema, provendo computação e armazenamento mais próximo das fontes de dados. En-tretanto, a gestão dos dados médicos armazenados na Névoa ainda é um desao. Além do mais, características de privacidade, condencialidade e interoperabilidade precisam ser consideradas em abordagens que tenham o objetivo de explorar esta problemática. As-sim, este trabalho dene uma arquitetura de software, baseada em Computação em Névoa, projetada para prover o gerenciamento dos registros médicos centrado no paciente. Estaarquitetura utiliza a tecnologia Blockchain para prover as características de privacidadenecessárias. Nesta tese também descreve-se um estudo de caso que analisou os requisitosde privacidade, condencialidade e interoperabilidade em um cenário de Home Care. Porm, o comportamento do desempenho relacionado ao acesso aos dados gerenciadas naarquitetura proposta foi analisado no cenário mencionado.Dissertação Avaliação arquitetural do Sistema SUAP: uma análise sistematizada sobre desempenho(2018-12-07) Casadei, Tarso Latorraca; Silva, Carlos Eduardo da; ; ; Almeida, André Gustavo Duarte de; ; Barbosa, Eiji Adachi Medeiros;Sistemas de informação têm se tornado cada vez mais robustos, trabalhando com altos volumes de dados, objetos e, consequentemente, processos. No contexto do Instituto Federal do Rio Grande do Norte (IFRN), foi desenvolvido um sistema próprio para atender a todas as atividades administrativas e acadêmicas da instituição: o SUAP, Sistema Unificado de Administração Pública. Ao longo de 11 anos, a aplicação evoluiu de apenas um módulo para mais de 40, além do crescimento vertiginoso de usuários – que hoje permeia o número de 35 mil. Esses aspectos muitas vezes impactam diretamente no desempenho de sistemas, levando os arquitetos de software a buscarem alternativas para melhor escalar suas aplicações. No caso do IFRN, mesmo após altos investimentos realizados em infraestrutura, os problemas de desempenho do SUAP persistem. Buscando um melhor aproveitamento da estrutura de hardware disponível, faz-se necessário compreender as razões destes problemas de desempenho, a fim de que estes recursos computacionais sejam utilizados de forma dinâmica e crescente, geridos de forma mais eficiente e capazes de suportar cargas excedentes sem prejuízo de desempenho da aplicação. Surge, assim, a necessidade de se avaliar aspectos mais abrangentes da arquitetura atual da aplicação, para que possam ser conhecidos elementos que prejudiquem seu desempenho. Este trabalho tem o objetivo de realizar uma análise sistematizada de desempenho do SUAP através da aplicação do método de avaliação arquitetural ATAM (Architecture Trade-off Analysis Method) e da execução de um conjunto de testes de desempenho que possibilitem a identificação de seus principais pontos de lentidão. Com isso, espera-se contribuir para a definição de uma estratégia para testes de desempenho que possam ser incorporados ao processo de desenvolvimento do SUAP.Dissertação DC Health: detecção de anomalias online em datacenters(Universidade Federal do Rio Grande do Norte, 2022-08-30) Lopes Neto, Walter; Barroca Filho, Itamir de Morais; http://lattes.cnpq.br/1093675040121205; https://orcid.org/0000-0002-0483-7268; http://lattes.cnpq.br/0621147314421392; Doria Neto, Adrião Duarte; https://orcid.org/0000-0002-5445-7327; http://lattes.cnpq.br/1987295209521433; Almeida, André Gustavo Duarte de; Silva, Gustavo Girão Barreto da; Immich, Roger KreutzDatacenters são ambientes críticos para a disponibilidade de serviços baseados em tecnologia. Visando a alta disponibilidade desses serviços, métricas de performance dos nós, como Máquinas Virtuais (VM) ou clusters de VMs são amplamente monitoradas. Essas métricas, como nível de utilização de CPU e memória, podem apresentar padrões anômalos associados a falhas e a degradação de desempenho, culminando na exaustão de recursos e na falha total do nó. A detecção precoce de anomalias, isto é, de padrões em dados com comportamento diferente do esperado, pode possibilitar medidas de remediação, como migração de VMs e realocação de recursos, antes que perdas ocorram. Contudo, ferramentas de monitoramento tradicionais geralmente usam limites fixos para a detecção de problemas nos nós e carecem de maneiras automáticas para detectar anomalias em tempo de execução. Neste sentido, técnicas de aprendizado de máquina têm sido reportadas para detectar anomalias em sistemas computacionais com abordagens online e offline. Este trabalho propõe a aplicação denominada DC Health, como uma abordagem para antecipar a detecção online de anomalias em nós de datacenters. O objetivo do DC Health é detectar anomalias no comportamento de hosts e alertar aos operadores do datacenter, de forma que medidas de investigação e remediação possam ser tomadas. Para isso, esta pesquisa foi conduzida a partir de um i) Mapeamento Sistemático de Literatura, da ii) modelagem do problema a partir de dados reais de VMs e da iii) avaliação do DC Health usando o método prequential em 6 datasets do mundo real. Os resultados demonstraram que o DC Health se destacou em manter o consumo de memória constante enquanto processa os dados e na acurácia de detecção entre 75% e 90%. Como trabalhos futuros espera-se principalmente avaliar a ferramenta de detecção em cenários de computação em nuvem e desenvolver mecanismos automatizados de diagnóstico e remediação.Dissertação O ensino híbrido na capacitação de servidores públicos no IFRN(Universidade Federal do Rio Grande do Norte, 2020-06-15) Diniz, Igo Joventino Dantas; Gomes, Apuena Vieira; ; ; Maia, Dennys Leite; ; Almeida, André Gustavo Duarte de;No âmbito do Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Norte – IFRN, em meio ao cenário atual de crise econômica e contingenciamento orçamentário, no qual a escassez de recursos financeiros é cada vez maior, se faz necessária a busca por alternativas mais eficientes e personalizadas para atender às demandas institucionais de capacitação. Nesse contexto, a realização de eventos locais de aperfeiçoamento em detrimento dos demais tipos merece destaque, pois tem potencial para contemplar um maior número de servidores a um custo mais baixo, uma vez que não serão custeadas diárias, passagens e taxas de inscrição. Uma dessas alternativas é o uso do modelo de Ensino Híbrido (EH) como metodologia impulsionadora em capacitações internas. O blended learning ou Ensino Híbrido combina práticas pedagógicas do ensino presencial e do ensino a distância com o objetivo de maximizar a experiência de aprendizagem combinando recursos do ensino on-line e off-line. O EH tem se fortalecido como metodologia ativa de ensino aplicada nas empresas, proporcionando treinamentos corporativos interativos, dinâmicos e personalizados. Assim, a questão central desta pesquisa versa sobre como a metodologia de ensino híbrido pode contribuir para o aperfeiçoamento da política de capacitação dos servidores do IFRN. Definiuse como objetivo geral avaliar o ensino híbrido como metodologia aplicada a um curso de capacitação para servidores do IFRN. Os objetivos específicos foram assim delineados: identificar as necessidades de capacitação dos servidores do IFRN; planejar e estruturar o curso de capacitação baseado na metodologia de ensino híbrido; realizar capacitação utilizando a metodologia de ensino híbrido; e avaliar a efetividade do modelo aplicado à capacitação dos servidores do IFRN. A metodologia da pesquisa tem objetivos guiados pela pesquisa exploratória, de abordagem qualitativa, seus procedimentos técnicos apoiados pela pesquisa-ação e como sujeitos, os servidores do campus Natal-Cidade Alta do IFRN. Para atender aos objetivos propostos, o curso foi desenvolvido com base no processo de treinamento, seguindo as etapas: Diagnóstico, Desenho, Implementação e Análise. Entre as principais dificuldades encontradas na implementação da capacitação pode-se destacar a dificuldade de engajamento dos participantes nos momentos on-line do curso, ocasionada tanto por questões estruturais da capacitação, quanto de ordem pessoal dos participantes. Ao final do processo de capacitação, mesmo com as dificuldades encontradas, foi possível constatar que o ensino híbrido se mostrou uma alternativa metodológica importante para as capacitações profissionais, uma vez que a capacitação realizada nesse formato cumpriu o seu papel formativo junto aos participantes, capacitando-os, de maneira personalizada, acerca de uma temática relevante e necessária em suas atividades laborais, atendendo às suas expectativas de satisfação e qualidade. Além disso, o formato utilizado se mostrou um método eficiente no aspecto financeiro para a instituição, utilizando a própria estrutura física e tecnológica e sem a necessidade de afastamento do servidor do ambiente de trabalho. Em maior escala, à luz destes resultados, espera-se que o IFRN adote a metodologia de EH no programa de capacitação institucional e expanda aos demais campi o formato semelhante utilizado, atendendo assim aos princípios de eficácia e eficiência no serviço público.Tese Uma estratégia autonômica para escalabilidade automática de infraestruturas de plataformas para cidades inteligentes(Universidade Federal do Rio Grande do Norte, 2023-11-23) Solino, André Luiz da Silva; Batista, Thais Vasconcelos; Cavalcante, Everton Ranielly de Sousa; https://orcid.org/0000-0002-2475-5075; http://lattes.cnpq.br/5065548216266121; https://orcid.org/0000-0003-3558-1450; http://lattes.cnpq.br/5521922960404236; http://lattes.cnpq.br/7784434236797122; Almeida, André Gustavo Duarte de; Ferraz, Carlos André Guimarães; Cacho, Nelio Alessandro AzevedoPlataformas de desenvolvimento de aplicações para cidades inteligentes recebem, armazenam, processam e exibem grandes volumes de dados de diferentes fontes e possuem diversos usuários, como cidadãos, visitantes, governo e empresas. A infraestrutura computacional subjacente para suportar essas plataformas deve lidar com a carga de trabalho altamente dinâmica das diferentes aplicações, com acesso simultâneo de vários usuários e, às vezes, trabalhando com muitos dispositivos interconectados. Tal infraestrutura normalmente engloba plataformas de nuvem para armazenamento e computação de dados, capazes de aumentar ou diminuir de acordo com as demandas das aplicações. Esta tese propõe uma abordagem autonômica para autoescalar infraestruturas de plataformas de cidades inteligentes. A abordagem segue o loop de controle MAPE-K para ajustar dinamicamente a infraestrutura em resposta às mudanças na carga de trabalho. Ele oferece suporte a cenários em que o número de solicitações de processamento é desconhecido a priori. O desempenho da abordagem foi avaliado no contexto da infraestrutura computacional subjacente ao Smart Geo Layers (SGeoL), uma plataforma para o desenvolvimento de aplicações de cidades inteligentes do mundo real.Dissertação MPRN em Dados: desenvolvimento de uma plataforma de organização de dados internos e externos ao Ministério Público do Rio Grande do Norte(Universidade Federal do Rio Grande do Norte, 2021-03-31) Oliveira, Leandro Silva Monteiro de; Lopes, Frederico Araújo da Silva; Cacho, Nelio Alessandro Azevedo; ; http://lattes.cnpq.br/4635320220484649; ; http://lattes.cnpq.br/9177823996895375; ; http://lattes.cnpq.br/9103649735211047; Barbosa, Eiji Adachi Medeiros; ; http://lattes.cnpq.br/8833409749475821; Almeida, André Gustavo Duarte de; ; http://lattes.cnpq.br/1800962258138555Este trabalho foi idealizado a partir de experiências no Ministério Público do Rio Grande do Norte (MPRN) quanto a criação de uma plataforma para organizar produtos de dados do MPRN. Desta forma, primeiramente foi realizado um mapeamento sistemático da literatura, com o intuito de buscar as melhores práticas relacionadas à publicação de dados, bem como processos ou metodologias já existentes, tais como outras iniciativas desenvolvidas por outros Ministérios Públicos. Os resultados foram, então, analisados. Após fazer a análise, verificou-se que existe a necessidade de melhoramento do processo de compartilhamento de dados por parte do Ministério Público. Sendo assim, foi desenvolvido um novo processo para apoiar o compartilhamento de dados através da plataforma MPRN em Dados. Após isso, foram realizados alguns estudos de casos com o intuito de verificar a utilidade do processo proposto, bem como identificar as dificuldades enfrentadas, avaliando sua eficiência geral e se realmente ele pode contribuir para melhorar a produtividade dentro do Ministério Público do RN auxiliando no processo de tomada de decisões.Dissertação OpenData Manager: uma ferramenta para gerenciar o processo de criação e monitoramento do plano de dados abertos(Universidade Federal do Rio Grande do Norte, 2021-03-30) Lopes, Fernando da Cruz; Lopes, Frederico Araújo da Silva; Almeida, André Gustavo Duarte de; ; http://lattes.cnpq.br/1800962258138555; ; http://lattes.cnpq.br/9177823996895375; ; http://lattes.cnpq.br/2539097918737464; Barroca Filho, Itamir de Morais; ; http://lattes.cnpq.br/1093675040121205; Aleixo, Fellipe Araújo; ; http://lattes.cnpq.br/9598457318220683O acesso a informações públicas vem se mostrado de grande importância no estreitamento da relação sociedade e governo, possibilitando à sociedade uma maior interatividade nas ações públicas. O desenvolvimento de sistemas que utilizam esse tipo de informação a favor do bom uso dos recursos públicos é um dos vários exemplos que podemos utilizar para mostrar como é importante o acesso a esses dados. A partir do Decreto nº 8.777 que regulamentou a abertura dos dados públicos do Poder Executivo Federal, vários órgãos e entidades iniciaram suas atividades para disponibilizar seus dados. Todos os passos para a abertura desses dados são especificados no manual de implementação, da Política de Dados Abertos disponibilizado pela Controladoria Geral da União (CGU). Um dos passos para abertura dos dados é a escrita de todas as ações realizadas até a catalogação dos dados nas plataformas de dados abertos. O documento em que são registradas essas ações é chamado de Plano de Dados Abertos, ou PDA. A CGU considera que um órgão público tem seus dados abertos apenas quando o seu PDA é publicado seguindo a vários critérios de organização e qualidade. Atualmente, a CGU mantém um painel de monitoramento de dados abertos, onde é possível verificar quais entidades públicas tem seus dados disponibilizados seguindo esses critérios. Ao realizar uma consulta a esse painel, percebemos que menos da metade dos órgãos públicos tem um PDA publicado, onde, dos 223 órgãos do Poder Executivo Federal, apenas 84 tem um PDA em execução. Dos PDAs em execução, grande parte não disponibilizam um sistema de monitoramento das ações e metas definidas ao longo de sua elaboração, pois foram escritos em formato de texto simples, sem automatização alguma no processo de monitoramento, como a própria CGU sugere. Para resolver o problema de elaborar um Plano de Dados Abertos seguindo as recomendações da CGU de qualidade e monitoramento durante e posteriormente a elaboração do PDA, este trabalho tem por objetivo o desenvolvimento de uma aplicação que irá abarcar todos os passos descritos no manual de desenvolvimento de um PDA, assim como irá monitorar todas as ações que precisam ser realizadas durante e depois da catalogação dos dados abertos. A validação da aplicação será feita reescrevendo alguns PDA e verificando se os requisitos implementados são satisfatórios.Dissertação OpenData Processor: uma ferramenta para a automatização do processo de extração e publicação de Dados Abertos(2018-07-30) Vilela, Allyson Bruno Campos Barros; Lopes, Frederico Araújo da Silva; Almeida, André Gustavo Duarte de; ; ; ; Medeiros Neto, Francisco Dantas de; ; Aquino Júnior, Gibeon Soares de;O acesso público à informação do governo é um aspecto importante da sociedade moderna que permite a participação ativa da população no monitoramento das ações governamentais. O decreto no 8.777, assinado pela Presidência da República em 11 de maio de 2016, institui a Política de Dados Abertos do Poder Executivo Federal. A partir dele, os órgãos e entidades da administração pública federal direta, autárquica e fundacional são obrigados a disponibilizarem os dados no formato aberto. No entanto, grande parte dessas instituições estão descumprindo os compromissos definidos no Decreto. Uma possível explicação para esse número é a necessidade dos responsáveis técnicos terem bons conhecimentos de seus sistemas de informação e das legislações vigentes aliada com a dificuldade na extração dos dados visto que na maioria das instituições, todo o processo de extração, publicação e atualização dos dados abertos é feito de forma manual. Nesse sentido, este trabalho propõe o desenvolvimento de uma ferramenta de automatização do processo de extração, publicação e atualização dos dados abertos. Para demonstrar a viabilidade dessa automatização foi utilizado, como estudo de caso, a integração entre o SUAP e o CKAN.Dissertação SmartNode Dashboard: um framework front-end baseado em NodeRED para criação de City Dashboards(2019-01-28) Dias, Cesimar Xavier de Souza; Lopes, Frederico Araújo da Silva; Leite, Jair Cavalcanti; ; ; ; Almeida, André Gustavo Duarte de; ; Silva, Gustavo Girão Barreto da;Atualmente diversas cidades têm se envolvido com pesquisas no intuito de fomentar a criação de soluções que dispõe os dados e informações à população, são os chamados City Dashboards. Estes projetos possibilitam aos cidadãos acompanhar os acontecimentos da cidade em tempo real, possibilitando a essas pessoas planejarem suas rotinas baseado no conhecimento gerado sobre o seu contexto local. Mesmo com o número crescente de projetos sendo desenvolvidos com essa finalidade, não há, ainda, trabalhos que sejam voltados a criar estruturas reaproveitáveis ou metodologias que utilizem outros produtos de softwares de código aberto com vistas à padronização de produção de dashboards. Diante disso, esse trabalho se propôs em criar um framework utilizando o Bootstrap. O framework teve a intenção de implementar padrões de projetos e de interface web, focados em conteúdos com estruturas reaproveitáveis, utilizando o Node-RED como plataforma de execução. Como resultados deste trabalho, foi possível conceber o SmartNode Dashboard, um framework para criação de interfaces padronizadas e customizáveis. Além de oferecer aos desenvolvedores de dashboards uma metodologia de utilização do SmartNode Dashboard junto ao Node-RED para facilitar e ampliar a capacidade das equipes no tocante ao desempenho, tempo e qualidade no desenvolvimento de dashboards.