Logo do repositório
  • Página Inicial(current)
  • Buscar
    Por Data de PublicaçãoPor AutorPor TítuloPor Assunto
  • Tutoriais
  • Documentos
  • Sobre o RI
  • Eventos
    Repositório Institucional da UFRN: 15 anos de conexão com o conhecimento
  • Padrão
  • Amarelo
  • Azul
  • Verde
  • English
  • Português do Brasil
Entrar

SIGAA

  1. Início
  2. Pesquisar por Autor

Navegando por Autor "Doria Neto, Adrião Duarte"

Filtrar resultados informando as primeiras letras
Agora exibindo 1 - 20 de 28
  • Resultados por página
  • Opções de Ordenação
  • Carregando...
    Imagem de Miniatura
    Tese
    Uma abordagem utilizando aprendizagem por reforço hierárquica e computação paralela para o problema dos K-Servos
    (2017-06-09) Costa, Mademerson Leandro da; Doria Neto, Adrião Duarte; http://lattes.cnpq.br/1987295209521433; http://lattes.cnpq.br/9385856028870726; Lima Júnior, Francisco Chagas de; http://lattes.cnpq.br/9342041276186254; http://lattes.cnpq.br/2413250851590746; Santos, João Paulo Queiroz dos; http://lattes.cnpq.br/7325007451912598; Melo, Jorge Dantas de; http://lattes.cnpq.br/9892239670106361; Souza, Samuel Xavier de
    Um sistema de tarefas em espaços métricos é um modelo abstrato para uma classe de problemas de otimização online, incluindo o problema de paginação de memória, listas de acesso, problemas na indústria do petróleo como o gerenciamento de sondas de produção terrestre (workover rigs) e de logística na produção de petróleo offshore, o problema dos K-Servos, dentre outros. A utilização da aprendizagem por reforço na solução destes problemas, embora tenha se mostrado eficiente, está restrita a uma classe simples de problemas, devido à maldição da dimensionalidade inerente ao método. Neste trabalho, apresenta-se uma solução que utiliza a aprendizagem por reforço, baseada em técnicas de decomposição hierárquica e computação paralela para solução de problemas de otimização em espaços métricos, com o objetivo de estender a aplicabilidade do método a problemas complexos na indústria petrolífera, contornando a restrição da sua utilização a problemas teóricos de menor porte. A dimensão da estrutura de armazenamento utilizada pela aprendizagem por reforço para se obter a política ótima cresce em função do número de estados e de ações, sendo diretamente proporcional ao número n de nós e k de servos, fazendo com que o crescimento da complexidade do problema se dê de maneira exponencial (𝐶𝑘𝑛≅𝑂(𝑛𝑘)). Para contorná-lo, o problema foi modelado com um processo de decisão em múltiplas etapas onde inicialmente utilizamos o algoritmo k-means como método de agrupamento visando decompor o problema em subproblemas de menor dimensão. Em seguida foi aplicado o algoritmo Q-learning nos subgrupos buscando-se atingir a melhor política de deslocamento dos servos. Nesta etapa, foram utilizadas técnicas de computação paralela para que os processos de aprendizado e armazenamento nos subgrupos fossem executados de forma paralela. Desta forma, a dimensão do problema e o tempo total de execução do algoritmo foram reduzidos, viabilizando a aplicação do método proposto às grandes instâncias. A abordagem proposta apresentou melhores resultados quando comparada com a aprendizagem por reforço clássica e o método guloso. Além de ter atingido ganhos de speedup e eficiência na avaliação das métricas de desempenho paralelo.
  • Nenhuma Miniatura disponível
    Tese
    Algoritmos de aprendizagem por reforço para problemas de otimização multiobjetivo
    (Universidade Federal do Rio Grande do Norte, 2021-01-11) Oliveira, Thiago Henrique Freire de; Doria Neto, Adrião Duarte; ; http://lattes.cnpq.br/1987295209521433; ; http://lattes.cnpq.br/0465224964961501; Araújo, Aluizio Fausto Ribeiro; ; http://lattes.cnpq.br/8715023255304328; Araújo, Daniel Sabino Amorim de; ; http://lattes.cnpq.br/4744754780165354; Lima Júnior, Francisco Chagas de; ; http://lattes.cnpq.br/9342041276186254; Melo, Jorge Dantas de; ; http://lattes.cnpq.br/7325007451912598; Fernandes, Marcelo Augusto Costa; ; http://lattes.cnpq.br/3475337353676349
    Problemas de otimização multiobjetivo retratam situações reais e por isso, esta classe de problemas é extremamente importante. No entanto, mesmo já sendo estudada há décadas, esta classe de problemas continua a proporcionar situações desafiadoras, ainda mais com a crescente complexidade dos problemas que surgem ao longo do tempo. Dentre todas as dificuldades que podemos encontrar na otimização de múltiplos objetivos simultaneamente, sejam eles conflitantes ou não, uma das principais com que os algoritmos e abordagens existentes se possuem é a necessidade de conhecimento a priori do problema, ocasionando uma predefinição de importância para cada um dos objetivos, buscando estabelecer isomórfica entre a ponderação e uma solução. Já quando tratamos esta classe de problemas por meio da aprendizagem por reforço, duas abordagens são predominantes: política única (single-policy) e múltiplas políticas (multi-policy). Algoritmos e técnicas que utilizam a primeira abordagem sofrem com a necessidade de conhecimento prévio do problema, característica inerente dos problemas multiobjetivo. Já a segunda abordagem possui outras dificuldades, tais como: limitação do conjunto de soluções e elevado custo computacional. Diante deste contexto apresentado, o trabalho propõe dois algoritmos híbridos, chamados de Q-Managed with reset e Q-Managed without reset. Ambos são uma hibridização do algoritmo Q-Learning e a abordagem econstraint, respectivamente técnicas pertencentes a aprendizagem por reforço e otimização multiobjetivo. De forma resumida, os algoritmos propostos atuam da seguinte forma: o Q-Learning é utilizado para a exploração do ambiente, enquanto que a abordagem econstraint é utilizada para a delimitação dinâmica do ambiente — restrição da busca no espaço de soluções —, permitindo manter intacta a essência de como o algoritmo Q-Learning atua. Essa delimitação tem a seguinte finalidade: impor que o agente de aprendizagem possa aprender outras soluções por meio do bloqueio de ações que o levem a soluções já aprendidas e sem melhoria das mesmas, ou seja, soluções para qual o agente de aprendizagem já convergiu. Tal característica do bloqueio de ações é realizada pela figura de um supervisor (Manager), onde o mesmo é responsável por observar tudo o que ocorre no ambiente. Com relação a diferença entre os algoritmos propostos, basicamente trata-se da escolha de aproveitar ou não o conhecimento já adquirido do ambiente após uma solução ser considerada aprendida, ou seja, o agente de aprendizado ter convergido para uma determinada solução. Como forma de testar a eficácia das duas versões do Q-Managed, foram utilizados benchmarks tradicionais, os quais também foram adotados em outros trabalhos, permitindo assim uma comparação mais justa. Assim, duas abordagens comparativas foram adotadas, sendo a primeira delas por meio da implementação dos algoritmos de terceiros para uma comparação direta, enquanto que a segunda se deu por meio de uma métrica comum a todos que utilizaram os mesmos benchmarks. Em todos os testes possíveis, os algoritmos aqui propostos se mostraram eficazes, sempre encontrando toda a Fronteira de Pareto.
  • Carregando...
    Imagem de Miniatura
    Dissertação
    Análise da codificação wavelet em sistemas de rádio com acesso dinâmico ao espectro
    (2017-01-27) Souza, Pedro Thiago Valério de; Silveira, Luiz Felipe de Queiroz; ; http://lattes.cnpq.br/4139452169580807; ; http://lattes.cnpq.br/0971359679672360; Doria Neto, Adrião Duarte; ; http://lattes.cnpq.br/1987295209521433; Sousa Júnior, Vicente Angelo de; ; http://lattes.cnpq.br/6358312955522220; Gurjão, Edmar Candeia; ; http://lattes.cnpq.br/9200464668550566
    Nos sistemas de comunicações móveis, os sinais se propagam por múltiplos percursos sobre canais variantes no tempo, ficando sujeitos a distorções provocadas pelo desvanecimento e desvios Doppler. Visando minimizar essas distorções, técnicas de codificação e de diversidade de transmissão podem ser empregas, tais como a Codificação Wavelet. Essa técnica baseia-se na ortogonalidade das linhas da matriz wavelet e possui a capacidade de gerar ganhos de diversidade, aumentando a robustez do sistema ao desvanecimento variante no tempo, sem comprometer a eficiência espectral do sistema. Neste trabalho, a codificação wavelet é investigada em cenários de rádio cognitivo com acesso dinâmico ao espectro. Esses sistemas de rádio vêm se consolidando como um novo paradigma de comunicações sem fio com o avanço das técnicas de processamento digital de sinais. Sistemas de rádio cognitivo com acesso dinâmico ao espectro devem ser capazes de perceber faixas de frequência desocupadas para transmissões oportunísticas, assim como detectar a presença de usuários primários quando estes ocupam seu espectro licenciado. Portanto, um elemento crucial para a operação de sistemas de rádio cognitivo codificados pela codificação wavelet é a capacidade de se sensoriar os sinais codificados por essa técnica. Como será detalhado, a possibilidade de se sensoriar esses sinais está condicionada a um projeto adequado da constelação de sinais utilizada na modulação dos símbolos codificados. Neste trabalho, o projeto destas constelações é feito via algoritmos genéticos, utilizando-se uma abordagem de otimização multiobjetivo. O sistema desenvolvido é avaliado quanto a sua robustez ao desvanecimento plano variante no tempo através de uma análise de probabilidade de erro de bit (BER) versus Eb/N0, e quanto a possibilidade de sensoriamento espectral de seus sinais via métodos de análise de cicloestacionariedades e de detecção de energia. Os resultados obtidos indicam a viabilidade da técnica de codificação com matrizes wavelet em cenários de rádio com acesso dinâmico ao espectro, sendo observados bons resultados de desempenho de BER e de taxas de detecção do sinal sensoriado.
  • Carregando...
    Imagem de Miniatura
    Dissertação
    Aplicação da função de densidade espectral de correntropia cíclica em uma arquitetura de sensoriamento espectral
    (2016-04-25) Câmara, Tales Vinícius Rodrigues de Oliveira; Martins, Allan de Medeiros; ; ; Doria Neto, Adrião Duarte; ; Silveira, Luiz Felipe de Queiroz; ; Fontes, Aluisio Igor Rêgo;
    Técnicas de Classificação Automática de Modulação (AMC) têm sido utilizadas por sistemas modernos de comunicação para otimizar o uso do espectro e com isso aumen- tar as taxas de transmissão de dados. No processo de AMC, várias arquiteturas podem ser utilizadas para retirar informação e avaliar características do sinal modulado em um canal. Uma grande parte dessas arquiteturas são construídas utilizando como base a ci- cloestacionariedade. A análise cicloestacionária é realizada por meio das ferramentas: Função de Autocorrelação Cíclica (CAF) e Função Densidade Espectral Cíclica (SCD). Esta ultima particularmente, é utilizada para observar as características cicloestacionárias de diferentes sinais, as quais são chamadas de assinaturas. Embora tenha várias aplica- ções bem sucedidas no âmbito de AMC, a cicloestacionariedade possui restrições pois a CAF e SCD são limitadas à análise estatística de segunda ordem, devido ao uso da correlação com cerne de sua expressão. Com o objetivo de generalizar a avaliação da cicloestacionariedade sobre infinitos momentos estatísticos de um sinal, surgem Função de Autocorrentropia Cíclica (CCAF) e a Função Densidade Espectral de Correntropia Cíclica (CCSD). Tais funções são fundamentadas no cálculo da correntropia. Neste tra- balho a CCSD será investigada quanto capacidade de gerar assinaturas para diferentes modulações e seu potencial de uso em AMC será avaliado.
  • Nenhuma Miniatura disponível
    Dissertação
    Aplicação de modelos deep learning na estimação de vazão de petróleo em poços offshore com sistema de bombeio centrífugo submerso
    (Universidade Federal do Rio Grande do Norte, 2022-02-24) Araújo, Josenilson Gomes de; Maitelli, Carla Wilza Souza de Paula; https://orcid.org/0000-0002-3893-6010; http://lattes.cnpq.br/2441911467149645; http://lattes.cnpq.br/3373459185660853; Doria Neto, Adrião Duarte; https://orcid.org/0000-0002-5445-7327; http://lattes.cnpq.br/1987295209521433; Escovedo, Tatiana; Lima, Fábio Soares de
    A medição de vazão de fluidos é uma atividade fundamental para a indústria de óleo e gás. A correta mensuração dos volumes produzidos proporciona uma boa gestão dos reservatórios, reduzindo as perdas de produção, orientando os planos de otimização do sistema de produção e dos métodos de levantamento e escoamento da produção. A utilização de técnicas de estimativa de fluxo em tempo real por meio de Medição de Fluxo Virtual (Virtual Flow Metering ou VFM na sigla em inglês) tem se mostrado um campo promissor devido à precisão dos resultados fornecidos e ao seu baixo custo de implementação. Os modelos deep learning têm sido aplicados com sucesso na indústria de petróleo e gás. Considerando os avanços tecnológicos e a grande importância da medição de fluidos para a indústria do petróleo, o estudo visa desenvolver um modelo para estimar a vazão de fluidos aplicando uma abordagem combinada com modelos Long short-term memory (LSTM) e modelagem hidrodinâmica. Os dados utilizados frequência, potência e pressão foram coletados em dois poços offshore equipados com bombeio centrífugo submerso (BCS), localizados na região Nordeste do Brasil. Os resultados obtidos com a abordagem combinada tornam o modelo mais robusto, preenchendo lacunas do modelo hidrodinâmico isolado; podem ser úteis para estimar com maior precisão o comportamento da vazão em tempo real em regimes permanentes e transientes e estimar a vazão para uma sequência de instantes de tempo futuros, apoiando uma melhor gestão da produção. Por fim, os resultados obtidos com os modelos LSTM podem ser integrados com outras tecnologias da Indústria 4.0 e contribuir para a transformação digital da indústria de óleo e gás.
  • Nenhuma Miniatura disponível
    Tese
    Aprendizagem semissupervisionada por meio de técnicas de Deep Learning e de Teoria da Informação
    (Universidade Federal do Rio Grande do Norte, 2021-06-09) Lima, Bruno Vicente Alves de; Doria Neto, Adrião Duarte; http://lattes.cnpq.br/1987295209521433; http://lattes.cnpq.br/6744627108761351; Araújo, Daniel Sabino Amorim de; http://lattes.cnpq.br/4744754780165354; Silva, Ivan Nunes da; http://lattes.cnpq.br/0448891472280429; Melo, Jorge Dantas de; http://lattes.cnpq.br/7325007451912598; Machado, Vinicius Ponte; http://lattes.cnpq.br/9385561556243194
    O crescimento expressivo de conjuntos de dados modernos, combinado à dificuldade de obter informações sobre rótulos, tornou o aprendizado semissupervisionado um dos problemas de importância prática na análise moderna de dados. Na maioria dos casos, obter conjunto de dados com a quantidade de exemplos suficientes para induzir um classificador, pode ser oneroso, pois é necessário que seja realizada uma rotulação dos dados por um especialista. Dados não rotulados são mais fáceis de serem obtidos, porém mais difíceis de serem analisados e interpretados. No problema do aprendizado semissupervisionado, têm-se uma base de dados formada por uma pequena parte rotulada e uma parte maior não rotulada, sendo possível duas vertentes: classificação semissupervisionada e agrupamento semissupervisionado. A partir disso, o objetivo deste trabalho baseia-se na aplicação de modelos que utilizam técnicas de Deep Learning no aprendizado semissupervisionado. Utilizando um deep autoencoder transformou-se os dados para um espaço de características Z e a partir disso agrupou-se e rotulou-se esses dados, com auxílio dos dados rotulados. Aplicou-se técnicas de Aprendizado por Teoria da Informação para aumentar a robustez do modelo proposto neste trabalho. Experimentos realizados apontaram a eficiência do modelo proposto em rotular e classificar dados a após o treinamento. Comparou-se também o com outros modelos clássicos de aprendizado semissupervisionado, como co-training, tri-training, STRED e SEEDED K-means, bem como outros trabalhos mais recente, mostrando a viabilidade do modelo proposto para o problema de aprendizagem semissupervisionada. E por fim, aplicou-se o modelo em um problema real na área de sensoriamento remoto e classificação de dados de stream.
  • Carregando...
    Imagem de Miniatura
    Dissertação
    Autogating em dados de citometria de fluxo utilizando classificadores SVM para identificação de bacterioplâncton
    (2018-03-22) Cordeiro, Elionai Moura; Doria Neto, Adrião Duarte; ; ; Santos, Araken de Medeiros; ; Araújo, Daniel Sabino Amorim de; ; Souza, Jorge Estefano Santana de;
    Neste trabalho é apresentada a proposta de desenvolvimento de uma metodologia - juntamente com a apresentação dos resultados de sua aplicação - que utiliza uma técnica de aprendizagem de máquina, SVM, para análise automatizada de dados de citometria de fluxo em amostras de ambientes aquáticos, na identificação de bacterioplâncton. As amostras utilizadas na execução desta metodologia foram coletadas em 19 lagos de montanhas de elevada altitude que foram classificados manualmente no Laboratório de Limnologia do Departamento de Oceanografia e Limnologia da UFRN. Previamente, iniciou-se com alguns testes de configuração da função kernel e uma análise quantitativa com base no número médio de acertos na classificação automatizada, na qual percebeu-se que a taxa de erro de predição variou entre 1,86% e 3,35%, em média. Foram realizadas duas etapas de desenvolvimento da metodologia proposta, onde foram criados modelos de predição e realizados uma série de testes com as bases de dados criadas a partir das informações disponíveis. Os resultados obtidos foram expostos a uma série de análises quantitativas e qualitativas, inclusive utilizando PCA para entender a importância de cada variável nos conjuntos de dados das mostras. Para uma avaliação qualitativa da metodologia proposta, foi aplicada uma análise estatística para comparar ambas estratégias de modelos de predição, que tem por base a classificação final apontada pelo algoritmo de Support Vector Machine.
  • Carregando...
    Imagem de Miniatura
    Artigo
    Conceitos de ergodicidade e autocorreção aplicados ao filtro de Wiener
    (Holos, 2017) Costa, Roberto Douglas; Doria Neto, Adrião Duarte; Valentim, Ricardo Alexsandro de Medeiros; Castro, Hilário Jose Silveira; Silva, José Wanderson Oliveira
    Atualmente, diferentes técnicas têm sido desenvolvidas para tratamento de sinais com o objetivo da remoção de ruídos existentes, principalmente em sinais de voz. Muitas aplicações têm sido desenvolvidas e aperfeiçoadas nas mais diversas áreas tecnológicas, como as de telecomunicações, automação, eletrônica entre outras. Problemas como o de interferência inerente de um sistema, seja ele na detecção, no processamento, na transmissão ou na recepção, tem sido motivo para o aprimoramento de técnicas de otimização. Com o objetivo de restaurar os sinais de qualquer natureza, no qual sofreram algum tipo de degradação ou distorção, foi investigado o uso de filtros de Wiener através de algoritmos implementados em “Matlab”, através de uma abordagem conceitual de teorias de processos estocásticos baseados nos princípios de ergoticidade, autocorrelação e equações de Yule-Walker
  • Carregando...
    Imagem de Miniatura
    Tese
    Contribuições ao estudo da dinâmica na teoria da informação: aplicações em clustering dinâmico
    (2018-08-03) Oliveira, Amanda Gondim de; Doria Neto, Adrião Duarte; Martins, Allan de Medeiros; ; ; ; Fontes, Aluisio Igor Rego; ; Araújo, Daniel Sabino Amorim de; ; Barreto, Guilherme de Alencar;
    A Teoria da Informação é um ramo da matemática, mais especificamente da teoria de probabilidades, que estuda quantificação da informação. Recentemente, várias pesquisas tem tido sucesso com o uso do aprendizado de máquina por teoria da informação (ITL) como uma nova técnica de aprendizado não supervisionado, onde as medidas de informação são usadas como critério de otimalidade no aprendizado. Neste trabalho iremos analisar um aspecto ainda não explorado destas medidas de informação, o seu comportamento dinâmico. O principal objetivo desse trabalho é investigar o uso de medidas da teoria da informação no contexto dos processos dinâmicos. Para isso, o mesmo foi realizado em 3 (três) fases distintas. O objetivo na primeira fase desse trabalho foi investigar a presença de dinâmica na informação de processos que evoluem com o tempo. Como fonte de informação dinâmica, foram utilizados vídeos com diferentes características. O objetivo da segunda fase foi apresentar uma nova representação para processos dinâmicos em espaço de estados chamado Modelo Estados de Informação (MEI). Nesta representação, os estados do sistema são descritos em função das medidas de informação dos mesmos. Para validar esta nova forma de representação, foram realizados alguns experimentos com vídeos com o objetivo de avaliar a qualidade dos mesmos quando submetidos a diferentes aspectos dinâmicos. Na terceira fase, investigou-se o uso das medidas baseadas na teoria da informação dentro da área de clustering dinâmico. O objetivo nessa fase foi comparar o desempenho do uso das medidas da teoria da informação com as medidas tradicionais nas operações de fusão e separação entre clusters. Os resultados obtidos em todas as fases foram bastante satisfatórios atendendo os objetivos propostos no trabalho.
  • Nenhuma Miniatura disponível
    Dissertação
    DC Health: detecção de anomalias online em datacenters
    (Universidade Federal do Rio Grande do Norte, 2022-08-30) Lopes Neto, Walter; Barroca Filho, Itamir de Morais; http://lattes.cnpq.br/1093675040121205; https://orcid.org/0000-0002-0483-7268; http://lattes.cnpq.br/0621147314421392; Doria Neto, Adrião Duarte; https://orcid.org/0000-0002-5445-7327; http://lattes.cnpq.br/1987295209521433; Almeida, André Gustavo Duarte de; Silva, Gustavo Girão Barreto da; Immich, Roger Kreutz
    Datacenters são ambientes críticos para a disponibilidade de serviços baseados em tecnologia. Visando a alta disponibilidade desses serviços, métricas de performance dos nós, como Máquinas Virtuais (VM) ou clusters de VMs são amplamente monitoradas. Essas métricas, como nível de utilização de CPU e memória, podem apresentar padrões anômalos associados a falhas e a degradação de desempenho, culminando na exaustão de recursos e na falha total do nó. A detecção precoce de anomalias, isto é, de padrões em dados com comportamento diferente do esperado, pode possibilitar medidas de remediação, como migração de VMs e realocação de recursos, antes que perdas ocorram. Contudo, ferramentas de monitoramento tradicionais geralmente usam limites fixos para a detecção de problemas nos nós e carecem de maneiras automáticas para detectar anomalias em tempo de execução. Neste sentido, técnicas de aprendizado de máquina têm sido reportadas para detectar anomalias em sistemas computacionais com abordagens online e offline. Este trabalho propõe a aplicação denominada DC Health, como uma abordagem para antecipar a detecção online de anomalias em nós de datacenters. O objetivo do DC Health é detectar anomalias no comportamento de hosts e alertar aos operadores do datacenter, de forma que medidas de investigação e remediação possam ser tomadas. Para isso, esta pesquisa foi conduzida a partir de um i) Mapeamento Sistemático de Literatura, da ii) modelagem do problema a partir de dados reais de VMs e da iii) avaliação do DC Health usando o método prequential em 6 datasets do mundo real. Os resultados demonstraram que o DC Health se destacou em manter o consumo de memória constante enquanto processa os dados e na acurácia de detecção entre 75% e 90%. Como trabalhos futuros espera-se principalmente avaliar a ferramenta de detecção em cenários de computação em nuvem e desenvolver mecanismos automatizados de diagnóstico e remediação.
  • Carregando...
    Imagem de Miniatura
    Tese
    flowDiv: uma nova ferramenta computacional para análise da diversidade citométrica ambiental
    (2019-11-25) Wanderley, Bruno Mattos Silva; Doria Neto, Adrião Duarte; ; ; Araújo, Daniel Sabino Amorim de; ; Souza, Jorge Estefano Santana de; ; Amado, André Megali; ; Unrein, Fernando; ; Menezes, Rosemberg Fernandes de;
    A citometria de fluxo (CMF) é uma técnica analítica baseada na caracterização espectroscópica de partículas em suspensão. Essa técnica permite a descrição quantitativa e qualitativa de uma vasta gama de sistemas celulares em poucos segundos e a custos relativamente baixos - características que a tornam uma ferramenta bastante ubíqua em protocolos analíticos, tanto industriais quanto acadêmicos. Nesse tocante, as ciências ambientais vem lidando com obstáculos bastante notórios quanto à estruturação de protocolos de CMF: a natureza altamente heterogênea das amostras ambientais dificulta o ajuste de protocolos que equilibrem raciocínios matemáticos padronizados e os significados biológicos intrínsecos do sistema em estudo. Diversas abordagens vem sendo concebidas com vistas a corrigir essas incongruências e, dentre elas, as que exploram a ideia da diversidade citométrica - o estudo de dados de CMF com base em métodos de ecologia numérica - vem se mostrando bastante auspiciosas. Contudo, apesar da disponibilidade de soluções, muitos desafios técnicos ainda precisam ser superados. Neste trabalho, nós desenvolvemos e aplicamos uma nova ferramenta computacional, o flowDiv, especialmente projetada para a análise da diversidade citométrica de dados ambientais. Aqui, além de pormenorizarmos a lógica por trás do método e o compararmos a estratégias computacionais similares, nós o aplicamos a problemas reais, revelando como alguns fatores ecológicos importantes, como o estado nutricional, afetam a diversidade citométrica de grupos microbianos de lagos naturais da Patagônia argentina e do nordeste brasileiro. Nossos resultados sugerem que variáveis ambientais importantes - notadamente clorofila a e carbono, fósforo e nitrogênio totais - afetam a diversidade citométrica de bactérias de maneiras distintas. Essas descobertas alinham-se com a literatura vigente sobre o tema e reafirmam a validade do flowDiv para refletir, de forma consistente, alterações na composição das comunidades bacterianas decorrentes de mudanças ambientais.
  • Nenhuma Miniatura disponível
    Dissertação
    Mapas auto-organizáveis aplicados à análise de poluentes atmosféricos
    (Universidade Federal do Rio Grande do Norte, 2022-07-27) Costa, Emanoel Lucas Rodrigues; Fernandes, Marcelo Augusto Costa; Albuquerque, Édler Lins de; https://orcid.org/0000-0001-7536-2506; http://lattes.cnpq.br/3475337353676349; http://lattes.cnpq.br/9512606353480761; Doria Neto, Adrião Duarte; https://orcid.org/0000-0002-5445-7327; http://lattes.cnpq.br/1987295209521433; Fontes, Cristiano Hora de Oliveira
    A poluição atmosférica é um problema que está cada vez mais presente em nossa sociedade devido ao crescente desenvolvimento dos países. No estudo de poluentes atmosféricos, métodos de estatística multivariada são comumente utilizados, porém a aprendizagem de máquina tem se mostrado uma ótima alternativa, dispondo de técnicas capazes de lidar com problemas de grande complexidade, como é o caso da poluição do ar. Neste trabalho, a técnica de aprendizagem de máquina, Mapas Auto-Organizáveis (SOM), foi utilizada para exploração e análise de dados de poluentes atmosféricos e parâmetros metereológicos de uma rede de monitoramento da qualidade do ar, com estações localizadas na cidade de Salvador - Bahia. O SOM oferece diversos recursos capazes de tornar o estudo de dados mais abragente, os quais foram utilizados tanto para o desenvolvimento de uma análise individual quanto conjunta sobre as estações, que poderam também ser comparados com uma análise de componentes principais. A partir da aplicação do SOM foi possível identificar correlações presentes entre os poluentes das estações estudadas, destacando principalmente a similaridade entre os poluentes NO, NO2 e CO, assim como a similaridade do MP10, SO2 e O3 com os parâmetros meteorológicos presentes em cada estação. Com base na disposição dos neurônios e na formação dos agrupamentos realizados, o SOM permitiu com que características relacionadas ao conjunto de amostras fossem identificadas, possibilitando um estudo sobre a formação de clusters, distribuições, concentrações de poluentes atmosféricos e parâmetros meteorológicos e como cada estação de monitoramento pode está relacionada a sua formação/contribuição, possibilitando uma análise mais abrangente do que a oferecida em métodos tradicionais. Os resultados obtidos mostraram o quão útil e efetivo pode ser o SOM em problemas de poluição do ar, evidenciando diferentes possibilidades na forma de análise de dados que podem ser exploradas para o desenvolvimento de novas pesquisas.
  • Carregando...
    Imagem de Miniatura
    Tese
    Método Fuzzy Payoff modificado para valoração de opções reais com aplicação em abandono de campos de petróleo
    (2019-02-04) Borges, Roberto Evelim Penha; Doria Neto, Adrião Duarte; ; ; Bedregal, Benjamin Rene Callejas; ; Dias, Marco Antonio Guimarães; ; Ballini, Rosangela; ; Moreira, Vicente Delgado;
    A decisão de abandonar ou não um campo produtor de petróleo é complexa. A incerteza inerente às estimativas utilizadas como premissas faz com que só o passar do tempo aponte se a decisão tomada foi acertada. Entretanto, as empresas precisam tomar essa decisão continuamente, com base nas informações e técnicas disponíveis no momento da avaliação. A valoração de um campo de petróleo considerando a opção real de abandono é uma forma moderna de dar suporte a tal decisão. Ao contrário de técnicas tradicionais, como o fluxo de caixa descontado, que apenas consideram valores médios na valoração, a análise de opções reais leva em conta os possíveis valores que as variáveis estimadas podem assumir. O Fuzzy Payoff Method (FPOM) é uma técnica que simplifica soluções tradicionais complexas para valoração de opções reais, já que é baseada em cenários e lógica fuzzy. Durante este trabalho, uma inconsistência foi identificada no FPOM original: em alguns casos, ele resulta em um valor de projeto com opção real menor do que o valor do mesmo projeto sem opção real. Para superar essa questão, foi desenvolvido e apresentado o método Center of Gravity Fuzzy Payoff Method (CoG-FPOM), que aqui se demonstrou ser consistente para qualquer problema e tipo de número fuzzy. Dessa forma, o modelo para suporte à decisão de abandono de campos de petróleo aqui proposto tem como núcleo o CoG-FPOM. Os resultados obtidos com a aplicação do modelo evidenciam a esperada vantagem conceitual e o valor adicionado pela análise de opções reais na decisão de abandono. Ao usar cenários e lógica fuzzy, o modelo obtém simplicidade e facilidade de implementação, permitindo o interesse da indústria.
  • Carregando...
    Imagem de Miniatura
    Tese
    Um método para o cálculo da inversa de matrizes em blocos com uso limitado de memória
    (2018-05-04) Cosme, Iria Caline Saraiva; Souza, Samuel Xavier de; ; ; Doria Neto, Adrião Duarte; ; Aloise, Daniel; ; Oliveira, Luiz Affonso Henderson Guedes de; ; Oliveira, Aurelio Ribeiro Leite de; ; Lima Júnior, Francisco Chagas de;
    A inversão de matrizes de ordem extremamente alta tem sido uma tarefa desafiadora devido ao processamento e à capacidade de memória limitados dos computadores convencionais. Em um cenário em que os dados não cabem na memória, é oportuno considerar a troca de mais tempo de processamento por menos uso de memória para permitir a computação da inversa matricial, o que seria proibitivo de outra forma. Sendo assim, este trabalho apresenta um novo algoritmo para o cálculo da inversa de matrizes particionadas em blocos com uso reduzido de memória. O algoritmo funciona de forma recursiva para inverter um bloco de uma matriz Mk×k , com k ≥ 2, com base na divisão de M, sucessivamente, em matrizes de menor ordem. Este algoritmo, denominado BRI (do inglês, Block Recursive Inversion), calcula um bloco da matriz inversa por vez para limitar o uso da memória durante todo o processamento. Considerando que o baixo consumo de memória, proporcionado pelo BRI, é contrabalanceado por um maior tempo de processamento, este trabalho também discorre sobre uma implementação paralela, em OpenMP, do algoritmo a fim de reduzir o tempo de processamento e ampliar sua aplicabilidade. Além disso, uma melhoria no algoritmo sequencial é proposta. Como aplicação prática, o algoritmo proposto foi utilizado no processo de validação cruzada para Máquinas de Vetor de Suporte por Mínimos Quadrados (LS-SVM, do inglês, Least Squares Support Vector Machines). Este procedimento computacional utiliza o cálculo da matriz inversa para encontrar os rótulos esperados das amostras de testes na validação cruzada. Os resultados experimentais com o BRI demonstraram que, apesar do aumento da complexidade computacional, matrizes, que de outra forma excederiam o limite de uso da memória, podem ser invertidas usando esta técnica.
  • Carregando...
    Imagem de Miniatura
    Dissertação
    Modelagem da velocidade de um PIG instrumentado usando redes neurais artificiais
    (2017-06-22) Araújo, Renan Pires de; Salazar, Andres Ortiz; Doria Neto, Adrião Duarte; ; http://lattes.cnpq.br/1987295209521433; ; http://lattes.cnpq.br/7865065553087432; ; http://lattes.cnpq.br/2548513214491537; Maitelli, André Laurindo; ; http://lattes.cnpq.br/0477027244297797; Gabriel Filho, Oscar; ; http://lattes.cnpq.br/4171033998524192
    A passagem de um PIG é uma técnica bastante empregada na inspeção de dutos de longo comprimento e principalmente enterrados, valendo-se do diferencial de pressão sobre o mesmo para impulsioná-lo. Porém, durante a inspeção, um dos problemas que pode ocorrer é a parada do PIG por causa de incrustações severas ou defeitos de fabricação/instalação dos dutos, fazendo com que o instrumento pare e sua posterior liberação com altas velocidades devido ao acúmulo de pressão à montante. Este trabalho propõe o uso de redes neurais artificiais a fim de modelar a relação entre o diferencial de pressão sobre o PIG e sua velocidade durante o seu trajeto no interior do duto. Para tanto, foi empregado um sistema supervisório para a captura dos dados de pressão ao longo da tubulação de teste e um odômetro acoplado ao PIG para a dos dados de velocidade. Foram considerados dois modelos de redes neurais artificiais, no caso a rede MLP e a rede NARX, sendo esta última uma rede recursiva. Os resultados de treinamento e validação mostraram que os modelos por redes neurais artificiais foram eficientes para estimar a velocidade do PIG.
  • Nenhuma Miniatura disponível
    Tese
    Uma nova assinatura de 13 genes via aprendizagem de máquina para predição de sobrevida de pacientes com carcinoma renal de células clara
    (Universidade Federal do Rio Grande do Norte, 2022-05-13) Terrematte, Patrick Cesar Alves; Doria Neto, Adrião Duarte; Ferreira, Beatriz Stransky; https://orcid.org/0000-0003-4506-393X; http://lattes.cnpq.br/3142264445097872; https://orcid.org/0000-0002-5445-7327; http://lattes.cnpq.br/1987295209521433; http://lattes.cnpq.br/4283045850342312; Leite, Cicilia Raquel Maia; Araújo, Daniel Sabino Amorim de; http://lattes.cnpq.br/4744754780165354; Assumpção, Paulo Pimentel de; Sakamoto, Tetsu
    Pacientes com câncer renal têm sobrevida de 12% em 5 anos em caso de metástase, segundo dados entre 2009 e 2015 da American Cancer Society. Neste sentido, é de suma importância identificar biomarcadores em dados genômicos para ajudar a prever o avanço do carcinoma renal de células claras (ccRCC), sendo este o subtipo mais frequente. Assim, realizamos um estudo com o objetivo de avaliar assinaturas gênicas e propor uma nova assinatura com maior poder preditivo. Usando coortes ccRCC do The Cancer Genome Atlas (TCGA-KIRC) e do International Cancer Genome Consortium (ICGC-RECA), avaliamos modelos de sobrevida usando regressão de Cox comparando 14 assinaturas da literatura e seis métodos de seleção de características, e também realizamos análise funcional e de expressão diferencial. Neste estudo, apresentamos uma assinatura de 13 genes (AR, AL353637.1, DPP6, FOXJ1, GNB3, HHLA2, IL4, LIMCH1, LINC01732, OTX1, SAA1, SEMA3G, ZIC2) cujos níveis de expressão são capazes de prever risco de pacientes com ccCRC. A assinatura genética de melhor desempenho foi alcançada usando o método de comitês de Mínima Redundância e Máxima Relevância (mRMR). Essa assinatura apresenta características únicas em relação às demais, como a generalização por diferentes coortes e o enriquecimento funcional em vias relacionadas à doenças: Doença Renal Crônica, Carcinoma de células de transição, e Nefrolitíase. Dos 13 genes em nossa assinatura, oito são conhecidos na literatura por estarem correlacionados com a sobrevida de pacientes com ccRCC. Nosso modelo mostrou um desempenho de 0,82 usando a métrica Receiver Operator Characteristic (ROC) Area Under Curve (AUC). Nossos resultados revelaram dois agrupamentos de genes com alta expressão (SAA1, OTX1, ZIC2, LINC01732, GNB3 e IL4) e baixa expressão (AL353637.1, AR, HHLA2, LIMCH1, SEMA3G, e DPP6), ambos correlacionados com prognóstico desfavoráveis. Esta assinatura pode potencialmente ser desenvolvida para auxiliar tratamentos na prática clínica.
  • Carregando...
    Imagem de Miniatura
    Tese
    Novas estratégias para conserto de soluções degeneradas no algoritmo k-means
    (2016-10-05) Dantas, Nielsen Castelo Damasceno; Aloise, Daniel; ; http://lattes.cnpq.br/5093210888872414; ; Doria Neto, Adrião Duarte; ; http://lattes.cnpq.br/1987295209521433; Martins, Allan de Medeiros; ; http://lattes.cnpq.br/4402694969508077; Aloise, Dário José; ; http://lattes.cnpq.br/7266011798625538; Rosset, Mariá Cristina Vasconcelos Nascimento; ; http://lattes.cnpq.br/1010810293243435
    O k-means é um algoritmo benchmark bastante utilizado na área de mineração de dados.Ele pertence à grande categoria de heurísticas com base em etapas delocalização-alocação que, alternadamente, localiza centros de cluster e atribuípontos de dados a eles até que nenhuma melhoria seja possível. Tais heurísticassão conhecidas por sofrer de um fenômeno chamado de degeneração, em que,alguns dos clusters ficam vazios, e, portanto, fora de uso. Nesta tese, propõe-sevarias comparações e uma série de estratégias para contornar soluçõesdegeneradas durante a execução de k-means. Os experimentos computacionaisdemonstram que essas estratégias são eficientes e levam a melhoressoluções de agrupamento na grande maioria dos casos testados.
  • Carregando...
    Imagem de Miniatura
    Tese
    Otimização de alternativas de explotação de um campo petrolífero submetido à injeção de água utilizando o algoritmo NSGA-II
    (2017-03-06) Silva, Francisca de Fátima do Nascimento; Doria Neto, Adrião Duarte; ; http://lattes.cnpq.br/1987295209521433; ; http://lattes.cnpq.br/2868248466649658; Melo, Jorge Dantas de; ; http://lattes.cnpq.br/7325007451912598; Souza Júnior, José Cleodon de; ; Rodrigues, Marcos Allyson Felipe; ; http://lattes.cnpq.br/5453593230706116; Ponte, Vitor Moreira da Rocha; ; http://lattes.cnpq.br/9233399003631083; Mata, Wilson da; ; http://lattes.cnpq.br/0288842238100161
    O desenvolvimento de um campo petrolífero pode ser entendido como o conjunto de ações necessárias para colocar o campo em produção: perfurações, sistemas de injeção, plataformas, etc. A forma como será feito este desenvolvimento define uma ou mais alternativas. Assim, definir alternativas de desenvolvimento de um campo petrolífero é uma das tarefas mais importantes na área de reservatórios, dado que estas definições afetam o comportamento do reservatório, decisões futuras, análises econômicas e, consequentemente, a atratividade resultante dos projetos definidos. Este trabalho apresenta a implementação de um sistema otimizador multiobjetivo baseado no algoritmo genético NSGA-II (Non-Dominated Sorting Genetic Algorithm), que oferece uma ferramenta de suporte à decisão e automatiza a busca de alternativas para o desenvolvimento de campos petrolíferos submetidos ao processo de injeção de água. Cada alternativa refere-se à forma como um campo petrolífero, conhecido e delimitado, é colocado em produção, isto é, diz respeito à determinação do número e a disposição dos poços produtores e injetores no campo. A aplicação do algoritmo consiste em encontrar as configurações de produção que, em longo prazo, forneçam o maior Valor Presente Líquido (VPL), obtido a partir do custo de investimento inicial, do preço do petróleo, da produção de óleo e dos custos de operação pagos durante o tempo de produção, ou seja, a condição operacional mais viável economicamente, reduzindo o tempo do processo de tomada de decisão. Com os resultados apresentados foi possível observar que em vários casos as aplicações das linhas de ação possibilitaram aumentos significativos no VPL e no Fator de Recuperação ao final do projeto. Considerando o Caso_36 de dimensão de malha de 300m, o Fator de Recuperação aumentou de 45,66% para 50,24%, um aumento de quase 5 pontos percentuais no volume de óleo recuperado. Diante do exposto, observa-se que as intervenções operacionais de alterar (aumentar ou diminuir) a vazão de injeção de água inicial ou mudar o layout de malha no campo melhoram a rentabilidade, reduzindo os custos com a injeção de água, tratamento e descarte da água produzida, aumentando o tempo de viabilidade do projeto. Por outro lado, é importante destacar também que, em alguns casos, ao aplicar as linhas de ação, o Fator de recuperação final é menor, mas ainda sim as reduções dos custos operacionais viabilizam a operação.
  • Carregando...
    Imagem de Miniatura
    Tese
    Projeto de controladores com complexidade reduzida para sistemas lineares sujeitos a restrições usando análise de agrupamentos de dados
    (2018-10-01) Dantas, Amanda Danielle Oliveira da Silva; Dorea, Carlos Eduardo Trabuco; ; ; Doria Neto, Adrião Duarte; ; Maitelli, André Laurindo; ; Castelan Neto, Eugenio de Bona; ; Araújo, José Mário;
    O projeto de controladores para sistemas lineares de tempo discreto sujeitos a restrições pode ser realizado baseado no conceito de conjuntos invariantes, juntamente com a solução de problemas de programação linear multiparamétricos. Esta solução é representada por um conjunto de regiões poliédricas associadas a uma lei de controle do tipo Afim por Partes (PWA, do inglês PieceWise Affine). No entanto, em sistemas de ordem elevada a técnica de programação linear multiparametrica pode resultar em controladores de alta complexidade, que requerem um hardware com grande capacidade de armazenamento na memória e alto poder de processamento para sua implementação em tempo real, devido a um número elevado de regiões poliédricas definindo a lei PWA. Neste trabalho são propostos métodos numéricos que permitem reduzir a complexidade destes controladores. Para este propósito, são usados o conceito de conjuntos invariantes e o algoritmo de análise de agrupamento de dados K q-flat. Primeiramente, mostra-se como o algoritmo K q-flat pode ser usado para estabelecer um número menor de regiões poliédricas associadas a uma lei de controle por realimentação de estado PWA. Em seguida, tal abordagem é estendida para o projeto de c por realimentação de saída estática para sistemas sob restrições e de observadores de estado com limitação no erro. Além disso, problemas de otimização são propostos para calcular uma lei PWA sub-ótima capaz de reduzir ainda mais o número de regiões poliédricas. Os resultados apresentados mostram que as abordagens propostas são capazes de calcular leis PWA com um número muito menor de regiões quando comparadas com a solução multiparamétrica, diminuindo fortemente o custo computacional associado a sua implementação.
  • Carregando...
    Imagem de Miniatura
    Dissertação
    Proposta de arquitetura em Hardware para FPGA da técnica Qlearning de aprendizagem por reforço
    (2016-11-18) Silva, Lucileide Medeiros Dantas da; Fernandes, Marcelo Augusto Costa; ; http://lattes.cnpq.br/3475337353676349; ; http://lattes.cnpq.br/4888844108485691; Doria Neto, Adrião Duarte; ; http://lattes.cnpq.br/1987295209521433; Brito, Alisson Vasconcelos de; ; http://lattes.cnpq.br/6321676636193625; Melo, Jorge Dantas de; ; http://lattes.cnpq.br/7325007451912598; Oliveira, José Alberto Nicolau de; ; http://lattes.cnpq.br/2871134011057075
    O Q-learning é uma técnica de aprendizagem por reforço off-policy que tem como principal vantagem a possibilidade de obter uma política ótima interagindo com o ambiente sem que o modelo deste ambiente necessite ser conhecido. Este trabalho descreve uma proposta de arquitetura paralela em ponto fixo da técnica usando hardware reconfigurável do FPGA (Field Programmable Gates Arrays). O objetivo de desenvolver essa técnica em hardware é otimizar o tempo de processamento do sistema. São apresentados resultados de convergência do algoritmo, área de ocupação e frequência de amostragem. Também são apresentados detalhes de implementação da arquitetura. O projeto foi desenvolvido utilizando a plataforma de desenvolvimento System Generator da Xilinx sendo projetado para o FPGA Virtex 6 xc6vcx240t-1ff1156.
  • «
  • 1 (current)
  • 2
  • »
Repositório Institucional - UFRN Campus Universitário Lagoa NovaCEP 59078-970 Caixa postal 1524 Natal/RN - BrasilUniversidade Federal do Rio Grande do Norte© Copyright 2025. Todos os direitos reservados.
Contato+55 (84) 3342-2260 - R232Setor de Repositórios Digitaisrepositorio@bczm.ufrn.br
DSpaceIBICT
OasisBR
LAReferencia
Customizado pela CAT - BCZM