Estudo de Parâmetros Eficiente em Aplicações de Análise de Imagens Médicas

Aprendizado Ativo Efetivo e Eficiente para Análise de Imagens em Patologia Utilizando Aprendizado Profundo

Simulação de Enovelamento de Proteínas com Enterramento Atômico utilizando NAMD em Ambiente de Alto Desempenho

Autoencoder Variável baseado em blocos para nuvens de pontos

Solução de engenharia de tráfego ciente das áreas para redes ópticas metropolitanas

Predição de Tempo e Dimensionamento de Recursospara Workflows Científicos em Nuvens Federadascom Aprendizado de Máquina

Horário: 14h

Palestrante:Jeremias Moreira Gomes (doutorando) 

Orientador: Prof George Teodoro

Título: Estudo de Parâmetros Eficiente em Aplicações de Análise de Imagens Médicas

Resumo: A análise de imagens de patologia permite caracterizações quantitativas valiosas para tecidos a nível subcelular. Embora exista um crescente conjunto de métodos para análise de tecidos em imagens, muitos deles são sensíveis a mudanças nos parâmetros de entrada. Avaliar como os resultados da análise são afetados por variações nos parâmetros de entrada é importante para o desenvolvimento de métodos robustos. Executar análises de sensibilidade de algoritmos variando sistematicamente os parâmetros de entrada é uma tarefa custosa, porque uma avaliação única com um número pequeno de imagens pode levar horas ou dias. O trabalho investiga o uso de Surrogate Models em conjunto com a execução paralela para acelerar a Análise de Sensibilidade. Essa abordagem reduz significativamente o custo da Análise de Sensibilidade, porque a execução utilizando Surrogate Models é módica. A avaliação de várias estratégias para construção de Surroagate Models com duas aplicações de segmentação de imagens demonstra que um estudo de Análise de Sensibilidade combinado com Surrogate Models alcança resultados próximos a uma Análise de Sensibilidade com execuções de aplicações reais. Também é mostrado que, embora o número de parâmetros da aplicação seja alto, a maior parte da incerteza pode estar associada a poucos parâmetros. Os resultados indicam que a Análise de Sensibilidade é uma ferramenta importante para avaliar a estabilidade das conclusões das análises de imagens médicas.

 

Horário: 14h20

Palestrante:André Lauar Sampaio Meirelles (doutorando)

Orientador: Prof George Teodoro

Título: Aprendizado Ativo Efetivo e Eficiente para Análise de Imagens em Patologia Utilizando Aprendizado Profundo

Resumo: Modelos de aprendizado profundo demonstraram notável desempenho em tarefas de segmentação e classificação de imagens de patologia. Entretanto, esses modelos demandam grandes quantidades de dados anotados para seu treinamento. A geração dessa massa de dados em patologia é um processo intensivo em mão de obra, comumente comprometendo muitas horas de trabalho por parte de patologistas experientes. O aprendizado ativo ou Active Learning (AL) oferece uma abordagem iterativa para a geração dessas bases de dados, reduzindo o custo de anotações necessárias.

 

Horário: 14h40

Palestrante:Emerson de Araujo Macedo (doutorando) 

Orientadora: Profa Alba Melo

Título: Simulação de Enovelamento de Proteínas com Enterramento Atômico utilizando NAMD em Ambiente de Alto Desempenho

Resumo:A função biológica que uma proteína desempenha em nosso organismo está relacionada com sua estrutura nativa, ou seja, a configuração tridimensional (3D) funcional da sua molécula. Uma proteína assume essa configuração 3D através de um processo chamado de enovelamento. Duas questões que envolvem a pesquisa sobre o problema do enovelamento de proteínas são: (i) qual é o código físico do enovelamento, isto é, como as propriedades físico-químicas codificadas na sequência de aminoácidos, sua configuração geométrica unidimensional (1D), determinam a configuração 3D nativa? (ii) é possível desenvolver uma solução computacional que permita predizer a configuração 3D nativa a partir de sua configuração 1D primária? O enterramento atômico é uma hipótese para responder à primeira questão. Trata-se de uma medida relacionada a propriedades como o efeito hidrofóbico e as pontes de hidrogênio e indica a distância física de cada átomo da proteína ao centro geométrico de sua estrutura 3D nativa. Sabe-se que este enterramento atômico possui informação suficiente para se determinar a configuração 3D nativa de pequenas proteinas globulares. A simulação de dinâmica molecular (MD, Molecular Dynamics) é um método computacional que auxilia tanto o processo experimental de determinação de estruturas de proteínas quanto a pesquisa e projeto de novos fármacos para tratar doenças relacionadas, como Alzheimer e Parkinson. A simulação MD é utilizada no estudo do código físico do enovelamento (i) e na predição de estruturas proteicas (ii). Porém, o algoritmo de simulação MD exige um alto custo computacional para modelar o processo de enovelamento de uma proteína. É neste contexto que a computação de alto desempenho é utilizada para viabilizar a simulação MD de enovelamentos de proteínas consideradas grandes e de eventos biológicos de interesse, tais como ataques a vírus HIV. Nessa apresentação, mostrarei uma solução de alto desempenho para a simulação MD, chamada NAMD, e como adaptá-la para auxiliar na pesquisa sobre o efeito do enterramento atômico no enovelamento de proteínas.

 

Horário: 15h00

Palestrante:Valeska de Sousa Uchôa (doutoranda) 

Orientador: Prof Bruno Macchiavello            

Título: Autoencoder Variável baseado em blocos para nuvens de pontos

Resumo: As nuvens de pontos são uma representação importante dos dados 3D que costumam ter milhões de pontos. Com essa magnitude de dados, a compressão eficiente se torna uma questão importante. Escolher o tamanho do bloco a ser usado em uma solução de codificação automática de nuvem de pontos é uma decisão a ser tomada. Tamanhos de bloco maiores podem oferecer altos valores de PSNR, no entanto, eles também podem exigir altas taxas. Portanto, escolher o maior tamanho de bloco possível nem sempre é a melhor decisão. Para algumas regiões de nuvem de pontos, dependendo de suas características, tamanhos de bloco menores podem atingir valores de PSNR mais altos ao usar uma taxa de bpv mais baixa. Portanto, pode ser interessante analisar objetivamente qual é a maneira menos onerosa em termos de trade-off de RD de codificar uma região de nuvem de pontos específica. Neste trabalho, buscamos encontrar uma maneira eficiente de selecionar a melhor maneira de particionar e, consequentemente, codificar cada região de nuvem de pontos.

 

Horário: 15h20

Palestrante:Léia Sousa de Sousa (doutoranda) 

Orientador: Prof André Drummond 

Título: Solução de engenharia de tráfego ciente das áreas para redes ópticas metropolitanas

Resumo: O recente interesse na atualização e melhoria das redes de transporte metropolitano e a disponibilidade de equipamentos de hardware mais modernos está abrindo o caminho para soluções arquiteturais que irão potencialmente elevar as despesas capitais e operacionais.  Uma solução de engenharia de tráfego ciente do tráfego de marés e que conheça as características da rede, bem como a carga de tráfego por regiões geográficas, poderá promover a utilização mais eficiente dos recursos da rede a longo prazo. Nós fornecemos uma solução dessa natureza que resulta em menor quantidade de bloqueio de requisições em comparação com soluções da literatura. 

 

Horário: 15h40

Palestrante:Matheus de Carvalho Sobrinho (mestrando) 

Orientadora: Profa Aletéia Favacho

Titulo: Predição de Tempo e Dimensionamento de Recursospara Workflows Científicos em Nuvens Federadascom Aprendizado de Máquina

Resumo: Com a popularização da computação em nuvem a federação de nuvens emergiu como uma maneira de estender os recursos disponíveis entre diferentes provedores de nuvens, os quais se interconectam para uma disponibilização transparente e integrada ao usuário final desse tipo de serviço. Desta forma, a utilização de plataformas de orquestração de nuvens se tornou uma forma de centralizar as demandas de aplicações que demandam alto poder computacional, como por exemplo os workflows de Bioinformática. No entanto, a grande quantidade de recursos disponibilizados entre diversos provedores presentes em uma federação dificulta a escolha adequada para determinados workflows. Dimensionar recursos em um ambiente de federação de nuvens não se mostra uma tarefa simples, e desta forma,este trabalho propõe um Serviço de Predição de Custos e Recursos Computacionais com Aprendizado de Máquina (sPCRAM), que utiliza o modelos de aprendizado de máquina em conjunto da Meta-heurística GRASP, com o objetivo de dimensionar os recursos para os usuários de forma transparente, informando o custo financeiro e o tempo de execução antes da inicialização do workflow. O sPCRAM permite uma iteração com o usuário deforma a estabelecer o tipo de execução que o mesmo deseja efetuar, como por exemplo execuções com maior tempo de duração e menor custo, assim como execuções com menor tempo de duração e maior custo. Os resultados demonstram a adequação do sPCRAM nas estimativas de tempo e de seleção de recursos para o workflow testado.

Local: Teams MS - Equipe PPGI-316415 Seminário, Canal Seminários 1-2021

 

https://teams.microsoft.com/l/channel/19%3a1dcceb13a4d24df8b7a6d0b40e38c63d%40thread.tacv2/Semin%25C3%25A1rios%25201-2021?groupId=93b66213-b249-467a-bcbe-dcd4255edf95&tenantId=ec359ba1-630b-4d2b-b833-c8e6d48f8059

 

Profa Célia Ghedini Ralha (Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo.)

Coordenadora Seminários de Pós-Graduação em Informática 1-2021