DSpace Collection:https://hdl.handle.net/20.500.12815/2972024-03-25T08:49:37Z2024-03-25T08:49:37ZMonitoreo en tiempo real de casos de dengue en la región lima usando arquitectura de microserviciosMorales Alcalde, Piero Angelohttps://hdl.handle.net/20.500.12815/3562024-03-01T01:10:08Z2024-01-01T00:00:00ZTitle: Monitoreo en tiempo real de casos de dengue en la región lima usando arquitectura de microservicios
Authors: Morales Alcalde, Piero Angelo
Abstract: El preocupante aumento de casos de dengue en Perú, especialmente en Lima, ha generado alarma, con un asombroso incremento del 323.5 % de 63,168 casos en 2022 a 268,660 casos hasta la semana 43 de 2023. Lima experimento un drástico aumento del 3,190.6 %, pasando de 938 casos en 2022 a 30,946 hasta la semana 43 de 2023. Esta situación plantea riesgos significativos para la salud en Lima, con una población densamente poblada de aproximadamente 9,674,755 habitantes, y la posibilidad de tensionar su sistema de salud debido a la falta de experiencia con el dengue, cuyos primeros casos autóctonos se reportaron en febrero de 2022. Para abordar este desafío, se propone un proyecto que visualiza informes de casos de dengue en tiempo real, permitiendo intervenciones inmediatas. La falta de control en áreas infectadas podría llevar a la saturación del sistema de salud, especialmente con el aumento de ingresos a UCI relacionados con COVID-19. La justificación radica en la necesidad de monitoreo en tiempo real para respuestas rápidas, como fumigaciones específicas y tratamiento oportuno. El proyecto busca implementar una herramienta de monitoreo para controlar mejor las zonas infectadas con dengue, mitigando la propagación de la enfermedad y evitando la sobrecarga del sistema de salud. El objetivo es construir un sistema de software capaz de manejar 5,538 solicitudes diarias basadas en los casos de 2022, garantizando actualizaciones en tiempo real y mejorando la precisión de los informes con coordenadas georreferenciadas. Finalmente, se desarrolló un backend basado en microservicios, demostrando mejoras en disponibilidad y tiempos de respuesta en comparación con una arquitectura monolítica. Una arquitectura híbrida supero a los microservicios, manteniendo un tiempo de respuesta de menos de 1.5 segundos a 4,000 solicitudes por segundo. Y por otro lado, el algoritmo de clusterizacion facilita un análisis temporal detallado de los registros de dengue, mejorando la identificación de patrones para intervenciones más específicas.; The worrying increase in dengue cases in Peru, especially in Lima, has generated alarm, with a staggering increase of 323.5 % from 63,168 cases in 2022 to 268,660 cases through week 43 of 2023. Lima experienced a drastic increase of 3,190.6 % , going from 938 cases in 2022 to 30,946 until week 43 of 2023. This situation poses significant health risks in Lima, with a densely populated population of approximately 9,674,755 inhabitants, and the possibility of straining its health system due to the lack of experience with dengue, whose first indigenous cases were reported in February 2022. To address this challenge, a project is proposed that visualizes dengue case reports in real time, allowing immediate interventions. Lack of control in infected areas could lead to saturation of the health system, especially with the increase in ICU admissions related to COVID-19. The rationale lies in the need for real-time monitoring for rapid responses, such as targeted fumigations and timely treatment. The project seeks to implement a monitoring tool to better control areas infected with dengue, mitigating the spread of the disease and avoiding overloading the health system. The goal is to build a software system capable of handling 5,538 daily requests based on 2022 cases, ensuring real-time updates and improving the accuracy of reports with georeferenced coordinates. Finally, a microservices-based backend was developed, demonstrating improvements in availability and response times compared to a monolithic architecture. A hybrid architecture outperformed microservices, maintaining a response time of less than 1.5 seconds at 4,000 requests per second. And on the other hand, the clustering algorithm facilitates a detailed temporal analysis of dengue records, improving the identification of patterns for more specific interventions.2024-01-01T00:00:00ZMachine learning en linux kernel: implementacion de un predictor de migraciones forzadas en schedulers multicorePinto Larrea, Mauricio Jorgehttps://hdl.handle.net/20.500.12815/3552024-02-27T17:09:32Z2024-01-01T00:00:00ZTitle: Machine learning en linux kernel: implementacion de un predictor de migraciones forzadas en schedulers multicore
Authors: Pinto Larrea, Mauricio Jorge
Abstract: Si bien el Completely Fair Scheduler (CFS) de Linux es capaz de proporcionar equidad entre procesos y de manejar la ubicación y migración de estos a través de un load balancer, existen trabajos previos que proponen la integración de Machine Learning (ML) como una herramienta potencial para refinar las decisiones del kernel. En este trabajo, se analiza un caso específico de migración de tareas, donde algunas son migradas forzosamente entre cores. Este escenario es subóptimo especialmente cuando, por condiciones específicas, se migra una tarea que se encuentra “caliente” en cache. Como solución a este problema proponemos el uso de ML de manera similar al trabajo [1] con el fin de predecir incidencias de migraciones forzadas. Para esto implementamos un sistema capaz de recolectar datos de migraciones en llamadas a la función can_migrate_task () y utilizamos estos datos para (i) entrenar modelos de ML, (ii) realizar inferencias en espacio de kernel y (iii) configurar el modelo en tiempo real a través de LibML, una librería que permite hacer uso de redes neuronales de manera híbrida (espacio de usuario y kernel). Los experimentos realizados con modelos entrenados para la predicción de migraciones forzadas muestran que es posible predecir este escenario en espacio de kernel con alta precisión alcanzando alrededor del 97 % de exactitud en promedio para todas las cargas de trabajo utilizadas. Adicionalmente, esta implementación no impacta significativamente el performance del kernel, teniendo el kernel modificado un promedio de tiempos de ejecución 2.3 % menor al del original.; Although Linux’s Completely Fair Scheduler (CFS) is capable of achieving fairness and managing task allocation and migration among cores through a load balancer, recent studies have proposed the use of low level Machine Learning (ML) for optimizing kernel decisions. In this work, a specific case of scheduling decisions is studied, where tasks are migrated aggressively between cores, either due to being cache-cold, having different NUMA node affinities or having too many failed balance attempts. This is sub-optimal especially when cache-hot tasks are forcefully migrated due to the latter condition being true. In order to solve this problem, this work proposes the use of ML in a way similar to [1] in order to predict incidences of forced migrations. For this, we implemented a system capable of collecting migration related data from calls to the can_migrate_task () function and using these to (i) train ML models, (ii) make inferences in kernel space, (iii) configure models in real time through LibML, a library that allows the use of neural networks in kernel and user space in a hybrid manner. Experiment results where neural networks were trained in userspace with collected migration datasets show that it is possible to predict the occurrence of aggressive migrations with a high precision, reaching accuracy values above 95 % in general terms when running in kernelspace. Additionally, these inferences don’t seem to impact performance significantly, as the modified kernel’s average runtime for all benchmarks is 2.3 % lower than the original.2024-01-01T00:00:00ZComparación de métodos basados en BOUNDING VOLUMES HIERARCHIES para ray tracing en escenas dinámicasLoza Mendoza, Jonathan Andreshttps://hdl.handle.net/20.500.12815/3182023-07-10T20:28:48Z2023-01-01T00:00:00ZTitle: Comparación de métodos basados en BOUNDING VOLUMES HIERARCHIES para ray tracing en escenas dinámicas
Authors: Loza Mendoza, Jonathan Andres
Abstract: Una de las técnicas de renderización más populares es el Ray Tracing el cual se basa en el funcionamiento de la luz. Este método evalúa qué objetos de la escena son intersectados por los haces de luz para determinar si son visibles. Para optimizar esta búsqueda se utilizan estructuras de datos, las cuales encapsulan los objetos de las escenas acelerando la búsqueda de intersecciones entre objetos y los rayos de luz.
Hacer uso de este método en escenas dinámicas, escenas en donde puede cambiar la posición o topología de los objetos, requiere que las estructuras tengan una construcción y un recorrido veloz. En consecuencia, nuevas propuestas basadas en las estructuras Bounding Volume Hierarchies (BVH) han sido presentadas, las cuales buscan disminuir el tiempo de construcción sin afectar el rendimiento en el recorrido. Sin embargo, existen pocos trabajos que comparen estas nuevas propuestas de BVH para evaluar su desempeño en escenas dinámicas.
El presente trabajo realiza la comparación de 3 estructuras de aceleración del estado del arte: LBVH, KBVH y PLOC utilizando escenas dinámicas. De esta comparación se calculó la cantidad de frames por segundo que son capaces de alcanzar cada estructura así como su calidad, utilizando la Surface Area Heuristic. Adicionalmente, las estructuras fueron comparadas en base a los tiempos de construcción y renderización en las diferentes escenas.; Ray tracing is one of the most popular techniques used to render high-quality images. To optimize this method the 3D scenes are encapsulated inside a data structure that accelerates the search of ray-object intersections. In dynamic scenes is necessary that the structures have a fast build and traversal time. In response to these requirements, new proposals based on the Bounding Volume Hierarchies structure were presented, however few comparative papers have evaluated its performance in dynamic scenes.The present dissertation compares three different state-of-the-art acceleration structures: LBVH, KBVH and PLOC using a benchmark of dynamic scenes. For each structure, we evaluate the build time, render time, frames per second and measure the quality of the structure using the Surface Area Heuristic.2023-01-01T00:00:00ZAnálisis de los métodos de recolección de textos sarcásticosVelásquez Gushiken, Andreahttps://hdl.handle.net/20.500.12815/3072023-09-27T15:13:22Z2023-01-01T00:00:00ZTitle: Análisis de los métodos de recolección de textos sarcásticos
Authors: Velásquez Gushiken, Andrea
Abstract: La detección de sarcasmo es un obstáculo particularmente complicado de resolver dentro del Procesamiento de Lenguaje Natural. En los últimos años se han propuesto mejoras en la arquitectura y funcionamiento de los modelos que buscan resolver el problema. No obstante, se ha dejado del lado la importancia de los textos sarcásticos que se utilizan para entrenarlos y, con ella, los métodos de recolección de estos textos. Los métodos tradicionales producen datasets sesgados, con errores y ruidosos, y no distinguen entre los dos tipos de sarcasmo: intencional y percibido. Por ello, en la presente investigación, se analiza cuantitativamente el impacto que tienen los métodos de recolección de datasets sarcásticos en inglés en los modelos de detección de sarcasmo. Con este fin, se hace uso de datasets públicos y se generan dos nuevos datasets con el método de Supervisión Reactiva (Shmueli et al., 2020) para analizar el impacto de los distintos métodos de recolección en el desempeño de modelos de detección de sarcasmo. Se realiza una comparación detallada de los métodos, entrenando modelos en el estado del arte con un dataset representativo de cada uno de ellos. Los resultados sugieren que es posible obtener mejores resultados en los modelos de detección de sarcasmo utilizando un método que provea un dataset limpio y el mismo tipo de sarcasmo que el que se quiere detectar. A su vez, confirman los descubrimientos realizados en investigaciones anteriores, y abren el camino a trabajos futuros.; Sarcasm Detection is a particularly complex setback in Natural Language Processing. In the last years, there have been improvements in the architecture and functionality of models that try to solve the problem. However, the importance of the sarcastic texts used to train the models has been left aside, as well as their collection methods. The traditional methods generate biased and noisy datasets with errors, and do not differentiate the two types of sarcasm: intentional and perceived. In consequence, the current investigation does a quantitative analysis on the impact that collection methods of sarcastic datasets in English have on sarcasm detection models. For that purpose, the investigation uses public datasets and generates two new datasets with the Reactive Supervision method (Shmueli et al., 2020) to analyze the impact of the collection methods on the performance of sarcasm detection models. It makes a detailed comparison of the methods, training state-of-the-art models with a representative dataset of each one of them. The results suggest that it is possible to obtain better models using a method that provides a clean dataset and the type of sarcasm to be detected. At the same time, they confirm the findings made by previous investigations and open a path to future works.2023-01-01T00:00:00Z