Repository logo
 
No Thumbnail Available
Publication

ML Orchestrator: Development and Optimization of Machine Learning Pipelines and Platforms

Use this identifier to reference this record.
Name:Description:Size:Format: 
10580_24679.pdf8.56 MBAdobe PDF Download

Abstract(s)

Machine Learning Pipelines play a crucial role in the efficient development of large-scale models, which is a complex process that involves several stages and faces intrinsic challenges. This document seeks to explore the depth of these structures, from the initial preparation of datasets to the final stage of model implementation, as well as the importance of optimizing these structures. Emphasis is also placed on the critical relevance of this process in Cloud Computing environments, where flexibility, scalability and efficiency are imperative. By understanding and properly applying optimized strategies, we not only improve model performance, but also maximize the benefits offered by cloud computing, thus shaping the future of Machine Learning development at scale. The Google Cloud Platform, more specifically the Vertex AI tool, offers a comprehensive solution for building and implementing Machine Learning Pipelines, as it allows development teams to take advantage of pre-trained models, automation of tasks and management of tasks and resources in a simplified way, leading to improved scalability, enabling efficient processing of large volumes of data. In addition, an analysis is made of how the Google Kubernetes Engine tool plays a key role in the management and scaling of these structures, since the ability to manage containers on a large scale guarantees an efficient execution of Machine Learning processes, providing a dynamic response to requests from clients. To efficiently build and optimize a ML pipeline, essential objectives were set to ensure robustness and efficiency. This includes creating a Google Kubernetes Cluster with its complementary services in GKE for the Playground Tool service, employing scalability strategies like KEDA and deploying the DeepNeuronicML model for objects and actions predictions from real-time video streams. Additionally, a Copilot is used to monitor computational resources, ensuring the ML pipeline can manage multiple clients and their AI models in an optimized and scalable manner. To conclude, it’s important to note that optimizing Machine Learning Pipelines in cloud environments is not just a necessity, but a strategic advantage. By adopting innovative approaches and integrating the tools mentioned above (Vertex AI and Google Kubernetes Engine), business organizations can overcome the complex challenges of these structures and boost efficiency and innovation in their Machine Learning services.
Podemos abordar o conceito pipeline como uma estrutura, que organiza e facilita o processo de desenvolvimento, operação e implementação de modelos de aprendizagem automática. Diante da crescente necessidade de analisar dados provenientes de inúmeras fontes, incluindo câmaras de vigilância e diversos modelos, a otimização torna-se crucial, pois o objetivo passa por superar desafios como a eficiência no processamento de grandes volumes de dados, a gestão de modelos de Inteligência Artificial e a gestão eficaz dos recursos computacionais. Ao otimizar estas estruturas, procura-se enfrentar obstáculos como a complexidade do processamento distribuído, assegurando uma análise eficiente e ágil, e a capacidade de lidar com múltiplos clientes, bem como os seus modelos. A otimização não melhora, apenas, a eficiência operacional, mas também contribui para o desenvolvimento de soluções mais escaláveis e adaptáveis às diversas exigências do mundo contemporâneo, proporcionado insights valiosos provenientes de diversos conjuntos de dados. Um pipeline eficiente e otimizado torna-se ainda mais crucial ao ser aplicado em ambientes de computação em nuvem. Nestes cenários, a escalabilidade, eficiência e gestão eficaz de recursos são fundamentais para lidar com desafios referentes ao processamento de dados em larga escala. A questão da otimização nestes ambientes aborda, especificamente, a capacidade de lidar com a dinâmica das carga de trabalho, aproveitar recursos computacionais mediante a necessidade e garantir eficiência na análise de conjuntos de dados. De maneira a construir e otimizar um Machine Learning (ML) pipeline eficientemente, foram definidos objetivos essenciais que garantem a robustez e a eficiência do sistema. A criação de um Google Kubernetes Cluster e os seus serviços complementares no Google Kubernetes Engine (GKE), para a implementação do serviço Playground Tool, com recurso a estratégias de escalabilidade como a ferramenta Kubernetes-based Event Driven Autoscaler (KEDA) e a implementação do modelo DeepNeuronicML, para previsões de objetos e ações provenientes de transmissões de vídeo em tempo real, com recurso a um Copilot para monitorização dos recursos computacionais utilizados, asseguram um ML pipeline capaz de gerir múltiplos clientes, bem como os seus modelos de Artificial Intelligence (AI), de um modo otimizado e escalável. Deste modo, a otimização de Machine Learning pipelines não se trata, apenas, de uma resposta aos desafios do presente, mas uma preparação proativa e adaptável para os cenários tecnológicos em constante evolução, garantindo uma eficaz e eficiente integração entre os domínios de aprendizagem automática e computação em nuvem.

Description

Keywords

Computação em Nuvem Inteligência Artificial Machine Learning Pipeline

Citation

Research Projects

Organizational Units

Journal Issue