Repository logo
 
Loading...
Thumbnail Image
Publication

Conversational Agent for Mental Health Support

Use this identifier to reference this record.
Name:Description:Size:Format: 
11488_29066.pdf931.87 KBAdobe PDF Download

Abstract(s)

Mental health is one of the greatest global challenges today, marked by an increase in cases of anxiety and depression and difficulties in accessing specialised support, high costs and stigma. In this context, digital solutions that expand the scope of care are a promising approach. This dissertation presents the design and implementation of a conversational agent for mental health support. The main model used was Gemma 3 4B, applied with prompt engineering. LoRA tuning was explored but not adopted due to export constraints. This LLM is complemented by models for Hate Speech Detection, Emotion Detection, Sentiment Detection, and Sarcasm Detection. The BERT classifiers (sentiment, emotions, sarcasm, and hate) generate signals that condition the tone and dialogue strategy, with these responses being integrated into the system prompt so that the interaction is dynamic. The architecture supports text data input and output and contains modules for periodic check-ins, detection of signs of risk of self-harm or despair with the provision of national suicide helpline contact details, and medication management through the sending of PDF prescriptions and scheduling of medication reminders. Experiments show that the proposed methodology produces more empathetic, confident, and useful responses than using only a language model in varied scenarios. The cosine semantic similarity was calculated to compare the agent with market applications and with experimental cuts without the analysis modules, and the scores indicated comparable content, while the agent’s responses were notably more validating, empathetic, safe, and practice-oriented. Added components such as regular check-ins with the user and medication scheduling to provide reminders indicate practical potential as a virtual therapist. Limitations include occasional errors in detecting whether a direct response or reflection is desired, loss of context due to short memory, and incomplete speech and avatar components.
A saúde mental é hoje um dos maiores desafios globais, marcada pelo aumento de casos de ansiedade e depressão e pelas dificuldades de acesso a apoio especializado, custos elevados e estigma. Neste âmbito, as soluções digitais que expandem a abrangência dos cuidados constituem uma abordagem promissora. Esta dissertação apresenta a conceção e implementação de um agente conversacional para apoio à saúde mental. O modelo principal utilizado foi o Gemma 3 4B, aplicado com engenharia de prompts, a afinação Low-Rank Adaptation (LoRA) foi explorada mas não adotada devido a constrangimentos de exportação. Este Large Language Model (LLM) é complementado por modelos de Hate Speech Detection, Emotion Detection, Sentiment Analysis e Sarcasm Detection. Os classificadores BERT (sentimento, emoções, sarcasmo e ódio) geram sinais que condicionam o tom e a estratégia de diálogo, sendo essas respostas integradas no system prompt para que a interação seja dinâmica. A arquitetura suporta a entrada e saída de dados em texto e contém módulos para check-ins periódicos, deteção de sinais de risco de automutilação ou desesperança com oferta do contacto de linhas nacionais de apoio ao suicídio e gestão de medicação através do envio de prescrições em PDF e agendamento de lembretes para a toma de medicação. Experiências mostram que a metodologia proposta produz respostas mais empáticas, seguras e úteis do que usar apenas um modelo de linguagem em cenários variados. A similaridade semântica do coseno foi calculada para comparar o agente com aplicações do mercado e com cortes experimentais sem os módulos de análise, e as pontuações indicaram conteúdo comparável, enquanto as respostas do agente foram notavelmente mais validantes, empáticas, seguras e orientadas para a prática. Os componentes adicionados como a verificação regular com o utilizador e o agendamento de medicação para criar lembretes, indicam potencial prático como terapeuta virtual. As limitações incluem erros ocasionais de deteção de intenção se quer uma resposta direta ou para ajudar a refletir, perda de contexto devido à memória curta e componentes incompletos de fala e avatar.

Description

Keywords

Agente Conversacional in-Corporado Chatbot Inteligência Artificial Saúde Mental Terapeuta Virtual

Pedagogical Context

Citation

Research Projects

Organizational Units

Journal Issue