Advancing Sentiment Analysis in Serbian Literature: A Zero and Few-Shot Learning Approach Using the Mistral Model

Објеката

Тип
Рад у зборнику
Верзија рада
објављена
Језик
енглески
Креатор
Milica Ikonić Nešić, Saša Petalinkar, Mihailo Škorić, Ranka Stanković, Biljana Rujević
Извор
In Proceedings of the Sixth International Conference on Computational Linguistics in Bulgaria (CLIB 2024)
Издавач
BAS
Датум издавања
2024
Сажетак
Ova studija predstavlja analizu sentimenta srpskih starih romana iz perioda 1840-1920, koristeći veliki jezički model (LLM) Mistral za tehniku učenja sa zasnovani na takozvanim "zero" i "few-shot" pokušajima. Glavni pristup uvodi inovacije osmišljavanjem istraživačkih upita (promptova) uključuju tekst sa uputstvom za klasifikaciju bez primera i na osnovu nekoliko primera, omogućavajući jezičkom modelu da klasifikuje osećanja u pozitivne, negativne ili objektivne kategorije. Ova metodologija ima za cilj da pojednostavi analizu osećanja ograničavanjem odgovora, čime se povećava preciznost klasifikacije. Python, zajedno sa bibliotekama Hugging Face Transformers i LangChain su tehnološka okosnica kaja olakšava kreiranje i usavršavanje istraživačkih procesa za analizu sentimenta na nivou rečenice. Rezultati analize sentimenta u oba scenarija, nultom i nekoliko hitaca, pokazali su da je nulti pristup bolji, postižući preciznost od 68,2%.
This study presents the Sentiment Analysis of the Serbian old novels from the 1840-1920 period, employing the Mistral Large Language Model (LLM) to pioneer zero and few-shot learning techniques. The main approach innovates by devising research prompts that include guidance text for zero-shot classification and examples for fewshot learning, enabling the LLM to classify sentiments into positive, negative, or objective categories. This methodology aims to streamline sentiment analysis by limiting responses, thereby enhancing classification precision. Python, along with the Hugging Face Transformers and LangChain libraries, serves as our technological backbone, facilitating the creation and refinement of research prompts tailored for sentence-level sentiment analysis. The results of sentiment analysis in both scenarios, zero-shot and few-shot, have indicated that the zero-shot approach outperforms, achieving an accuracy of 68.2%.
почетак странице
58
крај странице
70
Subject
zero-shot, few-shot, sentiment, Serbian, Mistral model
učenje bez primera, učenje sa nekoliko primera, srpski, model Mistral
УДК број
standardizacija, digitalna leksikografija, OntoLex, upiti korpusa, Povezani podaci, Lingvistički Povezani Otvoreni Podaci
Шира категорија рада
М30
Ужа категорија рада
М33
Је дио
TESLA
Права
Отворени приступ
Лиценца
Creative Commons – Attribution 4.0 International
Формат
.pdf

Milica Ikonić Nešić, Saša Petalinkar, Mihailo Škorić, Ranka Stanković, Biljana Rujević. "Advancing Sentiment Analysis in Serbian Literature: A Zero and Few-Shot Learning Approach Using the Mistral Model" in In Proceedings of the Sixth International Conference on Computational Linguistics in Bulgaria (CLIB 2024), BAS (2024)

This item was submitted on 14. септембар 2024. by [anonymous user] using the form “Рад у зборнику радова” on the site “Радови”: http://romeka.rgf.rs/s/repo

Click here to view the collected data.