Collected Item: “Advancing Sentiment Analysis in Serbian Literature: A Zero and Few-Shot Learning Approach Using the Mistral Model”
Врста публикације
Рад у зборнику
Верзија документа
објављена
Језик
енглески
Аутор/и (Милан Марковић, Никола Николић)
Milica Ikonic Nešić, Saša Petalinkar,Mihailo Škorić, Ranka Stanković, Biljana Rujević
Наслов рада (Наслов - поднаслов)
Advancing Sentiment Analysis in Serbian Literature: A Zero and Few-Shot Learning Approach Using the Mistral Model
Назив конференције (зборника), место и датум одржавања
Proceedings of the 2024 Joint International Conference on Computational Linguistics, Language Resources and Evaluation (LREC-COLING 2024)
Уредник/ци зборника
Nicoletta Calzolari, Min-Yen Kan, Veronique Hoste, Alessandro Lenci, Sakriani Sakti, Nianwen Xue
Издавач (Београд : Просвета)
LREC | COLING
Година издавања
2024
Сажетак рада на српском језику
Ova studija predstavlja analizu sentimenta srpskih starih romana iz perioda 1840-1920, koristeći veliki jezički model (LLM) Mistral za tehniku učenja sa zasnovani na takozvanim "zero" i "few-shot" pokušajima. Glavni pristup uvodi inovacije osmišljavanjem istraživačkih upita (promptova) uključuju tekst sa uputstvom za klasifikaciju bez primera i na osnovu nekoliko primera, omogućavajući jezičkom modelu da klasifikuje osećanja u pozitivne, negativne ili objektivne kategorije. Ova metodologija ima za cilj da pojednostavi analizu osećanja ograničavanjem odgovora, čime se povećava preciznost klasifikacije. Python, zajedno sa bibliotekama Hugging Face Transformers i LangChain su tehnološka okosnica kaja olakšava kreiranje i usavršavanje istraživačkih procesa za analizu sentimenta na nivou rečenice. Rezultati analize sentimenta u oba scenarija, nultom i nekoliko hitaca, pokazali su da je nulti pristup bolji, postižući preciznost od 68,2%.
Сажетак рада на енглеском језику
This study presents the Sentiment Analysis of the Serbian old novels from the 1840-1920 period, employing the Mistral Large Language Model (LLM) to pioneer zero and few-shot learning techniques. The main approach innovates by devising research prompts that include guidance text for zero-shot classification and examples for fewshot learning, enabling the LLM to classify sentiments into positive, negative, or objective categories. This methodology aims to streamline sentiment analysis by limiting responses, thereby enhancing classification precision. Python, along with the Hugging Face Transformers and LangChain libraries, serves as our technological backbone, facilitating the creation and refinement of research prompts tailored for sentence-level sentiment analysis. The results of sentiment analysis in both scenarios, zero-shot and few-shot, have indicated that the zero-shot approach outperforms, achieving an accuracy of 68.2%.
Почетна страна рада
58
Завршна страна рада
70
DOI број
zero-shot, few-shot, sentiment, Serbian, Mistral model
Кључне речи на српском (одвојене знаком ", ")
zero-shot, few-shot, sentiment, Serbian, Mistral model
Кључне речи на енглеском (одвојене знаком ", ")
učenje bez primera, učenje sa nekoliko primera, srpski, model Mistral
УДК број
standardizacija, digitalna leksikografija, OntoLex, upiti korpusa, Povezani podaci, Lingvistički Povezani Otvoreni Podaci
Шира категорија рада према правилнику МПНТ
М30
Ужа категорија рада према правилнику МПНТ
М33
Пројект у склопу кога је настао рад
TESLA
Ниво приступа
Отворени приступ
Лиценца
Creative Commons – Attribution 4.0 International
Формат датотеке
.pdf