Knowledge Graphs in the Era of Large Language Models: Opportunities and Challenges

Објеката

Тип
Саопштење са скупа штампано у изводу
Верзија рада
објављена
Језик
енглески
Креатор
Danka Jokić, Ranka Stanković, Jelena Jaćimović
Извор
South Slavic Languages in the Digital Environment JuDig Book of Abstracts, University of Belgrade - Faculty of Philology, Serbia, November 21-23, 2024.
Уредник
prof. dr Jasmina Moskovljević Popović, prof. dr Ranka Stanković
Издавач
University of Belgrade - Faculty of Philology
Датум издавања
2024
Сажетак
Pojava velikih jezičkih modela (eng. Large Language Models ili LLMs) je značajno uticala na oblast veštačke inteligencije, naročito u oblastima obrade prirodnog jezika i generisanju teksta. Međutim, ključno ograničenje ovih modela leži u nedostatku strukturiranog znanja i sposobnosti zaključivanja, što otežava njihovu primenu u stvarnom svetu, gde se zahteva tačnost iznetih činjenica i zaključivanje na osnovu konteksta. S druge strane, grafovi znanja nude primamljivo rešenje. Oni pružaju bogat izvor strukturiranog znanja, tako što predstavljaju entitete i njihove relacije u mašinski čitljivom formatu. Ova komplementarnost pruža jedinstvenu priliku za istraživanje njihovog simbiotskog odnosa: primenu grafova znanja kako bi se veliki jezički modeli osposobili za razvoj veštačke inteligencije sledeće generacije.
Sinergija sa grafovima znanja pruža mogućnosti značajnog unapređenja velikih jezičkih modela u nekoliko ključnih oblasti. Najpre, postavljanje strukturiranog znanja iz grafova znanja u temelje velikih jezičkih modela, može značajno poboljšati njihovu sposobnost da razumeju činjenične informacije i generišu tačnije i pouzdanije odgovore na složena pitanja. Pored toga, grafovi znanja pružaju neophodan kontekst i relacije među pojmovima, što bi omogućilo velikim jezičkim modelima da obavljaju sofisticiranije rezonovanje i ugrade zdravorazumsko znanje u svoje procese rasuđivanja do nivoa razumevanja koji je sličniji ljudskom. Štaviše, eksplicitne relacije unutar grafova znanja mogu se iskoristiti da se objasni rezonovanje koje stoji iza izlaza iz velikih jezičkih modela, čime se direktno rešava ključni izazov u objašnjivoj veštačkoj inteligenciji.
Iako je potencijal neosporno veliki, izazovi sinergije velikih jezičkih modela i grafova znanja takođe zahtevaju pažnju. Razvoj efikasnih metoda, koji bi omogućili da veliki jezički modeli istovremeno uče iz tekstualnih podataka i grafova znanja, je ključno za uspešnu integraciju. Takođe, obezbeđivanje konzistentnosti i kvaliteta podataka u grafovima znanja je od suštinskog značaja, jer nepotpune ili netačne informacije mogu dovesti do pristrasnih ili pogrešnih rezultata velikih jezičkih modela.
Uprkos navedenim izazovima, integracija velikih jezičkih modela i grafova znanja ima ogroman potencijal da reformiše različite aplikacije bazirane na veštačkoj inteligenciji. Veliki jezički modeli potpomognuti grafovima znanja mogu da pruže tačnije i sveobuhvatnije odgovore u sistemima za odgovaranje na pitanja. Inteligentni asistenti integrisani sa grafovima znanja mogu razumeti i odgovoriti na zahteve korisnika sa više konteksta i na osnovu činjenica. Pored toga, sinergija velikih jezičkih modela i grafova znanja može dovesti do generisanja prirodnog jezika, koje je tačnije i bazirano na relevantnom kontekstu, kao i do stvaranja sofisticiranijih i dinamičnijih sistema za predstavljanje znanja.
Istraživanje sinergije između velikih jezičkih modela i grafova znanja ključno je za unapređenje veštačke inteligencije. Rešavanjem izazova i traženjem efikasnih metoda integracije, možemo utrti put za razvoj sledeće generacije aplikacija zasnovanih na veštačkoj inteligenciji, koje karakterišu poboljšano razumevanje, rezonovanje i sposobnosti predstavljanja znanja. U ovom radu ćemo pokazati kako grafovi znanja mogu unaprediti sposobnosti rezonovanja velikih jezičkih modela u pogledu bezbednosti i moderacije štetnog sadržaja na internetu u tekstovima na srpskom jeziku.
The emergence of large language models (LLMs) has significantly impacted the field of artificial intelligence (AI) by excelling at language processing and generation tasks. However, a critical limitation of LLMs lies in their lack of structured knowledge and reasoning capabilities, hindering their effectiveness in real-world applications that demand factual accuracy and context-aware reasoning. Knowledge graphs (KGs), on the other hand, offer a compelling solution. By representing entities and their relationships in a machine-readable format, KGs provide a rich source of structured knowledge. This convergence presents a unique opportunity to explore their symbiotic relationship: leveraging KGs to empower LLMs for the development of next-generation AI applications.
This synergy has the potential to significantly enhance LLM capabilities in several key areas. First, grounding LLMs in the structured knowledge of KGs can substantially improve their ability to comprehend factual information and generate more accurate and reliable responses to complex questions. In addition, KGs also offer the necessary context and relationships to enable LLMs to perform more sophisticated reasoning tasks and incorporate commonsense knowledge into their reasoning processes, leading to more nuanced and human-like understanding. Furthermore, the explicit relationships within KGs can be harnessed to explain the reasoning behind LLM outputs, directly addressing a critical challenge in interpretable AI.
While the potential is undeniable, challenges require attention. Developing effective methods for LLMs to jointly learn from text data and knowledge graphs is crucial for successful integration. Additionally, ensuring the consistency and quality of knowledge graph data is essential, as incomplete or inaccurate information can lead to biased or erroneous LLM results.
Despite these challenges, the integration of LLMs and KGs holds immense potential to revolutionize various AI applications. LLMs empowered by KGs can provide more accurate and comprehensive answers in question-answering systems. Intelligent assistants integrated with KGs can understand and respond to user queries with greater context and factual grounding. Additionally, the combination of LLMs and KGs can lead to the development of more factually accurate and contextually relevant natural language generation, and the creation of more sophisticated and dynamic knowledge representation systems.
Exploring this synergistic relationship between LLMs and KGs is crucial for advancing AI. By addressing the challenges and pursuing effective integration methods, we can pave the way for the development of next-generation AI applications characterized by enhanced understanding, reasoning, and knowledge representation capabilities. In this paper we will present how knowledge graphs can be used to enhance reasoning capabilities of large language models concerning online safety and moderation of harmful textual content in Serbian.
Subject
grafovi znanja, veliki jezički modeli, obrada prirodnog jezika, strukturirano znanje, kvalitet podataka, objašnjiva veštačka inteligencija, bezbednost sadržaja na internetu
Knowledge Graphs (KGs), Large Language Models (LLMs), Natural Language Processing (NLP), Structured Knowledge, Data Quality, Explainable Artificial Intelligence (EAI), Online Content Safety
Шира категорија рада
М60
Ужа категорија рада
М64
Је дио
Text Embeddings - Serbian Language Applications - TESLA
Права
Отворени приступ
Лиценца
Creative Commons – Attribution 4.0 International
Формат
.pdf
Скупови објеката
Ранка Станковић
Radovi istraživača

Danka Jokić, Ranka Stanković, Jelena Jaćimović. "Knowledge Graphs in the Era of Large Language Models: Opportunities and Challenges" in South Slavic Languages in the Digital Environment JuDig Book of Abstracts, University of Belgrade - Faculty of Philology, Serbia, November 21-23, 2024., University of Belgrade - Faculty of Philology (2024)

This item was submitted on 29. новембар 2024. by [anonymous user] using the form “Рад у зборнику радова” on the site “Радови”: http://romeka.rgf.rs/s/repo

Click here to view the collected data.