Forskare vid Linköpings universitet arbetar på att öka pålitligheten hos chattrobotar som Chat GPT. En av de utmaningar som forskarna tampas med är att minska antalet hallucinationer och felaktiga fakta som genereras av dessa AI-system. Problemet är att informationen som AI-systemen använder kommer från många olika håll, vilket gör det svårt att fastställa var hållbarheten i svaren kommer ifrån.
Professor Fredrik Heintz leder ett EU-projekt som syftar till att skapa mer trovärdiga språkmodeller genom tekniken retrieval-augmented generation, RAG. Genom detta system kan AI-systemet söka efter faktamässig kunskap i en specifik databas och använda den som bas för att generera sitt svar. Detta innebär också att systemet kan källhänvisa till den information det använder.
Projektet, Trust LLM, har som mål att släppa en modell om året de kommande tre åren, och undersöker även metoder för att få AI-system att dra rätt slutsatser och förstå sammanhang.
I projektet ingår också samarbete med Kungliga biblioteket för att samla in mer högkvalitativ data, och det förväntas att Wikipedia och liknande källor kommer att bli viktiga informationsresurser.
Målet är att skapa de mest kraftfulla och pålitliga språkmodellerna i Europa. Med hjälp av tekniken tror forskarna att svaren från AI-systemen kommer att öka i kvalitet och vara mer pålitliga i framtiden.