Hjem > Opdage > Forskere udvikler metode til at opdage 'hallucinerende' store sprogmodeller i AI-forskning

Forskere udvikler metode til at opdage 'hallucinerende' store sprogmodeller i AI-forskning

Skrevet af
ArticleGPT

Gennemgået og faktatjekket af HIX.AI-teamet

2 min læst6 days ago
Forskere udvikler metode til at opdage 'hallucinerende' store sprogmodeller i AI-forskning

I en nøddeskal

Forskere ved University of Oxford har gjort betydelige fremskridt med at sikre, at information genereret af kunstig intelligens (AI) er robust og pålidelig.

I en banebrydende udvikling har forskere fra University of Oxford gjort afgørende fremskridt med at identificere og forhindre fænomenet hallucination i store sprogmodeller (LLM'er), der bruges i kunstig intelligens (AI) forskning.

Forskerne har udtænkt en ny metode til at opdage, hvornår LLM'er sandsynligvis "hallucinerer" eller opfinder plausible, men imaginære fakta.

En mere ligetil forklaring kan være, at en LLM ikke identificerer, hvad der definerer et rigtigt svar, men føler sig forpligtet til at tilbyde et, hvilket får det til at fremstille information, en adfærd kendt som "konfabulering".

Resultaterne af denne forskning kan komme til nytte, især inden for områder som juridisk og medicinsk besvarelse af spørgsmål, hvor unøjagtigheder kan føre til alvorlige konsekvenser.

Metodik bag registrering af LLM-konfabulationer

Metodikken udviklet af forskergruppen er stærkt baseret på statistik og fokuserer på at estimere usikkerhed på betydningsniveau i stedet for individuelle ordsekvenser.

Metoden anvender semantisk entropi, som måler mængden af variation mellem flere output, til at beregne usikkerheden i LLM-svar.

Ved at oversætte de sandsynligheder produceret af LLM'er til sandsynligheder over betydninger, var forskerne i stand til at identificere tilfælde, hvor LLM'er var usikre på den faktiske betydning af deres svar, ikke kun formuleringen.

Under deres eksperimenter overgik den nye metode konsekvent tidligere tilgange til at opdage konfabulationer.

Forskerholdet testede metoden mod seks open source LLM'er, herunder velkendte modeller som GPT-4 og LLaMA 2, ved hjælp af forskellige datasæt lige fra Google -søgninger til tekniske biomedicinske spørgsmål og matematiske ordproblemer. Metoden har endda med succes identificeret specifikke falske påstande i korte biografier genereret af ChatGPT .

En stor fordel ved denne teknik er, at i modsætning til tidligere tilgange, der krævede opgavespecifikke data, fungerer denne metode på forskellige datasæt og opgaver uden forudgående viden. Dens robuste generalisering til nye opgaver gør den værdifuld til at sikre nøjagtighed og pålidelighed i en lang række applikationer.

Mens detektionsmetoden adresserer specifikke pålidelighedsproblemer relateret til konfabulationer, ligger der flere udfordringer forude. Konsekvente fejl begået af LLM'er er et område, der kræver yderligere opmærksomhed.

De mest skadelige fejl ved AI opstår, når et system konsekvent producerer forkerte, men sikre og systematiske resultater. Forskere anerkender, at der stadig er meget arbejde at gøre i denne henseende.

Baseret på 3 søgekilder

3 kilder

Research into 'hallucinating' generative models advances reliability of artificial intelligence

Researchers from the University of Oxford have made a significant advance toward ensuring that information produced by generative artificial intelligence (AI) is robust and reliable.

Scientists might have found a way to overcome ‘hallucinations’ that plague AI systems like ChatGPT

Scientists may have created a way to help overcome one of the biggest problems with popular artificial intelligence systems.

Researchers describe how to tell if ChatGPT is confabulating

It's one of the world's worst-kept secrets that large language models give blatantly false answers to queries and do so with a confidence that's indistinguishable from when they get things right. There are a number of reasons for this.

På denne side

  • Metodik bag registrering af LLM-konfabulationer