Ev > Keşfetmek > Bilim İnsanları Yapay Zeka Araştırmalarında 'Halüsinasyon Gören' Büyük Dil Modellerini Tespit Etmek İçin Yöntem Geliştiriyor

Bilim İnsanları Yapay Zeka Araştırmalarında 'Halüsinasyon Gören' Büyük Dil Modellerini Tespit Etmek İçin Yöntem Geliştiriyor

Tarafından yazılmıştır
ArticleGPT

HIX.AI Ekibi tarafından incelendi ve doğruluğu kontrol edildi

2 dakikalık okuma8 days ago
Bilim İnsanları Yapay Zeka Araştırmalarında 'Halüsinasyon Gören' Büyük Dil Modellerini Tespit Etmek İçin Yöntem Geliştiriyor

Kısaca

Oxford Üniversitesi'ndeki araştırmacılar, yapay zeka (AI) tarafından üretilen bilgilerin sağlam ve güvenilir olmasını sağlama konusunda önemli ilerleme kaydetti.

Çığır açan bir gelişmeyle, Oxford Üniversitesi'nden araştırmacılar, yapay zeka (AI) araştırmalarında kullanılan büyük dil modellerinde (LLM'ler) halüsinasyon olgusunu tanımlama ve önleme konusunda önemli ilerleme kaydetti.

Araştırmacılar, yüksek lisans yapanların ne zaman "halüsinasyon" görebileceğini veya akla yatkın görünen ancak hayali gerçekler icat edebileceğini tespit etmek için yeni bir yöntem geliştirdiler.

Daha basit bir açıklama, Yüksek Lisans'ın doğru cevabı neyin tanımladığını tanımlamaması ancak bir cevap sunmak zorunda hissetmesi ve bunun da "konfabülasyon" olarak bilinen bir davranış olan uydurma bilgi üretmesine yol açması olabilir.

Bu araştırmanın sonuçları, özellikle yanlışlıkların ciddi sonuçlara yol açabileceği hukuki ve tıbbi soru cevaplama gibi alanlarda faydalı olabilir.

LLM Konfülasyonlarını Tespit Etmenin Arkasındaki Metodoloji

Araştırma ekibi tarafından geliştirilen metodoloji güçlü bir şekilde istatistiklere dayanıyor ve belirsizliği tek tek kelime dizileri yerine anlam düzeyinde tahmin etmeye odaklanıyor.

Yöntem, LLM yanıtlarındaki belirsizliği hesaplamak için birden fazla çıktı arasındaki varyasyon miktarını ölçen anlamsal entropiyi kullanır.

Araştırmacılar, Yüksek Lisans'ların ürettiği olasılıkları anlamlar üzerinden olasılıklara dönüştürerek, Yüksek Lisans'ların yalnızca ifadelerden değil, cevaplarının gerçek anlamından da emin olmadığı durumları tespit edebildiler.

Deneyleri sırasında, yeni yöntem, konfabülasyonların tespitinde önceki yaklaşımlardan sürekli olarak daha iyi performans gösterdi.

Araştırma ekibi, Google aramalarından teknik biyomedikal sorulara ve matematiksel kelime problemlerine kadar çeşitli veri kümelerini kullanarak yöntemi, GPT-4 ve LLaMA 2 gibi iyi bilinen modeller de dahil olmak üzere altı açık kaynaklı LLM'ye karşı test etti. Yöntem, ChatGPT tarafından oluşturulan kısa biyografilerdeki belirli yanlış iddiaları da başarıyla tespit etti.

Bu tekniğin en büyük avantajlarından biri, göreve özel veriler gerektiren önceki yaklaşımlardan farklı olarak, bu yöntemin, önceden bilgi gerektirmeden çeşitli veri kümeleri ve görevler üzerinde çalışmasıdır. Yeni görevlere sağlam bir şekilde genelleştirilmesi, onu geniş bir uygulama yelpazesinde doğruluk ve güvenilirliğin sağlanması açısından değerli kılar.

Tespit yöntemi, konfabülasyonlarla ilgili belirli güvenilirlik sorunlarını ele alırken, ileride daha fazla zorluk bulunmaktadır. Yüksek Lisans'ların yaptığı tutarlı hatalar, daha fazla dikkat gerektiren bir alandır.

Yapay zekanın en zararlı başarısızlıkları, bir sistemin sürekli olarak yanlış ancak kendinden emin ve sistematik sonuçlar üretmesi durumunda ortaya çıkar. Araştırmacılar bu konuda hala yapılacak çok iş olduğunu kabul ediyorlar.

3 arama kaynağına dayalı

3 kaynaklar

Research into 'hallucinating' generative models advances reliability of artificial intelligence

Researchers from the University of Oxford have made a significant advance toward ensuring that information produced by generative artificial intelligence (AI) is robust and reliable.

Scientists might have found a way to overcome ‘hallucinations’ that plague AI systems like ChatGPT

Scientists may have created a way to help overcome one of the biggest problems with popular artificial intelligence systems.

Researchers describe how to tell if ChatGPT is confabulating

It's one of the world's worst-kept secrets that large language models give blatantly false answers to queries and do so with a confidence that's indistinguishable from when they get things right. There are a number of reasons for this.

Bu sayfada

  • LLM Konfülasyonlarını Tespit Etmenin Arkasındaki Metodoloji