HIX AI
Zusammenbruch
Einfach
Heim > Entdecken > Anthropic stellt aktuelle KI-Benchmarking-Praktiken mit neuer Finanzierungsinitiative in Frage

Anthropic stellt aktuelle KI-Benchmarking-Praktiken mit neuer Finanzierungsinitiative in Frage

Geschrieben von
ArticleGPT

Überprüft und auf Fakten geprüft vom HIX.AI-Team

2 Minuten LesezeitJul 02, 2024
Anthropic stellt aktuelle KI-Benchmarking-Praktiken mit neuer Finanzierungsinitiative in Frage

Kurzgesagt

Das neue Programm von Anthropic, das am Montag vorgestellt wurde, wird Mittel an externe Organisationen verteilen, die Benchmarks entwickeln können, um die Leistung und Wirkung von KI-Modellen effektiv zu bewerten.

Anthropic führt eine neue Finanzierungsinitiative ein, um die Probleme aktueller KI-Benchmarking-Praktiken anzugehen, bei denen der bestehende Benchmark die Fähigkeit zur Bewertung der Leistung und des Einflusses von KI-Modellen einschränkt.

Vorhandene Benchmarks können oft nicht genau abbilden, wie der Durchschnittsbürger KI-Systeme nutzt. Sie können die Nuancen und Komplexitäten der realen Nutzung nicht erfassen, was dazu führt, dass sie nur begrenzte Einblicke in die Leistung von KI-Modellen bieten.

Darüber hinaus wurden viele dieser Benchmarks vor dem Aufkommen moderner generativer KI entwickelt, was Fragen zu ihrer Relevanz und Anwendbarkeit aufwirft.

Anthropics Finanzierungsinitiative

Das Programm zielt darauf ab, Drittorganisationen zu identifizieren und zu finanzieren, die in der Lage sind, Benchmarks zu erstellen, mit denen die erweiterten Fähigkeiten von KI-Modellen effektiv gemessen werden können.

„Unsere Investition in diese Bewertungen soll den gesamten Bereich der KI-Sicherheit auf ein neues Niveau bringen und wertvolle Tools bereitstellen, die dem gesamten Ökosystem zugute kommen“, veröffentlichte Anthropic auf seinem offiziellen Blog .

Neue Benchmarks, mit denen sich KI-Modelle effektiv und präzise bewerten lassen, sind dringend erforderlich: „Die Entwicklung qualitativ hochwertiger, sicherheitsrelevanter Bewertungen bleibt eine Herausforderung und die Nachfrage übersteigt das Angebot“, heißt es im Blog weiter.

Schwerpunktbereiche für neue Benchmarks

Die neuen Benchmarks von Anthropic werden sich auf die Bewertung der erweiterten Fähigkeiten von KI-Modellen konzentrieren, insbesondere im Hinblick auf KI-Sicherheit und gesellschaftliche Auswirkungen.

Diese Benchmarks bewerten die Fähigkeit eines Modells, Aufgaben auszuführen, die erhebliche Auswirkungen haben, wie etwa Cyberangriffe, Waffenverbesserungen und Manipulation oder Täuschung von Personen durch Deepfakes oder Fehlinformationen.

Darüber hinaus möchte Anthropic ein „Frühwarnsystem“ entwickeln, um KI-Risiken im Zusammenhang mit der nationalen Sicherheit und Verteidigung zu identifizieren und zu bewerten. Während im Blogbeitrag keine Einzelheiten zu diesem System genannt werden, betont Anthropic sein Engagement, diese Risiken anzugehen.

Das Förderprogramm wird außerdem die Erforschung von Benchmarks für „End-to-End“-Aufgaben unterstützen und das Potenzial der KI in verschiedenen Bereichen erkunden.

Zu diesen Aufgaben gehören die Ermöglichung wissenschaftlicher Forschung, das Sprechen mehrerer Sprachen, der Abbau von Vorurteilen und das Herausfiltern toxischer Einflüsse.

Anthropic beabsichtigt, neue Plattformen zu entwickeln, die Fachexperten in die Lage versetzen, eigene Einschätzungen zu erstellen und umfangreiche Tests mit Tausenden von Benutzern durchzuführen.

Das Unternehmen hat für diese Initiative einen eigenen Koordinator eingestellt und prüft Möglichkeiten, Projekte mit Skalierungspotenzial zu erwerben oder zu erweitern.

CEO Dario Amodei hat die weitreichenden Auswirkungen der KI und die Notwendigkeit umfassender Lösungen zur Bewältigung möglicher Ungleichheitsprobleme betont.

In einem Interview mit dem Time Magazine betonte Amodei, wie wichtig es sei, über das bedingungslose Grundeinkommen hinaus Lösungen zu finden, um sicherzustellen, dass Fortschritte in der KI-Technologie der breiten Öffentlichkeit zugute kämen.

Basierend auf 2 Suchquellen

2 Quellen

Anthropic looks to fund a new, more comprehensive generation of AI benchmarks

Anthropic is launching a program to fund the development of new types of benchmarks capable of evaluating the performance and impact of AI models, including generative models like its own Claude.

Google's Alphabet And Amazon-Backed Anthropic Lead Effort To Redefine AI Evaluation Standards

Anthropic’s new program, revealed on Monday, will allocate funds to third-party organizations capable of creating benchmarks that can effectively evaluate the performance and impact of AI models

Auf dieser Seite

  • Anthropics Finanzierungsinitiative