Anthropic führt eine neue Finanzierungsinitiative ein, um die Probleme aktueller KI-Benchmarking-Praktiken anzugehen, bei denen der bestehende Benchmark die Fähigkeit zur Bewertung der Leistung und des Einflusses von KI-Modellen einschränkt.
Vorhandene Benchmarks können oft nicht genau abbilden, wie der Durchschnittsbürger KI-Systeme nutzt. Sie können die Nuancen und Komplexitäten der realen Nutzung nicht erfassen, was dazu führt, dass sie nur begrenzte Einblicke in die Leistung von KI-Modellen bieten.
Darüber hinaus wurden viele dieser Benchmarks vor dem Aufkommen moderner generativer KI entwickelt, was Fragen zu ihrer Relevanz und Anwendbarkeit aufwirft.
Anthropics Finanzierungsinitiative
Das Programm zielt darauf ab, Drittorganisationen zu identifizieren und zu finanzieren, die in der Lage sind, Benchmarks zu erstellen, mit denen die erweiterten Fähigkeiten von KI-Modellen effektiv gemessen werden können.
„Unsere Investition in diese Bewertungen soll den gesamten Bereich der KI-Sicherheit auf ein neues Niveau bringen und wertvolle Tools bereitstellen, die dem gesamten Ökosystem zugute kommen“, veröffentlichte Anthropic auf seinem offiziellen Blog .
Neue Benchmarks, mit denen sich KI-Modelle effektiv und präzise bewerten lassen, sind dringend erforderlich: „Die Entwicklung qualitativ hochwertiger, sicherheitsrelevanter Bewertungen bleibt eine Herausforderung und die Nachfrage übersteigt das Angebot“, heißt es im Blog weiter.
Schwerpunktbereiche für neue Benchmarks
Die neuen Benchmarks von Anthropic werden sich auf die Bewertung der erweiterten Fähigkeiten von KI-Modellen konzentrieren, insbesondere im Hinblick auf KI-Sicherheit und gesellschaftliche Auswirkungen.
Diese Benchmarks bewerten die Fähigkeit eines Modells, Aufgaben auszuführen, die erhebliche Auswirkungen haben, wie etwa Cyberangriffe, Waffenverbesserungen und Manipulation oder Täuschung von Personen durch Deepfakes oder Fehlinformationen.
Darüber hinaus möchte Anthropic ein „Frühwarnsystem“ entwickeln, um KI-Risiken im Zusammenhang mit der nationalen Sicherheit und Verteidigung zu identifizieren und zu bewerten. Während im Blogbeitrag keine Einzelheiten zu diesem System genannt werden, betont Anthropic sein Engagement, diese Risiken anzugehen.
Das Förderprogramm wird außerdem die Erforschung von Benchmarks für „End-to-End“-Aufgaben unterstützen und das Potenzial der KI in verschiedenen Bereichen erkunden.
Zu diesen Aufgaben gehören die Ermöglichung wissenschaftlicher Forschung, das Sprechen mehrerer Sprachen, der Abbau von Vorurteilen und das Herausfiltern toxischer Einflüsse.
Anthropic beabsichtigt, neue Plattformen zu entwickeln, die Fachexperten in die Lage versetzen, eigene Einschätzungen zu erstellen und umfangreiche Tests mit Tausenden von Benutzern durchzuführen.
Das Unternehmen hat für diese Initiative einen eigenen Koordinator eingestellt und prüft Möglichkeiten, Projekte mit Skalierungspotenzial zu erwerben oder zu erweitern.
CEO Dario Amodei hat die weitreichenden Auswirkungen der KI und die Notwendigkeit umfassender Lösungen zur Bewältigung möglicher Ungleichheitsprobleme betont.
In einem Interview mit dem Time Magazine betonte Amodei, wie wichtig es sei, über das bedingungslose Grundeinkommen hinaus Lösungen zu finden, um sicherzustellen, dass Fortschritte in der KI-Technologie der breiten Öffentlichkeit zugute kämen.