HIX AI
Zawalić się
Prosty
Dom > Odkryć > Anthropic rzuca wyzwanie obecnym praktykom benchmarkingu sztucznej inteligencji dzięki nowej inicjatywie finansowej

Anthropic rzuca wyzwanie obecnym praktykom benchmarkingu sztucznej inteligencji dzięki nowej inicjatywie finansowej

Scenariusz
ArticleGPT

Sprawdzone i sprawdzone przez zespół HIX.AI

2 minuty czytaniaJul 02, 2024
Anthropic rzuca wyzwanie obecnym praktykom benchmarkingu sztucznej inteligencji dzięki nowej inicjatywie finansowej

W skrócie

Nowy program Anthropic, zaprezentowany w poniedziałek, będzie dystrybuować środki wśród organizacji zewnętrznych, które mogą opracowywać punkty odniesienia w celu skutecznej oceny wydajności i wpływu modeli sztucznej inteligencji.

Anthropic wprowadza nową inicjatywę finansową, aby rozwiązać problemy stojące przed obecnymi praktykami benchmarkingu AI, w przypadku których istniejący benchmark ogranicza zdolność do oceny wydajności i wpływu modeli AI.

Istniejące testy porównawcze często nie odzwierciedlają dokładnie sposobu, w jaki przeciętny człowiek korzysta z systemów sztucznej inteligencji. Nie oddają niuansów i złożoności rzeczywistego użytkowania, co prowadzi do ograniczonych możliwości zapewnienia istotnego wglądu w wydajność modelu sztucznej inteligencji.

Ponadto wiele z tych wzorców zostało opracowanych przed pojawieniem się nowoczesnej generatywnej sztucznej inteligencji, co rodzi pytania dotyczące ich przydatności i możliwości zastosowania.

Inicjatywa finansowa Anthropic

Program ma na celu identyfikację i finansowanie organizacji zewnętrznych zdolnych do tworzenia punktów odniesienia, które mogą skutecznie mierzyć zaawansowane możliwości modeli sztucznej inteligencji.

„Nasza inwestycja w te oceny ma na celu podniesienie poziomu bezpieczeństwa w całym obszarze sztucznej inteligencji, dostarczając cennych narzędzi, z których skorzysta cały ekosystem” – opublikowała firma Anthropic na swoim oficjalnym blogu .

Pilna jest potrzeba opracowania nowych punktów odniesienia umożliwiających skuteczniejszą i dokładniejszą ocenę modeli sztucznej inteligencji. „Opracowanie wysokiej jakości ocen istotnych dla bezpieczeństwa pozostaje wyzwaniem, a popyt przewyższa podaż”. dodane na blogu.

Obszary zainteresowania nowych benchmarków

Nowe testy porównawcze Anthropic skupią się na ocenie zaawansowanych możliwości modeli sztucznej inteligencji, szczególnie w odniesieniu do bezpieczeństwa sztucznej inteligencji i implikacji społecznych.

Te testy porównawcze pozwolą ocenić zdolność modelu do wykonywania zadań o znaczących implikacjach, takich jak cyberataki, ulepszanie broni oraz manipulacja lub oszukiwanie osób poprzez fałszywe fałszywe informacje lub dezinformację.

Ponadto celem Anthropic jest opracowanie „systemu wczesnego ostrzegania” umożliwiającego identyfikację i ocenę zagrożeń związanych ze sztuczną inteligencją związanych z bezpieczeństwem narodowym i obronnością. Choć szczegóły dotyczące tego systemu nie zostały ujawnione w poście na blogu, firma Anthropic podkreśla swoje zaangażowanie w przeciwdziałanie tym zagrożeniom.

Program finansowania będzie również wspierać badania nad wzorcami dla kompleksowych zadań, badając potencjał sztucznej inteligencji w różnych dziedzinach.

Zadania te obejmują ułatwianie badań naukowych, mówienie w wielu językach, ograniczanie uprzedzeń i filtrowanie toksyczności.

Anthropic zamierza opracować nowe platformy, które umożliwią ekspertom w danej dziedzinie generowanie własnych ocen i przeprowadzanie szeroko zakrojonych testów z udziałem tysięcy użytkowników.

Firma zatrudniła dedykowanego koordynatora do tej inicjatywy i bada możliwości nabycia lub rozbudowy projektów o potencjale skalowalności.

Dyrektor generalny Dario Amodei podkreślił szerszy wpływ sztucznej inteligencji i konieczność opracowania kompleksowych rozwiązań w celu rozwiązania ewentualnych problemów związanych z nierównością.

W wywiadzie dla magazynu Time Amodei podkreśliła znaczenie znalezienia rozwiązań wykraczających poza uniwersalny dochód podstawowy, aby zapewnić, że postęp w technologii sztucznej inteligencji przyniesie korzyści szerszemu społeczeństwu.

Na podstawie 2 źródeł wyszukiwania

2 źródła

Anthropic looks to fund a new, more comprehensive generation of AI benchmarks

Anthropic is launching a program to fund the development of new types of benchmarks capable of evaluating the performance and impact of AI models, including generative models like its own Claude.

Google's Alphabet And Amazon-Backed Anthropic Lead Effort To Redefine AI Evaluation Standards

Anthropic’s new program, revealed on Monday, will allocate funds to third-party organizations capable of creating benchmarks that can effectively evaluate the performance and impact of AI models

Na tej stronie

  • Inicjatywa finansowa Anthropic