Anthropic wprowadza nową inicjatywę finansową, aby rozwiązać problemy stojące przed obecnymi praktykami benchmarkingu AI, w przypadku których istniejący benchmark ogranicza zdolność do oceny wydajności i wpływu modeli AI.
Istniejące testy porównawcze często nie odzwierciedlają dokładnie sposobu, w jaki przeciętny człowiek korzysta z systemów sztucznej inteligencji. Nie oddają niuansów i złożoności rzeczywistego użytkowania, co prowadzi do ograniczonych możliwości zapewnienia istotnego wglądu w wydajność modelu sztucznej inteligencji.
Ponadto wiele z tych wzorców zostało opracowanych przed pojawieniem się nowoczesnej generatywnej sztucznej inteligencji, co rodzi pytania dotyczące ich przydatności i możliwości zastosowania.
Inicjatywa finansowa Anthropic
Program ma na celu identyfikację i finansowanie organizacji zewnętrznych zdolnych do tworzenia punktów odniesienia, które mogą skutecznie mierzyć zaawansowane możliwości modeli sztucznej inteligencji.
„Nasza inwestycja w te oceny ma na celu podniesienie poziomu bezpieczeństwa w całym obszarze sztucznej inteligencji, dostarczając cennych narzędzi, z których skorzysta cały ekosystem” – opublikowała firma Anthropic na swoim oficjalnym blogu .
Pilna jest potrzeba opracowania nowych punktów odniesienia umożliwiających skuteczniejszą i dokładniejszą ocenę modeli sztucznej inteligencji. „Opracowanie wysokiej jakości ocen istotnych dla bezpieczeństwa pozostaje wyzwaniem, a popyt przewyższa podaż”. dodane na blogu.
Obszary zainteresowania nowych benchmarków
Nowe testy porównawcze Anthropic skupią się na ocenie zaawansowanych możliwości modeli sztucznej inteligencji, szczególnie w odniesieniu do bezpieczeństwa sztucznej inteligencji i implikacji społecznych.
Te testy porównawcze pozwolą ocenić zdolność modelu do wykonywania zadań o znaczących implikacjach, takich jak cyberataki, ulepszanie broni oraz manipulacja lub oszukiwanie osób poprzez fałszywe fałszywe informacje lub dezinformację.
Ponadto celem Anthropic jest opracowanie „systemu wczesnego ostrzegania” umożliwiającego identyfikację i ocenę zagrożeń związanych ze sztuczną inteligencją związanych z bezpieczeństwem narodowym i obronnością. Choć szczegóły dotyczące tego systemu nie zostały ujawnione w poście na blogu, firma Anthropic podkreśla swoje zaangażowanie w przeciwdziałanie tym zagrożeniom.
Program finansowania będzie również wspierać badania nad wzorcami dla kompleksowych zadań, badając potencjał sztucznej inteligencji w różnych dziedzinach.
Zadania te obejmują ułatwianie badań naukowych, mówienie w wielu językach, ograniczanie uprzedzeń i filtrowanie toksyczności.
Anthropic zamierza opracować nowe platformy, które umożliwią ekspertom w danej dziedzinie generowanie własnych ocen i przeprowadzanie szeroko zakrojonych testów z udziałem tysięcy użytkowników.
Firma zatrudniła dedykowanego koordynatora do tej inicjatywy i bada możliwości nabycia lub rozbudowy projektów o potencjale skalowalności.
Dyrektor generalny Dario Amodei podkreślił szerszy wpływ sztucznej inteligencji i konieczność opracowania kompleksowych rozwiązań w celu rozwiązania ewentualnych problemów związanych z nierównością.
W wywiadzie dla magazynu Time Amodei podkreśliła znaczenie znalezienia rozwiązań wykraczających poza uniwersalny dochód podstawowy, aby zapewnić, że postęp w technologii sztucznej inteligencji przyniesie korzyści szerszemu społeczeństwu.