Anthropic sta introducendo una nuova iniziativa di finanziamento per affrontare le problematiche affrontate dalle attuali pratiche di benchmarking dell’intelligenza artificiale, in cui il benchmark esistente limita la capacità di valutare le prestazioni e l’influenza dei modelli di intelligenza artificiale.
I benchmark esistenti spesso non riescono a rappresentare accuratamente il modo in cui la persona media utilizza i sistemi di intelligenza artificiale. Non riescono a catturare le sfumature e le complessità dell’utilizzo nel mondo reale, portando a una capacità limitata di offrire approfondimenti significativi sulle prestazioni del modello di intelligenza artificiale.
Inoltre, molti di questi parametri di riferimento sono stati sviluppati prima dell’avvento della moderna intelligenza artificiale generativa, sollevando interrogativi sulla loro rilevanza e applicabilità.
Iniziativa di finanziamento di Anthropic
Il programma mira a identificare e finanziare organizzazioni di terze parti in grado di creare parametri di riferimento in grado di misurare efficacemente le capacità avanzate nei modelli di intelligenza artificiale.
"Il nostro investimento in queste valutazioni ha lo scopo di elevare l'intero campo della sicurezza dell'intelligenza artificiale, fornendo strumenti preziosi a beneficio dell'intero ecosistema", ha pubblicato Anthropic sul suo blog ufficiale .
La necessità di nuovi parametri di riferimento in grado di valutare efficacemente i modelli di intelligenza artificiale in modo più accurato è urgente: “Lo sviluppo di valutazioni di alta qualità e rilevanti per la sicurezza rimane una sfida e la domanda sta superando l’offerta”. aggiunto nel blog.
Aree di interesse per nuovi benchmark
I nuovi benchmark di Anthropic si concentreranno sulla valutazione delle capacità avanzate dei modelli di intelligenza artificiale, in particolare in relazione alla sicurezza dell'intelligenza artificiale e alle implicazioni sociali.
Questi parametri valuteranno la capacità di un modello di svolgere compiti che hanno implicazioni significative, come attacchi informatici, potenziamento delle armi e manipolazione o inganno di individui attraverso deepfake o disinformazione.
Inoltre, Anthropic mira a sviluppare un “sistema di allarme rapido” per identificare e valutare i rischi dell’IA legati alla sicurezza e alla difesa nazionale. Sebbene i dettagli su questo sistema non siano divulgati nel post del blog, Anthropic sottolinea il proprio impegno nell'affrontare questi rischi.
Il programma di finanziamento sosterrà inoltre la ricerca sui parametri di riferimento per le attività “end-to-end”, esplorando il potenziale dell’intelligenza artificiale in vari settori.
Questi compiti includono facilitare la ricerca scientifica, parlare in numerose lingue, ridurre i pregiudizi e filtrare la tossicità.
Anthropic intende sviluppare nuove piattaforme che consentano agli esperti in materia di generare le proprie valutazioni ed effettuare sperimentazioni approfondite coinvolgendo migliaia di utenti.
L'azienda ha assunto un coordinatore dedicato per questa iniziativa e sta esplorando opportunità per acquisire o espandere progetti con potenziale di scalabilità.
Il CEO Dario Amodei ha sottolineato l’impatto più ampio dell’intelligenza artificiale e la necessità di soluzioni approfondite per affrontare possibili problemi di disuguaglianza.
In un’intervista con Time Magazine, Amodei ha sottolineato l’importanza di trovare soluzioni oltre il reddito di base universale per garantire che i progressi nella tecnologia dell’intelligenza artificiale vadano a vantaggio del pubblico più ampio.