Dans le cadre du projet nommé « Strawberry », OpenAI développerait des modèles d'IA avancés dotés de capacités de raisonnement améliorées.
Selon des documents internes, le projet Strawberry vise à automatiser le processus de saisie d'informations plus approfondie et à permettre aux modèles d'IA d' OpenAI de planifier à l'avance des tâches plus complexes.
OpenAI vise à permettre à ses modèles d'IA de mener des « recherches approfondies », ce qui constitue un progrès substantiel par rapport aux capacités actuellement disponibles. Le projet s'appuie sur les travaux antérieurs du projet Q*(prononcé « Q star ») , qui a démontré sa capacité à répondre à des questions scientifiques et mathématiques délicates.
Bien que de nombreux détails sur le projet Strawberry restent confidentiels, les initiés affirment que le fonctionnement de Strawberry est strictement confidentiel, même au sein d' OpenAI .
On ne sait pas exactement où en est le développement de Strawberry et s'il s'agit du même système avec des capacités de « raisonnement semblable à celles d'un humain » démontrées en interne. Certains médias ont en outre rapporté OpenAI avait créé un modèle doté de capacités de raisonnement « semblables à celles d'un humain », mais n'ont pas précisé s'il était lié à Strawberry.
Controverses autour OpenAI et du projet Strawberry
Récemment, un groupe d'employés d' OpenAI a envoyé une lettre de sept pages à la Securities and Exchange Commission (SEC), détaillant leurs inquiétudes concernant la technologie de l'entreprise et ses risques potentiels pour l'humanité.
Les employés ont accusé OpenAI de faire taire le personnel sur les risques liés à l'IA, soulevant des questions sur la transparence et la responsabilité.