Sob o projeto de codinome “Strawberry”, OpenAI está desenvolvendo modelos avançados de IA com capacidades de raciocínio aprimoradas.
De acordo com documentos internos, o Projeto Strawberry visa automatizar o processo de obtenção de informações mais profundas e permitir que os modelos de IA da OpenAI planejem tarefas mais complicadas com antecedência.
OpenAI pretende capacitar seus modelos de IA para conduzir “pesquisas profundas”, marcando um salto substancial em relação às capacidades atuais disponíveis. O projeto baseia-se no trabalho anterior do projeto Q*(pronuncia-se “Q estrela”) , que demonstrou sua capacidade de responder a questões complicadas de ciências e matemática.
Embora muitos detalhes sobre o Projeto Strawberry permaneçam não divulgados, fontes internas afirmam que o funcionamento do Strawberry é estritamente confidencial, mesmo dentro OpenAI .
Não está claro até que ponto está o desenvolvimento do Strawberry e se é o mesmo sistema com habilidades de "raciocínio semelhante ao humano" demonstradas internamente. Alguns meios de comunicação relataram ainda que OpenAI criou um modelo com habilidades de raciocínio "humanas", mas não especificou se estava relacionado ao Strawberry.
Controvérsias em torno OpenAI e do Projeto Strawberry
Recentemente, um grupo de funcionários OpenAI enviou uma carta de sete páginas à Securities and Exchange Commission (SEC), detalhando as suas preocupações sobre a tecnologia da empresa e os seus riscos potenciais para a humanidade.
Os funcionários acusaram OpenAI de silenciar os funcionários sobre os riscos da IA, levantando questões sobre transparência e responsabilidade.