A Nvidia planeja revelar um novo processador projetado especificamente para ajudar a OpenAI e outros clientes a construir ferramentas mais rápidas e eficientes. O novo sistema será apresentado na conferência de desenvolvedores GTC, em San Jose, no próximo mês, e deve incorporar tecnologias de chips da startup Groq.
O mercado de inferência tornou-se um campo de batalha intenso. Rivais como Google e Amazon já desenvolveram chips próprios para competir com os sistemas da Nvidia. Além disso, a explosão do uso de automação de código no setor de tecnologia gerou uma demanda por chips que lidem de forma mais eficaz com tarefas complexas.
As GPUs tradicionais são caras e consomem muita energia para rodar esses modelos no dia a dia. Para enfrentar esse desafio, a Nvidia licenciou tecnologias da Groq por 20 bilhões de dólares e contratou sua liderança. Os chips da Groq utilizam uma arquitetura chamada “Unidades de Processamento de Linguagem” (LPUs), conhecidas pelo alto desempenho em funções de inferência.
A OpenAI já concordou em ser uma das maiores clientes desse novo processador. A criadora do ChatGPT, que vinha buscando alternativas mais baratas aos chips da Nvidia, pretende usar o novo sistema para aprimorar o Codex, sua ferramenta de automação de código. O anúncio ocorre em conjunto com um investimento de 30 bilhões de dólares da Nvidia na OpenAI, embora a startup de Sam Altman também tenha fechado acordos para utilizar chips da Amazon e da Cerebras.

