Nova tecnologia é aposta da Nvidia para acelerar IA e impulsionar revolução

Loading

Nova tecnologia é aposta da Nvidia para acelerar IA e impulsionar revolução.

A Nvidia realizou na última semana a GTC 2024 (Graphics Technology Conference, ou Conferência de Tecnologia Gráfica, em tradução livre), que teve o seu foco neste ano em inteligência artificial, como não poderia deixar de ser.

O principal lançamento, apresentado em detalhes no keynote do CEO da empresa, Jensen Huang, foi a nova arquitetura Blackwell de GPUs (unidades de processamento gráfico, na sigla em inglês) e toda a sua estratégia para acelerar a implantação de IA em todos os setores da economia e indústria, cobrindo do hardware e aplicações à própria criação da demanda com consultorias direcionadas para serviços corporativos em diferentes escalas.

O impacto da GTC e o papel da Nvidia Antes de tratar dos avanços do Blackwell, acho importante dar um contexto. A GTC é realizada desde 2009, em San Jose, na Califórnia, e sempre esteve mais focada nos desenvolvedores que trabalham com as tecnologias da empresa, para mostrar o potencial das ferramentas da Nvidia.

Desde então, o principal foco são os desafios da computação por meio de GPUs e as novidades anunciadas por Jensen, que usa suas tradicionais jaquetas de couro pretas.

Apesar da empresa existir desde 1993, foi no início dos anos 2000 que ela se destacou, justamente por ter inventado a GPU em 1999, que foi um divisor de águas para a indústria dos games e redefiniu a computação gráfica.

Outro ponto importante foi o ano de 2012, quando Alex Krizhevsky em colaboração com Ilya Sutskever e Geoffrey Hinton, conhecido como “Padrinho da IA“, usaram a plataforma de GPU voltada a games GeForce para otimizar o reconhecimento de imagens no AlexNet, uma arquitetura de rede neural convolucional, que se tornou fundamental para a IA, pois foi o início do chamado “Aprendizado Profundo”, ou Deep Learning.

Esse projeto foi desenvolvido na Universidade de Toronto e foi tão importante que é um dos mais citados na história da IA, já que foi treinado com imagens, o que originou uma infinidade de aplicações que usamos hoje, como por exemplo, o reconhecimento facial.

A iniciativa também ganhou o ImageNet Large Scale Visual Recognition Challenge, competição organizada pela maravilhosa professora de Stanford Fei-Fei Li.

Desde então, a Nvidia esteve presente na era da IA moderna, já que expandiu oficialmente seu escopo em 2006, permitindo que seus chips fossem utilizados em aplicações além de gráficos, colocando a empresa na vanguarda do desenvolvimento da inteligência artificial.

Por isso, o tema do keynote de Jensen neste ano não poderia ser outro.

Blackwell De acordo com a apresentação de Jensen, as GPUs da arquitetura Blackwell são “o motor para impulsionar essa nova revolução industrial”. Elas contêm 208 bilhões de transistores e são fabricadas usando um processo TSMC 4NP personalizado.

São esses transistores, que funcionam como interruptores, que dão aos semicondutores a capacidade de processar informações, que, no caso da IA, é um número expressivo e, por isso, necessita de grande poder computacional. É aqui que o processo de treinamento é realizado, ou seja, a alimentação do software (IA) por dados.

É por meio desses dados que a IA aprende e consegue se adaptar a diferentes contextos, gerando outputs dos mais diversos, como acontece com a GenAI, ou inteligência artificial generativa.

Segundo a Nvidia, esse chip tem 2,5 vezes mais desempenho que o anterior, o chamado Hopper. Por conta do seu agrupamento em módulos de dezenas de chips, o Blackwell oferecerá eficiência energética 25 vezes maior (e, mesmo assim, é preciso muita energia, mesmo).

Tudo isso permitirá que o Blackwell GB200 consiga processar “modelos de trilhões de parâmetros“. Pra vocês terem uma ideia da evolução, o GPT-3 tinha 175 bilhões de parâmetros, e o GPT-4 tem aproximadamente 170 trilhões.

Todo esse poder computacional tinha que homenagear um matemático!

David Blackwell foi um estatístico e matemático, considerado o primeiro homem negro a ingressar na Academia Nacional de Ciências dos Estados Unidos. Ele é bastante conhecido nos campos da teoria dos jogos, teoria da informação e programação dinâmica.

Apesar de ter sido rejeitado em várias universidades por ser negro, foi finalmente aceito no Departamento de Matemática da Howard University em 1944.

Gêmeos digitais e Omniverse (metaversos industriais da Nvidia) Todos esses avanços no hardware, junto com a GenAI, estão permitindo uma série de avanços em todas as indústrias e setores de serviços.

Isso fica muito claro quando vemos robôs acelerarem suas tomadas de decisão, otimizando a logística, identificando falhas de processo ou de segurança, entre outras façanhas, sem depender de intervenção humana.

Loading

Mais Matérias

Pesquisar...