Poder Computacional e Inteligência Artificial

Uma análise abrangente do papel da capacidade computacional no desenvolvimento da IA, demandas de infraestrutura e implicações políticas

By Jai Vipra & Sarah Myers West | AI Now Institute

Publicado: Setembro de 2023

Visão Geral do Relatório

Este relatório examina o papel crucial do poder computacional ("compute") nos sistemas de inteligência artificial. À medida que os modelos de IA aumentam em tamanho e complexidade, seus requisitos computacionais estão crescendo a uma taxa sem precedentes, criando novos desafios e implicações nos domínios técnico, ambiental, econômico e político.

Analisamos a stack completa de infraestrutura computacional—desde componentes de hardware até data centers—e exploramos como as restrições e alocações de capacidade computacional estão a moldar o desenvolvimento de IA, quem pode participar nele e que tipo de sistemas de IA são construídos.

Pontos de Dados Principais

Crescimento da Demanda por Computação

Os requisitos computacionais para treinar grandes modelos de IA duplicam a cada 3-4 meses desde 2012, superando amplamente a Lei de Moore.

Consumo de Energia

Treinar um único modelo de linguagem grande pode consumir eletricidade equivalente ao uso energético anual de mais de 100 residências norte-americanas.

Concentração de Mercado

Apenas três empresas controlam mais de 65% do mercado de computação em nuvem que fornece infraestrutura para treinamento de IA.

Pegada de Carbono

As demandas computacionais do setor de IA podem representar até 3% do consumo global de eletricidade até 2025.

Resumo das Principais Conclusões

Capacidade Computacional Define as Habilidades da IA

A escala dos recursos computacionais determina diretamente quais tipos de modelos de IA podem ser desenvolvidos e quem pode desenvolvê-los, criando barreiras significativas à entrada.

Impacto Ambiental

As crescentes demandas computacionais dos sistemas de IA acarretam custos ambientais substanciais, incluindo consumo energético significativo e emissões de carbono.

Vulnerabilidades da Cadeia de Suprimentos

A computação de IA depende de cadeias de suprimentos globais complexas com manufatura concentrada e possíveis pontos únicos de falha.

Defasagem das Políticas

Os atuais quadros de políticas não acompanharam a rápida expansão da infraestrutura computacional para IA, criando lacunas regulatórias.

Hardware Lottery Effect

As direções de pesquisa em IA são fortemente influenciadas pelo hardware disponível, com abordagens adequadas à infraestrutura computacional atual recebendo atenção desproporcional.

Implicações Geopolíticas

O controle sobre recursos computacionais tornou-se um fator crucial na competição internacional, com controles de exportação e políticas industriais moldando o acesso às capacidades de IA.

Conteúdo do Documento

Conteúdo do Relatório

1. Introdução: A Centralidade do Compute na IA

O poder computacional tornou-se um determinante fundamental das capacidades da IA. Ao contrário de eras anteriores, em que inovações algorítmicas impulsionavam o progresso, os avanços contemporâneos em IA dependem cada vez mais de recursos computacionais massivos.

Esta mudança tem implicações profundas sobre quem pode participar na investigação de ponta em IA, que tipos de sistemas de IA são desenvolvidos e como os benefícios da IA são distribuídos pela sociedade.

2. How Compute Demand Shapes AI Development

Os requisitos computacionais crescentes para modelos de IA de ponta criam barreiras significativas à entrada, concentrando a capacidade de desenvolvimento em empresas de tecnologia com grandes recursos.

Esta corrida armamentista computacional influencia as prioridades de pesquisa, favorecendo abordagens que escalam com poder computacional em detrimento de métodos potencialmente mais eficientes, mas menos intensivos computacionalmente.

  • Startups vs. Incumbents: A vantagem computacional das grandes empresas de tecnologia cria barreiras competitivas significativas
  • Direções de Pesquisa: As abordagens computacionalmente intensivas recebem atenção e financiamento desproporcionais.
  • Distribuição Global: A capacidade computacional está distribuída de forma desigual globalmente, afetando quais regiões podem participar do desenvolvimento de IA.

3. Measuring Compute in Large-Scale AI Models

Os requisitos computacionais para treinamento de IA são tipicamente medidos em operações de ponto flutuante (FLOPs). Os modelos contemporâneos mais avançados exigir execuções de treinamento na faixa de 10^23 a 10^25 FLOPs.

Esses requisitos têm crescido a um ritmo que supera amplamente os avanços em eficiência de hardware, levando a aumentos exponenciais no custo de treinamento de modelos state-of-the-art.

4. Pilha de Hardware de Computação de IA

O ecossistema de hardware de IA inclui processadores especializados otimizados para computação paralela, particularmente GPUs e, cada vez mais, arquiteturas específicas de domínio, como TPUs e outros aceleradores de IA.

Diferentes configurações de hardware são otimizadas para diferentes fases do ciclo de vida da IA: treinamento versus inferência, com características distintas de desempenho e eficiência.

5. Componentes de Hardware e Cadeias de Suprimentos

A cadeia de suprimentos global para hardware de IA envolve interdependências complexas entre projeto, fabricação, montagem e distribuição, com significativa concentração geográfica em cada etapa.

  • Design de Chips: Dominado por empresas como NVIDIA, AMD e Google
  • Fabricação: Fortemente concentrado em Taiwan (TSMC) e Coreia do Sul (Samsung)
  • Montagem e Teste: Localizado principalmente no Leste e Sudeste Asiático
  • Matérias-Primas: A dependência de materiais especializados cria vulnerabilidades adicionais na cadeia de suprimentos

6. Infraestrutura de Data Center

Os data centers representam a infraestrutura física que abriga recursos computacionais para treinamento e implantação de IA. Sua distribuição geográfica, fontes de energia e sistemas de refrigeração impactam significativamente a economia e a pegada ambiental da computação em IA.

As principais empresas de tecnologia estão desenvolvendo cada vez mais data centers especializados otimizados especificamente para cargas de trabalho de IA, com atenção especial aos sistemas de fornecimento de energia e refrigeração.

7. Environmental Impact and Sustainability

A intensidade computacional dos sistemas modernos de IA gera externalidades ambientais substanciais, incluindo:

  • Consumo significativo de eletricidade para treinamento e inferência
  • Uso de água para sistemas de refrigeração em data centers
  • Resíduos eletrônicos provenientes da renovação de hardware
  • Emissões de carbono provenientes da geração de energia

Os esforços para mitigar esses impactos incluem melhorar a eficiência computacional, instalar data centers em regiões com energia renovável e desenvolver tecnologias de refrigeração mais sustentáveis.

8. Respostas Políticas e Governança

Os atuais quadros políticos têm lutado para acompanhar a rápida expansão da infraestrutura computacional para IA. As considerações políticas fundamentais incluem:

  • Regulamentações ambientais para emissões e consumo energético de data centers
  • Considerações antitruste sobre recursos computacionais concentrados
  • Controlos de exportação de hardware avançado de computação
  • Normas para medição e relato de eficiência computacional
  • Investimento público em infraestrutura de computação para pesquisa

9. Conclusões e Direções Futuras

O poder computacional emergiu como um fator crítico que molda o desenvolvimento e implantação da inteligência artificial. Os requisitos computacionais crescentes criam barreiras significativas à entrada, desafios ambientais e vulnerabilidades na cadeia de suprimentos.

A superação desses desafios exige ação coordenada que englobe melhorias técnicas na eficiência, respostas políticas para gerenciar externalidades e abordagens estruturais para garantir acesso ampliado a recursos computacionais.

Pesquisas futuras devem concentrar-se no desenvolvimento de métodos de IA menos intensivos computacionalmente, na melhoria das medições de eficiência computacional e na criação de mecanismos de governança para alocação e acesso a recursos de computação.