Quando a IA fica perigosa? Reguladores definem limites de ameaça

Tempo de leitura: 2 minutos
Por Chi Silva
- em
Símbolo de balança equilibrando IA e sinal de cautela

São PauloReguladores estão tentando determinar quando um sistema de IA se torna perigoso. Uma das principais maneiras de medir isso é observando seu poder computacional, que é contado em operações de ponto flutuante por segundo (flops). Sistemas de IA que conseguem realizar 10 elevado a 26 flops—100 septilhões de cálculos por segundo—agora devem ser reportados ao governo dos EUA. Esse nível elevado de poder computacional pode levar a ameaças graves, como a criação de armas de destruição em massa ou a realização de ciberataques severos.

Para referência, os principais limiares regulatórios incluem:

  • Um modelo de IA deve ser capaz de realizar 10^26 flops para ser reportado.
  • Os modelos devem também ter um custo mínimo de $100 milhões para serem construídos.
  • O Ato de IA da UE estabelece um limite mais baixo, de 10^25 flops.

Alguns críticos afirmam que essas métricas podem ser aleatórias e prejudicar a criatividade. Eles acreditam que esses parâmetros podem ignorar modelos menores que ainda assim são muito capazes e perigosos. A cientista da computação Sara Hooker destaca que medidas atuais como flops talvez não reflitam com precisão os riscos potenciais de uma IA, já que muitos desenvolvedores estão conseguindo mais com menos poder de computação.

Governos enfrentam dificuldades para regulamentar a IA devido à rápida evolução da tecnologia e à incerteza sobre seus impactos. Para lidar com isso, criaram regras temporárias que podem precisar ser atualizadas conforme o avanço da IA. Embora essas regras busquem abordar o problema com métricas claras, como poder de processamento, não conseguem prever todas as novas questões que podem surgir.

Novos modelos podem consumir menos recursos, mas ainda assim causar grandes impactos na sociedade, exigindo, portanto, uma regulamentação cuidadosa. Isso é essencial à medida que a indústria tecnológica avança para criar modelos menores e mais eficientes que ainda podem ser mal utilizados. Exemplos como o ChatGPT da OpenAI mostram que, apesar de essas ferramentas serem úteis, é sempre necessário verificar sua segurança e ética.

Físicos como Anthony Aguirre e outros que apoiam o uso da métrica de flops reconhecem suas limitações, mas acreditam que ela oferece um referencial básico em tempos de rápido avanço tecnológico. Eles consideram que as novas leis são flexíveis e podem ser ajustadas à medida que surgem novas informações. No entanto, críticos alertam que depender exclusivamente de medidas computacionais pode restringir novas ideias ou negligenciar perigos ocultos em modelos que aparentam ser seguros.

Precisamos de métodos mais eficazes para regulamentar a IA que é capaz de se transformar e se adaptar. Essas normas devem promover a inovação ao mesmo tempo em que gerenciam novos riscos. Não se trata apenas do poder da IA, mas também dos impactos sociais e contextos de uso. Assim, as futuras regulamentações de IA provavelmente incluirão verificações de segurança mais robustas e medidas mais detalhadas.

As regras atuais podem não ser perfeitas ou permanentes, mas ajudam a gerenciar o complexo universo da inteligência artificial. O objetivo provavelmente será continuar equilibrando novos avanços com normas para garantir o uso seguro da IA em diversas áreas.

Inteligência Artificial: Últimas notícias

Compartilhar este artigo

Comentários (0)

Publicar um comentário