¿Cuándo es demasiado? Reguladores miden amenaza del poder de IA

Tiempo de lectura: 2 minutos
Por Pedro Martinez
- en
Símbolo de balanza con IA y señal de precaución

MadridReguladores buscan determinar el momento en que un sistema de IA se vuelve peligroso. Un método principal para medir esto es evaluando su poder computacional, que se mide en operaciones de punto flotante por segundo (flops). Los sistemas de IA capaces de realizar 10 a la potencia de 26 flops—100 septillones de cálculos por segundo—deben ser reportados al gobierno de EE. UU. Este nivel tan alto de capacidad de cómputo podría conllevar graves amenazas, como la creación de armas de destrucción masiva o el lanzamiento de ciberataques severos.

Para referencia, los principales umbrales regulatorios incluyen:

  • Un modelo de IA debe ser capaz de alcanzar 10^26 flops para ser reportado.
  • Los modelos también deben costar al menos 100 millones de dólares para ser construidos.
  • La Ley de IA de la UE establece un umbral inferior de 10^25 flops.

Algunos críticos argumentan que estos criterios pueden ser aleatorios y obstaculizar la creatividad. Piensan que los puntos de referencia establecidos podrían pasar por alto modelos más pequeños que también podrían ser altamente capaces y peligrosos. La científica informática Sara Hooker señala que medidas actuales como flops pueden no reflejar con precisión los riesgos potenciales de una IA, ya que muchos desarrolladores están logrando más con menos poder de computación.

Los gobiernos enfrentan dificultades para establecer regulaciones sobre la IA debido a su rápida evolución y a los efectos que aún no se conocen por completo. Para abordar este problema, han implementado reglas temporales que posiblemente necesiten ser actualizadas a medida que avanza la tecnología. Aunque estas normas intentan afrontar la situación utilizando métricas claras como el poder de procesamiento, no pueden prever todos los problemas emergentes.

Nuevos modelos pueden necesitar menos recursos pero aún tienen grandes impactos en la sociedad, por lo que requieren una regulación cuidadosa. Esto es esencial mientras la industria tecnológica trabaja en crear modelos más pequeños y eficientes que todavía pueden ser mal utilizados. Ejemplos como ChatGPT de OpenAI demuestran que aunque estas herramientas son útiles, siempre deben ser revisadas en términos de seguridad y ética.

El físico Anthony Aguirre y otros defensores del uso de la métrica de flops reconocen sus defectos, pero creen que proporciona un marco básico en tiempos de rápido avance tecnológico. Ellos piensan que las nuevas leyes son flexibles y pueden modificarse con la llegada de nueva información. No obstante, los críticos advierten que depender únicamente de las medidas computacionales podría limitar nuevas ideas o pasar por alto peligros ocultos en modelos que parecieran seguros.

Necesitamos mejores formas de regular la IA que puede cambiar y adaptarse. Estas normas deben fomentar la innovación mientras gestionan los nuevos riesgos. No es solo acerca de cuán poderosa es la IA; también debemos considerar los impactos sociales y contextos de su uso. Por lo tanto, las futuras regulaciones de IA probablemente incluirán mejores controles de seguridad y medidas más detalladas.

Las normativas actuales pueden no ser perfectas ni definitivas, pero ayudan a gestionar el complejo mundo de la inteligencia artificial. El objetivo será seguramente encontrar un equilibrio entre los nuevos avances y las normas para asegurar un uso seguro de la IA en diferentes ámbitos.

Inteligencia Artificial: Últimas noticias

Compartir este artículo

Comentarios (0)

Publicar un comentario
NewsWorld

NewsWorld.app es un sitio de noticias premium gratuito. Proporcionamos noticias independientes y de alta calidad sin cobrar por artículo y sin un modelo de suscripción. NewsWorld cree que las noticias generales, de negocios, económicas, tecnológicas y de entretenimiento deberían ser accesibles a un alto nivel de forma gratuita. Además, NewsWorld es increíblemente rápido y utiliza tecnología avanzada para presentar artículos de noticias en un formato altamente legible y atractivo para el consumidor.


© 2024 NewsWorld™. Todos los derechos reservados.