El nobel Geoffrey Hinton advierte que la IA necesita medidas de seguridad.
Geoffrey Hinton, quien anteriormente estaba entusiasmado con el potencial de la inteligencia artificial, ahora manifiesta preocupaciones sobre los riesgos futuros de esta tecnología según el WSJ.
Geoffrey Hinton, un destacado experto en inteligencia artificial, ganó recientemente el Premio Nobel de Física. Sus investigaciones sobre las redes neuronales han contribuido al desarrollo de las tecnologías de IA que utilizamos hoy en día. Sin embargo, en lugar de celebrar, Hinton advierte que la IA podría ser muy peligrosa si no se maneja con cuidado.
Hinton está preocupado de que los sistemas de IA puedan:
- Escapar del control humano
- Influir en las elecciones
- Volverse peligroso
- Superar la inteligencia humana
Hinton menciona los riesgos que acompañan los éxitos que menciona. Destaca la necesidad de implementar mejores medidas de seguridad ahora. Muchas empresas, como OpenAI y Google, están trabajando arduamente para avanzar rápidamente en la IA. Hinton insta a encontrar un equilibrio entre crear nuevas tecnologías y actuar con responsabilidad.
Opiniones Diversas entre los Investigadores de IA
No todos están de acuerdo con las opiniones de Hinton. Algunos investigadores piensan que Hinton exagera los riesgos. Creen que preocuparse demasiado por estos riesgos podría frenar el progreso. Melanie Mitchell, profesora del Instituto Santa Fe, dice que debemos centrarnos en problemas inmediatos como la discriminación. Aquellos que son escépticos creen que la IA actual no tiene el poder para causar daños serios. A menudo mencionan la comprensión limitada que la IA tiene del mundo real.
Yann LeCun, un experto en inteligencia artificial, es escéptico respecto a la idea de que la IA avanzada causará un daño significativo. Considera que esta idea está exagerada. LeCun afirma que la inteligencia artificial no es tan inteligente como los animales más simples, por lo que no ve motivo para preocuparse de que la IA se vuelva independiente de manera repentina.
Hinton está dedicado a su misión. Renunció a su trabajo en Google para poder hablar abiertamente sobre los peligros de la inteligencia artificial. Insta a las empresas a invertir más dinero en hacer que la IA sea más segura. Aunque algunas personas no están de acuerdo con él, su Premio Nobel refuerza su reputación y ayuda a difundir su mensaje.
Existen crecientes exigencias de leyes y políticas empresariales para abordar estos problemas.
Hinton no solo está advirtiendo a la gente; quiere que se tomen medidas. Firmó un documento que aboga por invertir en la investigación de la seguridad de la IA. Hinton considera que las grandes compañías tecnológicas deberían destinar mucho dinero a esto. Además, piensa que el gobierno debería intervenir para asegurar que esto suceda. Apoyó un proyecto de ley en California que buscaba que los desarrolladores garantizaran que sus sistemas de IA sean seguros y no causen daños significativos.
El gobernador de California, Gavin Newsom, rechazó el proyecto de ley debido a la oposición de las grandes empresas tecnológicas. Esto es una decepción para los planes de Hinton. Aun así, continúa intentando convencer a legisladores y líderes tecnológicos, como Elon Musk, sobre la importancia de la seguridad en la inteligencia artificial.
Las preocupaciones de Hinton resaltan una discusión crucial en el desarrollo de la IA. Es fundamental encontrar un equilibrio entre avanzar y ser cautelosos. Las empresas desean crear nuevas tecnologías, pero no a costa de la seguridad. Los responsables de políticas y los investigadores están debatiendo cómo debería evolucionar la IA en el futuro. La discusión se centra en sopesar los beneficios de la IA frente a sus riesgos. Las advertencias de Hinton subrayan la importancia de desarrollar la IA de manera responsable para asegurar un futuro seguro.
19 de noviembre de 2024 · 20:02
IA eficiente en movimiento: modelos de lenguaje optimizados para dispositivos móviles y laptops
18 de noviembre de 2024 · 9:36
Precisión en estudios de comportamiento de ratones mejorada con IA y menos animales
18 de noviembre de 2024 · 7:24
La IA detecta rápidamente tumores cerebrales difíciles en cirugía con tecnología de FastGlioma
Compartir este artículo