En este momento estás viendo La Inteligencia Artificial representa un riesgo de extinción

La Inteligencia Artificial representa un riesgo de extinción

Escuchar la noticia
Getting your Trinity Audio player ready...
Compartir esta informacion

La IA, un riesgo de extinción equiparable a la guerra nuclear y las pandemias.

Preocupaciones compartidas por Elon Musk y el Primer Ministro Rishi Sunak

La inteligencia artificial (IA) ha sido señalada como un riesgo de extinción similar al que representan las pandemias y la guerra nuclear, según expertos destacados en el campo. El director ejecutivo de la empresa detrás de ChatGPT, el jefe del laboratorio de IA de Google y el CEO de Anthropic, otra empresa importante en el ámbito de la IA, han firmado una carta abierta en la que expresan su preocupación.

La declaración resalta la necesidad de abordar de manera global la mitigación del riesgo de extinción derivado de la IA, equiparándolo a otros riesgos de alcance social, como las pandemias y la guerra nuclear.

El Centro para la Seguridad de la IA, responsable de la publicación de este comunicado, busca fomentar el debate y crear conciencia sobre los riesgos más graves asociados con la IA avanzada. Dan Hendrycks, director del centro, ha destacado que la humanidad ha sido la especie dominante en la Tierra gracias a su inteligencia, pero advierte que el ascenso de la IA cada vez más poderosa e inteligente podría cambiar esa dinámica en el futuro. Hendrycks ha planteado el escenario de que los humanos podrían encontrar una posición más frágil y correr el riesgo de seguir los pasos de los neandertales o los gorilas.

Este llamado de atención también ha sido respaldado por destacados científicos de la computación, Geoffrey Hinton y Yoshua Bengio, considerados como los «padrinos» de la IA. Además, más de 350 profesionales de ingeniería, investigación y dirección en el campo de la IA han firmado la carta en apoyo a esta preocupación.

Aunque algunos expertos no creen que la IA represente una amenaza existencial, las crecientes capacidades de esta tecnología han despertado inquietudes similares en figuras destacadas en los últimos meses. Elon Musk, por ejemplo, se unió a un grupo de expertos para solicitar una pausa de seis meses en el entrenamiento de modelos de IA de lenguaje avanzados, como los utilizados por ChatGPT y otros chatbots similares. La carta destacaba los «riesgos profundos» asociados con la IA y enfatizaba la importancia de desarrollar sistemas potentes solo cuando sus efectos sean positivos y los riesgos sean manejables.

Entre los peligros potenciales citados se encuentran la propagación de desinformación, la pérdida masiva de empleos y las amenazas existenciales para la humanidad si la IA continúa evolucionando rápidamente.

Acciones gubernamentales y regulación para mitigar los riesgos

El Primer Ministro Rishi Sunak ha sostenido reuniones con los líderes de destacadas compañías de IA, así como con el CEO de Google, Sundar Pichai, para discutir la necesidad de regular la tecnología y mitigar los riesgos asociados. Estas reuniones reflejan la creciente preocupación por parte de los gobiernos y la comunidad científica sobre la necesidad de establecer medidas de control y salvaguardia en el desarrollo y despliegue de la IA.

La propagación de la desinformación y el impacto en la sociedad, la pérdida de millones de empleos debido a la automatización y las posibles amenazas existenciales son temas recurrentes que se plantean como peligros potenciales si la IA continúa su rápida evolución sin un marco regulatorio adecuado.

Si bien hay opiniones divergentes en la industria sobre si la IA representa una amenaza real para la humanidad, los llamados de atención de destacados expertos y líderes tecnológicos destacan la importancia de abordar los riesgos y garantizar que los beneficios de la IA superen sus posibles consecuencias negativas.

La comunidad científica y los gobiernos están en busca de un enfoque colaborativo para impulsar investigaciones sobre la seguridad y la ética en la IA, promover políticas de regulación responsables y fomentar una mayor transparencia en el desarrollo y despliegue de esta tecnología.

En conclusión, el debate sobre los riesgos de la inteligencia artificial ha adquirido mayor relevancia con advertencias de expertos y líderes en el campo. La necesidad de considerar los posibles efectos negativos, mitigar los riesgos y regular el avance de la IA se ha convertido en una prioridad global, a la par de amenazas como la guerra nuclear y las pandemias. La colaboración entre científicos, líderes tecnológicos y gobiernos resulta crucial para garantizar un desarrollo ético y seguro de la inteligencia artificial en beneficio de la humanidad.

Deja una respuesta