En este momento estás viendo Piden pausar 6 meses desarrollo de IAs como ChaT-GPT5

Piden pausar 6 meses desarrollo de IAs como ChaT-GPT5

Escuchar la noticia
Getting your Trinity Audio player ready...
Compartir esta informacion

Piden pausar 6 meses desarrollo de IAs como ChaT-GPT5

Los más grandes representantes de la tecnología piden frenar los avances de la inteligencia Artificial

Esta semana no ha sido tan movida como la anterior, pero hubo una noticia que de verdad ha sorprendido a todos. Esta semana muchos de los más grandes nombres en el mundo de IA firmaron una carta abierta para detener o mejor dicho pausar los avances de modelos de lenguaje que son más poderosos que Chat-GPT4.
El documento afirma que en los últimos meses se han visto a AI Labs atrapados en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable.

¿Qué inquietudes se plantean en el documento?

Las preguntas que se plantea en dicho documento son: ¿debemos permitir que las máquinas inunden nuestros canales de información con propaganda y falsedad, debemos automatizar absolutamente todo y eliminar todos los trabajos incluidos los gratificantes? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número e inteligencia y que posteriormente podrían fácilmente reemplazarnos? ¿Nos estamos arriesgando a perder el control de nuestra civilización? La carta continúa diciendo, “estos poderosos sistemas de IA deben desarrollarse solo cuando estemos muy seguros de que sus efectos serán positivos y sus riesgos serán manejables.

Finalmente, en carta piden que, “todos los laboratorios de IA deberían pausar inmediatamente sus desarrollos por al menos unos seis meses para los sistemas que sean más poderosos que GTP-4. En este punto la carta continúa diciendo dicen que, si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e Instituir una moratoria, estos protocolos deberían garantizar que los sistemas que se adhieren a ellos sean seguros. Los desarrolladores de IA deben trabajar con los legisladores para acelerar drásticamente el desarrollo de sistemas sólidos de gobierno para incluir autoridades reguladoras nuevas, capaces y dedicadas a la supervisión y el seguimiento de la IA de alta capacidad computacional como es el caso de CHAT-GPT5.

Este documento se publicó en el sitio web de Future of Life Institute y fue firmada por algunos nombres muy destacados como ser: Steve Wozniak, Co-founder, Apple, Elon Musk, CEO of SpaceX, Tesla & Twitter, Yoshua Bengio, Founder and Scientific Director at Mila, Andrew Yang, Forward Party, Valerie Pisano, President & CEO, MILA, Emad Mostaque, CEO, Stability AI, Jaan Tallinn, Co-Founder of Skype, Evan Sharp, Co-Founder, Pinterest, Chris Larsen, Co-Founder, Ripple y muchos otros. La carta y la lista completa de las firmas puede ser vista aquí.

También esta semana Gary Marcus, científico y autor del libro Reinicio de la IA, escribió un artículo sobre los riesgos de la IA. Gary Marcus argumenta que los riesgos de la IA son cosas que ya estamos empezando a ver. Gary se ha mostrado principalmente preocupado por los problemas de phishing y fraudes en línea con IA, incluido en este informe se menciona el caso de alguien que utilizo una herramienta de clonación de voz para clonar la voz de una persona, luego llamó a los padres de esa persona y les quito mucho dinero fingiendo ser su hijo. Esto demuestra que se puede “abusar” de los modelos de lenguaje artificial para engañar a las potenciales víctimas para que depositen su confianza en los actores criminales.El articulo en igles aqui.

Siguenos en redes sociales

Deja una respuesta