Vulnerabilidades en IA: Riesgo de backdoors con pocos datos
Un estudio revela que modelos de lenguaje pueden desarrollar vulnerabilidades llamadas "backdoors" con solo 250 documentos maliciosos en su entrenamiento. Esto plantea riesgos significativos para la seguridad y la fiabilidad de las aplicaciones de inteligencia artificial, destacando la necesidad de medidas de mitigación.