|
Escuchar la noticia
Getting your Trinity Audio player ready...
|
En una decisión que marca un cambio significativo en su política, Alphabet, la empresa matriz de Google, ha eliminado su promesa de no emplear inteligencia artificial (IA) en el desarrollo de armas y herramientas de vigilancia. Este movimiento, anunciado recientemente, ha generado un amplio debate sobre las implicaciones éticas y sociales de la IA en aplicaciones militares y de seguridad.
Contexto de la decisión
Desde su fundación, Google se ha guiado por principios éticos, adoptando inicialmente el lema «no seas malvado». Sin embargo, con la creación de Alphabet en 2015, este lema fue relegado, y la empresa ha ido ajustando sus directrices éticas con el tiempo. En 2018, Google publicó sus principios de IA, comprometiéndose a no desarrollar tecnologías que pudieran causar daño. Ahora, en 2025, Alphabet ha actualizado estas directrices, eliminando la restricción de no utilizar IA para fines militares o de vigilancia.
Justificación de Alphabet
Demis Hassabis, jefe de IA de Google, argumentó que la revisión de las directrices es necesaria debido a la evolución del panorama global. Según Hassabis, la IA debe desempeñar un papel en la protección de la «seguridad nacional». James Manyika, vicepresidente sénior de tecnología y sociedad de la empresa, enfatizó que, a medida que aumenta la competencia global por el liderazgo en IA, las democracias deben liderar su desarrollo, guiadas por valores como la libertad, la igualdad y el respeto a los derechos humanos.
Reacciones y preocupaciones
La decisión de Alphabet ha suscitado preocupaciones entre expertos y defensores de los derechos humanos. Stuart Russell, científico informático británico, ha advertido sobre los peligros de desarrollar sistemas de armas autónomas y ha abogado por medidas de control global. La creciente autonomía de las armas impulsadas por IA plantea dilemas éticos, como la falta de responsabilidad y el potencial de uso indebido sin supervisión humana.
Implicaciones financieras
Tras el anuncio de la actualización de sus directrices éticas, Alphabet informó de ingresos de $96.5 mil millones, ligeramente por debajo de las expectativas de los analistas. Este desempeño se atribuye a un crecimiento más lento en su división de nube. En respuesta, la empresa planea invertir $75 mil millones en infraestructura de IA en el próximo año, subrayando su compromiso con el desarrollo y la integración de la IA en diversas aplicaciones.
El auge de las armas autónomas
La decisión de Alphabet se produce en un contexto de creciente interés y desarrollo de sistemas de armas autónomas impulsadas por IA. Estas tecnologías permiten que las máquinas tomen decisiones de manera independiente, lo que podría acelerar y hacer más letales las soluciones en combate. Ejércitos de todo el mundo están invirtiendo en estas capacidades, y empresas como Anduril y Palantir están profundamente involucradas en el desarrollo de diversos sistemas de armas habilitados por IA.
Debate ético y regulatorio
La integración de la IA en aplicaciones militares y de vigilancia plantea preguntas éticas significativas. La falta de supervisión humana en decisiones críticas, la posibilidad de errores y la escalada de conflictos son algunas de las preocupaciones destacadas por expertos. Aunque organizaciones humanitarias abogan por la regulación de estas armas, los principales actores geopolíticos se oponen a la creación de nuevas leyes, lo que complica la gobernanza de estas tecnologías emergentes.