EU permitirá un hackeo masivo a la IA para poner a prueba su seguridad

por Redaccion
189 Visto
  • Cerca de 4,000 hackers trabajarán en conjunto con el fin de evaluar los riesgos de la tecnología y encontrar formas de solucionar sus brechas

El auge de la Inteligencia Artificial es un tema tan relevante en términos de privacidad que incluso la Casa Blanca ya anunció una serie de medidas para poner a prueba los sistemas de seguridad de esta tecnología. Uno de los esfuerzos más relevantes es que permitirá a cerca de 4,000 hackers evaluar las herramientas de IA de las principales empresas del mercado.

De acuerdo con la información de la Casa Blanca, este evento se realizará durante la DefCon (una convención especializada en seguridad cibernética) en el mes de agosto en Las Vegas y tendrá el propósito de generar datos respecto a los efectos de estos recursos digitales.

“Este ejercicio independiente proporcionará información crítica a los investigadores y al público sobre los impactos de estos modelos. También permitirá a las empresas y desarrolladores de IA tomar medidas para solucionar los problemas que se encuentran en esos modelos”, se detalla en un comunicado.

Algunas de las empresas que estarán bajo escrutinio son Google, Microsoft y OpenaAI, las cuales han liderado los desarrollos de IA en los últimos meses. Durante la evaluación, estas compañías abrirán el código de sus programas, como ChatGPT, para que los miles de hackers busquen vulnerabilidades o formas de eludir los mecanismos de seguridad de las herramientas.

Este tipo de iniciativas son conocidas como “hackeo ético”, pues se ponen a prueba los sistemas de seguridad de las empresas bajo su consentimiento y tienen el propósito de identificar brechas para reportarlas y solucionaras antes de que un ente malicioso pueda aprovecharse de ellas.

De acuerdo con Sven Cattel, experto en ciberseguridad y uno de los organizadores de la iniciativa, “esto es algo que creo que la industria debe hacer por su propio bien”, comentó en una entrevista reciente.

Por otra parte, Beau Woods, quien ha trabajado en otras iniciativas de la DefCon para poner a prueba otro tipo de sistemas, resaltó que una evaluación pública de esta magnitud podría transparentar el funcionamiento de la Inteligencia Artificial.

También resaltó que tendría la capacidad de calmar las ansiedades de las personas en torno a la IA. “En este momento, hay mucho miedo porque hay mucha incertidumbre. No sabemos de qué son capaces estos grandes modelos de lenguaje”, dijo.

“Las empresas de tecnología tienen la responsabilidad fundamental de asegurarse de que sus productos sean seguros y de que protejan los derechos de las personas antes de que se implementen o se hagan públicos”, señaló un funcionario de la Casa Blanca en conferencia, de acuerdo con CNN.

La iniciativa forma parte de un conjunto de medidas que el gobierno de los Estados Unidos ha motivado para asegurar el funcionamiento de los sistemas de IA sin que representen un riesgo para los usuarios. Además de este evento, otras dependencias han planteado legislaciones para regular la IA.

Incluso el gobierno del presidente Joe Biden anunció diversas acciones para el desarrollo responsable de la tecnología. Otra de las medidas que se revelaron es una inversión de 140 millones de dólares para lanzar siete nuevos Institutos Nacionales de Investigación de IA (NAIR, por sus siglas en inglés).     Expansión    @ExpansionMx     Imagen: D-Keine/Getty Images/iStockphoto

You may also like