Dario Amodei, director ejecutivo de Anthropic, expresó su preocupación sobre el posible robo de información sensible en la industria de inteligencia artificial (IA) y solicitó una mayor intervención del gobierno de Estados Unidos para reforzar la seguridad. Durante un evento del Consejo de Relaciones Exteriores, el CEO advirtió que empresas estadounidenses del sector, incluida Anthropic, podrían estar siendo blanco de espionaje.
"Muchos de estos secretos algorítmicos valen 100 millones de dólares y se reducen a unas pocas líneas de código. Y estoy seguro de que hay gente intentando robarlos, y puede que lo estén logrando", afirmó Amodei.
El directivo señaló a Chinacomo un posible responsable de estas prácticas, haciendo referencia a su historial de "espionaje industrial a gran escala". Según Amodei, la obtención de información crítica por parte de actores extranjeros representa un riesgo para el desarrollo tecnológico y la seguridad nacional de EEUU. Por ello, enfatizó la importancia de que el gobierno implemente medidas para mitigar estos riesgos, aunque no especificó qué tipo de apoyo sería necesario.
Anthropic propone reforzar la seguridad en laboratorios de IA
Si bien la empresa no comentó directamente las declaraciones de su CEO, Anthropic reiteró sus recientes recomendaciones enviadas a la Oficina de Política Científica y Tecnológica de la Casa Blanca (OSTP). En el documento, la compañía propuso una colaboración entre el gobierno federal y la industria tecnológica para mejorar la seguridad en los laboratorios de IA avanzados. Entre sus sugerencias, Anthropic destacó la importancia detrabajar junto con agencias de inteligencia estadounidensesy sus aliadospara evitar la filtración de información crítica y el acceso no autorizado a modelos avanzados de IA.
Crítica a China y restricciones a la exportación de chips
Amodei también expresó su preocupación por el avance de China en el desarrollo de IA y pidió restricciones más estrictas en la exportación de chips de IA hacia el país asiático. Como argumento, mencionó que DeepSeek, un modelo chino, obtuvo una baja calificación en una prueba de seguridad de datos sobre armas biológicas realizada por Anthropic.
El CEO manifestó en distintos espaciossu inquietud sobre el posible uso de la inteligencia artificial con fines autoritarios y militares por parte de China. En su ensayo "Máquinas de gracia amorosa", reiteró que el desarrollo de la IA en dicho país podría representar riesgos para la seguridad internacional y el control de la tecnología.