Home Politica Lo que hay que memorizar sobre el enfrentamiento entre el Pentágono y...

Lo que hay que memorizar sobre el enfrentamiento entre el Pentágono y Anthropic por el uso de la IA por parte de los militares

47
0
Lo que hay que memorizar sobre el enfrentamiento entre el Pentágono y Anthropic por el uso de la IA por parte de los militares

WASHINGTON (AP) — Una disputa de detención peligro sobre el uso marcial de inteligencia fabricado surgió a la panorama del conocido esta semana cuando el secretario de Defensa, Pete Hegseth, puso fin bruscamente al trabajo del Pentágono con Anthropic y otras agencias gubernamentales, utilizando una ley diseñada para contrarrestar las amenazas extranjeras a la esclavitud de suministro para poner una signo grana a una empresa estadounidense.

El presidente Donald Trump y Hegseth acusaron a la hado en avance de la IA, Anthropic, de poner en peligro la seguridad franquista posteriormente de que su director ejecutor, Dario Amodei, se negó a dar marcha detrás por la preocupación de que los productos de la compañía pudieran estar de moda para vigilancia masiva o drones armados autónomos.

La empresa con sede en San Francisco ha prometido presentar una demanda por el llamado de Hegseth para designar a Anthropic como un peligro para la esclavitud de suministro, una medida sin precedentes para aplicar una ley destinada a contrarrestar las amenazas extranjeras a una empresa estadounidense.

Anthropic dijo que impugnaría lo que llamó una hecho legalmente errónea “nunca ayer aplicada públicamente a una empresa estadounidense”.

La batalla permitido que se avecina podría tener enormes implicaciones en el contrapeso de poder en las Big Tech durante una coyuntura crítica, así como en las reglas que rigen el uso marcial de la IA y otras barreras que se establecen para evitar que una tecnología represente una amenaza para la vida humana.

La disputa ya resultó en un porrazo para OpenAI, el fabricante de ChatGPT, que aprovechó la oportunidad para guatar el vano y poner su tecnología a disposición del Pentágono posteriormente de que Anthropic objetara algunos de los términos de la distribución Trump. Es un construcción de los acontecimientos que probablemente profundizará la animosidad entre el CEO de OpenAI, Sam Altman, quien fue destituido temporalmente por su propia asociación directiva a fines de 2023 por dudas sobre su confiabilidad, y Amodei, quien dejó OpenAI en 2021 para divulgar Anthropic en parte oportuno a preocupaciones sobre la seguridad de la IA.

Implicaciones de ser designado como un peligro para la esclavitud de suministro

La intrepidez del Unidad de Defensa de etiquetar a Anthropic como un peligro para la esclavitud de suministro de defensa del país pondrá fin a su resolución de hasta 200 millones de dólares con la empresa de IA. Además, según el Pentágono, prohibirá a otros contratistas de defensa hacer negocios con Anthropic.

Trump escribió en Truth Social que la mayoría de las agencias gubernamentales deben dejar de usar inmediatamente la IA de Anthropic, pero le dio al Pentágono un período de seis meses para eliminar gradualmente la tecnología que ya está integrada en las plataformas militares.

Anthropic sostiene que Hegseth no tiene la autoridad permitido para detener las relaciones comerciales con otros contratistas de defensa. Cualquier empresa que todavía tenga un resolución comercial con Anthropic puede seguir utilizando sus productos para proyectos no relacionados con la defensa, afirmó la empresa. escribió en un comunicado.

La designación de peligro de la esclavitud de suministro se creó para convidar a los líderes militares estadounidenses una forma de restringir la exposición del Pentágono a empresas que representan un peligro potencial para la seguridad. La inventario normalmente ha incluido empresas con vínculos con adversarios, como el titán de las telecomunicaciones Huawei, que tiene vínculos con China, o el entendido en ciberseguridad Kaspersky, que tiene vínculos con Rusia.

En el caso de Anthropic, la designación sirve como advertencia para otras empresas de defensa e inteligencia fabricado: si no cumple con nuestras demandas, será incluido en la inventario negra.

“¡No lo necesitamos, no lo queremos y no volveremos a hacer negocios con ellos!” Trump dijo en las redes sociales.

El período de chiste de seis meses de Trump para el Pentágono esencialmente abre una ventana para que otras empresas obtengan las autorizaciones de seguridad clasificadas que se necesitan para trabajar con la agencia.

Cómo afecta el enfrentamiento al negocio de Anthropic

Anthropic dice que aún no ha sido notificada formalmente sobre la designación de Hegseth.

“Cuando recibamos algún tipo de hecho formal, la analizaremos, la entenderemos y la impugnaremos en los tribunales”, prometió Amodei durante una entrevista con CBS News que se transmitirá el domingo por la mañana.

Por ahora, Anthropic está tratando de convencer a las empresas y agencias gubernamentales de que la designación de peligro de la esclavitud de suministro de la distribución Trump solo afecta el uso de Claude, su chatbot de IA y agente de codificación informática, para contratistas militares cuando utilizan la aparejo en trabajos para el Unidad de Defensa.

“Su uso para cualquier otro propósito no se ve afectado”, escribió Anthropic en su comunicado.

Dejar clara esa distinción es crucial para Anthropic porque la viejo parte de sus ingresos proyectados de 14 mil millones de dólares para este año provienen de empresas y agencias gubernamentales que utilizan Claude para codificación informática y otras tareas. Más de 500 clientes están pagando a Anthropic al menos 1 millón de dólares al año por Claude, según un anuncio que revela una inversión que había valorado a la empresa en 380 mil millones de dólares.

La tecnología Claude de Anthropic ha ido ganando tanta popularidad que ha surgido como un reemplazo viable para una amplia viso de herramientas de software empresarial que actualmente venden las principales empresas de tecnología como Salesforce y Workday. Ese potencial ha provocado que las acciones de las empresas que venden software empresarial como servicio se desplomen este año.

Pero ahora que Anthropic ha sido etiquetado como un peligro para la esclavitud de suministro, existe cierta incertidumbre sobre si sus clientes todavía se sentirán cómodos usando a Claude para trabajos no militares y correrán el peligro de provocar la ira de Trump. Cualquier renuencia generalizada a utilizar Claude, a pesar de todos los avances que ha acabado durante el año pasado, podría frenar el avance de la IA en EE.UU. en un momento en que el país está tratando de mantenerse por delante de China en una tecnología que se retraso remodele la crematística y la sociedad.

Al mismo tiempo, Anthropic y Amodei ahora pueden tener un púlpito desde el que impulsar su memorándum para erigir barreras más sólidas en torno al funcionamiento de la IA.

“Ninguna intimidación o castigo por parte del Unidad de Aniquilamiento cambiará nuestra posición sobre la vigilancia doméstica masiva o las armas totalmente autónomas”, dijo la compañía. “Impugnaremos cualquier designación de peligro en la esclavitud de suministro en presencia de los tribunales”.

En su entrevista con CBS, Amodei describió la disputa de Anthropic con la distribución Trump como una defensa de la democracia.

“No estar de acuerdo con el gobierno es lo más sudaca del mundo”, dijo Amodei. “Y somos patriotas. En todo lo que hemos hecho aquí, hemos defendido los títulos de este país”.

OpenAI sube al ring

Horas posteriormente de que su competidor fuera castigado, Altman de OpenAI anunció el viernes por la tenebrosidad que su compañía llegó a un acuerdo con el Pentágono para suministrar su IA a redes militares clasificadas. Pero Altman dijo que las mismas restricciones de IA que fueron el punto de fricción en la disputa de Anthropic con el Pentágono ahora están consagradas en la nueva asociación de OpenAI.

En un memorando obtenido por The Associated Press, Altman dijo a los empleados de OpenAI: “Durante mucho tiempo hemos creído que la IA no debería estar de moda para vigilancia masiva o armas letales autónomas, y que los humanos deberían permanecer al tanto de las decisiones automatizadas de detención peligro. Estas son nuestras principales líneas rojas”.

No está claro por qué el Pentágono aceptó las líneas rojas de OpenAI pero no las de Anthropic. Pero en su memorando, Altman escribió que la compañía cree que puede “aliviar las cosas” trabajando con el Pentágono y al mismo tiempo respetando sólidas protecciones de seguridad.

El acuerdo de OpenAI con la distribución Trump se produjo el mismo día en que anunció la cuestación de otros 110 mil millones de dólares como parte de una infusión que valora a la compañía con sede en San Francisco en 730 mil millones de dólares.

Pero OpenAI además puede malquistar una posible reacción si su trabajo con el Pentágono es ampliamente conocido por los consumidores estadounidenses que usan ChatGPT como un ejemplo de priorizar la búsqueda de ganancias a la seguridad de la IA.

La brecha antrópica además podría destapar nuevas oportunidades para Musk, quien cofundó OpenAI con Altman en 2015 ayer de que uno y otro tuvieran una amarga pelea por preocupaciones de seguridad y problemas financieros. Musk ha acentuado a Altman de fraude y otros comportamientos engañosos en un caso que llegará a inteligencia a finales de abril.

Musk ahora supervisa el chatbot de inteligencia fabricado, Grok, al que el Pentágono además planea dar llegada a redes militares clasificadas a pesar de su seguridad y confiabilidad, encima de las investigaciones gubernamentales sobre su creación de imágenes sexualizadas deepfake. Musk ya ha estado animando a la distribución Trump en su disputa con Amodei, diciendo en su plataforma de redes sociales X que “Anthropic odia la civilización occidental”.

Google, que ha desarrollado un conjunto de herramientas de inteligencia fabricado ampliamente utilizadas en su tecnología Gemini, además podría estar en la carrera por obtener más negocios del ejército estadounidense, aunque un lado destapado de su fuerza gremial ha estado implorando a los ejecutivos que eviten hacer acuerdos que violarían el antiguo enunciado de la compañía, “No seas malvado”. Hasta ahora, los ejecutivos de Google no han discutido públicamente la disputa de Anthropic con la distribución Trump.

___

Liedtke informó desde San Ramón, California.

_