La startup californiana Anthropic demandó al gobierno del presidente Donald Trump. La empresa considera que fue penalizada por proteger su inteligencia artificial.
El conflicto surgió tras negarse a autorizar el uso militar sin límites de su modelo Claude. El Departamento de Defensa tomó medidas drásticas.
La semana pasada, el Pentágono designó a Anthropic como un "riesgo". Alegan que afecta la cadena de suministro de la seguridad nacional.
Esta designación ocurrió después de que la empresa rechazara fines de vigilancia masiva. También prohibieron la utilización de su tecnología para fines bélicos.
La demanda de 48 páginas fue presentada en San Francisco. Anthropic solicita que la justicia declare ilegal esta designación y sea revertida de inmediato.
La compañía sostiene que su tecnología debe maximizar resultados positivos. Buscan que su IA sea la más segura y responsable para la humanidad.
"El Gobierno federal ha tomado represalias por expresar ese principio", añade el escrito. Anthropic defiende su postura ética frente a las presiones estatales.
Es la primera vez que una empresa local recibe esta calificación. Habitualmente, esta etiqueta de riesgo se reserva para rivales extranjeros como Huawei.
La medida exige a proveedores certificar que no usan modelos de Anthropic. Esto impacta directamente en la operatividad comercial de la firma tecnológica.
La comunidad tecnológica observa con atención este enfrentamiento legal. El caso podría sentar un precedente sobre los límites éticos de la inteligencia artificial.
La defensa de la soberanía tecnológica y los valores civiles están en juego. El tribunal federal decidirá el futuro de la relación entre Silicon Valley y Washington.
📌Esto también te va a interesar, dale click 📌

