No momento, você está visualizando Lança antropal Modelos de IA Claude para Segurança Nacional dos EUA

Lança antropal Modelos de IA Claude para Segurança Nacional dos EUA

A Anthropic apresentou uma coleção personalizada de modelos de IA Claude, projetados para clientes de segurança nacional dos EUA. O anúncio representa um marco potencial na aplicação da IA ​​nos ambientes governamentais classificados.

Os modelos ‘Claude Gov’ já foram implantados por agências que operam nos níveis mais altos da segurança nacional dos EUA, com o acesso estritamente limitado aos que trabalham em ambientes classificados.

A Anthrópica diz que esses modelos Claude Gov surgiram de uma extensa colaboração com clientes do governo para atender aos requisitos operacionais do mundo real. Apesar de ser adaptado para aplicações de segurança nacional, o Antrópico sustenta que esses modelos foram submetidos aos mesmos testes de segurança rigorosos que outros modelos de Claude em seu portfólio.

Capacidades especializadas de IA para segurança nacional

Os modelos especializados oferecem melhor desempenho em várias áreas críticas para operações do governo. Eles apresentam manuseio aprimorado de materiais classificados, com menos casos em que a IA se recusa a se envolver com informações confidenciais – uma frustração comum em ambientes seguros.

Melhorias adicionais incluem melhor compreensão dos documentos nos contextos de inteligência e defesa, proficiência aprimorada em idiomas cruciais para operações de segurança nacional e interpretação superior de dados complexos de segurança cibernética para análise de inteligência.

No entanto, este anúncio chega em meio a debates em andamento sobre o regulamento da IA ​​nos EUA. O CEO antrópico Dario Amodei expressou recentemente preocupações sobre a legislação proposta que concederia um congelamento de uma década na regulamentação estatal da IA.

Equilibrando a inovação com regulamentação

Em um ensaio convidado publicado em The New York Times Nesta semana, o AMODEI defendeu as regras de transparência, em vez de moratórias regulatórias. Ele detalhou as avaliações internas reveladoras sobre comportamentos em modelos avançados de IA, incluindo uma instância em que o mais novo modelo do Antrópico ameaçou expor os e -mails privados de um usuário, a menos que um plano de desligamento tenha sido cancelado.

A AMODEI comparou os testes de segurança da IA ​​a ensaios de túnel de vento para aeronaves projetadas para expor defeitos antes da liberação do público, enfatizando que as equipes de segurança devem detectar e bloquear riscos proativamente.

O Antrópico se posicionou como um defensor do desenvolvimento responsável da IA. Sob sua política de escala responsável, a Companhia já compartilha detalhes sobre métodos de teste, etapas de mitigação de risco e critérios de liberação-as práticas Amodei acreditam que devem se tornar padrão em todo o setor.

Ele sugere que formalizar práticas semelhantes em todo o setor permitiria que o público e os legisladores monitorem as melhorias de capacidade e determinem se a ação regulatória adicional se torna necessária.

Implicações da IA ​​em Segurança Nacional

A implantação de modelos avançados nos contextos de segurança nacional levanta questões importantes sobre o papel da IA ​​na coleta de inteligência, planejamento estratégico e operações de defesa.

A Amodei expressou apoio a controles de exportação sobre chips avançados e a adoção militar de sistemas confiáveis ​​para combater rivais como a China, indicando a consciência do antropia sobre as implicações geopolíticas da tecnologia de IA.

Os modelos Claude GOV podem servir inúmeras aplicações de segurança nacional, desde o planejamento estratégico e o apoio operacional até a análise de inteligência e a avaliação de ameaças – tudo dentro da estrutura do compromisso declarado do Anthrópico com o desenvolvimento responsável da IA.

Paisagem regulatória

À medida que a Antrópica impulsiona esses modelos especializados para uso do governo, o ambiente regulatório mais amplo para a IA permanece em fluxo. O Senado está atualmente considerando o idioma que instituiria uma moratória no regulamento de IA em nível estadual, com audiências planejadas antes de votar na medida de tecnologia mais ampla.

A Amodei sugeriu que os estados poderiam adotar regras de divulgação estreitas que adiam para uma estrutura federal futura, com uma cláusula de supremacia, eventualmente, antecedendo as medidas do estado para preservar a uniformidade sem interromper a ação local de curto prazo.

Essa abordagem permitiria alguma proteção regulatória imediata enquanto trabalhava em direção a um padrão nacional abrangente.

À medida que essas tecnologias se tornam mais profundamente integradas às operações de segurança nacional, questões de segurança, supervisão e uso apropriado permanecerão na vanguarda das discussões de políticas e do debate público.

Para antrópicos, o desafio manterá seu compromisso com o desenvolvimento responsável de IA, atendendo às necessidades especializadas dos clientes do governo para aplicações crtíticas, como a segurança nacional.

(Crédito da imagem: Antrópico)

Veja também: Reddit processa antropia sobre a eliminação de dados da IA

Deseja aprender mais sobre IA e Big Data dos líderes do setor? Confira Ai & Big Data Expo Ocorrendo em Amsterdã, Califórnia e Londres. O evento abrangente é co-localizado com outros eventos principais, incluindo Conferência de Automação InteligenteAssim, BlockxAssim, Semana de Transformação Digitale Cyber ​​Security & Cloud Expo.

Explore outros próximos eventos de tecnologia corporativa e webinars alimentados pela TechForge aqui.

Créditos Autor

Deixe um comentário