Anthropic desenvolveu nova IA que pode facilitar ataques hackers; entenda

A Anthropic disponibilizará um novo modelo de Inteligência Artificial para algumas das maiores empresas de cibersegurança e software do mundo. O objetivo é desacelerar a corrida armamentista desencadeada pela tecnologia nas mãos de hackers, anunciou a marca nesta terça-feira (9).
Amazon, Apple, Cisco, Google, JPMorgan Chase e Microsoft, entre outras empresas, agora terão acesso ao modelo Mythos para fins de defesa cibernética. Isso inclui encontrar bugs nos softwares dessas companhias e testar se técnicas específicas de hacking funcionam em seus produtos.
O Mythos, oficialmente chamado de “Claude Mythos Preview”, não está pronto para um lançamento público devido às formas como poderia ser usado indevidamente por cibercriminosos e espiões, de acordo com a Anthropic — uma possibilidade que tem provocado preocupação generalizada em Washington e no Vale do Silício.
Especialistas disseram à CNN que a velocidade e a escala dos agentes de IA que conseguem identificar vulnerabilidades vão muito além das capacidades humanas normais, representando uma mudança radical para os mecanismos de segurança. Um único operador poderia escanear fraquezas e potencialmente aproveitá-las de forma mais rápida e persistente do que centenas de cibercriminosos humanos.
“Não nos sentimos confortáveis em lançar isso de forma geral. Acreditamos que há um longo caminho a percorrer para ter as salvaguardas apropriadas”, disse à CNN Logan Graham, que lidera a equipe da Anthropic responsável pelas defesas dos modelos de IA.
A empresa também informou funcionários de “todo o governo dos Estados Unidos” sobre as capacidades cibernéticas ofensivas e defensivas completas do Mythos, contou um funcionário da Anthropic à reportagem. A companhia “se colocou à disposição para apoiar os próprios testes e avaliações da tecnologia pelo Estado”, afirmou o profissional.
Os executivos da Anthropic esperam que a liberação seletiva do Mythos para empresas que atendem bilhões de usuários ajude a equilibrar o jogo. A intenção é eliminar falhas de segurança importantes em navegadores e sistemas operacionais amplamente utilizados antes que eles sejam lançados publicamente.
Outras empresas ou organizações que terão acesso confirmado à plataforma incluem: os fabricantes de chips Broadcom e Nvidia, a organização sem fins lucrativos Linux Foundation, a qual apoia o sistema operacional Linux, e os fornecedores de cibersegurança CrowdStrike e Palo Alto Networks.
“Se os modelos vão ser tão bons — e provavelmente muito melhores que isso — em todas as tarefas de cibersegurança, precisamos nos preparar bem rápido. O mundo ficará muito diferente agora se essas capacidades do modelo estiverem em nossas vidas”, disse Graham.
Um post de blog que antecipou as capacidades do Mythos, vazado no mês passado, afirmava que o modelo de IA estava “muito à frente” das capacidades cibernéticas de outros modelos.
A aplicação “pressagia uma onda iminente de modelos que podem explorar vulnerabilidades de maneiras que superam em muito os esforços dos defensores”, dizia a publicação, relatada primeiramente pela Fortune.
Algumas das preocupações sobre como a plataforma poderia ser usada indevidamente por agentes mal-intencionados foram exageradas, especialistas disseram anteriormente. Mas o vazamento também apontou para uma verdade incômoda, segundo essas fontes: sem uma mudança de rumo, a lacuna entre hackers e defensores possibilitada pela IA poderia se ampliar ainda mais.
A Anthropic afirma que o Mythos já produziu resultados impactantes. O modelo encontrou nas últimas semanas “milhares” de fragilidades de software anteriormente desconhecidas — uma taxa muito superior à dos pesquisadores humanos, disse a empresa. A CNN não pôde verificar imediatamente esse número.
Tais falhas de software podem ser trabalhosas para pesquisadores humanos encontrarem e são cobiçadas por agências de espionagem e cibercriminosos para realizar invasões furtivas.
Mas especialistas em cibersegurança têm usado IA para se proteger contra fraudes muito antes da chegada do Mythos. Gadi Evron e outros pesquisadores de segurança lançaram em dezembro uma ferramenta baseada no modelo Claude para gerar correções para falhas graves de software.
“Diferentemente dos atacantes, os defensores ainda não têm capacidades de IA acelerando-os no mesmo grau. No entanto, as capacidades de ataque estão disponíveis tanto para atacantes quanto para defensores, e os defensores devem usá-las se quiserem acompanhar”, afirmou Evron, fundador da empresa de segurança de IA Knostic.
Entenda como EUA usam inteligência artificial em guerra com Irã
Fonte da Matéria: CNN Brasil






