Aprofundando a pesquisa de segurança em IA com o AI Security Institute (AISI) do Reino Unido — Google DeepMind

Home / Nosso Blog

Transforme seu negócio com a Atualizex

Leve seu marketing digital para o próximo nível com estratégias baseadas em dados e soluções inovadoras. Vamos criar algo incrível juntos!

Siga nosso Canal

Acompanhe semanalmente nosso canal no youtube com vídeos de marketing e performance e se inscreva-se

Play Video

Aprofundando a pesquisa de segurança em IA com o AI Security Institute (AISI) do Reino Unido — Google DeepMind


Hoje, estamos anunciando uma parceria ampliada com o Instituto de Segurança de IA do Reino Unido (AISI) através de um novo Memorando de Entendimento centrado na investigação fundamental de segurança e proteção, para ajudar a garantir que a inteligência artificial seja desenvolvida com segurança e beneficie a todos.

A parceria de investigação com a AISI é uma parte importante do nosso colaboração mais ampla com o governo do Reino Unido para acelerar o progresso seguro e benéfico da IA.

Construindo sobre uma base de colaboração

A IA tem um imenso potencial para beneficiar a humanidade, ajudando a tratar doenças, acelerar a descoberta científica, criar prosperidade económica e combater as alterações climáticas. Para que estes benefícios sejam concretizados, devemos colocar a segurança e a responsabilidade no centro do desenvolvimento. A avaliação dos nossos modelos face a um amplo espectro de riscos potenciais continua a ser uma parte crítica da nossa estratégia de segurança, e as parcerias externas são um elemento importante deste trabalho.

É por isso que estabelecemos uma parceria com a AISI do Reino Unido desde a sua criação em novembro de 2023 para testar os nossos modelos mais capazes. Estamos profundamente comprometidos com o AISI do Reino Unido meta dotar os governos, a indústria e a sociedade em geral de uma compreensão científica dos potenciais riscos colocados pela IA avançada, bem como de potenciais soluções e mitigações.

Estamos trabalhando ativamente com a AISI para construir avaliações mais robustas para modelos de IA, e nossas equipes têm colaborado em pesquisas de segurança para avançar no campo, incluindo trabalhos recentes sobre Monitorabilidade da cadeia de pensamento: uma oportunidade nova e frágil para a segurança da IA. Com base neste sucesso, estamos hoje a alargar a nossa parceria de testes para incluir investigação mais ampla e mais fundamental numa variedade de áreas.

O que a parceria envolve

No âmbito desta nova parceria de investigação, estamos a alargar a nossa colaboração para incluir:

  • Compartilhando acesso aos nossos modelos, dados e ideias proprietários para acelerar o progresso da pesquisa
  • Relatórios e publicações conjuntas que partilham resultados com a comunidade científica
  • Mais segurança colaborativa e pesquisa de proteção combinando a experiência de nossas equipes
  • Discussões técnicas para enfrentar desafios complexos de segurança

Principais áreas de pesquisa

Nossa pesquisa conjunta com a AISI se concentra em áreas críticas onde a experiência do Google DeepMind, as equipes interdisciplinares e anos de pesquisa responsável pioneira podem ajudar a tornar os sistemas de IA mais seguros e protegidos:

Monitorando processos de raciocínio de IA

Trabalharemos em técnicas para monitorar o “pensamento” de um sistema de IA, também comumente referido como sua cadeia de pensamento (CoT). Este trabalho se baseia pesquisa anterior do Google DeepMind também, e nosso colaboração recente neste tema com AISI, OpenAI, Anthropic e outros parceiros. A monitorização do CoT ajuda-nos a compreender como um sistema de IA produz as suas respostas, complementando a investigação sobre interpretabilidade.

Compreender os impactos sociais e emocionais

Trabalharemos juntos para investigar as implicações éticas do desalinhamento socioafetivo; isto é, o potencial dos modelos de IA se comportarem de maneiras que não se alinham com o bem-estar humano, mesmo quando tecnicamente seguem as instruções corretamente. Esta pesquisa se baseará trabalho existente do Google DeepMind que ajudou a definir esta área crítica da segurança da IA.

Avaliando sistemas econômicos

Exploraremos o impacto potencial da IA ​​nos sistemas económicos, simulando tarefas do mundo real em diferentes ambientes. Os especialistas irão pontuar e validar estas tarefas, após o que serão categorizadas em dimensões como complexidade ou representatividade, para ajudar a prever fatores como o impacto a longo prazo no mercado de trabalho.

Trabalhando juntos para aproveitar os benefícios da IA

A nossa parceria com a AISI é um elemento da forma como pretendemos concretizar os benefícios da IA ​​para a humanidade, ao mesmo tempo que mitigamos riscos potenciais. Nossa estratégia mais ampla inclui pesquisa prospectiva, treinamento extensivo em segurança que anda de mãos dadas com o desenvolvimento de capacidades, testes rigorosos de nossos modelos e o desenvolvimento de melhores ferramentas e estruturas para compreender e mitigar o risco.

Processos de governança interna fortes também são essenciais para o desenvolvimento seguro e responsável da IA, assim como a colaboração com especialistas externos independentes que trazem novas perspectivas e conhecimentos diversos para o nosso trabalho. Google DeepMind Conselho de Responsabilidade e Segurança trabalha entre equipes para monitorar riscos emergentes, revisar avaliações de ética e segurança e implementar mitigações técnicas e políticas relevantes. Também estabelecemos parcerias com outros especialistas externos, como Apollo Research, Vaultis, Dreadnode e outros, para realizar testes e avaliações extensivos dos nossos modelos, incluindo o Gemini 3, o nosso modelo mais inteligente e seguro até à data.

Além disso, o Google DeepMind é um orgulhoso membro fundador do Fórum de modelo de fronteirabem como o Parceria em IAonde nos concentramos em garantir o desenvolvimento seguro e responsável de modelos de IA de ponta e em aumentar a colaboração em questões importantes de segurança.

Esperamos que a nossa parceria alargada com a AISI nos permita construir abordagens mais robustas à segurança da IA ​​para o benefício não apenas das nossas próprias organizações, mas também da indústria em geral e de todos os que interagem com os sistemas de IA.



Fonte

”Negócio desatualizado ele não está apenas perdendo dinheiro, mas está perdendo a chance de fazer a diferença ao mundo”

Atualizex Marketing e Performance

Produtor

Quer saber quanto investir para gerar mais clientes?

Fale agora com um especialista da Atualizex e receba uma análise estratégica personalizada para o seu negócio.

Falar com Especialista no WhatsApp

Compartilhe nas Redes Sociais

Facebook
Twitter
LinkedIn
Threads
Telegram
WhatsApp
Reddit
X
Email
Print
Tumblr
WeCreativez WhatsApp Support
Nossa equipe de suporte ao cliente está aqui para responder às suas perguntas. Pergunte-nos o que quiser!
👋 Olá, como posso ajudar?