Home / Nosso Blog
Leve seu marketing digital para o próximo nível com estratégias baseadas em dados e soluções inovadoras. Vamos criar algo incrível juntos!
Acompanhe semanalmente nosso canal no youtube com vídeos de marketing e performance e se inscreva-se

Hoje, estamos anunciando uma parceria ampliada com o Instituto de Segurança de IA do Reino Unido (AISI) através de um novo Memorando de Entendimento centrado na investigação fundamental de segurança e proteção, para ajudar a garantir que a inteligência artificial seja desenvolvida com segurança e beneficie a todos.
A parceria de investigação com a AISI é uma parte importante do nosso colaboração mais ampla com o governo do Reino Unido para acelerar o progresso seguro e benéfico da IA.
A IA tem um imenso potencial para beneficiar a humanidade, ajudando a tratar doenças, acelerar a descoberta científica, criar prosperidade económica e combater as alterações climáticas. Para que estes benefícios sejam concretizados, devemos colocar a segurança e a responsabilidade no centro do desenvolvimento. A avaliação dos nossos modelos face a um amplo espectro de riscos potenciais continua a ser uma parte crítica da nossa estratégia de segurança, e as parcerias externas são um elemento importante deste trabalho.
É por isso que estabelecemos uma parceria com a AISI do Reino Unido desde a sua criação em novembro de 2023 para testar os nossos modelos mais capazes. Estamos profundamente comprometidos com o AISI do Reino Unido meta dotar os governos, a indústria e a sociedade em geral de uma compreensão científica dos potenciais riscos colocados pela IA avançada, bem como de potenciais soluções e mitigações.
Estamos trabalhando ativamente com a AISI para construir avaliações mais robustas para modelos de IA, e nossas equipes têm colaborado em pesquisas de segurança para avançar no campo, incluindo trabalhos recentes sobre Monitorabilidade da cadeia de pensamento: uma oportunidade nova e frágil para a segurança da IA. Com base neste sucesso, estamos hoje a alargar a nossa parceria de testes para incluir investigação mais ampla e mais fundamental numa variedade de áreas.
No âmbito desta nova parceria de investigação, estamos a alargar a nossa colaboração para incluir:
Nossa pesquisa conjunta com a AISI se concentra em áreas críticas onde a experiência do Google DeepMind, as equipes interdisciplinares e anos de pesquisa responsável pioneira podem ajudar a tornar os sistemas de IA mais seguros e protegidos:
Trabalharemos em técnicas para monitorar o “pensamento” de um sistema de IA, também comumente referido como sua cadeia de pensamento (CoT). Este trabalho se baseia pesquisa anterior do Google DeepMind também, e nosso colaboração recente neste tema com AISI, OpenAI, Anthropic e outros parceiros. A monitorização do CoT ajuda-nos a compreender como um sistema de IA produz as suas respostas, complementando a investigação sobre interpretabilidade.
Trabalharemos juntos para investigar as implicações éticas do desalinhamento socioafetivo; isto é, o potencial dos modelos de IA se comportarem de maneiras que não se alinham com o bem-estar humano, mesmo quando tecnicamente seguem as instruções corretamente. Esta pesquisa se baseará trabalho existente do Google DeepMind que ajudou a definir esta área crítica da segurança da IA.
Exploraremos o impacto potencial da IA nos sistemas económicos, simulando tarefas do mundo real em diferentes ambientes. Os especialistas irão pontuar e validar estas tarefas, após o que serão categorizadas em dimensões como complexidade ou representatividade, para ajudar a prever fatores como o impacto a longo prazo no mercado de trabalho.
A nossa parceria com a AISI é um elemento da forma como pretendemos concretizar os benefícios da IA para a humanidade, ao mesmo tempo que mitigamos riscos potenciais. Nossa estratégia mais ampla inclui pesquisa prospectiva, treinamento extensivo em segurança que anda de mãos dadas com o desenvolvimento de capacidades, testes rigorosos de nossos modelos e o desenvolvimento de melhores ferramentas e estruturas para compreender e mitigar o risco.
Processos de governança interna fortes também são essenciais para o desenvolvimento seguro e responsável da IA, assim como a colaboração com especialistas externos independentes que trazem novas perspectivas e conhecimentos diversos para o nosso trabalho. Google DeepMind Conselho de Responsabilidade e Segurança trabalha entre equipes para monitorar riscos emergentes, revisar avaliações de ética e segurança e implementar mitigações técnicas e políticas relevantes. Também estabelecemos parcerias com outros especialistas externos, como Apollo Research, Vaultis, Dreadnode e outros, para realizar testes e avaliações extensivos dos nossos modelos, incluindo o Gemini 3, o nosso modelo mais inteligente e seguro até à data.
Além disso, o Google DeepMind é um orgulhoso membro fundador do Fórum de modelo de fronteirabem como o Parceria em IAonde nos concentramos em garantir o desenvolvimento seguro e responsável de modelos de IA de ponta e em aumentar a colaboração em questões importantes de segurança.
Esperamos que a nossa parceria alargada com a AISI nos permita construir abordagens mais robustas à segurança da IA para o benefício não apenas das nossas próprias organizações, mas também da indústria em geral e de todos os que interagem com os sistemas de IA.
”Negócio desatualizado ele não está apenas perdendo dinheiro, mas está perdendo a chance de fazer a diferença ao mundo”
Produtor
Fale agora com um especialista da Atualizex e receba uma análise estratégica personalizada para o seu negócio.
Falar com Especialista no WhatsApp