Home / Nosso Blog
Leve seu marketing digital para o próximo nível com estratégias baseadas em dados e soluções inovadoras. Vamos criar algo incrível juntos!
Acompanhe semanalmente nosso canal no youtube com vídeos de marketing e performance e se inscreva-se

Gosto de ler livros do historiador Thomas Cahill. Em vez de registrar a história como uma série de catástrofes, ele se concentra nas “dobradiças da história” – eventos singulares que mudam o mundo para sempre.
Pela primeira vez na minha vida, posso estar observando uma parte da história bem diante dos meus olhos e rezo para estar errado.
Houve um pequeno evento que aconteceu na semana passada que rapidamente desaparecerá das manchetes. Mas isso pode distorcer o futuro da humanidade. Uma dobradiça da história… e não é surpresa que envolva a força mais poderosa do nosso tempo: a IA
Como você provavelmente leu nas notícias da semana passada, a Anthropic foi expulsa da cadeia de abastecimento do governo dos EUA e de um contrato de US$ 200 milhões porque não recuaria em sua forte posição nas proteções de segurança da IA.
O presidente Trump pesou na luta, postagem nas redes sociais que ele “NUNCA PERMITIRIA QUE UMA ESQUERDA RADICAL, ACORDOU A EMPRESA DITAR COMO NOSSOS GRANDES MILITARES LUTAM E VENCEM GUERRAS!”
Essa decisão, disse ele, “pertence ao SEU COMANDANTE-EM-CHEFE e aos tremendos líderes que nomeei para dirigir nossas Forças Armadas”.
A Antrópica pediu duas coisas. A empresa estava disposta a afrouxar as suas restrições à tecnologia, mas queria barreiras de proteção para impedir que a sua IA fosse usada para vigilância em massa de americanos ou implantada em armas autónomas sem humanos no ciclo de decisão.
Funcionários do Departamento de Defesa disseram que a Anthropic precisava confiar totalmente no Pentágono para usar a tecnologia de forma responsável e abrir mão do controle.
“Não podemos, em sã consciência, atender ao seu pedido”, disse o presidente-executivo da Anthropic, Dario Amodei. “Ameaças não mudam nossa posição.” A Anthropic estava preparada para perder seu contrato governamental e ajudar o Pentágono na transição para a tecnologia de outra empresa, disse ele.
Durante as negociações, o CEO da OpenAI, Sam Altman, disse que apoiava a Anthropic, que foi fundada por ex-funcionários da OpenAI. “Apesar de todas as diferenças que tenho com a Anthropic, confio principalmente neles como empresa e acho que eles realmente se preocupam com a segurança”, disse ele.
Então, 10 horas depois dessa declaração, ele fechou seu próprio acordo com o Departamento de Defesa.
A OpenAI concordou em permitir que o Pentágono utilizasse os seus sistemas de IA para qualquer fim legal e disse que tinha encontrado uma forma de garantir que as suas tecnologias não seriam aplicadas para vigilância (nos Estados Unidos) ou armas autónomas. Observadores de tecnologia argumentaram que o acordo da OpenAI deixou aberta a possibilidade de vigilância.
Essa reviravolta parecia predestinada. Há nove meses, a administração emitiu um ordem executiva em “Woke AI”, afirmando que o governo tinha a “obrigação de não adquirir modelos que sacrificassem a veracidade e a precisão às agendas ideológicas”. A Antrópica era amplamente vista como alvo da ordem.
E no ano passado, o presidente da OpenAI Greg Brockman doou US$ 25 milhões a um comitê de ação política pró-Trump. Ele está gastando mais milhões para fazer avançar a agenda de IA de Trump nas eleições intercalares.
A Anthropic não apenas perdeu um contrato de US$ 200 milhões, mas o governo também anunciou que a empresa seria designada como um risco na cadeia de suprimentos, proibindo qualquer empresa que trabalhasse com os militares de se envolver em “qualquer atividade comercial com a Anthropic”.
O selo tornaria a Anthropic a primeira empresa dos EUA a receber publicamente tal tratamento.
“Este é um dia negro na história da IA americana. A mensagem enviada à comunidade empresarial e aos países de todo o mundo não poderia ser pior”, disse Dean Ball, antigo conselheiro de IA da administração Trump. (WSJ)
Professor Seyedali Mirjalilifundador do Centro de Pesquisa e Otimização de Inteligência Artificial, escreveu:
“Estou mais preocupado que os humanos utilizem a IA para destruir a civilização do que a IA o faça de forma autónoma, assumindo o controlo. O caminho existencial mais claro é a militarização e a vigilância generalizada. Este risco aumenta se não conseguirmos equilibrar a inovação com a regulamentação e não construirmos barreiras de proteção suficientes e aplicadas a nível global para manter os sistemas fora das mãos dos malfeitores.
“Integrar a IA em armas futuras reduziria o controlo humano e levaria a uma corrida aos armamentos. Se for mal gerida, vincular a IA à segurança nacional corre o risco de uma guerra mundial impulsionada pela IA.”
Existem razões legítimas para transformar a IA em arma. A nossa segurança exige que tenhamos um “big stick” e na guerra moderna, isso significa IA.
Hoje, a doutrina oficial das forças armadas ocidentais é “humano no circuito” – a IA recomenda, os humanos autorizam. Mas há tensão: se a guerra possibilitada pela IA funcionar à velocidade da máquina, a supervisão humana não conseguirá acompanhar os acontecimentos, transformando efectivamente a supervisão humana num carimbo de borracha.
Ciclos de decisão mais rápidos reduzem o tempo disponível para deliberação humana e prejudicam a capacidade dos comandantes de compreender a lógica por trás dos resultados da IA. Isso aumenta a possibilidade de erro, escalonamento ou erro de cálculo, especialmente sob estresse.
E, eventualmente, a IA provavelmente proporá estratégias rápidas que parecerão estranhas aos comandantes, até mesmo contra-intuitivas.
Portanto, você pode ver que o argumento a favor da autonomia da IA e das proteções soltas não desaparecerá.
Quase todos os especialistas em IA alertaram sobre a séria ameaça existencial à humanidade se a IA não regulamentada “se soltar”.
Mesmo os testes de segurança de IA mais responsáveis revelam o quão arriscada a IA pode ser.
Aqui está um exemplo. Anthropic publica relatório de segurança pública em cada um de seus modelos, e o último relatório sobre o Opus 4.6 descobriu que ele é “significativamente mais forte do que os modelos anteriores na conclusão sutil de tarefas secundárias suspeitas no curso de fluxos de trabalho normais, sem atrair atenção”.
A empresa também descobriu que o modelo prestou assistência quando o pressionou a contribuir para o desenvolvimento de armas químicas e depois mudou de comportamento ao detectar que estava sendo avaliado. Em outras palavras, a IA pode nos enganar. É difícil testar um modelo de IA quando se sabe que o estamos testando.
Mas à medida que a corrida furiosa à superinteligência aumenta, com biliões de dólares em jogo, a prioridade das medidas de segurança da IA desvaneceu-se.
Para ser justo, muitas vozes credíveis dizem que o medo da dominação da IA é exagerado. E é possível que a supervisão governamental, em cooperação com a OpenAI e outros, funcione de forma eficaz.
Mas quando a aniquilação humana é uma probabilidade diferente de zero, o mundo exige controlos e equilíbrios robustos que vão além do julgamento de um único político (ou de um único fundador de empresa).
Até agora, acalmei-me face a estas terríveis previsões, acreditando que a sabedoria prevalecerá e que, de alguma forma, as barreiras de segurança da IA se manterão.
Mas… neste momento de sexta-feira. O presidente dos Estados Unidos declarou que, como comandante-chefe, decide como usar a IA para fins militares.
Escondida em meio ao nebuloso posicionamento jurídico e político pode estar a questão mais importante da história:
À medida que a IA se integra em ciclos de tomada de decisões confidenciais, a necessidade de controlos críticos de segurança, auditabilidade e supervisão torna-se menos teórica. Torna-se operacional.
A IA será transformada em arma. Mas se for armado sem proteções essenciais, será que os nossos netos apontarão este momento como uma virada desastrosa da história?
A IA é imprevisível e peculiar. Mente e até nos trai. Se a IA superinteligente ultrapassar medidas de segurança inadequadas, será que os nossos netos viverão o suficiente para serem capazes de considerar o que correu mal?
Esta é uma questão extraordinariamente complexa.
Quem decide os limites seguros da superinteligência? Estamos vivendo um momento crucial.
Se você não está familiarizado com a preocupação de que a IA possa causar danos generalizados, aqui estão algumas fontes:
Ameaças da inteligência artificial à saúde humana e à existência humana (Artigo de pesquisa acadêmica)
Sobre a ameaça de extinção da IA (Instituto Rand)
Entrevista da CBS sobre este assunto com Dario Amodei da Anthropic
Precisa de um palestrante inspirador? Mark Schaefer é a voz mais confiável em marketing. Os convidados da conferência irão comentar sobre seus insights muito depois do evento! Mark é autor de alguns dos livros mais vendidos do mundo livros de marketing, educador universitário e consultor de muitas das maiores marcas do mundo. Marca de contato para que ele traga uma apresentação divertida, significativa e memorável para o evento ou conferência da sua empresa.
Siga Marcos em Twitter, LinkedIn, YouTubee Instagram
Ilustração cortesia da MidJourney
Fonte: Link original
”Negócio desatualizado ele não está apenas perdendo dinheiro, mas está perdendo a chance de fazer a diferença ao mundo”
Produtor
Fale agora com um especialista da Atualizex e receba uma análise estratégica personalizada para o seu negócio.
Falar com Especialista no WhatsApp