Ensinando IA a ver o mundo mais como os humanos — Google DeepMind

Home / Nosso Blog

Transforme seu negócio com a Atualizex

Leve seu marketing digital para o próximo nível com estratégias baseadas em dados e soluções inovadoras. Vamos criar algo incrível juntos!

Siga nosso Canal

Acompanhe semanalmente nosso canal no youtube com vídeos de marketing e performance e se inscreva-se

Play Video

Ensinando IA a ver o mundo mais como os humanos — Google DeepMind


Novas pesquisas mostram que reorganizar as representações visuais de um modelo pode torná-lo mais útil, robusto e confiável

A inteligência artificial (IA) “visual” está em toda parte. Nós o usamos para classificar nossas fotos, identificar flores desconhecidas e dirigir nossos carros. Mas estes sistemas poderosos nem sempre “vêem” o mundo como nós, e por vezes comportam-se de formas surpreendentes. Por exemplo, um sistema de IA que consiga identificar centenas de fabricantes e modelos de automóveis poderá ainda assim não conseguir captar os pontos em comum entre um carro e um avião, ou seja ambos são veículos grandes feitos principalmente de metal.

Para entender melhor essas diferenças, hoje estamos publicando um novo artigo na Nature analisando as maneiras importantes pelas quais os sistemas de IA organizam o mundo visual de maneira diferente dos humanos. Apresentamos um método para melhor alinhar estes sistemas com o conhecimento humano e mostramos que abordar estas discrepâncias melhora a sua robustez e capacidade de generalização.

Este trabalho é um passo na construção de sistemas de IA mais intuitivos e confiáveis.

Por que a IA luta com o “estranho”

Quando você vê um gato, seu cérebro cria uma representação mental que captura tudo sobre o gato, desde conceitos básicos como sua cor e pelagem até conceitos de alto nível como sua “qualidade de gato”. Os modelos de visão de IA também produzem representações, mapeando imagens para pontos num espaço de alta dimensão onde itens semelhantes (como duas ovelhas) são colocados próximos uns dos outros e itens diferentes (uma ovelha e um bolo) estão distantes.

Para compreender as diferenças na forma como as representações humanas e de modelos são organizadas, utilizámos a clássica tarefa “ímpar” da ciência cognitiva, pedindo aos humanos e aos modelos que escolhessem qual das três imagens dadas não se enquadra nas outras. Este teste revela quais dois itens eles “vêem” como mais semelhantes.

Às vezes, todos concordam. Dada uma anta, uma ovelha e um bolo de aniversário, tanto os humanos quanto os modelos escolhem o bolo como algo estranho. Outras vezes, a resposta certa não é clara e as pessoas e os modelos discordam.

Curiosamente, também encontrámos muitos casos em que os humanos concordam fortemente numa resposta, mas os modelos de IA erram. Para o terceiro exemplo abaixo, a maioria das pessoas concorda que a estrela do mar é estranha. Mas a maioria dos modelos de visão concentra-se mais em características superficiais, como cor e textura de fundo, e escolhe o gato.



Fonte

”Negócio desatualizado ele não está apenas perdendo dinheiro, mas está perdendo a chance de fazer a diferença ao mundo”

Atualizex Marketing e Performance

Produtor

Quer saber quanto investir para gerar mais clientes?

Fale agora com um especialista da Atualizex e receba uma análise estratégica personalizada para o seu negócio.

Falar com Especialista no WhatsApp

Compartilhe nas Redes Sociais

Facebook
Twitter
LinkedIn
Threads
Telegram
WhatsApp
Reddit
X
Email
Print
Tumblr
WeCreativez WhatsApp Support
Nossa equipe de suporte ao cliente está aqui para responder às suas perguntas. Pergunte-nos o que quiser!
👋 Olá, como posso ajudar?