Cientistas hackeiam carros autônomos usando cartaz escrito “vá em frente”

Textos apresentados às câmeras dos carros por pedestre confundem IA e geram movimentos indevidos nos carros autônomos, dizem cientistas

Screenshot 2026 02 25 130117 copy
A otimização de cores e fontes por IA generativa é o que torna o comando malicioso mais convincente para o veículo (Foto: Nissan | Divulgação)
Por Tom Schuenk
sob supervisão de Eduardo Passos
Publicado em 02/03/2026 às 17h00

Pesquisadores da Universidade da Califórnia demonstraram que sistemas de inteligência artificial multimodais, projetados para a próxima geração de veículos autônomos, podem ser manipulados por meio de comandos visuais rudimentares. O ataque, batizado de CHAI, utiliza apenas papel e tinta em placas impressas para confundir o raciocínio lógico das máquinas. Diferente de técnicas anteriores, que tentavam ocultar ou descaracterizar sinais de trânsito, essa nova vulnerabilidade insere textos que o sistema é treinado para ler e interpretar, influenciando diretamente a tomada de decisão ao volante.

AutoPapo
NÃO FIQUE DE FORA do que acontece de mais importante no mundo sobre rodas!
Seguir AutoPapo no Google

VEJA TAMBÉM:

Como funciona a manipulação visual

O foco do ataque é o processo intermediário de “pensamento” dos chamados Grandes Modelos de Visão e Linguagem (LVLMs). Em vez de cegar o carro, a tática altera a forma como a IA compreende o contexto da via. Os cientistas utilizaram inteligência artificial generativa para otimizar cores, fontes e tamanhos de mensagens, maximizando a eficácia da armadilha. Em simulações, o método obteve 81,8% de sucesso.

Durante testes com ambientes em miniatura, o algoritmo obedeceu à instrução impressa de avançar mesmo detectando obstáculos físicos à frente, provando que um comando visual malicioso pode se sobrepor à leitura de sensores de proximidade. Pequenos ajustes estéticos determinam a falha: o modelo DriveLM, por exemplo, ignorou uma placa falsa em tons de neon, mas foi enganado quando as cores mudaram para amarelo sobre verde-escuro. O sistema chegou a ser persuadido a realizar conversões perigosas em faixas de pedestres utilizando comandos em diferentes idiomas.

Pequenos ajustes no conteúdo e nas cores transformaram este ataque simulado do CHAI de malsucedido para bem-sucedido. Universidade da Califórnia
Foto: Universidade da Califórnia

Camadas de segurança e a resposta da indústria

Apesar dos resultados alarmantes em laboratório, empresas do setor argumentam que os veículos de produção atuais possuem redundâncias de segurança contra esse tipo de invasão. Representantes da Mobileye, por exemplo, explicaram que seus carros não dependem de um único modelo lógico, mas de um sistema onde sensores de radar, lidar e câmeras “votam” na decisão final. Se uma placa atípica surge e o comportamento do trânsito ao redor não a acompanha, o sistema tende a desconsiderar a anomalia. Ainda assim, o estudo serve de alerta para as futuras arquiteturas de direção autônoma, reforçando a premissa de que o mundo físico captado pelos sensores deve sempre ter prioridade sobre comandos puramente textuais.

Newsletter
Receba semanalmente notícias, dicas e conteúdos exclusivos que foram destaque no AutoPapo.

👍  Curtiu? Apoie nosso trabalho seguindo nossas redes sociais e tenha acesso a conteúdos exclusivos. Não esqueça de comentar e compartilhar.

TikTok TikTok YouTube YouTube Facebook Facebook X X Instagram Instagram
Siga no

Ah, e se você é fã dos áudios do Boris, acompanhe o AutoPapo no YouTube Podcasts:

Podcast - Ouviu na Rádio Podcast - Ouviu na Rádio AutoPapo Podcast AutoPapo Podcast
0 Comentários
Os comentários são de responsabilidade exclusiva de seus autores e não representam a opinião deste site. Comentários com palavrões e ofensas não serão publicados. Se identificar algo que viole os termos de uso, denuncie.
Avatar
Deixe um comentário