Óculos da Meta ajudam criança com deficiência visual a 'ver' presentes
- Fabio Sanches

- 16 de dez. de 2025
- 3 min de leitura

Vídeo amplia o debate sobre o uso de tecnologia como ferramenta de acessibilidade visual; gravação mostra o uso de óculos com IA para receber descrição de bonecas
Um vídeo que circulou nas redes sociais na última semana chamou a atenção ao mostrar uma menina de 11 anos, com deficiência visual, utilizando o óculos inteligente Ray-Ban Meta como recurso de acessibilidade. Nas imagens, publicadas na conta @notasdadiversidade, Julia interage com a inteligência artificial (IA) do dispositivo por comandos de voz e recebe descrições em áudio dos objetos à sua frente, como presentes de Natal. A gravação repercutiu entre os usuários, que destacaram o potencial da tecnologia para promover inclusão.
Como o Meta Ray-Ban funciona
Os óculos inteligentes da Meta combinam câmera embutida, microfones, alto-falantes e um sistema de inteligência artificial integrado, que interage com o usuário por meio de comandos de voz. Embora o dispositivo não permita “ver” no sentido literal, ele descreve em áudio o que está à frente da câmera, como objetos, textos ou cenas. O funcionamento é semelhante ao do Gemini Live, por exemplo — com a diferença de que dispensa o uso de telas, o que amplia a acessibilidade para pessoas com deficiência visual.
O Ray-Ban Meta também pode ser utilizado em conjunto com o aplicativo de acessibilidade Be My Eyes, que conecta o usuário a uma rede global de voluntários com visão para fornecer à pessoa com deficiência visual orientações em tempo real. Nessa integração, os óculos funcionam como uma “ponte” para o serviço, captando imagens por meio da câmera e transmitindo as informações tanto para a inteligência artificial quanto para voluntários humanos, conforme a necessidade.

Enquanto a IA integrada ao Ray-Ban Meta é capaz de descrever objetos, textos e cenas de forma automática, o Be My Eyes complementa a experiência ao permitir o contato com uma rede global de voluntários com visão, que podem oferecer orientações mais contextualizadas em tempo real. O recurso é acionado por comando de voz (“Hey Meta, Be My Eyes”) e dispensa o uso das mãos, o que amplia a praticidade no dia a dia.
Óculos inteligentes e acessibilidade visual
O uso de óculos inteligentes como ferramenta de acessibilidade tem ganhado espaço no mercado de tecnologia. Esses dispositivos combinam câmeras, microfones, inteligência artificial e interação por voz para converter informações visuais em descrições sonoras, ajudando pessoas cegas ou com baixa visão a reconhecer objetos, compreender ambientes e ler textos sem depender de terceiros ou do smartphone.
Além dos óculos da Meta, há produtos desenvolvidos especificamente para esse público. É o caso dos modelos Envision Glasses e Ally Solos Glasses, que usam IA para leitura de textos em tempo real, descrição de ambientes e identificação de objetos, contribuindo para a realização de atividades cotidianas com maior autonomia.

O mercado também oferece opções voltadas a um público mais amplo, mas que podem beneficiar pessoas com deficiência visual. Os Xiaomi AI Glasses, por exemplo, incluem assistente de voz com reconhecimento de objetos e comandos por áudio. Já o Apple Vision Pro, embora focado em realidade mista, incorpora recursos de acessibilidade, como leitura de textos, que podem auxiliar usuários com baixa visão.
Apesar dos avanços, o uso desses dispositivos não substituem recursos tradicionais de mobilidade e orientação, como bengalas ou cães-guia. Ainda assim, a evolução da inteligência artificial e a ampliação de soluções acessíveis indicam que os óculos inteligentes tendem a se consolidar como aliados importantes na promoção da acessibilidade visual.
Com informações de Ally, Apple Be My Eyes, CBC, Envion Glasses, Macular Society e Robobionics
Fonte: techtudo








Comentários