Piscar
LarLar > blog > Piscar

Piscar

Jul 27, 2023

Scientific Reports volume 13, Número do artigo: 7961 (2023) Citar este artigo

279 acessos

Detalhes das métricas

Linguagens de comunicação baseadas no olho, como Blink-To-Speak, desempenham um papel fundamental na expressão das necessidades e emoções de pacientes com distúrbios do neurônio motor. A maioria dos sistemas de rastreamento baseados em olhos inventados são complexos e não acessíveis em países de baixa renda. Blink-To-Live é um sistema de rastreamento ocular baseado em uma linguagem modificada Blink-To-Speak e visão computacional para pacientes com deficiências de fala. Uma câmera de celular rastreia os olhos do paciente enviando quadros de vídeo em tempo real para módulos de visão computacional para detecção de pontos de referência faciais, identificação e rastreamento dos olhos. Existem quatro alfabetos-chave definidos na linguagem de comunicação baseada no olho Blink-To-Live: Esquerda, Direita, Cima e Piscar. Esses gestos oculares codificam mais de 60 comandos da vida diária expressos por uma sequência de três estados de movimentos oculares. Depois que as frases codificadas dos gestos oculares são geradas, o módulo de tradução exibirá as frases na fala nativa do paciente na tela do telefone e a voz sintetizada poderá ser ouvida. Um protótipo do sistema Blink-To-Live é avaliado usando casos normais com diferentes características demográficas. Ao contrário de outros sistemas de rastreamento ocular baseados em sensores, o Blink-To-Live é simples, flexível e econômico, sem dependência de requisitos específicos de software ou hardware. O software e sua fonte estão disponíveis no repositório GitHub (https://github.com/ZW01f/Blink-To-Live).

Esclerose Lateral Amiotrófica, ELA e Esclerose Lateral Primária, PLS são doenças neuronais progressivas que afetam as células do cérebro e da medula espinhal e gradualmente causam a perda do controle muscular e desenvolvem sintomas de comprometimento da fala. Os pacientes podem se comunicar com seus cuidadores nos estágios avançados da doença por meio de gestos oculares1,2. A tradução de gestos oculares em uma fala comunicada inventou uma infinidade de dispositivos de Comunicação Aumentativa/Alternativa (AAC) que têm diferentes designs e conceitos de usabilidade, desde painéis de controle com letras e números, telas sensíveis ao toque e ao olhar, sistemas de rastreamento ocular e, consequentemente, cursor do mouse modificado técnicas são introduzidas para controlar diferentes aplicativos de computador. Teclados comerciais com sensor de olhar são muito caros; por exemplo, o Tobii Dyanvox3 tem um custo que varia de 5K$ a 10K$ de acordo com diferentes modelos de configuração. O quadro Eye Transfer4 (E-tran) é uma solução alternativa de baixo custo (US$ 260), em que um cuidador segura um quadro plástico transparente com letras impressas e observa os gestos oculares do paciente no quadro. Os rastreadores de visão ocular montados na cabeça5 exigiam algumas configurações estáticas e ajustadas de acordo com a câmera e o olho do paciente durante o movimento da cabeça.

Pensamentos e intenções são outra abordagem de comunicação para pacientes com problemas de fala. A Interface Cérebro-Computador (BCI) é a atividade cerebral utilizada (ou seja, sinais de EEG) para controlar dispositivos externos, como digitar palavras selecionando letras em um teclado digital6 ou executar tarefas complexas, como navegar em uma página da Web7 ou pintar uma imagem8. Alguns soletradores cerebrais têm diferentes taxas de comunicação9,10, que aumentaram recentemente ao combinar o modelo de linguagem e o aprendizado profundo11,12. Estudos de pesquisa afirmaram que a maioria dos pacientes com ELA/PLS tem uma boa taxa de aceitação do uso de tecnologias baseadas em rastreamento ocular para iniciar comunicações com o mundo ao seu redor13,14,15, e rastrear os olhos do paciente é muito mais simples do que rastrear ou detectar outros sinais, como EEG/ECG16,17.

Pacientes com distúrbios de fala perdem suas habilidades naturais de fala18. Assim, muitas línguas modificadas que utilizam os órgãos móveis disponíveis, como a cabeça, gestos faciais, olhos ou sinais cerebrais, são propostas19,20. As linguagens de comunicação baseadas no olho são introduzidas em diferentes formas, codificando diferentes gestos oculares para sintetizar de forma fácil e eficiente uma fala comunicada21,22,23. O código Morse é uma das abordagens propostas para codificar as piscadas curtas e longas como uma sequência de pontos e traços, e os alfabetos/frases são construídos de acordo22,23. Piscar para falar é outra linguagem ocular proposta com oito alfabetos de acordo com oito gestos oculares (Fechar, Piscar, Esquerda, Direita, Cima, Baixo, Piscar e Rolar). As frases mais cotidianas (ou seja, 50 comandos) são codificadas usando esses alfabetos oculares definidos em um livro on-line em diferentes idiomas nativos para treinar e ensinar os pacientes/cuidadores a usar o idioma de maneira fácil e eficiente24. A maioria das linguagens oculares propostas para deficiências de fala são implementadas em dispositivos de hardware especializados com sensores específicos (óculos com infravermelho, teclados oculares, rastreadores oculares montados na cabeça, etc.) que complicam o processo de comunicação com menos usabilidade e acessibilidade para os pacientes e cuidadores14,25,26. Além disso, alguns desses dispositivos são caros e não acessíveis em países de baixa renda, como o Egito.