Três
pesquisadores britânicos usaram inteligência artificial para
identificar texto a partir do som do teclado. A precisão do programa é
de 95% quando a gravação é feita por um microfone próximo à pessoa que
digita, segundo dados do estudo conduzido pelas universidades de Durham,
Surrey e Royal Halloway.
Os professores britânicos alertam para o risco de pessoas
mal-intencionadas usarem a técnica de interceptação do teclado para
roubar senhas e também bisbilhotar informações sensíveis.
Técnicas de espionagem que envolvem a interpretação de sinais
emitidos por um aparelho são chamadas de ataques de canal lateral (SCAs,
na sigla em inglês). O interceptador pode captar ondas
eletromagnéticas, consumo de bateria, sensores móveis e também sons.
Os ataques de canal lateral são conhecidos. Já decodificaram com
êxito processadores Intel, impressoras e a máquina Enigma --aquela
interceptada pelo pai da computação Alan Turing, como mostra o filme "O
Jogo da Imitação" (2014).
O que a pesquisa britânica --divulgada em pré-print (ainda sem a
revisão por pares)-- mostra é que avanços em aprendizado de máquina
aumentam o desempenho das técnicas de interpretação de sons.
Para fazer a análise, os pesquisadores primeiramente definiram o
desenho da onda sonora e depois usaram uma técnica matemática para
transformá-la em um sinal. A IA, então, consegue receber esses sinais e
sugerir as palavras mais prováveis.
Já era possível detectar o que era digitado em teclados mecânicos --e
barulhentos. O novo estudo testou teclados de notebook, que, embora
mais silenciosos, têm estruturas parecidas e, durante o uso, emitem sons
semelhantes, o que facilitaria a reprodução da técnica de
interceptação, segundo os autores.
Ainda assim, é muito difícil conseguir o mesmo resultado em teclados
diferentes, segundo o professor de ciência da computação da USP Marcelo
Finger, que já desenvolveu IAs que detectavam padrões com base em
amostras de som.
Senhas que contenham palavras inteiras são mais vulneráveis a ataques
com inteligência artificial. Mesmo que o modelo entenda errado o
significado de uma tecla, as IAs podem corrigir vocábulos por
funcionarem com predição de palavras conhecidas --ou seja, indicando a
próxima palavra mais provável--, de acordo com Eerke Boiten, professor
da Universidade de Leicester.
Finger afirma que a inteligência artificial deve acertar mais em
trechos maiores de digitação, pela característica estatística de seu
funcionamento. O algoritmo tem mais informações com que trabalhar e para
corrigir as teclas erradas.
Outro fator de risco é que a proliferação de dispositivos digitais
aumenta os microfones nas ruas e nas casas e, com isso, cresce a chance
de haver gravações com a qualidade necessária para a interpretação com
maior fidelidade.
Smartphones, assistentes pessoais --como Alexas--, smartwatches e até
lâmpadas inteligentes, em alguns casos, podem gravar áudio. Os objetos
mais simples são os mais vulneráveis a ciberataques.
De acordo com a empresa de tecnologia Ericsson, é difícil se proteger
de ataques de canais laterais, uma vez que a estratégia explora
características físicas dos aparelhos. Uma forma de proteção é o uso,
pelos fabricantes de eletroeletrônicos, de estratégias para confundir os
sinais emitidos pelos dispositivos.
No caso do Zoom, o algoritmo do estudo britânico consegue acertar 93%
do que foi digitado --abaixo da precisão máxima do programa. Um filtro
contra ruído no aplicativo dificulta a diferenciação do som das teclas.
A tecnologia corta parte das ondas de som, que são transformadas em
código inteligível pela inteligência artificial. Para contornar essa
barreira, os cientistas britânicos solucionaram o problema com uma
técnica chamada aumento de dados.
A partir dos padrões registrados com o som gravado em microfone e de
operações matemáticas, os pesquisadores conseguem preencher os trechos
cortados pelo filtro. O aumento de dados também serviu para treinar o
modelo de aprendizado de máquina com informações virtuais.
A pesquisa foi iniciada pelo pesquisador Joshua Harrison, da
Universidade de Durham, e teve como coautores os professores Ehsan
Toreini, da Universidade de Surrey, e Maryan Mehrnezhad, da Royal
Holloway University of London.
"Nosso trabalho joga luz a uma nova forma de ataque virtual possível
com machine learning [treinamento de programas a partir de exemplos]",
diz Toreini, que orientou a elaboração do artigo. Em pesquisa de
cibersegurança, é comum testar brechas antes que criminosos as explorem.
Finger, da USP, afirma que o estudo ainda precisa ser reproduzido por outros cientistas para ter seus números testados. "Mas a metodologia faz sentido."
Nenhum comentário:
Postar um comentário