Ao adquirir a startup israelense Q.ai, a Apple garante um grande avanço tecnológico no processamento de voz e micromovimentos faciais.

A Apple acaba de sacar o talão de cheques para fazer o que se destaca como sua segunda maior aquisição histórica. Por cerca de 2 mil milhões de dólares (ou 1,85 mil milhões de euros), a Apple adquiriu a Q.ai, uma start-up israelita especializada em IA de áudio e visão computacional.
Recorde-se que apenas a aquisição da Beats em 2014 por 3 mil milhões de dólares pesa mais nos livros de Cupertino. Mas se você olhar mais de perto quem está por trás do Q.ai, entenderá rapidamente que esta não é uma aposta cega.
À frente da startup está Aviad Maizels. Esse nome significa alguma coisa para você? É normal. Foi ele quem vendeu o PrimeSense para a Apple em 2013.
Na altura, esta tecnologia do Kinect da Microsoft permitiu criar o FaceID e relegar o sensor de impressões digitais ao esquecimento.
Entenda o que você não diz
Mas o que o Q.ai realmente faz? A startup está trabalhando em algoritmos de aprendizado de máquina que podem interpretar o que chamam de “fala silenciosa”.
A IA analisa micromovimentos na pele e nos músculos do rosto para entender o que você está dizendo, mesmo que não saia da boca.
Você vê o potencial dos AirPods? É como dar uma instrução ao Siri em um metrô ou biblioteca lotado sem abrir a boca. O sistema detecta o movimento dos seus lábios e músculos faciais para traduzi-lo em comandos de texto. É leitura labial, impulsionada por sensores ópticos e poder de computação local.
A aquisição também inclui patentes sobre detecção de frequência cardíaca e respiração por meio desses famosos micromovimentos da pele. A Apple não está apenas comprando uma função Siri, ela está oferecendo um bloco adicional para seu arsenal de saúde conectado. Tudo será integrado pelos 100 funcionários da Q.ai que agora se juntam às fileiras de Cupertino.
Para ir mais longe
Quais Apple AirPods escolher de acordo com seu orçamento? Comparação do intervalo
Visão Pro à vista
Então, por que agora? A resposta pode ser resumida em duas palavras: Vision Pro. O computador espacial da Apple precisa de interações mais naturais do que simples beliscões de dedos ou comandos de voz às vezes trabalhosos. A integração de sensores capazes de ler expressões faciais e linguagem não verbal mudaria radicalmente a experiência do usuário.
Johnny Srouji, chefe de chips da Apple, não se enganou. Em comunicado, ele elogia uma empresa que é “pioneira em novas formas criativas de usar imagens e aprendizado de máquina”.
Junte-se a nós das 17h às 19h, todas as quartas-feiras alternadas, para o show DESBLOQUEAR produzido por Frandroid E Numerama ! Notícias de tecnologia, entrevistas, dicas e análises… Vejo você ao vivo no Twitch ou retransmissão no YouTube!