Teste colocou os principais assistentes virtuais do mercado cara a cara para saber quem tem o maior “Q.I digital”

Com termos complexos como redes neurais, aprendizado de máquina, processamento de linguagem natural e muitos outros sendo utilizados como verdadeiros pilares para a disputa entre empresas de tecnologia, cada companhia tenta provar a si mesmo, a concorrência e aos seus próprios clientes que tem o maior poder bélico quando o assunto é oferecer a experiência de uso mais “inteligente” possível.

Com a inteligência artificial sendo considerada um dos assuntos do momento, as empresas mostram parte da sua aplicação através de assistentes virtuais “inteligentes”, com vozes cada vez mais humanizadas e capazes de atender as mais diversas requisições. 

ios-siri-mac-mac-os.jpg
Imagem: Google Discovery

Vimos recentemente o Google trazer inovações suficientes para seu assistente fazer uma ligação sem ser notado, enquanto que a Apple, apesar de aparentemente estar mais focada em realidade aumentada, mostrou ao mundo os novos atalhos da Siri, que permitem uma automatização pré-programada de comandos.

Falando na assistente virtual da Apple, a Siri foi a pioneira entre as assistentes virtuais sendo anunciada em 2011, mas logo foi equiparada ou até mesmo ultrapassada por concorrentes como o próprio Google Assistente.

De acordo com testes e comparações, a assistente da Maçã é inferior ao Google Assistente em diversos aspectos, desde o entendimento de perguntas até a exatidão das respostas dadas. Enquanto a Siri, quando perguntada sobre algum assunto específico responde algo como “aqui estão as informações que encontrei na web”, o assistente do Google consegue fazer praticamente um resumo rápido do que foi perguntado, por exemplo.

assistentes.png
Imagem: Loup Ventures

Agora, um teste feito pelo site Loup Ventures trouxe um comparativo entre os principais assistentes virtuais do mercado afim de mostrar qual deles tem a melhor capacidade de entender o que o usuário está dizendo e qual oferece as respostas, ou executa os comandos, de forma mais assertiva. Os assistentes testados foram a Siri, o Google Assistente, a Alexa e a Cortana, da Apple, Google, Amazon e Microsoft, respectivamente.

O teste foi conduzido usando a Siri em um iOS 11.4 (versão mais estável do sistema operacional), o Google Assistente em um Pixel XL, a Alexa através de um app para iOS, assim como a Cortana.

Esses assistentes foram submetidos a 800 perguntas e foram ranqueados de acordo com duas métricas: 1. O assistente entendeu a pergunta feita? 2. Ele deu a resposta correta? As perguntas foram divididas em 5 tópicos diferentes, sendo eles localização, comércio, navegação, informação e comandos.

main-graph-1-768x396.png
Perguntas respondidas corretamente por categoria – Gráfico: Loup Ventures

O assistente virtual do Google foi o único capaz de entender as 800 perguntas e as respondeu corretamente em 86% dos casos. A Siri apareceu em segundo não compreendendo apenas 11 das perguntas feitas e respondeu corretamente 79% das questões. Alexa e Cortana fecharam a classificação com 61% e 52% das perguntas respondidas de forma correta, respectivamente, não conseguindo entender 13 questões, no caso da Alexa, e 19, no caso da Cortana.

Elencando os dois principais competidores, o Google Assistente foi superior a Siri em 4 dos 5 tópicos testados, sendo inferior apenas na parte de comandos, onde ficou 14% atrás da assistente da Apple. De acordo com o pessoal do Loup Ventures, a assistente da Maçã se mostrou mais útil e versátil, respondendo a uma linguagem mais flexível, controlando desde funções no smartphone até elementos conectados do ambiente.

Um dos tópicos que mais apresentou discrepâncias foi o de informações, onde o Google ficou 15% à frente da segunda colocada Alexa e incríveis 23% acima da sua maior rival, a Siri. No entanto, essa grande diferença não é inesperada, tendo em vista o ramo de atuação da empresa.

improvement-768x481.png
Melhora em % de respostas corretas – Gráfico: Loup Ventures

O fato é que todos os assistentes tiveram um excelente rendimento e todos eles encontraram avanços significativos no decorrer de pouco mais de um ano. Graças a melhorias nos algoritmos de processamento de linguagem natural e por conta da conectividade entre dispositivos – que permite ao sistema um aprendizado mais dinâmico, Siri e Google melhoraram mais de 10% em relação ao primeiro teste e muitos dos problemas encontrados não foram mais notados.

É importante ressaltar que as baixas taxas de acerto da Alexa e da Cortana podem se dar ao fato de ambas funcionarem apenas como apps, não podendo executar algumas tarefas – ao contrário do Google Assistente e da Siri, que estão “enraizados” nos seus respectivos sistemas. 

E você, já teve a oportunidade de interagir com mais de um assistente virtual? Qual foi o seu preferido?

 

Autor: Philipe Farias

Fonte: Loup Ventures