Temos trabalhado para otimizar a interação homem-máquina (HMI). E há um mundo absolutamente novo de interação sem atrito a caminho. Os comandos de texto usando um teclado e o mouse evoluíram para o reconhecimento de fala e gestos. A qualidade das relações humanas vai continuar a melhorar à medida que os sistemas começarem a decifrar sinais visuais e tons de áudio. As comunicações serão aprimoradas conforme as máquinas começarem a entender o contexto das palavras e a interpretar as pausas entre as frases. Tecnologias de reconhecimento facial, síntese de voz, reconhecimento de voz e conversão de texto em fala são os maravilhosos avanços que têm colocado esse diálogo em prática. Mas ainda há lacunas.

Na Wipro, construímos uma espécie de colaborador de RH; é como um funcionário que entende certos sinais, como o aceno de cabeça de um candidato, no entanto, não sabe dizer se esse mesmo candidato está frustrado durante uma entrevista. Creio que à medida que nos tornarmos melhores em análise emocional, teremos sistemas que realmente transformem setores como o varejo, bancos, viagens e educação. E sim, o RH terá melhores seleções também!

Hoje, as maquinas têm ‘aprendido’ a interpretar o que chamamos de microemoções. Elas podem escanear um rosto, por exemplo, e dizer se a pessoa está sorrindo ou se está com raiva. Mas não são capazes de ir muito além disso. Me lembro de uma série de TV muito famosa em 2010, chamada Lie To Me. O protagonista, o brilhante e também amargo Dr. Cal Lightman, tinha a habilidade de identificar movimentos quase que imperceptíveis, e afirmar se a pessoa estava mentindo ou dizendo a verdade. Lightman combinava suas observações de microexpressões com psicologia aplicada para chegar à resolução em uma variedade de investigações criminais. Mas o mais importante é que ele entendia as expressões porque conhecia o contexto. Essa é a lacuna que a Interface do Homem Máquina (HMI – Human Machine Interface) deve superar para os próximos anos. A HMI usa gestos e falas, mas também precisa entender o contexto subjacente, a intenção, as emoções – estresse, fadiga, irritação, tédio, frustração, insatisfação, felicidade, prazer – para, então, melhorar as interações.

Os pioneiros que estão construindo plataformas computacionais para a interação natural e humana com máquinas, em breve, oferecerão melhores ferramentas para a percepção emocional e a interpretação contextual. Modelos também estão sendo construídos para suportar esses sistemas. Tais modelos podem interpretar atributos peculiares como sarcasmo, humor, cinismo e ceticismo. Tudo isso nos diz que podemos esperar um futuro com grandes e importantes transformações em nosso relacionamento com as máquinas.

K R Sanjiv é CTO na Wipro Limited