Jan
23

Computação afetiva: você pode não estar falando com uma pessoa

por: Afonso Bazolli
fonte: Consumidor Moderno
22 de janeiro de 2020 - 17:01

Computacao-afetiva-voce-pode-nao-estar-falando-com-uma-pessoa-televendas-cobranca-1

Quem assistiu ao filme “Her”, pode ter sentido aquele incômodo de assistir a um homem conversando com uma máquina que reagia e respondia a ele como se fosse mesmo outra pessoa. E qual seria a sua reação ao acordar com a voz de uma Inteligência Artificial, como a Alexa, da Amazon; ou o Google Home, cantando “parabéns para você” logo pela manhã no seu aniversário? Essas situações são mais reais do que você imagina. Elas já estão acontecendo.

“Chegará um momento em que você não saberá mais se está conversando com um robô ou com uma pessoa”, disse Fred Saldanha, diretor criativo da Huge Brooklin, durante o blastU, evento de inovação e empreendedorismo que acontece nesta semana, em São Paulo. “Estamos na era do fim do mundo terminal e vivemos hoje em um mundo ativado por voz. A informação é onipresente e posso ativá-la de várias formas. Já vivemos rodeado por objetos que nos passam sensações”, disse.

É a computação afetiva. Ela é uma evolução do machine learning, que evoluiu com a criação de interfaces intuitivas e com tecnologias de Inteligência Artificial. “Tudo isso levou a um momento em que os sistemas e dispositivos processam e interpretam sentimentos e podem simular comportamentos humanos”, disse.

E todas as pontas da produção de novas tecnologias entendem dessa forma. Ao olharmos o desenho do carro autônomo do Google é possível enxergar um rosto, sem grandes esforços. “Os novos devices já são desenhados com a intenção de trazer uma imagem familiar, que passe uma certa emoção, para que você sinta algo. É engraçado ver que o ser humano quer criar coisas a sua imagem e semelhança. A tecnologia deixou de ser fria”, disse.

Homem ou máquina: perigos inerentes

A evolução da computação emocional tem causado estranhamento que vai além do natural questionamento frente a tecnologias disruptivas. Se uma máquina consegue chegar ao ponto de entender e simular emoções humanas, até que ponto esse comportamento pode ser perigoso? “É perigoso”, afirma Saldanha. Javier Hernandez, especialisda do MIT Media Lab, que cunhou o termo, defende que, sim, a computação afetiva pode ser perigosa dependendo da forma como ela é usada.

Um exemplo de como isso pode ser perigoso é uma experiência realizada por Szofia Suhag, uma publicitária americana que decidiu conversar com homens em aplicativos de relacionamento. Não era ela, mas um chatbot que conseguia levar a conversa da forma mais natural possível. Foram mais de 150 conversas, que sempre terminavam quando o robô se revelava como um robô. “O problema está quando esses termos não estão claros”, disse Saldanha.

Mais benefícios que perdas

Quando esses termos estão claros, a humanidade só tem a ganhar. Para se ter uma ideia, o mercado de software de reconhecimento emocional deve alcançar os US$ 36,7 bilhões até 2021. Neste valor, o mercado de micro-expressões se destaque – tecnologias que conseguem reconhecer expressões faciais em detalhes. “Para as marcas, isso é importante porque envolve relações mais profundas e com propósito com as pessoas”, disse Saldanha.

Uma empresa que trabalha com isso é a startup israelense Beyond Verbal: somente ouvindo as vozes das pessoas, essa Inteligência Artificial consegue interpretar essa voz e identificar o estado de ânimo das pessoas, em detalhes.

Para Saldanha, existem jeitos certos de lidar com essa computação afetiva – todas elas colocam o usuário, de alguma forma, no controle. Confira três maneiras possíveis de lidar com IAs afetivas de forma positiva.

1. Reações possíveis

É quando as máquinas reagem como máquinas, reconhecem emoções, mas os resultados dessas interações não envolvem emoções. Um exemplo: a empresa Eyris trabalha com reconhecimento facial do motorista de carro. O sistema reconhece comportamentos e sugere ações para o motorista dependendo do estado de ânimo dele. A decisão de seguir a orientação, contudo, fica a cargo da pessoa.

2. A máquina como uma extensão de si mesmo

Nesse estágio, a tecnologia reconhece e interpreta as emoções, mas o usuário controla a mudança dessas reações. Um exemplo de empresa que faz isso é a SensorStar, uma startup que desenvolveu um software que analisa como os alunos reagem às aulas a partir das emoções faciais. Esses dados ajudam a melhorar a performance dos professores e o engajamento durante as aulas.

3. A máquina como um ser humano

Aqui, as máquinas diagnostica, interpreta emoções e aconselha. É o caso da Alexa, por exemplo, que dá conselhos quando alguém diz a ela que está triste. Ou mesmo, de forma mais avançada, é o caso da SimSensei, uma terapeuta virtual, que está sendo utilizada no tratamento de militares norte-americanos que passaram por momentos traumáticos. Neste caso, ela é o início do tratamento – os dados da conversa, que parece realmente ser com uma pessoa, são enviados a um terapeuta real.

CADASTRE-SE no Blog Televendas & Cobrança e receba semanalmente por e-mail nosso Newsletter com os principais artigos, vagas, notícias do mercado, além de concorrer a prêmios mensais.

» Conheça os colaboradores que fazem o Blog Televendas e Cobrança.

Gostou deste artigo? Compartilhe!

Escreva um comentário:

[fechar]
Receba as nossas novidades por e-mail:
Cadastre-se agora e receba em seu e-mail:
  • Notícias e novidades do segmento de contact center;
  • Vagas em aberto das principais empresas de Atendimento ao Cliente;
  • Artigos exclusivos sobre Televendas & Cobrança assinados pelos principais executivos do mercado;
  • Promoções, Sorteios e muito mais.
Preencha o campo abaixo e fique por dentro das novidades: