Denis Balibouse/Reuters
Denis Balibouse/Reuters

Fale com a robô

Muitas empresas põem os clientes a falar com máquinas na Internet: são mais baratas, rápidas e disponíveis. Mas é fácil a conversa resvalar para piadas, comentários impróprios e insultos.

A Anna estreou-se na secção de apoio ao cliente do IKEA em 2005: apesar das dificuldades em perceber várias perguntas dos clientes, e de lhe chamarem “burra”, a paciência era o seu ponto forte. “Por favor, faça perguntas sobre a loja e não se zangue comigo”, repetia. Independentemente do que diziam, nunca perdeu a calma até ser dispensada em 2015. A tecnologia, diz a empresa, estava desactualizada.

Foi criada para reduzir custos no departamento do apoio ao cliente. A Anna devia responder a perguntas simples sobre os produtos e serviços do IKEA, feitas por quem navegava no site. Metade das mensagens, porém, eram complexas, agressivas ou tinham pouco a ver com os produtos da empresa.

"Entre 30% e 50% tornavam-se impróprias, mal-educadas ou sobre sexo,” recorda ao PÚBLICO Magnus Jern, o director de inovação da DMI, a empresa que trabalhou no desenvolvimento da versão móvel daquele chatbot. “Quando as pessoas percebem que estão a falar com um robô que não as consegue perceber a 100%, partem frequentemente para uma linguagem incorrecta. Isto torna-se um problema quando o chatbot redirecciona o contacto para um assistente humano porque não está a perceber o que está a ser dito.” Foi uma das razões que contribuíram para que a Anna fosse retirada do site.

“Somos uma empresa de pessoas, para pessoas. Utilizar o nome foi uma forma de tentarmos humanizar o mais possível um sistema virtual que, em 2005, não era ainda muito conhecido”, explica Claudia Domingues, a actual directora de sustentabilidade do IKEA Portugal. Com os anos, perceberam que o programa “não era suficientemente eficaz para responder às perguntas feitas”, que eram cada vez mais específicas e diversificadas. O nome, personalidade e expressão humana do serviço de respostas automáticas levavam os clientes a terem expectativas irrealistas sobre o tipo de respostas que a Anna poderia dar.

PÚBLICO -
Foto

Regra geral, o “cérebro” destes programas é composto por frases pré-definidas, que funcionam como um guião. A resposta certa é escolhida com base em palavras-chave e expressões detectadas nas perguntas dos utilizadores. Idealmente, estes programas estão disponíveis 24 horas por dia, para que os assistentes humanos se dediquem, exclusivamente, a questões mais complexas. Muitas vezes, porém, basta que uma das palavras seja diferente das que estão no guião para que o programa fique confuso. Por exemplo, um sinónimo ou um erro ortográfico.

“Há muito potencial no serviço, mas até 90% das empresas que tentam desenvolver este tipo de tecnologia falham”, diz Magnus Jern. “Ainda é muito difícil trocar um assistente humano por um robô, a não ser que se invista tempo suficiente no seu desenvolvimento, a testá-lo em conjunto com assistentes humanos.”

Apesar dos números, cada vez mais empresas aceitam o desafio: em 2016, o mercado estava avaliado em 703,3 milhões de dólares e prevê-se que continue a crescer 35% ao ano até 2021, segundo a empresa de análise Markets & Markets.

No caso da Coca-Cola, a introdução do “agente virtual” Chip, em 2014, criado para gerir o site de prémios da marca, terá permitido poupar entre cinco a dez dólares por cada chamada telefónica ou email feito por um trabalhador real.

PÚBLICO -
Foto
A Sofia tem sempre uma resposta

Além de reduzir custos, a tecnologia aumenta a interacção com os clientes no site. Muitos falam com os chatbots apenas por curiosidade quanto às respostas que estes conseguem dar. É o caso da Sofia, a assistente virtual que está no site da TAP desde 2015. “Há sempre assuntos que nada têm a ver com a TAP, algum conteúdo impróprio e até coisas com alguma piada,” admite o director de inovação da companhia, Rui Estevão. Mas isso não é visto como um problema.

A Sofia está programada para tudo, incluindo lidar com insultos – “O que acabou de dizer não foi nada delicado!” – e rejeitar avanços amorosos ou frases com conotações sexuais – “E não acha melhor continuarmos amigos? É tão bonita, a amizade!” Quando não entende alguma palavra, ou não tem informação sobre o assunto, é comum dizer: “De momento, a informação que pretende está fora do meu âmbito de conhecimento”, ou “Pode repetir a sua pergunta, por favor? Provavelmente, não compreendi bem da primeira vez!”

Um dos motivos da criação da Sofia, acrescenta Rui Estevão, foi “melhorar a relação com o cliente através de um canal virtual que interage com linguagem natural”. Tem funcionado: “Tendo em consideração os dados de actividade, entre Janeiro e Maio 2017, a Sofia responde com sucesso a uma média diária de 1000 diálogos”.

Aprendizagem complicada

Os chatbots mais avançados incorporam inteligência artificial, que ajuda as máquinas a compreender melhor o discurso humano, ao utilizar bibliotecas de sinónimos, considerar o contexto da pergunta e aprender com as conversas anteriores.

Só que a aprendizagem nem sempre é a melhor solução: demorou menos de 24 horas para a Tay – uma chatbot “adolescente” criada pela Microsoft para o Twitter – se transformar num papagaio que repetia comentários racistas e preconceituosos.

A educação destes programas pode comparar-se à de uma criança, argumenta ao PÚBLICO o professor Michael McTear, que acompanha a evolução desta tecnologia há mais de 15 anos na Universidade de Ulster, no Reino Unido: “Os pais não expõem as crianças a linguagem e comportamento incorrecto, por exemplo, ao deixar que vejam filmes para adultos. O mesmo se aplica aos chatbots. É importante controlar a informação que é utilizada para treinar estes sistemas.”

É o que acontece com a Mitsuku – considerada um dos chatbots mais inteligentes que existem –, que aprende com os utilizadores, mas cujos conteúdos são todos revistos pelo criador, um informático chamado Steve Worswick. No ano passado, ganhou pela segunda vez o prémio Loebner, uma competição em que estes programas tentam passar o chamado teste de Turing, ao convencer um júri de que são humanos

Há 12 anos que Worswick, de 47 anos, passa duas horas por dia a rever e actualizar as respostas da Mitsuku. “Testei a aprendizagem automática para a Mitsuku durante um dia: aprendeu 1500 factos novos, mas só valia a pena guardar três.” Não recomenda o método. “É uma forma muito rápida de programar acidentalmente um chatbot racista, sexista, que diz muitas asneiras, dá erros de ortografia e se contradiz.”

O maior problema dos chatbots, diz Worswick, são as expectativas das pessoas, que esperam que estes programas se comportem como os robôs que conhecem da ficção, capazes de analisar o que lhes é dito e de tomar decisões.

PÚBLICO -
Foto
Uma conversa do PÚBLICO com a Mitsuku, traduzida do inglês

Algumas empresas evitam criar personagens humanas para os assistentes. É o caso do El Corte Inglés, em Portugal, que no final de 2016 lançou um chatbot que responde na terceira pessoa, em nome da empresa, e funciona através do sistema do Facebook para chatbots. Segundo um porta-voz da empresa, permite “gerir melhor as expectativas dos clientes” e tem resultado: apenas 30% das perguntas têm de ser redireccionadas para um assistente humano.

O programa não dá oportunidade ao utilizador de desviar o tema da conversa. Embora se apresente com um “Olá”, funciona com respostas e perguntas pré-definidas. Este tipo de sistema é comum aos chatbots do Facebook, que têm permitido que mais empresas criem rapidamente este tipo de programas interactivos para falar com os clientes. Porém, eliminam o conceito de discurso natural.

“Um agente virtual precisa de construir frases conexas e que mantenham o diálogo da mesma forma que manteria um interlocutor humano”, explica o investigador de linguística computacional da Priberam Pedro Balage. “Nota-se uma evolução de sistemas baseados em padrões fixos de perguntas e respostas para sistemas mais complexos capazes de manter conversas.”

Apesar da popularidade dos chatbots, há pouca informação sobre o tipo de conversa e assistente digital com quem as pessoas querem falar: homem ou mulher, com aparência robótica ou humana, religioso ou ateu, obediente ou autónomo e desafiador. O IKEA – que apesar de ter abandonado a Anna ainda acredita no potencial dos assistentes virtuais – está a tentar descobrir a resposta no laboratório de inovação da empresa, o Space 10.

No início do mês de Maio, lançaram um inquérito global online. Até agora, a maioria dos inquiridos optou por assistentes com características humanas, mas sem um género definido ou religião, e capaz de reagir a emoções e ser obediente. 

“Hoje, grande parte dos assistentes virtuais das empresas são mulheres. Isto pode ter um grande impacto na sociedade, porque estas assistentes são máquinas programadas para responder educadamentem independentemente do que lhes é dito”, observa ao PÚBLICO Simon Caspersen, o co-fundador do laboratório. “Mais empresas de tecnologia têm de perguntar aos clientes que tipo de agente de inteligência artificial querem. Tem de ser um processo mais democrático.”