Jun
16
15 de junho de 2020 - 17:01

Vamos-conversar-sobre-a-etica-da-inteligencia-artificial-a-luta-pela-equidade-nos-modelos-preditivos-de-ia-televendas-cobranca-2

A equidade é um dos pilares da ética da inteligência artificial (IA) na Genesys. Também conhecido como “IA moral”, esse conceito é bastante semelhante às teorias de Immanuel Kant, filósofo alemão do século XVIII, que definiu as leis morais como “absolutos comprováveis que são aplicáveis a todos”, cuja validez não depende de motivos ou resultados ulteriores. “Não mentirás” é um bom exemplo de uma regra moral ou máxima, e é um bom ponto de partida para essa análise.

O primeiro blog desta série sobre ética aplicada à IA analisou os benefícios sociais da IA e como ela pode melhorar a vida das pessoas em todo o mundo. Neste segundo artigo, vamos examinar o sentido de equidade ou justiça na ética da IA e o problema da tendenciosidade e dos preconceitos (em relação a raça, etnia, gênero, nacionalidade, orientação sexual, capacidades, etc.).

Equidade de oportunidades e equidade nos resultados

Uma forma de ver a IA e a equidade é decidir que aspecto da “equidade” teremos em conta: se as oportunidades ou os resultados. Os dois tipos têm seu lugar na sociedade.

A equidade nas oportunidades é clara nos esportes, por exemplo, já que todos jogam de acordo com as mesmas regras. O resultado não está predeterminado, mas todo mundo aceita os resultados – ganhando ou perdendo – se o jogo foi limpo.

A equidade nos resultados está presente na mesa de jantar da família. Quando a comida é servida, todos recebem uma porção justa e igual. Em outras palavras, independentemente de ter participado na preparação da refeição, cada membro da família obtém um resultado igual ou justo.

Um modelo preditivo, como a aprendizagem automática, produzirá um resultado justo em termos de oportunidades se está baseado em:

Dados: Seus dados estão contaminados ou distorcidos?

Perguntas: Se a resposta é não, você está realizando as perguntas certas?

Prioridades e valores: Se é sim, você precisa reavaliar suas prioridades?

A questão chave não é se existe preconceito, mas se a tendenciosidade criada pelos dados, pelas perguntas, prioridades e valores é moralmente neutra. Se for assim, os resultados serão imparciais. Também é importante distinguir entre tendenciosidade socialmente injusta e aquela relacionada com ponderações e dados técnicos próprios do ambiente da IA.

Dito de outro modo, ajustar um modelo preditivo de IA para obter resultados favoráveis pode ser feito de três maneiras:

Escolhendo os dados

Ajustando as tendências, ou seja, ajustando a variação entre as predições e os valores reais

Ajustando as ponderações, ou seja, avaliando a solidez da conexão. E se o input aumentar, definir o quanto ele influiu no resultado

Quando as boas intenções acabam mal

Inclusive utilizando essa metodologia, continua existindo uma área indefinida quando queremos ajustar a IA para eliminar preconceitos sociais nocivos que podem se tornar problemáticos. Predeterminar um resultado somente porque você o considera justo, e criar uma situação tendenciosa, é um caso de profecia autorrealizável. Isso pode trazer consequências muito negativas, porque implica que “manipular o sistema” ou “trapacear” em nome da justiça é justificável. Se carregarmos o sistema com dados tendenciosos, obteremos dados tendenciosos.

John Giannandrea, diretor de IA de Google, também vê os perigos dentro dos algoritmos utilizados para tomar milhões de decisões a cada minuto. Os sistemas de aprendizagem automática baseados na nuvem são concebidos para serem mais fáceis de usar do que os algoritmos subjacentes. Embora isso torne a tecnologia mais acessível, também pode facilitar a infiltração de preconceitos nocivos. Por exemplo, os algoritmos das fontes de notícias podem influenciar as percepções do público. Outros algoritmos podem distorcer o tipo de tratamento médico que uma pessoa recebe ou como é tratada no sistema de justiça penal.

O Facebook tem sido criticado nos últimos anos por utilizar uma tecnologia que permite aos proprietários de imóveis discriminar com base na raça e aos empregadores discriminar com base na idade das pessoas. Essa tecnologia também facilitou a discriminação por gênero, porque os empregadores podiam excluir as candidatas do sexo feminino das campanhas de recrutamento. Todas estas áreas estão protegidas por leis em muitos países. Existem também outras questões a nível internacional que devem ser levadas em consideração. Um experimento do laboratório de mídia do MIT analisou dados de 40 milhões de decisões sobre preferências morais, revelando o quanto a ética é diferente nas diferentes culturas.

Alguns especialistas sugerem que a maneira de eliminar os preconceitos e a tendenciosidade é publicar detalhes dos dados ou do algoritmo usado. No entanto, muitas das mais poderosas técnicas de aprendizagem automática são muito complexas e pouco claras em relação a seu funcionamento. Elas requerem uma análise muito mais cuidadosa. Na nossa opinião, o melhor é começar pelo princípio, levando em consideração os imperativos morais de Kant.

Quando a IA leva a resultados iguais e justos

Estamos vivendo na era da experiência, onde a forma como as coisas acontecem é tão importante como o fato em si. Se analisamos e entendemos melhor o modelo preditivo e a aprendizagem automática, poderemos prever possíveis problemas e incorporar a imparcialidade nos modelos preditivos de IA. Afinal, uma experiência do cliente positiva depende de resultados justos.

Siga a nossa série de blogs que continuarão explorando os aspectos da ética aplicada à IA. Participe conosco da discussão sobre ética aplicada à IA.

Gordon Sexton:

Gordon Sexton é Gerente de Práticas de IA de Genesys North America Business Consulting. Tem um grande interesse pela IA e trabalha em soluções de experiência do cliente desde 2000. Sua carreira profissional tem se concentrado na engenharia de sistemas e na arquitetura empresarial. Porém, está totalmente convencido de que uma abordagem abrangente, que inclua arte, filosofia, história e humanidades, é fundamental para imbuir as soluções tecnológicas de relevância social e cultural.

CADASTRE-SE no Blog Televendas & Cobrança e receba semanalmente por e-mail nosso Newsletter com os principais artigos, vagas, notícias do mercado, além de concorrer a prêmios mensais.

» Conheça os colaboradores que fazem o Blog Televendas e Cobrança.

Gostou deste artigo? Compartilhe!

Escreva um comentário:

[fechar]
Receba as nossas novidades por e-mail:
Cadastre-se agora e receba em seu e-mail:
  • Notícias e novidades do segmento de contact center;
  • Vagas em aberto das principais empresas de Atendimento ao Cliente;
  • Artigos exclusivos sobre Televendas & Cobrança assinados pelos principais executivos do mercado;
  • Promoções, Sorteios e muito mais.
Preencha o campo abaixo e fique por dentro das novidades: