BU, 14/02/2023
Por Jim Nash
Os consultores veem um pequeno desdobramento para o reconhecimento de emoções, mas o ceticismo permanece
Por mais divisivo que seja, o reconhecimento de emoções continua a encontrar adeptos no mundo dos negócios, principalmente no setor automotivo, mas também na profissão jurídica e no varejo.
A CEO Magazine, de fato, analisou as tendências de reconhecimento de emoções no varejo, conversando com um trio de executivos de alto perfil que trabalham em duas consultorias de negócios globais: Ernst & Young e Gartner.
O líder global de IA da EY, Rodrigo Madanes, diz que a (tecnologia de) inteligência artificial baseada em (reconhecimento de) emoções pode em breve se tornar um instrumento bem utilizado no kit de ferramentas de um varejista. Isso apesar de suas implicações de privacidade e da necessidade de levar em conta as diferenças culturais antes de implantar ferramentas de reconhecimento de emoções.
A analista do Gartner, Annette Zimmermann, diz que mais perguntas precisam ser respondidas. Ainda não existe uma maneira clara de avisar os clientes de que suas emoções estão sendo detectadas, analisadas e potencialmente armazenadas.
Zimmermann diz que a indústria está em uma base mais sólida agora ao implantar o reconhecimento de emoções para pesquisas de mercado, como perfis de clientes e avaliação de reações a produtos ou serviços.
De acordo com o analista do Gartner, Robert Hetu, a incapacidade de levar a tecnologia adiante também está ligada ao fracasso da maioria dos varejistas em converter o feedback do cliente em estratégias de produto.
Hetu sugeriu que os varejistas deveriam aproveitar a visão computacional ou a análise de voz para adicionar mais contexto às interações com os clientes. Por exemplo, a visão computacional em estações de autoatendimento pode reduzir o roubo e, ao mesmo tempo, medir os sentimentos do cliente.
Céticos querem que o reconhecimento de emoções seja banido na Lei de IA
O reconhecimento de emoções também está no centro de um alerta recente publicado por organizações de direitos civis Article 19 e Direitos Digitais Europeus (EDRI).
Vidushi Marda, um alto representante do programa do Article 19, e Ella Jakubowska, consultora de políticas da EDRi sobre direitos fundamentais, escrevem que o reconhecimento de emoções é ciência lixo (desacreditada) e deve ser banido. Eles preferem adicioná-lo a algoritmos proibidos na proposta do AI Act que está sendo debatida na União Europeia.
A dupla escreve que o reconhecimento de emoções no momento é classificado principalmente como um risco baixo ou mínimo na Lei de IA.
“A sociedade civil fez progressos importantes ao influenciar o Parlamento Europeu a apoiar emendas que proíbem o reconhecimento facial público e outros usos de vigilância em massa”, diz o artigo. “Mas um aspecto incrivelmente perigoso permanece em grande parte sem solução – acabar com o crescente mercado de reconhecimento de emoções da Europa.”
“O único requisito dos desenvolvedores é dizer às pessoas quando elas estão interagindo com um sistema de reconhecimento de emoções. Na realidade, os riscos são tudo menos 'baixos' ou 'mínimos'”, escreveram Marda e Jakubowska.
Eles também se referem a estudos que sugerem que os algoritmos de reconhecimento de emoções não são precisos o suficiente para serem confiáveis. Além disso, Marda e Jakubowska argumentam que, mesmo que se tornem mais precisos no futuro, os códigos ainda devem ser banidos.
“As suposições da tecnologia sobre os seres humanos e seu caráter colocam em risco nossos direitos à privacidade, liberdade de expressão e o direito contra a autoincriminação”, diz o post. “A capacidade de discriminação é imensa.”
O alerta ocorre em meio às discussões finais no Parlamento da UE sobre a Lei da IA, que a UE pretende finalizar este ano.
Artigos recomendados: IA e Dados
Nenhum comentário:
Postar um comentário