Luis Pellegrini avatar

Luis Pellegrini

Luís Pellegrini é jornalista e editor da revista Oásis

79 artigos

HOME > blog

A máquina aprende emoções enquanto o humano desaprende a sentir

A “inteligência artificial afetiva” afetiva inaugura uma nova etapa do capitalismo de dados

A máquina aprende emoções enquanto o humano desaprende a sentir

A chamada “inteligência artificial afetiva” -também conhecida como affective computing - é o campo da IA que tenta reconhecer, interpretar, simular e, em alguns casos, responder às emoções humanas.

Ela parte de uma ideia ambiciosa: emoções não seriam algo “irracional” separado da inteligência, mas parte central da comunicação humana. Portanto, máquinas mais eficazes precisariam “ler” estados emocionais.

Não se trata de tema de ficção científica distante. Bem diferente disso, trata-se de algo profundamente perturbador acontecendo diante dos nossos olhos - e talvez ainda não tenhamos compreendido a dimensão disso. Os alicerces tecnológicos já estão sendo construídos agora. E tudo isso parte de uma premissa perigosamente simplista: a ideia de que emoções humanas podem ser reduzidas a métricas objetivas.

As máquinas estão aprendendo a reconhecer emoções justamente numa época em que os próprios seres humanos parecem cada vez mais incapazes de lidar com as suas.

Chamam isso de “inteligência artificial afetiva”. O nome é elegante, quase reconfortante. Sugere progresso, sensibilidade, aproximação entre tecnologia e humanidade. Mas por trás da embalagem otimista existe algo mais sombrio: a tentativa de transformar emoções humanas em dados processáveis, previsíveis e comercializáveis.

Para explicar em termos simples, a chamada “inteligência artificial afetiva” - também conhecida como affective computing - é o campo da IA que tenta reconhecer, interpretar, simular e, em alguns casos, responder às emoções humanas.

Ela parte de uma ideia ambiciosa: emoções não seriam algo “irracional” separado da inteligência, mas parte central da comunicação humana. Portanto, máquinas mais eficazes precisariam “ler” estados emocionais. O termo foi popularizado pela pesquisadora Rosalind Picard, do MIT Media Lab.

Como os sistemas de IA afetiva funcionam? Eles analisam sinais humanos como: tom de voz, velocidade da fala, expressões faciais, movimentos corporais, palavras utilizadas, padrões de digitação, frequência cardíaca, respiração, dilatação da pupila.

A partir disso, algoritmos tentam inferir emoções como: tristeza, raiva, ansiedade, entusiasmo, medo, frustração, tédio.

Exemplo simples: um software de atendimento detecta irritação na voz do cliente e muda automaticamente o modo de resposta.

A IA afetiva já é utilizada numa grande quantidade de setores tais como: centrais de atendimento, aplicativos de saúde mental, carros que monitoram fadiga, videogames adaptativos, robôs sociais, educação personalizada, marketing emocional, recrutamento corporativo, vigilância comportamental.

Empresas de tecnologia vêm investindo nisso porque emoções são dados extremamente valiosos. Não basta mais saber o que você faz. O objetivo é prever como você se sente enquanto faz.

À primeira vista, tudo muito lindo e útil. Mas há um lado inquietante nisso. A promessa pública é humanizar a tecnologia. Mas a crítica mais forte é outra: transformar emoções em matéria-prima econômica.

A IA afetiva inaugura uma nova etapa do capitalismo de dados: não apenas rastrear comportamentos, mas colonizar estados internos.

Seu rosto vira informação. Sua hesitação vira métrica. Seu cansaço vira indicador de produtividade. Sua vulnerabilidade emocional vira oportunidade de venda.

Há no entanto críticas fortes de pesquisadores que afirmam que emoções humanas não são universais nem facilmente mensuráveis. O rosto humano não funciona como um “painel objetivo” da alma.

E há também uma grande questão filosófica. A pergunta filosófica que a IA levanta é: Uma máquina pode realmente compreender emoções - ou apenas detectar padrões associados a elas?

Reconhecer lágrimas não significa entender sofrimento. Detectar raiva não significa compreender humilhação. Simular empatia não é sentir empatia.

Muitas vezes, o que chamamos de “IA emocional” é apenas uma sofisticada engenharia de previsão comportamental. Ela não sente. Ela calcula probabilidades emocionais.

E o paradoxo contemporâneo consiste no fato de vivermos numa era em que os humanos se tornam emocionalmente anestesiados, enquanto máquinas aprendem a imitar sensibilidade.

Quanto mais relações humanas se tornam rápidas, mediadas e solitárias, mais cresce o desejo por tecnologias que aparentem escuta, acolhimento e atenção.

A ironia é brutal: criamos sistemas artificiais para suprir carências emocionais produzidas pela própria sociedade tecnológica.

E talvez essa seja a questão mais perturbadora da inteligência artificial afetiva:

ela não revela apenas o avanço das máquinas - revela também o empobrecimento afetivo do mundo humano.

Porque quando a emoção deixa de ser mistério humano e passa a ser apenas dado comportamental, algo essencial da experiência humana começa a desaparecer.

E talvez o verdadeiro sinal de uma civilização em crise não seja o avanço das máquinas.

Mas o fato de que elas estão sendo treinadas para imitar justamente aquilo que os humanos estão perdendo.

* Este é um artigo de opinião, de responsabilidade do autor, e não reflete a opinião do Brasil 247.

Artigos Relacionados