Por que a Rússia, a China e as big techs usam mulheres falsas para obter cliques
As campanhas de influência online montadas por países há muito que utilizam mulheres falsas para espalhar propaganda e desinformação.
O logotipo OpenAI é exibido em um telefone celular com uma imagem em um monitor de computador gerada pelo modelo de texto para imagem Dall-E do ChatGPT, 8 de dezembro de 2023, em Boston.
AP/Michael Dwyer
Quando o pesquisador de desinformação Wen-Ping Liu analisou os esforços da China para influenciar as recentes eleições de Taiwan usando contas falsas nas redes sociais, algo incomum se destacou nos perfis mais bem-sucedidos.
Eles eram mulheres, ou pelo menos era o que pareciam ser. Perfis falsos que afirmavam ser mulheres obtiveram mais engajamento, mais atenção e mais influência do que contas supostamente masculinas.
“Fingir ser mulher é a maneira mais fácil de obter credibilidade”, disse Liu, investigador do Ministério da Justiça de Taiwan.
Quer se trate de agências de propaganda chinesas ou russas , golpistas on-line ou chatbots de IA, vale a pena ser mulher – provando que, embora a tecnologia possa se tornar cada vez mais sofisticada, o cérebro humano continua surpreendentemente fácil de hackear, graças, em parte, aos antigos estereótipos de gênero que migraram do mundo real ao virtual.
Há muito que as pessoas atribuem características humanas, como gênero, a objetos inanimados (os navios são um exemplo), por isso faz sentido que características humanas tornem os perfis falsos nas redes sociais ou os chatbots mais atrativos.
No entanto, as questões sobre como estas tecnologias podem refletir e reforçar os estereótipos de gênero estão chama atenção à medida que mais assistentes de voz e chatbots com IA entram no mercado, confundindo ainda mais os limites entre o homem (e a mulher) e a máquina.
“Você quer injetar um pouco de emoção e calor, e uma maneira muito fácil de fazer isso é escolher o rosto e a voz de uma mulher”, disse Sylvie Borau, professora de marketing e pesquisadora on-line em Toulouse, França, cujo trabalho descobriu que os usuários da Internet preferem bots “femininos” e os vemos como mais humanos do que as versões “masculinas”.
As pessoas tendem a ver as mulheres como mais calorosas, menos ameaçadoras e mais agradáveis do que os homens, disse Borau à Associated Press. Os homens, por sua vez, são muitas vezes considerados mais competentes, embora também tenham maior probabilidade de serem ameaçadores ou hostis. Por causa disso, muitas pessoas podem estar, consciente ou inconscientemente, mais dispostas a se envolver com uma conta falsa que se faz passar por mulher.
Quando o CEO da OpenAI, Sam Altman, estava procurando uma nova voz para o programa ChatGPT AI, ele abordou Scarlett Johansson. A atriz relatou que o empresário a disse que os usuários encontrariam sua voz – que serviu como assistente de voz de mesmo nome no filme “Her” – “reconfortante”. Johansson recusou o pedido de Altman e ameaçou processar quando a empresa adotou o que ela chamou de voz “assustadoramente semelhante”. A OpenAI voltou atrás.
Conheça o GPT-4o, novo modelo de IA usado pelo ChatGPT
Fotos de perfis femininos, principalmente aquelas que mostram mulheres com pele impecável, lábios exuberantes e olhos arregalados em roupas reveladoras, podem ser outra atração online para muitos homens.
Os usuários também tratam os bots de maneira diferente com base no sexo percebido: a pesquisa de Borau descobriu que os chatbots “femininos” têm muito mais probabilidade de receber assédio e ameaças sexuais do que os bots “masculinos”.
Os perfis femininos nas redes sociais recebem, em média, mais de três vezes mais visualizações em comparação com os dos homens, de acordo com uma análise de mais de 40 mil perfis realizada para a AP pela Cyabra, uma empresa de tecnologia israelense especializada em detecção de bots. Perfis femininos que afirmam ser mais jovens recebem mais visualizações, descobriu Cyabra.
“Criar uma conta falsa e apresentá-la como mulher ajudará a conta a ganhar mais alcance em comparação a apresentá-la como homem”, segundo o relatório da Cyabra.
As campanhas de influência online montadas por países como a China e a Rússia há muito que utilizam mulheres falsas para espalhar propaganda e desinformação . Estas campanhas exploram frequentemente a opinião das pessoas sobre as mulheres. Algumas aparecem como avós sábias e carinhosas, distribuindo sabedoria caseira, enquanto outras imitam mulheres jovens e convencionalmente atraentes, ansiosas por conversar sobre política com homens mais velhos.
No mês passado, pesquisadores da empresa NewsGuard descobriram que centenas de contas falsas – algumas com fotos de perfil geradas por IA – foram usadas para criticar o presidente Joe Biden. Aconteceu depois que alguns apoiadores de Trump começaram a postar uma foto pessoal com o anúncio de que “não votarão em Joe Biden”.
Embora muitas das postagens fossem autênticas, mais de 700 vieram de contas falsas. A maioria dos perfis afirmava ser de mulheres jovens que viviam em estados como Illinois ou Flórida; um foi nomeado PatriotGal480. Mas muitas das contas usavam linguagem quase idêntica e tinham fotos de perfil geradas por IA ou roubadas de outros usuários. E embora não pudessem dizer com certeza quem operava as contas falsas, encontraram dezenas com ligações a países como a Rússia e a China.
O X (antigo Twitter) removeu as contas depois que o NewsGuard entrou em contato com a plataforma.
Um relatório da Organização das Nações Unidas (ONU) sugeriu que há uma razão ainda mais óbvia pela qual tantas contas falsas e chatbots são femininos: foram criados por homens. O relatório, intitulado “ Os robôs são sexistas? ”, analisou as disparidades de gênero nas indústrias tecnológicas e concluiu que uma maior diversidade na programação e no desenvolvimento da IA poderia levar a menos estereótipos sexistas incorporados nos seus produtos.
Para os programadores ansiosos por tornar os seus chatbots tão humanos quanto possível, isto cria um dilema, disse Borau: se selecionarem uma persona feminina, estarão a encorajar visões sexistas sobre as mulheres da vida real?
“É um ciclo vicioso”, disse Borau. “Humanizar a inteligência artificial pode desumanizar as mulheres.”
Taiwaneses fazem fila para votar fora de uma seção eleitoral em Taipei, Taiwan, 13 de janeiro de 2024
AP Photo/Chiang Ying-ying