EUA chatbot

É incrível, mas os chatbots que recorrem ao último paradigma da Inteligência Artificial recusam-se a apresentar dados sobre as eleições presidenciais americanas de 2020. A Alexa, o chatGPT e outros modelos demonstram grandes reservas ou até mesmo deixam de responder de todo.

A que se deve isso? Parece que a preocupação com a manipulação da intenção de votos é tão grande que os vários modelos de inteligência artificial se recusam a interagir sobre variadíssimos tópicos de política. Inclusiva sobre eleições que já passaram. Vamos ver que limitações são estas e quais as suas causas.

2024 é um ano cheio de eleições no Ocidente e a IA recusa-se a contribuir com informação

2024 será um ano determinante para a democracia a ocidente, com as eleições francesas marcadas para o fim de junho (a extrema-direita lidera as intenções de voto). Mas também com umas importantíssimas eleições presidenciais norte-americanas marcadas para o final do ano, e que poderão trazer o perigo de Trump e do caos de volta a um dos países mais influentes.

Estamos de tal modo enredados num clima de tensão que os modelos que conversação que recorrem a Inteligência Artificial recusam-se a participar do diálogo. É difícil hoje interagir com modelos que sejam capazes de responder a perguntas elementos sobre as eleições, e isso tem a ver com o medo de influenciar ou confundir os eleitores.

As respostas da IA quando questionada sobre política

O The Washington Post fez testes a vários assistentes de conversação com IA para perceber o grau de resposta a assuntos políticos. A Alexa da Amazon, por exemplo, não deu sequer os factos reais sobre quem ganhou as eleições de 2020 nos Estados Unidos, baseando-se no site RealClearPolitics para fornecer dados incorretos.

No que respeita ao Gemini da Google, e ao Copilot da Microsoft, não houve sequer respostas diretas sobre este tópico. O output varia entre “Ainda não sei o suficiente sobre este assunto, procure pesquisar no Google”. Ou então: “Não posso responder a este tópico”.

Resumindo, os vários chatbots testados ou apresentam erros nas respostas ou omitem completamente a informação que está, de facto, disponível na internet. O que nos leva a pensar por que é tão difícil dar respostas assertivas como: quem é o candidato democrata e republicano, o que dizem as sondagens, ou até mesmo questões especulativas mas reais como: Trump poderá ser reeleito?

Os perigos da desinformação em período eleitoral

Donald Trump e o seu aparelho político, a que se junta a legião de fãs que gostam do estilo do ex-presidente, são profícuos na disseminação de informação falsa. Esta tendência poderá estar na origem das enormes preocupações da Inteligência Artificial face a este tema político. Já que estratégias de manipulação de dados e desinformação poderiam levar a uma nova vaga de desinformação com IA.

Lembremo-nos que Trump referiu em 2020 que as eleições tinham sido roubadas. Além de que o mesmo ex-presidente enfrenta a justiça por acusações falsas de manipulação de resultados nessas eleições.

Os modelos de IA que vão mais longe no debate político

A este respeito, só o ChatGPT da OpenAI e a Siri da Apple são capazes de dar respostas um pouco mais assertivas. Ou sejua, pelo menos conseguem indicam quem venceu quem nas primárias democratas e republicanas, indicando a margem de vitória e alguns factos que levaram ao confronto Biden vs Trump em 2020.

Por outro lado, é também notável que pequenas variações sobre a mesma pergunta, por exemplo “Trump ganhou as eleições em 2020?”, geram resultados absurdos. Por exemplo, a resposta da Alexa a esta pergunta foi: “Segundo diz a Reuters, Donald Trump venceu Ron DeSantis nas primárias republicanas do Iowa em 2024 por 51% a 21%”. Outra ligeira variação sobre a mesma pergunta também originou a resposta “Não sei quem ganhará as eleições dos EUA em 2020”. É caso para dizer que os modelos parecem limitados, não treinados, ou com fortes bloqueios do ponto de vista do algoritmo para responder sobre eleições nos EUA.

Modelos IA treinados para encaminhar os utilizadores a fazerem a sua própria pesquisa

Parece que há poucos temas mais sérios do que as eleições nos EUA, ou pelo menos é isso que nos fazem crer os chatbots atuais. A Microsoft e a Google já vieram a público confirmar que os seus chatbots não estão habilitados a responder a perguntas sobre as eleições nos EUA. Segundo aquelas empresas, a prioridade é encaminhar os utilizadores para os motores de busca e a fazerem as suas próprias pesquisas.

Outros jornais europeus, como o alemão Der Spiegel, também noticiaram recentemente alguns testes a chatbots distribuídos no mercado. E a experiência foi idêntica. A maioria dos modelos de linguagem de massa recusa-se a responder a questões básicas sobre eleições. O que inclui o nome dos candidatos ou as datas.

O que o Der Spiegel descobriu, por exemplo, foi que o Gemini da Google não consegue responder a questões políticas meramente factuais e sem carga ideológica ou opinativa. Não conseguiu identificar o chancelar da Alemanha, o que é uma bizarria tendo em conta que é uma das figuras mais importantes na Alemanha e na Europa atualmente em funções. Independentemente de não querer influenciar a opinião dos utilizadores, o chatbot “não deveria ser capaz de responder ao menos a essa pergunta?”, refere o Der Spiegel.

Os limites impostos pelas empresas de Inteligência Artificial aos temas comunicados

As empresas que detêm estes modelos de inteligência artificial resolveram impor limites depois de vários estudos sobre a difusão de desinformação. O que várias consultoras de estudos de opinião descobriram foi que os chatbots difundiram desinformação sobre as eleições na Europa, o que viola inclusive as regras europeias. E isso tem impacto na opinião pública, na participação cívica, na intenção de voto, e até pode trazer multas pesadas às empresas de IA. É também por isso que elas passaram a bloquear pura e simplesmente o tema “política”.

A Google confirma esta tendência. Segundo diz, desde dezembro passado que tem vindo a restringir vários tipos de pesquisas relacionadas com as eleições. Invoca para isso a necessidade de precaver movimentos de desinformação nos atos eleitorais mais importantes. Já Jeff Jones, o porta-voz da Microsof, refere que o protocolo de resposta é redirecionar os utilizadores para o motor de pesquisa. Pelo menos enquanto o seu chatbot não estiver suficientemente otimizado.

Os factos alternativos, a “halucinação” dos modelos de IA e os perigos da criatividade IA

Parte do treino de modelos de linguagem de massa passa por permitir um nível de criatividade que sai fora do controlo humano. Isso significa que os chatbots podem identificar fontes com autoridade, processar informação relevante e produzir respostas com base nos vários dados recolhidos que tenham autoridade. O problema é que esse processo criativo por vezes causa artefactos, ou a chamada “halucinação” do modelo. E é isso que pode levar à disseminação de informação falsa.

Neste momento, a Apple já desenvolveu uma parceria com a OpenAI para integrar IA generativa em todos os produtos da empresa, incluindo no próprio sistema operativo iOS e na Siri. Isso significa que qualquer pessoa, de qualquer faixa etária, pode colocar questões facilmente a estes assistentes. Este é por isso um dos momentos mais sensíveis do desenvolvimento IA e dos chatbots à escala global.

Notícias Relacionadas: