Nesta ilustração fotográfica, o logotipo da OpenAI é exibido na tela de um telefone celular junto com uma foto de Sam Altman, CEO da OpenAI.
Didem Mente | Anadolú | Imagens Getty
A OpenAI estima que o ChatGPT rejeitou mais de 250.000 pedidos para criar imagens de 2.024 candidatos presidenciais dos EUA antes do dia da eleição, disse a empresa em um blog na sexta-feira.
Entre as negações estavam pedidos de imagens do presidente eleito Donald Trump, da vice-presidente eleita Kamala Harris, do presidente Joe Biden, do governador de Minnesota, Tim Walz, e do vice-presidente eleito J.D. Vance, disse a OpenAI.
O desenvolvimento da inteligência artificial generativa suscitou preocupações sobre como a desinformação gerada por esta tecnologia poderá influenciar as múltiplas eleições que terão lugar em todo o mundo em 2024.
De acordo com a empresa de aprendizado de máquina Clarity, o número de deepfakes aumentou 900% em relação ao ano passado. Alguns incluíam vídeos produzidos ou pagos por russos que tentavam perturbar as eleições nos EUA, disseram autoridades de inteligência dos EUA.
Num relatório de outubro de 54 páginas, a OpenAI disse que interrompeu “mais de 20 operações e redes fraudulentas de todo o mundo que tentaram explorar os nossos modelos”. As ameaças variaram de artigos em sites criados por inteligência artificial a postagens em mídias sociais de contas falsas, escreve a empresa. O relatório observa que nenhuma das operações relacionadas com as eleições foi capaz de atrair “participação viral”.
Em uma postagem de blog na sexta-feira, a OpenAI disse não ter encontrado nenhuma evidência de que operações secretas destinadas a influenciar o resultado das eleições nos EUA usando os produtos da empresa foram capazes de se tornar virais ou construir uma “audiência sustentada”.
Os legisladores estão especialmente preocupados com a desinformação na era da inteligência artificial generativa, que começou no final de 2022 com o lançamento do ChatGPT. Grandes modelos de linguagem ainda são novos e tendem a produzir informações imprecisas e não confiáveis.
“Os eleitores não deveriam de forma alguma recorrer a chatbots de IA para votar ou obter informações eleitorais – há muitas preocupações sobre a precisão e integridade dos dados”, disse Alexandra Reeve Givens, CEO do Centro para Democracia e Tecnologia, à CNBC na semana passada.
OLHAR: A IA provavelmente será menos regulamentada e mais instável durante a segunda presidência de Trump
Leave a comment