Dos deepfakes aos candidatos digitais: o jogo político da IA
A IA é cada vez mais utilizada para representar, ou deturpar, as opiniões de figuras históricas e atuais. Um exemplo recente foi quando a voz do presidente Biden foi clonada e usada em uma chamada automática para os eleitores de New Hampshire. Indo um passo adiante, dadas as capacidades avançadas da IA, o que em breve poderá ser possível é a “candidatura” simbólica de uma persona criada pela IA. Isto pode parecer estranho, mas a tecnologia para criar tal ator político de IA já existe.
Existem evidências substanciais que sugerem que este resultado pode ser alcançável. As tecnologias educacionais que facilitam encontros de aprendizagem dinâmicos e envolventes têm o potencial de animar personagens e ideias históricas com detalhes vívidos. Além disso, quando utilizadas com prudência, tais inovações podem dissipar o enigma que rodeia a história, ao mesmo tempo que promovem uma população que possui maior conhecimento e envolvimento cívico.
As pessoas hoje podem interagir com chatbots que refletem os pontos de vista de figuras que vão de Marco Aurélio a Martin Luther King Jr., usando o aplicativo “Hello History”, ou George Washington e Albert Einstein por meio de “Text with History”. Esses aplicativos pretendem ajudar as pessoas a entender melhor os eventos históricos ou “apenas se divertir conversando com seus personagens históricos favoritos”.
Da mesma forma, uma exposição de Vincent van Gogh no Musée d’Orsay em Paris inclui uma versão digital do artista e oferece aos espectadores a oportunidade de interagir com a sua personalidade. Os visitantes podem fazer perguntas e o chatbot Vincent responde com base em um conjunto de dados de treinamento de mais de 800 de suas cartas. A Forbes discute outros exemplos, incluindo uma experiência interativa em um museu da Segunda Guerra Mundial que permite aos visitantes conversar com versões de IA de veteranos militares.
A preocupante ascensão dos deepfakes
Sem dúvida, esta inovação também pode ser utilizada para clonar indivíduos proeminentes do passado e do presente com segundas intenções, dando origem a dilemas morais. Por exemplo, a prevalência generalizada de deepfakes tornou difícil distinguir representações genuínas de representações fabricadas, como evidenciado pelo surgimento de uma imagem falsificada de Joe Biden.
A tecnologia Deepfake aproveita a inteligência artificial para gerar ou modificar imagens visuais estáticas, filmes e gravações auditivas, permitindo substituições faciais perfeitas, emulação vocal e manipulações de sequências de vídeo. Ao integrar e editar informações derivadas de ativos mediáticos genuínos, esta inovação produz composições altamente credíveis que representam um desafio crescente no discernimento da sua veracidade.
Embora certas aplicações da tecnologia de inteligência artificial possam ser utilizadas tanto para educação como para entretenimento, há uma preocupação crescente relativamente à sua exploração para objectivos mais nefastos. A possibilidade de usar vídeos deepfake gerados por IA para se passar por indivíduos proeminentes e, assim, influenciar o sentimento público ou mesmo impactar os resultados eleitorais é motivo de apreensão.
A ascensão dos deepfakes políticos
Recentemente, surgiram notícias sobre a utilização da inteligência artificial para diversos fins. Por exemplo, durante a sua prisão, Imran Khan, o anterior primeiro-ministro do Paquistão, empregou tecnologia de IA para criar discursos que foram posteriormente proferidos em seu nome. Estes discursos granjearam com sucesso o apoio do seu partido político, que alcançou um nível inesperado de sucesso nas eleições mais recentes, apesar da sua ausência.
Conforme escrito no The New York Times: “‘Eu tinha plena confiança de que todos vocês iriam votar. Você cumpriu minha fé em você, e sua participação massiva surpreendeu a todos’, disse a voz suave e ligeiramente robótica no vídeo de um minuto, que usou imagens históricas e filmagens do Sr. Khan e trazia um aviso sobre suas origens de IA.
Este não foi o único exemplo recente. Um partido político na Indonésia criou um vídeo deepfake gerado por IA do ex-presidente Suharto, que faleceu em 2008. No vídeo, o falso Suharto incentiva as pessoas a votarem em um ex-general do exército que fazia parte de seu regime apoiado pelos militares. Conforme noticiou a CNN, este vídeo, lançado apenas algumas semanas antes da eleição, tinha como objetivo influenciar os eleitores. E aconteceu, recebendo 5 milhões de visualizações. O ex-general venceu as eleições.
Táticas semelhantes estão sendo usadas na Índia. A Aljazeera informou que um ícone do cinema e da política, M. Karunanidhi, apareceu recentemente diante de uma audiência ao vivo em uma grande tela projetada. Karunanidhi fez um discurso no qual foi “efusivo em seus elogios à liderança competente de M.K. Stalin, seu filho e atual líder do Estado.” Karunanidhi morreu em 2018, mas esta foi a terceira vez nos últimos seis meses que ele “apareceu” via IA para tais eventos públicos.
O advento do domínio político com a incorporação da inteligência artificial, especificamente dos deepfakes, que inicialmente se previa que ocorreriam num futuro não muito distante, tornou-se agora uma realidade palpável.
Imaginando a ascensão de candidatos políticos “artificiais”
A tecnologia Deepfake emprega técnicas que permitem a criação de representações digitais altamente realistas e interativas de indivíduos fictícios e reais. Tais avanços permitem interações simuladas com figuras históricas notáveis ou a geração de identidades virtuais convincentes derivadas de materiais de arquivo disponíveis de um indivíduo, tais como discursos gravados e trabalhos escritos.
Uma nova aplicação possível é que alguém (ou algum grupo) apresente uma persona digital criada por IA para cargos públicos. Especificamente, um chatbot suportado por imagens, áudio e vídeo criados por IA. “Estranho”, você diz? Claro. Ridículo? Bem possível. Plausível? Inteiramente. Afinal, eles já atuam como terapeutas, namorados e namoradas.
Um dos desafios na implementação deste conceito é que um candidato legítimo a uma posição política, incluindo um assento no Congresso ou num conselho municipal, deve satisfazer o requisito de ser um indivíduo real. Consequentemente, um chatbot não pode cumprir os pré-requisitos necessários para se registar como candidato ou votar.
Embora altamente improvável, é concebível que uma campanha escrita possa resultar num chatbot digital que receba maior apoio eleitoral do que qualquer candidato nomeado oficialmente. Para explorar esta situação teórica, imaginemos um cenário hipotético.
Tenho leite?
Para efeitos deste discurso, suponhamos que “Milkbot” seja um candidato hipotético nas próximas eleições municipais para o cargo de Prefeito de São Francisco. Ele emprega um modelo de linguagem grande (LLM) de código aberto, que foi instruído usando trabalhos escritos, discursos, gravações de vídeo e postagens em mídias sociais de Harvey Milk, um antigo membro do Conselho de Supervisores de São Francisco. Este corpus também pode incorporar materiais de autoria de pessoas que possuem perspectivas semelhantes.
Milkbot é um sistema de inteligência artificial altamente avançado, capaz de produzir discursos persuasivos por meio de esforços colaborativos com seus defensores. Além disso, gera conteúdo multimídia, como vídeos e áudios, que são postados em diversas plataformas de mídia social. Além disso, o Milkbot tem a capacidade de responder a consultas públicas de forma semelhante à forma como Vincent van Gogh se comunicou. À medida que a sua fama aumenta, acaba por receber perguntas de jornalistas. A inovação por trás desta campanha única, juntamente com o desempenho medíocre dos candidatos tradicionais, contribui para o impulso crescente de apoio à candidatura de Milkbot à prefeitura.

Um avatar digital fez uma apresentação durante uma corrida política, elaborada usando o avançado sistema de inteligência artificial conhecido como DALL-E 2.
Num cenário hipotético em que um chatbot de IA obtenha mais apoio através de uma campanha escrita do que qualquer candidato listado oficialmente, pode-se questionar as implicações de tal resultado. Embora seja concebível que esta votação represente uma insatisfação com as opções existentes e sirva como um substituto para “nenhuma das opções acima”, também é plausível que o eleitorado desejasse genuinamente a ascensão da entidade de IA ao cargo. Em ambos os casos, os eventos subsequentes dependeriam de vários factores, incluindo disposições legais, normas políticas e atitudes da sociedade em relação ao envolvimento da IA na governação.
Sem dúvida, se as autoridades eleitorais considerassem o resultado inadmissível, o indivíduo que acumulasse mais votos entre os humanos seria declarado vencedor. No entanto, tal resultado pode dar origem a uma reinterpretação jurídica relativamente aos critérios que definem um candidato ou triunfante numa competição política. Surgirão várias preocupações relacionadas com a representação, a responsabilidade e a possibilidade de exploração ou aplicação indevida da inteligência artificial nos procedimentos eleitorais. Vale a pena notar que questões semelhantes já prevalecem na política real.
A utilização de personas digitais numa capacidade simbólica pode servir como meio de transmitir comentários sociopolíticos. Esses avatares podem chamar a atenção para questões como a frustração com as alternativas políticas existentes, as aspirações de mudança, a especulação sobre futuros modelos de governação e encorajar o diálogo sobre o papel desempenhado pela tecnologia na sociedade, incluindo questões relacionadas com os princípios democráticos e a interacção humana com a inteligência artificial.
A emergência deste cenário pode dar origem a novas deliberações morais. Uma dessas questões é se a criação de uma persona digital como “candidato” deve ser considerada repugnante ou, alternativamente, se ganhar popularidade, poderá significar uma forma de democracia orientada para o design, na qual os candidatos são capazes de defender políticas específicas. posturas e características?
Imagine uma persona digital sendo proposta para um cargo de importância ainda maior, talvez no cenário nacional. À medida que a era da automatização avança e invade o domínio da política, pode-se antecipar com optimismo que estes agentes artificiais serão programados para incorporar os mais elevados níveis de conduta ética e rectidão moral.
Gary Grossman é vice-presidente executivo de prática de tecnologia da Edelman e líder global do Edelman AI Center of Excellence.
*️⃣ Link da fonte:
exemplo , interagir com chatbots , reivindicação , Musée d’Orsay, Forbes, versões de IA de veteranos militares, The New York Times, influência, apareceu , terapeutas , namoradas , Edelman ,