Ciência
15/11/2023 às 14:00•4 min de leitura
Ainda é uma hipérbole afirmar que a inteligência artificial (IA) está dominando o mundo, mas não que o está transformando. Até um tempo atrás, a IA era apenas foco narrativo das histórias de Arthur C. Clarke, explorando temas como previsão do futuro e geração de mecanismos automáticos. Hoje, o recurso já consegue transformar coisas e lugares em animações da Pixar, emular vozes de cantores em outros corpos, criar músicas, escrever redações, fazer atendimento virtual e até transações bancárias.
De repente, apesar de estar evoluindo há décadas, a IA se tornou um dos tópicos principais em uma roda de conversa devido ao seu potencial tecnológico emergente tão inspirador quanto assustador. Os computadores já são mais poderosos em dar respostas mais rapidamente do que a capacidade intelectual humana, portanto, o medo que sejam mais capazes do que os humanos.
As pessoas se questionam se o poder e predominância da IA não só vai afetar áreas essenciais, substituindo a mão de obra humana, como também poderá assumir uma autonomia tão grande que nos colocará no centro da narrativa de Eu, Robô (1950), de Isaac Asimov.
(Fonte: GettyImages/Reprodução)
Bogdan Mksak, cofundador da DigitalGenius, que automatiza o atendimento ao cliente para marcas líderes de comércio eletrônico usando IA conversacional e generativa, disse que, embora Hollywood pinte um cenário extremamente irreal de robôs assumindo os empregos dos humanos, todos sabem que isso não vai acontecer. No entanto, embora a IA possa, de fato, não substituir a interação humana, pode andar de mãos dadas com ela – para o bem e para o mal.
Um bom exemplo disso, é que a IA generativa está tendo um papel fundamental na disseminação de fake news, principalmente sobre o conflito Hamas e Israel.
(Fonte: GettyImages/Reprodução)
A IA generativa é um tipo de inteligência artificial que pode produzir várias formas de conteúdo, desde textos a áudio e dados sintéticos, em questão de segundos. Apesar de ter sido introduzida em meados da década de 1960 por meio dos famosos chatbots, foi apenas em 2014, com a introdução de redes adversárias generativas (GANs), um tipo de algoritmo de aprendizado de máquina, que a IA generativa pôde criar imagens, vídeos e áudios de pessoas que fossem convincentemente autênticos.
Com o lançamento de softwares, como o ChatGPT, surgiu a preocupação sobre como a popularização da ferramenta de IA generativa poderia acelerar a proliferação dos deepfakes — imagens ou vídeos forjados digitalmente — e ataques cibernéticos prejudiciais à segurança das empresas.
O problema agora é que a IA generativa foi associada a outro mal: as fake news. Espalhadas ou não por meio de bots nas redes sociais, elas disseminam informações intencionalmente incorretas visando alterar um panorama social, como aconteceu durante períodos eleitorais recentes do Brasil e dos Estados Unidos, durante a pandemia de covid-19 — e como acontece agora na guerra entre Israel e Hamas.
(Fonte: GettyImages/Reprodução)
Há um mês, militantes do Hamas invadiram Israel e deram início a um ataque terrorista coordenado, e a internet foi inundada nas horas imediatamente seguintes ao ataque por uma enxurrada de vídeos e fotos que supostamente mostravam o que estava acontecendo. Imagens e relatos reais se perderam em meio a um mar de usuários – em sua maioria politicamente alinhados – divulgando alegações falsas e usando IA generativa para deturpar e alterar vídeos e fotos.
Entre algumas das invenções, perfis nas redes sociais compartilharam alegações falsas de que um alto comandante israelense havia sido sequestrado, circularam um vídeo falso imitando uma reportagem da BBC News e divulgaram vídeos antigos e não relacionados do presidente russo Vladimir Putin, com legendas imprecisas em inglês.
(Fonte: GettyImages/Reprodução)
De acordo com Layla Mashkoor, editora associada do Laboratório de Pesquisa Forense Digital do Atlantic Council, que estuda a desinformação online, boa parte das falsas informações gerada por IA está sendo usada por ativistas para solicitar apoio – ou dar a impressão de apoio mais amplo – a um determinado lado da guerra. Exemplos disso foram um outdoor gerado por IA em Tel Aviv defendendo as Forças de Defesa de Israel, um influenciador israelense usando a ferramenta para gerar condenações ao Hamas e imagens de IA retratando vítimas do bombardeio israelense à Faixa de Gaza.
Apesar de esse tipo de uso malicioso da IA não estar entre um dos piores, ele atua como pivô na quantidade de desinformação circulando pelas mídias sociais, dificultando o trabalho do jornalismo no momento de separar material verdadeiro do falso. Enquanto isso, os usuários acabam propagando ainda mais as imagens e vídeos moldados com a inteligência por pessoas mal intencionadas.
(Fonte: GettyImages/Reprodução)
Em outubro desse ano, um grupo de pesquisadores publicou na Harvard Kennedy School Misinformation Review um artigo sobre o papel da IA generativa na disseminação de informações falsas pelo mundo. Eles argumentaram como essa preocupação com os efeitos da tecnologia, na verdade, são exageradas, muito embora a IA permita que as pessoas proliferem desinformações. Segundo os autores, aqueles que o fazem possuem baixa confiança nas instituições ou são partidários fortes que já são cercados por teorias da conspiração em sites e perfis que acompanham assiduamente.
O estudo ainda se aprofunda na ideia de tirar o peso da culpa das costas da IA generativa ao observar que, apesar de a ferramenta poder renderizar conteúdo altamente personalizado e realista, outras ferramentas, como Photoshop e softwares de edição de vídeo, também são capazes. Afinal, mudar a data em um vídeo ou foto de baixa resolução pode ser igualmente eficaz na disseminação da desinformação. O levantamento feito pelos pesquisadores teria indicado que jornalistas e verificadores de fatos lutam menos com deepfakes do que com imagens fora de contexto ou manipuladas em algo que não são.
Sacha Altay, coautor do artigo e pesquisador no Laboratório de Democracia Digital da Universidade de Zurique, disse à Wired que, nesse sentido, o foco excessivo em uma tecnologia chamativa pode ser um sinal vermelho. “Ser realista nem sempre é o que as pessoas procuram ou o que é necessário para ser viral na internet”, disse ele.
(Fonte: GettyImages/Reprodução)
E isso faz sentido, afinal, um experimento conduzido pela equipe do psicólogo da Universidade de Stanford, Sam Wineburg, descobriu que os estadunidenses de todas as idades, de pré-adolescentes digitalmente experientes a acadêmicos de alto QI, não conseguem responder perguntas importantes sobre o conteúdo que encontram em um navegador, afirmando o tamanho da nossa ingenuidade online.
Em 2016, uma pesquisa do Pew Research descobriu que quase um quarto dos americanos disse ter compartilhado uma notícia inventada. Segundo o cientista cognitivo David Rand, do Instituto de Tecnologia de Massachusetts (MIT), em média, as pessoas estão inclinadas a acreditar em notícias falsas pelo menos 20% das vezes. Não é para menos que Wineburg diz que estamos todos "dirigindo carros, mas nenhum de nós tem autorização para isso".
No final das contas, para especialistas como Wineburg ou Altay, o problema não é apenas bots maliciosos gerados a partir de IA generativa ou os mentirosos de plantão, mas todos nós, leitores suscetíveis. Segundo a jornalista Katy Steinmetz, quanto melhor entendermos a maneira como pensamos no mundo digital, mais chances teremos de fazer parte da solução.