Associação Brasileira dos Jornalistas

Seja um associado da ABJ. Há 12 anos lutando pelos jornalistas

Como o Brasil está lidando com os desafios da inteligência artificial

‘Para regular [a IA] não é preciso inventar a roda. Basta usar os instrumentos existentes’, diz Gustavo Macedo, professor do Insper e do Ibmec.

O assunto está na ordem do dia. Do advento do carro sem motorista ao celular hiperinteligente. De processos de inovação em empresas a modelos disruptivos de ensino. De sistemas de vigilância pública a administração de complexos hospitalares. De brincadeiras para divertir a galera a sinistras táticas de guerra. De saltos nas indústrias fonográfica e cinematográfica a atalhos para burlar a proteção de direitos autorais. De instrumento para remoer reputações a estratégias para enganar eleitores e erodir a democracia. Enfim, são incontáveis os empregos da inteligência artificial, com propósitos que podem ser não só benéficos, como revolucionários, mas também perturbadores e extremamente perigosos.

O ano de 2024 é calendário para mais de 60 eleições importantes pelo mundo, incluindo duas grandes nações, Índia e Estados Unidos, que juntas somam 1,7 bilhão de habitantes. No Brasil, 5.569 municípios irão escolher prefeitos e vereadores, mobilizando o eleitorado nacional de 156 milhões de votantes. Com metade da população global indo às urnas, 2024 pode ser o tempo propício para uma pandemia de desinformação.

“Ainda não sabemos o impacto da inteligência artificial no ano eleitoral. Mas as simples narrativas em torno das deepfakes, geradas por ela, já constituem elemento suficiente para minar a integridade eleitoral”, afirma em estudo Rehan Mirza, pesquisador da Iniciativa para Democracia e Governança na Internet do Shorenstein Center, da Harvard Kennedy School. O fato é que a aceleração tecnológica tem empurrado a humanidade para uma situação em que o limite entre a verdade e a falsidade nunca foi tão fácil de ser transposto.

Especialistas ouvidos pelo Valor nesta reportagem concordam que não é possível falar em deepfake fora do contexto da inteligência artificial generativa, ou seja, de uma tecnologia de aprendizado-máquina, capaz de criar conteúdos originais em forma de textos, áudios e imagens de qualidade e grande poder de persuasão. Deepfake, portanto, é só uma parte da conversa. Outro ponto de convergência é o de que o mundo atravessa uma onda de empolgação com a inteligência artificial, momento hype em que surgem grandes apostas e grandes alertas ao mesmo tempo. E essa fase pode até ser superada.

“Já se fala numa bolha do mercado global de IA, que corre o risco de estourar nos próximos anos ou até meses. Como apontam analistas, as startups que hoje operam o setor, apesar do dinheiro investido nelas, estão cotadas bem acima do que valem”, afirma Gustavo Macedo, especialista em inteligência artificial e diplomacia científica, professor de administração e economia no Insper e de relações internacionais no Ibmec.

A onda hype deslanchou em 2022 quando uma startup com sede em San Francisco, a OpenAI, vitaminada por aportes sucessivos de capital, especialmente vindos da Microsoft, lançou o ChatGPT, um robô de conversação (chatbot) interativo e de simples acesso. Definindo melhor, um modelo de linguagem de IA baseado em aprendizado e treinamento algorítmico a partir de volumes de dados disponíveis na internet. “De lá para cá, virou febre. Mas isso já vinha de antes, quando programadores foram chegando aos algoritmos generativos, aptos a fazer correlações. Se o celular aprendeu a reconhecer o meu rosto, por que não seria possível associar o meu rosto a uma outra voz?”, exemplifica Elizabeth Saad, pesquisadora na área de comunicação digital e professora da Escola de Comunicações e Artes da Universidade de São Paulo (ECA-USP).

Os saltos da IA, nos últimos anos, foram tão fabulosos quanto os investimentos feitos nas empresas que a operam. Enquanto novas versões de IA foram chegando ao mercado, o volume global de investimentos no setor alcançou US$ 154 bilhões em 2023, 27% a mais do que em 2022, segundo a Intelligent Directions Consulting (IDC). E a projeção para 2024 segue em ritmo de alta. Como enfatiza Saad, “agora que a inteligência artificial se impôs como uma realidade do mercado, a lógica das Big Techs tem sido disputar o consumidor final e faturar ao máximo com a hospedagem de dados”. Em outras palavras, hoje quem tem nuvem tem poder.

Na euforia de que tudo é possível com a inteligência artificial generativa, alguns momentos chamaram a atenção da opinião pública. Nos primórdios de 2018, Barack Obama apareceu em um vídeo atacando Donald Trump com comentários grosseiros, numa dublagem do ator Jordan Peele. Só que o vídeo apresenta uma voz idêntica à de Obama, colada à sua imagem em close, numa sincronicidade labial perfeita. Produzido pelo Buzzfeed, o vídeo de Obama mostrou como esse tipo de adulteração poderia ir muito além do que colar grotescamente o rosto de um político no corpo de um ator pornô.

De lá para cá, o papa desfilou com uma jaqueta acolchoada digna das melhores estações de esqui; Elis Regina ressuscitou para cantar em dueto com a filha, Maria Rita; Nancy Pelosi foi ouvida falando absurdos como se estivesse dopada; Trump apareceu abraçado a esfuziantes eleitoras negras e Joe Biden ligou para os americanos para pedir que não desperdiçassem votos nas primárias. Tudo crível, mas tudo falso.

“Nessa onda de vídeos produzidos por IA, o que vemos são imagens sintéticas cada vez mais realistas e sedutoras. Estes vídeos nascem de um pedido de busca simples, chamado prompt, feito por uma pessoa. Filtrado quantas vezes for necessário, o prompt levará à geração de imagens tão convincentes que o olho humano será incapaz de notar algo estranho. E aí mora o perigo”, explica Pollyana Ferrari, pesquisadora de mídias digitais e professora da Pontifícia Universidade Católica de São Paulo (PUC-SP).

Nas guerras digitais em curso, em que algoritmos são treinados para obter a melhor versão da realidade ou mesmo de superação da realidade, surge um novo perfil profissional no mercado, o engenheiro de prompt, bem como programadores especializados em treinar algoritmos justamente para detectar manipulações.

Há sempre um lado irresistível nesse universo. Como não se espantar com uma inteligência artificial como a Suno – parceria da Microsoft com uma startup dos Estados Unidos? A Suno tem sido chamada de ChatGPT musical. Trata-se de um “music generator”.

A partir de instruções de texto, combina vozes, instrumentos de qualquer época, sons ambientais etc., podendo compor até dez obras musicais por dia no seu plano gratuito. Tudo parece ser possível: como seria a décima sinfonia de Beethoven? Como seria Frank Sinatra interpretando sertanejo? O que os Beatles estariam compondo hoje?

Nessa toada vem a Sora, da OpenAI, criando vídeos a partir de instruções de texto. Como seria uma manhã de sol numa cidadezinha da Califórnia, no momento da corrida do ouro? Ou Manaus na era da borracha? Ela mostra.

O fato é que Suno e Sora trazem um desafio enorme para as indústrias fonográfica e audiovisual, colocando em xeque a sobrevivência de músicos, compositores e a enorme gama de profissionais do cinema.

“As tecnologias não são moralmente neutras”, diz o pesquisador Ivan Paganotti ao Valor. Professor da Universidade Metodista de São Paulo, Paganotti tem sido um consultor ouvido nos campos de desinformação e liberdade de expressão. Ora, se as tecnologias não são neutras, seria razoável depositar na IA a esperança de que ela pode resolver praticamente tudo, da melhor maneira possível, para os humanos?

“Não, até porque isso não é verdade. A IA gera informação estatisticamente relevante a partir de dados. Mas qual é a qualidade da informação? Posso simplesmente pedir a receita de bolo ideal e não ter a melhor resposta. Ou o tratamento de uma doença e não me sentir seguro para seguir o que a ela recomenda.”

O professor, ele próprio, prescreve uma espécie de receita em três etapas para quem não quer se sentir perdido nesse universo. Primeiro: sempre tentar definir o que é um problema. Segundo: identificar onde está o risco. Terceiro: estabelecer o que definitivamente não queremos para as nossas vidas.

Olhando para o rebuliço em torno da inteligência artificial no Brasil, não se pode dizer que o país esteja parado. Atrasado, talvez; parado, não. Em fevereiro deste ano, o Tribunal Superior Eleitoral (TSE) aprovou resolução que proíbe o uso de deepfake por candidatos, campanhas e/ou coligações partidárias, nas eleições municipais de 2024. Entenda-se por deepfake a falsidade tecnologicamente construída com o propósito de ludibriar, gerar pânico, criar complôs e até colocar vidas em risco.

O TSE determina ser informado sobre toda propaganda eleitoral que utilizar IA; restringe o emprego de robôs; responsabiliza empresas de tecnologia que não retirarem do ar, imediatamente, peças com discurso de ódio, conteúdos racistas, xenófobos, antidemocráticos, de ideologia nazista e fascista; e o descumprimento de regras contidas na resolução poderá levar à cassação de mandato ou registro eleitoral. Ainda na presidência do TSE, o ministro Alexandre de Moraes salientou que “o Brasil tem agora uma das normas mais modernas do mundo no combate à desinformação, às fake news e ao uso ilícito da IA”.

Os especialistas concordam que a resolução do TSE é benéfica, afinal, numa democracia, é fundamental fincar o limite entre engajar e enganar o eleitor. O ponto de interrogação é se a resolução terá a eficácia almejada, uma vez que as plataformas de internet parecem pouco ou nada dispostas ao diálogo e os criadores de conteúdos falsos, até serem identificados, já terão cometido seus estragos.

“Posso ter críticas à resolução, mas foi um passo importante por colocar o Brasil no mapa do debate global sobre IA. Já existe um consenso internacional de que só países subdesenvolvidos acham errado regular o que se passa na internet. O país que mais regula são os Estados Unidos, seguidos de China. Uma coisa é certa: para proteger direitos individuais ou coletivos e garantir segurança jurídica, todo país precisará assumir um patamar de regulação da inteligência artificial”, afirma Gustavo Macedo.

Ao todo, segundo o pesquisador, existem mais de 90 projetos no Congresso que incidem, direta ou indiretamente, sobre a regulação da IA no Brasil. No momento, o Senado aprecia o Projeto de Lei nº 2.338/2023 proposto pelo presidente da casa, Rodrigo Pacheco (PSD-MG), cuja relatoria está com o senador Eduardo Gomes (PL-TO). Por meio dele tenta-se aprovar um Marco Legal da IA no Brasil, antes de novembro deste ano, quando o país sediará o encontro dos chefes de Estado do G20 – ocasião em que terá de se posicionar sobre o assunto.

Já o PL das Redes Sociais, (PL 2.630, de 2020), iniciativa do senador Alessandro Vieira (MDB-SE), instituindo a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, continua atolado no Congresso. Em abril, o então relator do projeto, deputado Orlando Silva (PC do B-SP), foi afastado a pedido do presidente da Câmara, Arthur Lira, e do colégio de líderes, para a criação de um grupo de trabalho com o propósito de construir um novo texto.

Banho de água fria quando se festejam os dez anos do Marco Civil da Internet ainda sem a aprovação de uma lei específica, no entanto, lenha na fogueira dos que aplaudem os ataques desimpedidos do bilionário Elon Musk ao ministro Alexandre de Moraes, do STF. Se “a terra sem lei” é motivo de preocupação para muitos, faz também a alegria de outros.

“O Brasil hoje passa pelas mesmas dificuldades de todos os países, sejam mais ou menos desenvolvidos, sobre como regular a inteligência artificial. Nenhum chegou à solução perfeita, no entanto, o debate regulatório, em si, é positivo. Até porque esse imenso desafio não será resolvido com uma única lei. Outras foram já aprovadas, outras virão. Aqui temos a Constituição, o Marco Civil da Internet, o Código Civil, o Código Penal, a Lei Geral de Proteção de Dados, as agências reguladoras… a meu ver, para regular não é preciso inventar a roda. Basta usar os instrumentos existentes, atuar por setor e ter uma autoridade nacional chamada a se manifestar em casos graves, como a explosão da pornografia infantil ou risco de algum desemprego em massa resultante do uso da IA”, argumenta Macedo.

As tecnologias não são moralmente neutras”
— Ivan Paganotti

Enquanto o debate legal prossegue mundo afora, do ponto de vista tecnológico vive-se uma corrida armamentista, sendo a IA o front a ser conquistado. A plataforma chinesa TikTok pode vir a ser excluída dos EUA a menos que passe a ser operada por uma empresa americana e de acordo com as leis locais. Já os aplicativos da americana Meta (Facebook, Instagram, WhatsApp, Messenger) continuam proibidos para os chineses.

Acrescente-se que, como o aperfeiçoamento da IA está diretamente associado ao volume crescente de dados na internet, e como cada indivíduo contribui com isso usando o seu celular, num planeta com 4 bilhões de aparelhos conectados, nunca antes tantos dados foram gerados como agora.

“As Big Techs sabem que corporações e empresas de modo geral dependem de serviços de big data para existir, por isso, oferecem a hospedagem de dados ao mesmo tempo em que financiam startups para desenvolver novas utilizações para esses dados. Dá para imaginar o tamanho da nuvem do Google?”, provoca Elizabeth Saad.

A professora chama atenção para o que seria um ponto de fragilidade do Brasil nessa guerra fria digital encabeçada por China e EUA, reforçando um comentário também feito por Macedo: “O Brasil é um dos países mais minerados do mundo, quando se pensa em extração de dados”.

O que chamam de “terra de ninguém” significa, por exemplo, o país manter-se aberto a qualquer aplicativo, de qualquer país, para qualquer fim, sem qualquer controle. Macedo ressalta que dados sensíveis da população brasileira, bem como sobre empresas nacionais, cidades, recursos naturais, meio ambiente, enfim, tudo continua a ser coletado por empresas de fora.

“O que fazer com os dados que saem daqui para o exterior? O Brasil precisaria tomar uma posição firme quanto a isso e dizer: não vou continuar a ceder dado do meu cidadão para treinar o seu algoritmo”, diz Macedo. Muito já se falou sobre a importância de construir cidadania digital, no entanto, no mundo da IA, a soberania digital emerge como um debate da máxima urgência.

Gerar áudios e imagens realistas sobre conteúdos abusivos, fora de contexto ou mentirosos, tornou-se algo muito atraente, levando-se em conta certas tendências do comportamento humano. Segundo vários estudos, no geral, as pessoas prestam mais atenção à desinformação do que à informação; e atribuem status de verdade ao que é expresso em áudio e, especialmente, em vídeo.

Relatório recém-divulgado do Observatório da Internet da Universidade Stanford alerta para um “tsunami” de material gerado por IA sobre abuso sexual de crianças. Problema: como as imagens sintéticas têm alta qualidade, ficou mais difícil identificar quando uma criança real está em perigo.

Alunas da Westfield High School, em New Jersey, denunciaram há cinco meses a onda de deepnudes em que aparecem despidas, em cenas eróticas ou pornográficas. Acompanhadas dos familiares, foram à direção da escola e às autoridades policiais. Segundo o jornal “The New York Times”, sabe-se que os autores dos vídeos são colegas de escola, porém, até o momento, nada foi feito. Em janeiro deste ano, numa audiência no Senado americano sobre segurança infantil na internet, Mark Zuckerberg, dono do Facebook, ouviu relatos graves e reagiu com uma evasiva: “Sinto muito pelo que as famílias estão passando”.

Paganotti insiste que o Brasil deveria investir pesado em educação digital para crianças e jovens, a fim de que venham a construir critérios para acreditar ou não numa postagem. “Esse discernimento resulta de longo trabalho pedagógico. Lembro de uma frase de Paulo Freire, que cabe bem aqui: ‘a educação pode muito, mas não pode tudo’. Combater o lado destrutivo da inteligência artificial generativa inclui educação, checagem de dados, mudança nos aplicativos, moderação das plataformas, normas legais, regulação, tudo a ser usado”.

Na mesma linha de pensamento, o professor Macedo recomenda limitar a importância que se dá à máquina para aumentar o valor do humano: “A inteligência artificial por si mesma não serve para nada. É uma ferramenta. Um martelo sobre a mesa. Precisa de alguém para existir”.

Felix Simon, professor do Instituto Internet da Universidade de Oxford, na Inglaterra, publicou com dois colegas um artigo acadêmico em que sustenta que há um pânico exagerado em torno da inteligência artificial. “O tempo irá dizer se as manchetes alarmistas sobre IA generativa foram fundamentadas ou não. Creio que a discussão sobre desinformação só tem a ganhar se for mais nuançada e com base em evidências”. O artigo está publicado na “Mis/information Review”, uma publicação da Harvard Kennedy School.

Simon também reage ao que ele chama de “alarmes especulativos contra a IA” na arena pública e democrática, “ainda que bem intencionados”. Porque, segundo ele, reduzem a confiança das pessoas em fatos e notícias, além de mascarar problemas reais, como o de que a pornografia ainda atinge majoritariamente as mulheres.

Fontes e entrevistados consultados pelo Valor analisaram a inteligência artificial generativa nestas páginas concordando que o aprendizado da máquina parece ilimitado, porém, ainda parte do comando de uma pessoa. Cenários ficcionais em que a máquina ganha autonomia para descartar o humano foram deixados de lado. O que não diminui as emoções da jornada.

“Tem sido tudo muito rápido. A algoritmização da vida é um processo de dez anos apenas”, enfatiza Pollyana Ferrari. “Hoje realidades virtuais são geradas instantaneamente. Perfeitas, persuasivas, sedutoras, e o olho humano não capta isso. E, se elas portam a mentira e a manipulação, a contraprova virá depois, assim como a resposta das leis, que é mais lenta.”

Por isso, diz Ferrari, a sensação de que “tudo está ameaçado à nossa volta: a vida cotidiana, a academia, os direitos autorais, o Judiciário. Quando isso atinge a saúde e o voto das pessoas, daí o estrago é imenso”.

Ela lembra o escritor Yuval Harari, autor de “Homo Sapiens”, entre outros best-sellers, que chegou a pedir uma espécie de moratória de alguns meses para a corrida tecnológica em curso. Não seria um simples “parem as máquinas” ou “desliguem o botão”, mas um tempo para que as pessoas reflitam sobre o que querem e não querem nesse campo.

A vontade de Harari é a de que o mundo se liberte de uma internet que ele chama de “primitiva”, focada acima de tudo em engajamento para monetização, para ir na direção de uma internet que volte a colocar o humano no centro da conversa. Por enquanto, a ideia não vingou.

FONTE: https://valor.globo.com/eu-e/noticia/2024/05/24/como-o-brasil-esta-lidando-com-os-desafios-da-inteligencia-artificial.ghtml