Riscos da deepfake e caso Elis Regina são debatidos em painel do Congresso da SET Expo

Debate sobre deepfakes e IA: “ChatGPT é só a ponta do iceberg”. 7 de agosto

A acelerada evolução da tecnologia de Inteligência Artificial (IA) e sua aplicação na produção de deepfakes foram temas de painel que abordou os riscos que essas tecnologias representam para empresas e indivíduos. Um exemplo que o debate trouxe foi a recente polêmica envolvendo a publicidade que utilizou a técnica para recriar a cantora Elis Regina, morta em 1982.

Diego Piffaretti, Líder de Segurança Ofensiva (Red Team) da Globo, apresentou alguns casos emblemáticos do uso de deepfake, como o caso da apresentadora de um telejornal na Coreia da Sul que teve uma versão totalmente digital sua apresentando notícias.

Ele afirma que o ChatGPT, modelo de IA generativa que foi o primeiro a se tornar popular gratuitamente, é só a ponta de um iceberg. Como exemplo, ele cita o site theresanaiforthat.com, que lista programas de IA disponíveis para diversas tarefas. Até a tarde de 7 de agosto, o site listava 6,739 disponíveis para mais de 1,800 tarefas. “É evidente que muitas dessas ferramentas de IAs não têm instrumentos de controle e segurança adequados e isso é um risco muito grande”, alerta.

Segundo o executivo, o uso indiscriminado do ChatGPT pode trazer riscos de segurança, uma vez que tudo que se digita ali pode acabar sendo acessado por outra pessoa, já que é utilizado para o aprendizado do chat e, com os comandos certos, ele pode acabar compartilhando informações colocadas lá. “Uma empresa que resolve usar uma IA gratuita para gerar uma folha de pagamento, por exemplo. Os dados sensíveis de funcionários, como documentos, salários, contas bancárias podem ser expostas e acessadas por alguém que saiba hackear a ferramenta”.

Fernando Rodrigues de Oliveira, Diretor de Arte Digital e CMO da FaceFactory.AI e conhecido como Fernando 3D, explicou de forma simplificada como a IA produz uma deepfake. “É como se fosse uma briga entre duas IAs: uma produz a imagem e a outra tenta verificar se é autêntica. Esse processo se repete até a IA que está verificando não perceber mais que aquilo é uma deepfake e afirmar que se trata de uma imagem verdadeira.”

Os principais riscos que esse tipo de tecnologia traz foram explicados por Thiago Labliuk, sócio-diretor na KPMG Brasil que atua no gerenciamento de riscos de cibersegurança. “Por não serem recursos de difícil acesso, essas tecnologias representam riscos não apenas técnicos ou digitais, mas até mesmo para modelos de negócio”, afirma. Ele ilustra com casos de altos executivos que tiveram a voz clonada para pedir a funcionários senhas de acesso que seriam utilizadas em ataques de hackers. Esse risco vale também para pessoas físicas, pois uma voz clonada de um familiar pode ser utilizada no Whatsapp para aplicação de golpes, como hoje já é feito por texto.

A dica para se proteger é estabelecer entre amigos e familiares uma palavra de segurança a ser solicitada no caso de contatos suspeitos. Além, claro, de um recurso mais simples e direto. “A gente esquece que celular também faz ligação. Na dúvida, liga para a pessoa”, aconselha Labliuk.

Pessoas que têm alta exposição na mídia e nas redes sociais, especialmente com vídeos, estão mais expostas ao deepfake. Labliuk conta que já estão sendo aplicadas medidas de segurança nas quais a IA solicita uma verificação e uma aprovação da pessoa antes de gerar uma simulação digital. No entanto, como sempre acontece com tecnologias que estão em evolução acelerada, já existem meios de falsificar essa verificação.

Outro risco trazido para o debate diz respeito à imortalidade de grandes figuras. O caso usado como exemplo foi a polêmica publicidade que utilizou deepfake para recriar a cantora Elis Regina. “Gerações pensam diferente, por isso, mesmo familiares e herdeiros autorizando, ainda pode ser algo polêmico”, explica Labliuk.

Em resumo, cresce hoje o debate sobre direito de imagem à luz desta nova tecnologia, assim como o entendimento dos riscos que a IA e o deepfake podem representar. No entanto, o consenso é de que não se trata de frear a evolução da tecnologia digital, mas de encontrar ferramentas efetivas de controle e regulação.