Total de visualizações de página

sexta-feira, 22 de julho de 2022

DEEPFAKE: SERÁ MESMO QUE BASTA APENAS VER, PARA CRER?

A Bíblia registra que Tomé só teve fé quando viu o Senhor e, por isso, foi repreendido pelo Senhor Jesus: 
"Porque Me viste, creste? Bem-aventurados os que não viram e creram" (João 20:29). 
Qual é o alerta nessas palavras do Senhor Jesus àqueles que desejam acolher o Senhor nos últimos dias? 

Mas, calma! Não vou aqui fazer nenhuma análise de cunho teológico sobre essa conhecida passagem das Escrituras, porém, falar de algo que absolutamente nada tem a ver com Teologia, mas, sim com outra vertente científica: a Tecnologia.

Já ouviu a expressão 
"Só acredito vendo" 
— expressão essa baseada justamente na passagem bíblica citada (Jo 20:24-29 — texto e contexto)? Ela representa a fala de pessoas desconfiadas, que não acreditam em qualquer história e querem ver com seus olhos para comprovar a veracidade dos fatos.
 
No entanto, com o atual avanço tecnológico, os nossos olhos podem ser facilmente enganados. Uma técnica que prova isso é o deepfake, que ganhou bastante notoriedade nos últimos meses. Já ouviu falar dele?

Nesse artigo você vai entender como funciona essa tecnologia, por que pode ser uma ameaça e como podemos reconhecer um deepfake para não cair nessa cilada. Além disso, descubra o lado bom dessa prática. Continue a leitura e saiba mais!

O que é deepfake?


O presidente Jair Bolsonaro (PL) cantando "Xibom Bombom". Mark Zuckerberg admitindo que 
"quem controla os dados controla o futuro".
Nicolas Cage encenando personagens em centenas de filmes. Gal Gadot estrelando uma cena pornográfica...
Nada disso aconteceu de fato. Mas, na internet, há vídeos perfeitos de todos esses acontecimentos falsos, graças a uma técnica chamada deepfake.
Como o próprio nome já diz, a tecnologia faz uso de deep learning para gerar conteúdos falsos em vídeo.

Através de inteligência artificial, rostos de pessoas são unidos a vídeos já existentes, em uma combinação altamente realista que faz parecer que alguém tenha dito ou feito algo que, na realidade, jamais aconteceu (mais detalhes, na sequência).

Como e quando e como surgiu?


Os deepfakes começaram a se tornar populares no final de 2017, quando rostos de atrizes famosas foram colocados em vídeos pornográficos. O usuário utilizava um software de deep learning para colocar os rostos das mulheres em vídeos já existentes. 

Depois disso, a técnica passou a ser utilizada para produzir vídeos de humor ou de conteúdo político. A partir daí, quaisquer vídeos editados a partir do machine learning e outras ferramentas de inteligência artificial passaram a ser chamados de deepfake.

O deepfake é uma tecnologia usada para criar vídeos falsos, porém bem realistas, com pessoas fazendo coisas que nunca fizeram de verdade ou em situações que nunca presenciaram. 

O algoritmo utiliza inteligência artificial para manipular imagens de rostos e criar movimentos, simulando expressões e falas. O termo vem da junção de duas palavras em inglês: fake = falso; deep = deep learning, ou aprendizado aprofundado — técnica em que computadores conseguem aprender com base em padrões.
Assim, trata-se de uma espécie de ilusionismo digital que pode enganar muita gente. Já surgiram muitos casos na internet com artistas e políticos que repercutiram nas mídias sociais.
Um exemplo notório foi um falso discurso do ex-presidente Barack Obama — que viralizou na internet —, criado pelo site BuzzFeed exatamente para demonstrar o resultado da tecnologia deepfake. A voz ficou por conta de uma dublagem feita pelo ator Jordan Peele.

No entanto, esse recurso não é tão novo como se pensa. Filmes de Hollywood já fazem isso há muitos anos criando rostos e até cenas inteiras, no entanto gastando milhões. 

Já os novos métodos são bem mais baratos, basta ter acesso a conhecimentos e algoritmos de deep learning, um bom processador gráfico e imagens que possam servir de base para o processo.

Como um deepfake é criado?


Como já dito, o deepfake utiliza softwares de código aberto relacionados ao aprendizado de máquina. Na prática, o programador fornece centenas de fotos e vídeos da pessoa em questão. 

Daí um sistema de inteligência artificial processa automaticamente via rede neural. Dessa forma, o computador consegue "aprender" os movimentos do rosto, como sorrisos, reações, reação à luz e sombras etc.

O software faz esse processamento com o rosto do vídeo base e o novo rosto que deseja aplicar até encontrar um ponto de encontro entre as duas faces e, assim, sobrepor o novo ao original.

O resultado é um vídeo com definição bastante fluida. Há, no entanto, outras tecnologias que cumprem funções semelhantes — como a da Adobe, que cria falas com a voz de uma pessoa —, e ainda outros que imitam falas e expressões faciais no rosto de outra pessoa.

No começo, o deepfake exigia que o usuário tivesse profundos conhecimentos de programação. Mas apps foram criados para automatizar todo o processo, de modo que seu uso massivo ficou mais acessível. 

Uma vez que a tecnologia exige recursos avançados de hardware, a qualidade média dos vídeos acaba não sendo tão boa, porém, é o suficiente para enganar alguns mais distraídos. Qual o perigo disso? Você vai descobrir a seguir!

Por que ele é uma ameaça?


É verdade que os vídeos criados com a tecnologia deepfake não são perfeitos. Com olhos mais atentos, é possível ver falhas. Mas são realistas o suficiente para enganar muitas pessoas, principalmente aqueles sem conhecimento em defesa cibernética. Embora nem sempre um deepfake seja criado com má intenção, ele pode sim ser utilizado para fins maliciosos.

Vídeos manipulados de artistas e políticos disponíveis na web são uma prova disso. Eles podem difamar a reputação dos envolvidos nas cenas e disseminar mentiras.
 
Essas mentiras difundidas na web podem também prejudicar a vida das pessoas, famosas ou não, como é o caso de falsos vídeos pornográficos envolvendo artistas. Existem aí diversos problemas legais e éticos que precisam ser discutidos.

No entanto, não se pode banalizar a tecnologia. Por outra perspectiva, existem aplicações positivas para os softwares do gênero.

Deepfake no cenário eleitoral


Um dos grandes casos de uso ilegal da tecnologia de deepfake é para a produção de conteúdos que prejudiquem a imagem de políticos, sobretudo em contexto eleitoral.
Por exemplo, ele pode ser utilizado como ferramenta política para colocar na boca de candidatos e autoridades palavras ofensivas e outras coisas que nunca disseram, ou mesmo realizando atos ilícitos, fazendo com que os eleitores escolham outra pessoa.
Muitos especialistas já colocam a tecnologia no patamar mais elevado da lista de desafios para as próximas eleições, tendo um combate ainda mais difícil que o feito sobre as fake news.

De acordo com os especialistas em tecnologia da informação, se a gente já tem esse hábito em relação à disseminação de notícias falsas, quando você tem uma inovação tecnológica como deepfake, essa automação só potencializa aquele ato anterior que já existia.

Para eles, que acreditam que as deepfakes podem ser uma ameaça à democracia, as consequências do uso da tecnologia nas campanhas eleitorais pode ser ainda mais grave com o avançar dela.

Inclusivem, eles acreditam que daqui a pouco nós vamos ter a popularização dos deepfakes, e depois isso irá se tornar um instrumento de campanha eleitoral.

Eles ainda afirmam que aqui no Brasil, as questões mais novas são geralmente abordadas nas leis, pela primeira vez, no contexto eleitoral, e espera-se que isso ocorra em relação às deepfakes nas próximas eleições presidenciais de 2022.

A Justiça Eleitoral no Brasil tem uma característica muito interessante: assuntos de vanguarda, aspectos tecnológicos, normalmente são tratados pela primeira vez por aqui. 

Por esse motivo, os especialistas acham que se tiver surgimento a respeito de uma normatização quanto a fake news e deepfake, acreditam que de repente isso pudesse começar pela área eleitoral.

Combate às deepfakes no mundo


O tema tem gerado tanta polêmica no mundo todo que algumas empresas e governos já se preocuparam em criar regulamentações para o uso de deepfakes. Twitter, Instagram, Google e Facebook começaram a pensar em medidas para diminuir o uso indevido de vídeos falsos nas plataformas.

O Twitter exibirá avisos de que determinados conteúdos são deepfake, enquanto o Facebook e Google vêm desenvolvendo métodos e ferramentas para detectar os vídeos manipulados.

Além das empresas, governos já buscam algum tipo de regulamentação sobre a tecnologia. A China, por exemplo, proibiu o uso de inteligência artificial para a produção de vídeos falsos e exige que a divulgação de deepfakes venha acompanhada de um aviso claro de que se trata de um conteúdo fictício.

No estado da Califórnia, nos Estados Unidos, dois projetos de lei foram assinados recentemente acerca do tema. Um deles torna ilegal a distribuição de vídeos manipulados que visam desacreditar um candidato político dentro de 60 dias após eleições, e o outro permite que os cidadãos processem pessoas que criam deepfakes para inserir rostos em materiais pornográficos sem consentimento.

Os especialista acreditam ser essencial que os governos entrem nessas discussões, e não apenas as empresas de tecnologia. Eles dizem que tem que coibir abusos, sobretudo porque se sabe que isso foi utilizado muito na época eleitoral [em 2016, nos EUA] e, por esse motivo, certamente é preciso ter uma legislação que possa coibir.

Há um uso benéfico do deepfake?


Os algoritmos de deep learning podem ser utilizados de uma forma muito positiva. Por exemplo, a tecnologia tem como princípio o reconhecimento e a reconstrução de faces. 

Esse mapeamento de faces já é utilizado para outras funções, como os Animojis da Apple e os AR emojis da Samsung. E há muito outros que identificam e modificam o rosto dos usuários.

Além dessas atividades de passatempo, o cinema também pode se beneficiar bastante com a tecnologia. É até possível que atores, atrizes e outros influenciadores digitais vendam sua imagem para aparecer em peças de publicidade sem a necessidade de estar presentes na produção dos vídeos.

Como reconhecer um deepfake?


Apesar do avanço da tecnologia, ainda é possível identificar detalhes que comprovam a falsidade do vídeo. No caso de identificação em massa de vídeos falsos, estudos experimentais mostram que redes neurais podem trazer resultados precisos, identificando com acurácia se o material usa ou não deepfake.
  • Por exemplo, será que aspectos da voz, como tom e entonação, estão naturais? 
  • Os movimentos dos lábios batem com o que está sendo dito? 
  • Os movimentos do rosto e do corpo como um todo parecem realmente orgânicos?
Também é útil procurar outros vídeos da mesma pessoa para comparar e tentar atestar a veracidade, principalmente se você não a conhece bem. 

Além disso, há ferramentas que checam vídeos quadro a quadro (por frames) para detectar sinais de manipulação. Mas é natural que, com o tempo, distinguir o verdadeiro do falso se torne cada vez mais difícil. 
Acima de tudo, sempre cheque a origem dos vídeos comprometedores antes de acreditar neles e até mesmo compartilhá-los.
Os recursos de deepfake avançam, e discussões éticas e até a legislação ligadas à segurança eletrônica também precisam acompanhar esse desenvolvimento. Por exemplo, no Brasil, ainda não há leis específicas para fake news, o que torna essa prática geralmente impune, mesmo que o autor possa ser processado por difamação e injúria. Trata-se de mais um desafio que a tecnologia nos impõe.

Um janeiro de 2020, o Facebook anunciou que iria começar a banir vídeos com deepfake da sua plataforma. O anúncio, divulgado em um blog da empresa, afirmou que conteúdos do tipo manipulam a realidade, e são um grande desafio para a indústria tecnológica.

Os vídeos são excluídos caso as edições não estejam óbvias para o usuário ou se levarem o espectador a acreditar que uma pessoa tenha dito coisas que, na verdade, nunca disseram. 

55 checadores, que falam 45 idiomas diferentes, são os responsáveis por analisar e sinalizar os vídeos falsos — a medida não inclui sátiras e outros produções humorísticas.

Antes disso, em setembro de 2019, a empresa doou US$ 10 milhões para um fundo voltado a aprimorar as tecnologias de detecção desse tipo de material. Mas a companhia já também recebeu críticas por se recusar a retirar um vídeo falso da presidente da Câmara dos Deputados dos EUA, Nancy Pelosi, que viralizou no país no ano passado.

Conclusão

O que posso fazer para me proteger?

O mais sensato a fazer é evitar o compartilhamento de vídeos pessoais com gente que você não conhece ou não hospedá-los em redes sociais de forma pública para dificultar o trabalho do editor, em pegar seu rosto e colocá-lo em outro vídeo mais comprometedor.
No geral, a sociedade ainda está se ajustando ao deepfake por se tratar de uma tecnologia relativamente nova e, se mal utilizada, extremamente prejudicial. É esperado que novos mecanismos jurídicos sejam aprovados de modo a combater a prática e proteger as pessoas. 

Portanto, caso você tenha sido vítima, colete todas as informações necessárias e procure um advogado ou a Defensoria Pública assim que possível. 

A gente tinha uma crença de que precisávamos ver para crer, mas hoje com a deepfake tudo é possível. Portanto, mais do que nunca, se faz necessário que permaneçamos vigilantes.


Ao Deus Perfeito Criador, toda glória.
Fique sempre atualizado! Acompanhe todas as postagens do nosso blog https://conexaogeral2015.blogspot.com.br/. Temos atualização diária dos mais variados assuntos sempre com um comprometimento cristão, porém sem religiosidade.
E nem 1% religioso.
O uso correto da máscara não precisava ser obrigatório, por se tratar de uma proteção individual extensiva ao coletivo. É tudo uma questão não de obrigação, mas de consciência.
Respeite a etiqueta e o distanciamento sociais e evite aglomerações. A pandemia, graças à vacinação, está controlada, mas, infelizmente, ainda não passou, a guerra não acabou.

Nenhum comentário:

Postar um comentário