window.advanced_ads_ready=function(e,a){a=a||"complete";var d=function(e){return"interactive"===a?"loading"!==e:"complete"===e};d(document.readyState)?e():document.addEventListener("readystatechange",(function(a){d(a.target.readyState)&&e()}),{once:"interactive"===a})},window.advanced_ads_ready_queue=window.advanced_ads_ready_queue||[];
Detecção de Deepfakes

Descoberta Astronômica Revoluciona a Detecção de Deepfakes

Compartilhar

Descoberta Astronômica Revoluciona a Detecção de Deepfakes: Como a Análise de Galáxias Está Combatendo Imagens Falsas!

Detecção de Deepfakes

Facebook Portal Agron e os Grupos do Whatsapp Portal Agron 1,  Portal Agron 2 e Telegram Portal Agron mantém você atualizado com as melhores matérias sobre o agronegócio brasileiro.

Veja também: Alerta: Inteligências Artificiais Podem Colapsar com Crescimento do Conteúdo Artificial

Nova Técnica Astronômica Revoluciona Detecção de Deepfakes

A detecção de deepfakes, uma das maiores preocupações na era digital, acaba de ganhar uma aliada inesperada: a astronomia. Pesquisadores da Universidade de Hull fizeram uma descoberta inovadora ao adaptar técnicas usadas para medir galáxias para reconhecer imagens geradas por inteligência artificial (IA). Essa abordagem oferece uma nova esperança na luta contra a desinformação e a manipulação digital.

Anuncio congado imagem
Comparação dos reflexos de luz em imagens reais (Reprodução: Adejumoke Owolabi / Universidade de Hull)

Método Inusitado para Identificar Deepfakes

Os pesquisadores descobriram que técnicas astronômicas podem ser eficazes para detectar deepfakes ao analisar o reflexo da luz nos olhos das pessoas em imagens. A ideia central é observar a simetria dos reflexos de luz entre os dois olhos em uma foto. Em imagens reais, os padrões de reflexo são geralmente semelhantes e apontam para a mesma direção. Em contraste, deepfakes frequentemente exibem discrepâncias significativas entre os reflexos dos olhos.

Aplicação da Técnica Astronômica

Para aplicar essa técnica, os pesquisadores adaptaram ferramentas astronômicas, como o coeficiente Gini, uma métrica que avalia a uniformidade na distribuição da luz nos olhos. Um coeficiente Gini próximo de 0 indica uma distribuição uniforme da luz, característica de fotos reais, enquanto um valor próximo de 1 sugere uma concentração irregular da luz, típica de deepfakes.

Kevin Pimbblet, um dos pesquisadores envolvidos, destacou que a técnica ainda está em fase de desenvolvimento e pode gerar alguns falsos positivos e negativos. No entanto, ele considera essa descoberta um avanço significativo, pois fornece uma base sólida para futuras melhorias na detecção de deepfakes.

Olhos gerados por IA têm reflexos levemente diferentes (Reprodução: Adejumoke Owolabi / Universidade de Hull)

Impacto e Futuro da Técnica

Embora a técnica tenha mostrado promissores resultados iniciais, a equipe de pesquisa está trabalhando para aprimorar a precisão do método. O objetivo é reduzir a possibilidade de erros e aumentar a confiabilidade da detecção de deepfakes. A aplicação dessa abordagem poderia transformar a forma como verificamos a autenticidade das imagens digitais e ajudar a combater a propagação de informações falsas.

A integração de métodos astronômicos na detecção de deepfakes não apenas abre novas possibilidades para a segurança digital, mas também destaca a criatividade e inovação no enfrentamento dos desafios tecnológicos modernos. À medida que a técnica evolui, espera-se que ela se torne uma ferramenta valiosa na manutenção da integridade das informações digitais.

Fonte: Este texto foi gerado com a ajuda do ChatGPT, um modelo de linguagem da OpenAI, e revisado pelo autor para garantir qualidade e precisão. Imagem principal: Depositphotos.


Compartilhar

🚀 Quer ficar por dentro do agronegócio brasileiro e receber as principais notícias do setor em primeira mão? ✅ 👉🏽 Para isso é só entrar em nosso canal do WhatsApp ( clique aqui ), e no grupo do WhatsApp ( clique aqui ) ou Telegram Portal Agron ( clique aqui ), e no nosso Twitter ( clique aqui ) . 🚜 🌱 Você também pode nosso feed pelo Google Notícias ( clique aqui )

  • Se o artigo ou imagem foi publicado com base no conteúdo de outro site, e se houver algum problema em relação ao conteúdo ou imagem, direitos autorais por exemplo, por favor, deixe um comentário abaixo do artigo. Tentaremos resolver o mais rápido possível para proteger os direitos do autor. Muito obrigado!
  • Queremos apenas que os leitores em informações de forma mais rápida e fácil com outros conteúdos multilíngues, em vez de informações disponíveis apenas em um determinado idioma.
  • Sempre respeitamos os direitos autorais do conteúdo do autor e sempre incluímos o link original do artigo fonte. Caso o autor discorde, basta deixar o relato abaixo do artigo, o artigo e a imagem será editado ou apagado a pedido do autor. Muito obrigado! Atenciosamente!
  • If the article or image was published based on content from another site, and if there are any issues regarding the content or image, the copyright for example, please leave a comment below the article. We will try to resolve it as soon as possible to protect the copyright. Thank you very much!
  • We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.
  • We always respect the copyright of the content and image of the author and always include the original link of the source article. If the author disagrees, just leave the report below the article, the article and the image will be edited or deleted at the request of the author. Thanks very much! Best regards!

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

error: Conteúdo protegido!