Início TECNOLOGIA Actual vs. IA: o guia do seu Deepfake Spotter para vídeos gerados...

Actual vs. IA: o guia do seu Deepfake Spotter para vídeos gerados por IA

13
0

Já se foi o tempo em que period fácil detectar uma “falsa” na web, muitas vezes apenas uma imagem mal feita no Photoshop. Agora, estamos nadando em um mar de vídeos e deepfakes gerados por IA, desde falsos endossos de celebridades até falsas transmissões de desastres. A tecnologia mais recente tornou-se desconfortavelmente inteligente em confundir os limites entre a realidade e a ficção, tornando quase impossível discernir o que é actual.

E a situação está piorando rapidamente. O Sora da OpenAI já está turvando as águas, mas agora seu “aplicativo de mídia social” viral, Sora 2, é o bilhete mais quente – e mais enganoso – da Web. É um feed estilo TikTok onde tudo é 100% falso. Este autor chamou isso de “sonho febril profundo e falso” e por um bom motivo. A plataforma está melhorando continuamente quando se trata de fazer a ficção parecer realista, com riscos significativos no mundo actual.

Se você está lutando para separar o actual da IA, não está sozinho. Aqui estão algumas dicas úteis que devem ajudá-lo a eliminar o ruído para chegar à verdade sobre cada criação inspirada em IA.


Não perca nenhum de nossos conteúdos técnicos imparciais e análises baseadas em laboratório. Adicionar CNET como fonte preferencial do Google.


Meu especialista em IA analisa os vídeos do Sora

Do ponto de vista técnico, os vídeos Sora são impressionantes em comparação com concorrentes como Meio da jornada V1 e Google Veo 3. Possuem alta resolução, áudio sincronizado e criatividade surpreendente. O recurso mais widespread de Sora, apelidado de “cameo”, permite usar imagens de outras pessoas e inseri-las em praticamente qualquer cena gerada por IA. É uma ferramenta impressionante, resultando em vídeos assustadoramente realistas.

É por isso que tantos especialistas estão preocupados com Sora. O aplicativo torna mais fácil para qualquer pessoa criar deepfakes perigosos, espalhar informações erradas e confundir a linha entre o que é actual e o que não é. Figuras públicas e celebridades são especialmente vulneráveis ​​a esses deepfakes, e sindicatos como o SAG-AFTRA pressionaram a OpenAI para fortalecer seus guarda-corpos.

Identificar conteúdo de IA é um desafio constante para empresas de tecnologia, plataformas de mídia social e todos os demais. Mas não é totalmente desesperador. Aqui estão algumas coisas que você deve observar para determinar se um vídeo foi feito usando Sora.

Procure a marca d’água Sora

Cada vídeo feito no aplicativo Sora iOS inclui uma marca d’água quando você faz o obtain. É o logotipo branco da Sora – um ícone de nuvem – que salta nas bordas do vídeo. É semelhante à forma como os vídeos do TikTok têm marca d’água. Marcar conteúdo com marca d’água é uma das principais maneiras pelas quais as empresas de IA podem nos ajudar visualmente a identificar conteúdo gerado por IA. O modelo Gemini “nano banana” do Google marca automaticamente suas imagens com marcas d’água. As marcas d’água são ótimas porque servem como um sinal claro de que o conteúdo foi feito com a ajuda da IA.

Atlas de IA

Mas as marcas d’água não são perfeitas. Por um lado, se a marca d’água estiver estática (sem movimento), ela poderá ser facilmente cortada. Mesmo para marcas d’água em movimento, como a de Sora, existem aplicativos projetados especificamente para removê-las, portanto, as marcas d’água por si só não são totalmente confiáveis. Quando o CEO da OpenAI, Sam Altman foi questionado sobre issoele disse que a sociedade terá que se adaptar a um mundo onde qualquer pessoa pode criar vídeos falsos de qualquer pessoa. É claro que, antes de Sora, não existia uma maneira widespread, facilmente acessível e sem necessidade de habilidade para fazer esses vídeos. Mas o seu argumento levanta uma questão válida sobre a necessidade de confiar em outros métodos para verificar a autenticidade.

Verifique os metadados

Eu sei que você provavelmente está pensando que não há como verificar os metadados de um vídeo para determinar se ele é actual. Eu entendo de onde você vem. É uma etapa further e talvez você não saiba por onde começar. Mas é uma ótima maneira de determinar se um vídeo foi feito com Sora e é mais fácil de fazer do que você pensa.

Metadados são uma coleção de informações anexadas automaticamente a um conteúdo quando ele é criado. Dá a você mais informações sobre como uma imagem ou vídeo foi criado. Pode incluir o tipo de câmera usada para tirar uma foto, o native, an information e hora em que o vídeo foi capturado e o nome do arquivo. Cada foto e vídeo possuem metadados, não importa se foram criados por humanos ou por IA. E muito conteúdo criado por IA também terá credenciais de conteúdo que denotam suas origens de IA.

OpenAI faz parte da Coalition for Content material Provenance and Authenticity, o que significa Sora os vídeos incluem Metadados C2PA. Você pode usar o ferramenta de verificação da Content material Authenticity Initiative para verificar os metadados de um vídeo, imagem ou documento. Veja como. (A Iniciativa de Autenticidade de Conteúdo faz parte do C2PA.)

Como verificar os metadados de uma foto, vídeo ou documento

1. Navegue até este URL: https://verify.contentauthenticity.org/
2. Carregue o arquivo que deseja verificar.
3. Clique em Abrir.
4. Verifique as informações no painel do lado direito. Se for gerado por IA, deve incluir isso na seção de resumo do conteúdo.

Quando você executa um vídeo Sora por meio desta ferramenta, ele dirá que o vídeo foi “emitido pela OpenAI” e incluirá o fato de ser gerado por IA. Todos os vídeos Sora devem conter essas credenciais que permitem confirmar que foram criados com Sora.

Esta ferramenta, como todos os detectores de IA, não é perfeita. Há muitas maneiras pelas quais os vídeos de IA podem evitar a detecção. Se você tiver vídeos que não sejam do Sora, eles podem não conter os sinais necessários nos metadados para que a ferramenta decide se foram ou não criados por IA. Vídeos de IA feitos com Midjourney, por exemplo, não são sinalizados, como confirmei em meus testes. Mesmo que o vídeo tenha sido criado por Sora, mas depois executado por meio de um aplicativo de terceiros (como um de remoção de marca d’água) e baixado novamente, é menos provável que a ferramenta o sinalize como IA.

Captura de tela de um vídeo Sora executado por meio da ferramenta Content Authenticity's Initiative

A ferramenta de verificação da Content material Authenticity Initiative sinalizou corretamente que um vídeo que fiz com Sora foi gerado por IA, junto com an information e hora em que o criei.

Captura de tela de Katelyn Chedraoui/CNET

Procure outros rótulos de IA e inclua o seu próprio

Se você estiver em uma das plataformas de mídia social da Meta, como Instagram ou Fb, poderá obter uma ajudinha para determinar se algo é IA. Meta tem sistemas internos em vigor para ajudar a sinalizar conteúdo de IA e rotulá-lo como tal. Esses sistemas não são perfeitos, mas você pode ver claramente o rótulo das postagens que foram sinalizadas. TikTok e YouTube têm políticas semelhantes para rotular conteúdo de IA.

A única maneira verdadeiramente confiável de saber se algo é gerado por IA é se o criador o divulgar. Muitas plataformas de mídia social agora oferecem configurações que permitem aos usuários rotular suas postagens como geradas por IA. Mesmo um simples crédito ou divulgação em sua legenda pode ajudar muito a ajudar todos a entender como algo foi criado.

Você sabe enquanto rola Sora que nada é actual. No entanto, assim que você sair do aplicativo e compartilhar vídeos gerados por IA, será nossa responsabilidade coletiva divulgar como o vídeo foi criado. À medida que modelos de IA como Sora continuam a confundir a linha entre a realidade e a IA, cabe a todos nós deixar o mais claro possível quando algo é actual ou IA.

Mais importante ainda, permaneça vigilante

Não existe um método infalível para dizer com precisão, a partir de um único olhar, se um vídeo é actual ou IA. A melhor coisa que você pode fazer para evitar ser enganado é não acreditar automaticamente e sem questionar tudo o que vê on-line. Siga seu instinto e se algo parecer irreal, provavelmente é. Nestes tempos sem precedentes e repletos de falhas de IA, sua melhor defesa é inspecionar mais de perto os vídeos que você está assistindo. Não olhe rapidamente e function sem pensar. Verifique se há texto mutilado, objetos desaparecendo e movimentos que desafiam a física. E não se culpe se for enganado ocasionalmente. Até os especialistas erram.

(Divulgação: Ziff Davis, controladora da CNET, entrou com uma ação judicial contra a OpenAI em abril, alegando que ela infringiu os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.)



avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui