Não conseguiu participar do Transform 2022? Confira todas as sessões da cúpula em nossa biblioteca sob demanda agora! Assista aqui.


Deepfakes, ou representações fictícias, sintéticas e de alta fidelidade de pessoas e eventos que utilizam inteligência artificial (IA) e aprendizado de máquina (ML), tornaram-se uma ferramenta comum de desinformação nos últimos cinco anos. Mas, de acordo com Eric Horvitz, diretor de ciências da Microsoft, novas ameaças de deepfake estão à espreita no horizonte.

Um novo trabalho de pesquisa de Horvitz diz que os deepfakes interativos e de composição são duas classes crescentes de ameaças. Em um Tópico do Twitter, o cientista de pesquisa da MosaicML, Davis Blaloch, descreveu os deepfakes interativos como “a ilusão de falar com uma pessoa real. Imagine um golpista ligando para sua avó que se parece e soa exatamente como você.” Deepfakes de composição, ele continuou, vão mais longe com um mau ator criando muitos deepfakes para compilar uma “história sintética”.

“Pense em inventar um ataque terrorista que nunca aconteceu, inventar um escândalo fictício ou reunir “provas” de uma teoria da conspiração em benefício próprio. Essa história sintética poderia ser complementada com ação do mundo real (por exemplo, incendiar um prédio)”, twittou Blaloch.

A IA generativa está em um ponto de inflexão

No artigo, Horvitz disse que as capacidades crescentes dos métodos de IA discriminativos e generativos estão chegando a um ponto de inflexão. “Os avanços estão fornecendo ferramentas sem precedentes que podem ser usadas por atores estatais e não estatais para criar e distribuir desinformação persuasiva”, escreveu ele, acrescentando que as deepfakes se tornarão mais difíceis de diferenciar da realidade.

Evento

MetaBeat 2022

A MetaBeat reunirá líderes de pensamento para fornecer orientação sobre como a tecnologia metaverse transformará a maneira como todas as indústrias se comunicam e fazem negócios em 4 de outubro em San Francisco, CA.

Registre-se aqui

O desafio, explicou ele, surge da metodologia de redes adversariais generativas (GAN), uma “técnica iterativa em que o aprendizado de máquina e a inferência empregadas para gerar conteúdo sintético são confrontados com sistemas que tentam discriminar ficções geradas de fatos”. Com o tempo, continuou ele, o gerador aprende a enganar o detector. “Com esse processo na base dos deepfakes, nem as técnicas de reconhecimento de padrões nem os humanos serão capazes de reconhecer os deepfakes de maneira confiável”, escreveu ele.

Em maio, Horvitz testemunhou perante o Subcomitê de Segurança Cibernética do Comitê de Serviços Armados do Senado dos EUA, onde enfatizou que as organizações certamente enfrentarão novos desafios à medida que os ataques de segurança cibernética aumentam em sofisticação – inclusive por meio do uso de mídia sintética e deepfakes com inteligência artificial.

Até o momento, ele escreveu no novo artigo, os deepfakes foram criados e compartilhados como criações únicas e independentes. Agora, no entanto, “podemos esperar o surgimento de novas formas de deepfakes persuasivas que vão além das produções fixas e singleton”, disse ele.

Defesa contra deepfakes

Horvitz cita uma variedade de maneiras pelas quais governos, organizações, pesquisadores e empresas podem se preparar e se defender contra o aumento esperado de deepfakes interativos e de composição.

O surgimento de deepfakes cada vez mais sofisticados “aumentará o nível das expectativas e requisitos” do jornalismo e da reportagem, bem como a necessidade de promover a alfabetização midiática e aumentar a conscientização sobre essas novas tendências.

Além disso, novos protocolos de autenticidade para confirmar a identidade podem ser necessários, acrescentou – até novas práticas de identificação multifatorial para admissão em reuniões online. Também pode ser necessário haver novos padrões para provar a proveniência do conteúdo, incluindo novos métodos de marca d’água e impressão digital; novas regulamentações e autorregulação; esforços da equipe vermelha e monitoramento contínuo.

A vigilância do deepfake é essencial

“É importante estar vigilante” contra deepfakes interativos e de composição, disse Horvitz em um tweet no fim de semana.

Outros especialistas também compartilharam o artigo no Twitter e comentaram. “A consciência pública do risco da IA ​​é fundamental para ficar à frente dos danos previsíveis”. escreveu Margaret Mitchell, pesquisadora e cientista-chefe de ética da Hugging Face. “Penso muito em golpes e desinformação.”

Horvitz expandiu sua conclusão: “À medida que avançamos na fronteira das possibilidades tecnológicas, devemos continuar a vislumbrar possíveis abusos das tecnologias que criamos e trabalhar para desenvolver modelos de ameaças, controles e salvaguardas – e nos envolver em vários setores no aumento preocupações, usos aceitáveis, melhores práticas, mitigações e regulamentos”.

A missão do VentureBeat é ser uma praça digital para os tomadores de decisões técnicas adquirirem conhecimento sobre tecnologia empresarial transformadora e realizarem transações. Conheça nossos Briefings.

Fonte: venturebeat.com

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *