thomson reuters

BLOG | REVISTA DOS TRIBUNAIS

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Especialistas em IA e outros pedem mais regulamentação sobre deepfake

Especialistas em IA e outros pedem mais regulamentação sobre deepfake

Por Anna Tong

BERKELEY (Reuters) – – Especialistas em IA e executivos do setor, incluindo um dos pioneiros da tecnologia, Yoshua Bengio, assinaram uma carta aberta pedindo mais regulamentação envolvendo a criação de deepfakes, citando os possíveis riscos para a sociedade.

“Hoje, os deepfakes geralmente envolvem imagens sexuais, fraudes ou desinformação política. Como a IA está progredindo rapidamente e tornando a criação de deepfakes muito mais fácil, são necessárias salvaguardas”, disse o grupo na carta, que foi elaborada por Andrew Critch, um pesquisador de IA da Universidade da Califórnia, em Berkeley, Estados Unidos.

Deepfakes são imagens, áudios e vídeos aparentemente reais, porém fabricados, criados por algoritmos de IA, e os recentes avanços na tecnologia os tornaram cada vez mais indistinguíveis do conteúdo criado por humanos.

A carta, intitulada “Disrupting the Deepfake Supply Chain” (“Interrompendo a cadeia de suprimentos de deepfakes”, na tradução), faz recomendações sobre como regulamentar os deepfakes, incluindo a criminalização total da pornografia infantil deepfake, penalidades criminais para qualquer indivíduo que conscientemente crie ou facilite a disseminação de deepfakes prejudiciais e a exigência de que as empresas de IA impeçam que seus produtos criem deepfakes nocivos.

Até a manhã desta quarta-feira, mais de 400 indivíduos de vários setores, incluindo o acadêmico, o de entretenimento e o político, haviam assinado a carta.

Entre os signatários estavam Steven Pinker, professor de psicologia de Harvard, Joy Buolamwini, fundadora da Algorithmic Justice League, dois ex-presidentes da Estônia, pesquisadores do Google Deepmind e um pesquisador da OpenAI.

Garantir que os sistemas de IA não prejudiquem a sociedade tem sido uma prioridade para os órgãos reguladores desde que a OpenAI revelou o ChatGPT em 2022, impressionando os usuários ao envolvê-los em conversas semelhantes às humanas e ao realizar outras tarefas.

Houve vários avisos de pessoas importantes sobre os riscos da IA, principalmente uma carta assinada por Elon Musk no ano passado que pedia uma pausa de seis meses no desenvolvimento de sistemas mais poderosos do que o modelo GPT-4, da OpenAI.

 

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Mais lidas

Post Relacionado

Pessoa sentada a uma mesa com um livro e um laptop em um escritório em um prédio alto, com vista para a cidade.

Lançamentos – Fevereiro/2026

O que marca os lançamentos de fevereiro de 2026 Os lançamentos – fevereiro/2026 da Revista dos Tribunais mostram, com bastante nitidez, quais são as grandes frentes de preocupação da comunidade jurídica hoje: reforma tributária, tecnologia e inteligência artificial, proteção de dados, insolvência empresarial, arbitragem, processo civil, Direito Administrativo e aperfeiçoamento

Uma pessoa em pé dentro de um vagão de metrô lê um jornal enquanto segura um copo de café.

Dia do Repórter: Liberdade de Imprensa e o Direito à Informação

O Dia do Repórter, celebrado em 16 de fevereiro, vai muito além de uma data simbólica, pois convoca uma reflexão jurídica e institucional sobre a liberdade de imprensa e o direito fundamental à informação em sociedades democráticas. Em um contexto marcado pela intensificação da polarização política, pela disseminação de desinformação

Notas de dólar

Brasil capta US$4,5 bi em emissão de títulos públicos no mercado internacional

9 Fev (Reuters) – O Tesouro Nacional informou a captação nesta segunda-feira de US$4,5 bilhões com sua primeira emissão de títulos públicos no mercado internacional neste ano, oferecendo papéis com vencimentos em 2036 e 2056. Os papéis de 10 anos alcançaram um volume de US$3,5 bilhões, o maior da história

REVISTA DOS TRIBUNAIS
Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.