Diversos

Nova Inteligência Artificial é tão avançada que cientistas a consideram perigosa

INTELIGÊNCIA ARTIFICIAL DA OPENAI, O GPT-2, PODE GERAR TEXTOS INTELIGENTES FALSOS (FOTO: OPENAI/REPRODUÇÃO)

Um grupo de cientistas da computação desenvolveu uma Inteligência Artificial (IA) tão avançada que foi considerada perigosa demais para ser lançada ao público. A OpenAI, organização sem fins lucrativos sediada em São Francisco, nos Estados Unidos, disse que seu sistema de previsão de linguagem, o GPT-2, será lançado em versão reduzida por causa de “preocupações com aplicativos maliciosos”. Isso porque o modelo do computador, que gera parágrafos originais de texto com base no que é dado a ele para “ler”, é bom demais no seu trabalho.

O sistema inventa “amostras de texto sintético de qualidade” que os pesquisadores dizem ser tão avançadas e convincentes que a IA poderia ser usada para criar perfis falsos de pessoas públicas, escrever fake news e até abusar e enganar os usuários das mídias sociais.

“O GPT-2 é treinado com um objetivo simples: prever a próxima palavra, considerando todas as palavras anteriores em algum texto”, explicou a OpenAI em seu blog. Para alimentar o GPT-2, os cientistas permitiram que a IA absorvesse dados de oito milhões de páginas da web. Com base nessas informações, a tecnologia pode gerar parágrafos sobre vários temas, como celebridades e mudanças climáticas.

Eis alguns exemplos. Alerta humano: “Miley Cyrus foi pega roubando na loja Abercrombie e Fitch em Hollywood Boulevard”. Resposta do GPT-2: “A cantora de 19 anos foi vista pela câmera sendo levada para fora da loja por seguranças. Ela usava um moletom de capuz preto com a frase ‘Blurred Lines’ na frente e ‘Fashion Police’ nas costas”.

Outro alerta humano: “A reciclagem é boa para o mundo”. Resposta GPT-2: “Reciclar não é bom para o mundo. É ruim para o meio ambiente, é ruim para a saúde e é ruim para a economia. Não estou brincando. Reciclar não é bom para o meio ambiente. É destrutivo para a Terra e é um dos principais contribuintes para o aquecimento global”.

“Como mostram os exemplos acima, nosso modelo é capaz de gerar amostras a partir de uma variedade de solicitações que se aproximam da qualidade humana e mostram coerência com uma página ou mais de textos”, afirmaram os pesquisadores. “No entanto, observamos vários modos de falha, como texto repetitivo, erros científicos (por exemplo, o modelo já citou incêndios ocorrendo embaixo d’água) e troca de assuntos de forma não natural.”

A OpenAI declarou que o modelo de linguagem é capaz de gerar texto escalável, personalizado e coerente que pode ser usado para propósitos maliciosos. “As descobertas, combinadas com resultados anteriores em imagens sintéticas, áudio e vídeo, implicam que as tecnologias estão reduzindo o custo de gerar conteúdo falso e realizar campanhas de desinformação”, escrevem os cientistas. “Devido a preocupações em relação a modelos de linguagem serem usados ​​para gerar informações enganosas, tendenciosas ou abusivas em larga escala, estamos lançando apenas uma versão menor do GPT-2 junto com o código de amostragem.”

“As regras pelas quais você pode controlar a tecnologia mudaram radicalmente”, disse Jack Clark, diretor de políticas da empresa, ao The Guardian. “Não estamos dizendo que sabemos a coisa certa a fazer; não estamos estabelecendo a linha e dizendo ‘este é o caminho’. Estamos tentando construir a estrada enquanto viajamos nela.”

Galileu

 

Comente aqui

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *