O novo modelo de IA da Meta visa melhorar a Wikipedia

O mais recente modelo de IA da Meta foi projetado para verificar automaticamente centenas de milhares de fontes da Wikipedia simultaneamente e sugerir fontes melhores quando necessário.

A Wikipédia cresce cerca de 17.000 artigos por mês. Entre eles estão textos longos e curtos, mas eles têm uma coisa em comum: cada afirmação no texto deve ser verificada por uma fonte duplamente verificada.

Quanto maior a Wikipédia fica, mais difícil se torna para a comunidade cumprir essa promessa de qualidade e manter as fontes atualizadas. O mais recente modelo de IA da Meta, “Side”, pode suportar isso no futuro.

Fontes de conhecimento da WWW

De acordo com a Meta, o modelo de AI de código aberto Side pode verificar automaticamente centenas de milhares de referências de fontes e avaliar se e quão bem as informações disponíveis na fonte verificam a afirmação no artigo da Wikipedia.

O sistema foi projetado para verificar as fontes automaticamente em segundo plano e alertar os editores da Wikipedia sobre fontes que podem estar incorretas ou irrelevantes. Isso evita que o editor tenha o trabalho de verificar todas as fontes manualmente. Side também pode fazer sugestões para (melhores) fontes se as citações estiverem ausentes ou desatualizadas.

Vídeo: meta

Side extrai seu conhecimento de um conjunto de dados de texto contendo informações de 134 milhões disponíveis publicamente Web Páginas. Segundo a Meta, os índices desenvolvidos para o projeto Sphere contêm 40 vezes mais conteúdo do que outros índices da Wikipédia.

Durante o treinamento, Meta ensinou a IA a escolher uma única fonte para cada um dos quatro milhões de declarações da Wikipedia do vasto conjunto de Web Páginas. Ao procurar fontes, Meta diz que os modelos “criam e comparam representações matemáticas dos significados de declarações inteiras, em vez de palavras individuais”.

No caso de textos longos, o modelo deve ser capaz de encontrar apenas as passagens mais relevantes para a passagem da Wikipedia antes de recomendar um URL de origem.

A longo prazo, a Meta também quer apurar fatos e avaliar a qualidade da fonte

Na próxima etapa, a Meta espera estender o princípio de verificação. Os modelos correspondentes devem aprender a avaliar a qualidade dos documentos recuperados, devem reconhecer possíveis contradições nas declarações, priorizar fontes confiáveis ​​e indicar de forma transparente quando não há evidências convincentes para uma declaração.

“No mundo real, esses modelos podem amordaçar conteúdo prejudicial e, quando combinados com uma interface de usuário bem projetada, aprimorar a alfabetização digital e as habilidades de pensamento crítico das pessoas”, escreve Meta.

O sistema poderia, por exemplo, ser integrado a um futuro software editorial para verificar fatos, corrigir erros e adicionar texto. Seria ótimo se pudesse acessar informações de todos os formatos de mídia em vários idiomas, escrevem os pesquisadores.

Experimento de código aberto como um bloco de construção para o futuro da IA

A equipe de pesquisa da Meta também fornece uma visão de como o projeto Side pode contribuir para o progresso geral da IA: por meio de treinamento extensivo com conteúdo complexo e complicado, A IA pode desenvolver uma melhor compreensão do mundo. O resultado seriam algoritmos mais inteligentes e flexíveis.

Como um modelo pré-treinado, o sistema de checagem de fatos pode trazer avanços no processamento de linguagem, recuperação de informações em sistemas de resposta a perguntas e aprendizado de poucos tiros, ou seja, ajuste fino de um grande modelo de IA para aplicativos específicos com dados limitados.

meta faz Lateral disponível gratuitamente como código aberto. Você pode confira uma demonstração da Wikipédia aqui. A Meta não fez parceria com o operador da Wikipédia Wikimedia for Side. Não se sabe se e como o sistema será usado para a Wikipédia.