O vazamento de LLaMA da Meta mostra que a implantação segura de IA é mais um sonho

Empresas de tecnologia e políticos nunca se cansam de dizer que a inteligência artificial deve ser implantada com segurança e responsabilidade por causa de suas implicações de longo alcance. Mas quando a tecnologia entra na sociedade de outras maneiras, ela continua sendo um serviço da boca para fora. O exemplo mais recente é o vazamento do último modelo de linguagem do Meta.

Em fevereiro de 2019, a OpenAI revelou seu grande modelo de linguagem, GPT-2, e anunciou que só o lançaria em etapas devido ao alto risco de uso indevido. O modelo seria muito perigoso para ser colocado nas mãos de muitas pessoas sem controle, que poderiam usá-lo para gerar uma massa de mensagens falsas, disse a empresa na época.

Agora, a OpenAI pode estar certa com esta tese e conseguiu administrar com sucesso o lançamento de sua tecnologia até agora. Os grandes modelos de linguagem GPT-3 e ChatGPT são acessíveis apenas por meio de uma interface de programação e web, não diretamente. Isso permite que OpenAI controle os aplicativos e, entre outras coisas, defina filtros contra conteúdo violento ou sexual. Quem usa o ChatGPT conhece as inúmeras isenções de responsabilidade.

O modelo de linguagem LLaMA da Meta vazou no 4Chan

Quase exatamente quatro anos após as preocupações GPT-2 (!) da OpenAI, Modelo de linguagem LLaMA da Meta vazou, o que, de acordo com os benchmarks científicos, corresponde e, em alguns casos, supera o poderoso modelo de linguagem GPT-3 do OpenAI, embora seja mais compacto e mais rápido. Diz-se até que o LLaMA está no mesmo nível O poderoso modelo PaLM do Googleque ainda não foi lançado, em parte por motivos de segurança.

O vazamento do LLaMA supostamente veio do notório fórum on-line 4chanum viveiro de discurso de ódio, sexismo e teorias da conspiração na Internet, o oposto do que as empresas de tecnologia querem disponibilizar seus modelos de linguagem.

Mas o vazamento em si pode não ser a grande história aqui. Meta, de acordo com vários comentários no Reddit, deu acesso ao LLaMA sem muito questionamento. E embora ainda não esteja no nível dos modelos empresariais, há inúmeros esforços para tornar grandes modelos de linguagem disponíveis como código aberto.

Após o vazamento do LLaMA, agora descobriremos se os temores da OpenAI sobre o uso indevido de grandes modelos de linguagem foram justificados. A questão é se seremos capazes de detectar esse uso indevido – ou se simplesmente sofreremos as consequências.

As barreiras de hardware para usar os modelos LLaMA maiores e mais poderosos ainda são significativas e os custos estão além do alcance do faça-você-mesmo médio. Mas as organizações poderiam financiar a operação.

É possível implantar IA com responsabilidade?

Claro, o compromisso da OpenAI, Google e outros com o uso responsável da IA é um fator-chave para garantir sua “licença para operar”, ou seja, a aceitação social de sua existência. Ou talvez possamos apenas confiar que empresas e negócios, e as pessoas que trabalham lá, levam seu papel a sério e fazem um esforço sincero para implantar a tecnologia de IA com responsabilidade.

Ainda assim, após o vazamento do LLaMA, é preciso se perguntar: isso faz alguma diferença? Parece que, uma vez que a tecnologia esteja disponível, ela encontrará seu caminho para a natureza – e com ela, todos os riscos potenciais.

O vazamento de LLaMA é um exemplo. O treinamento e distribuição de grandes modelos de imagem como Stable Diffusion, com todos os seus problemas de direitos autorais não resolvidosou o disseminação da tecnologia deepfakeque também é usado para manipulação política ou misoginiasão outros exemplos.

Claro, não sabemos o que está por vir e o que será possível com a IA um dia. Podemos estar no auge do hype da IA ​​– ou podemos estar apenas vendo a ponta do iceberg. É por isso que as organizações precisam continuar pensando e planejando a segurança e a responsabilidade da IA.

Neste ponto, no entanto, aqueles que querem concluir que a implantação responsável da IA ​​já falhou podem ter um bom argumento.