Sumário
Empresas de tecnologia e políticos nunca se cansam de dizer que a inteligência artificial deve ser implantada com segurança e responsabilidade por causa de suas implicações de longo alcance. Mas quando a tecnologia entra na sociedade de outras maneiras, ela continua sendo um serviço da boca para fora. O exemplo mais recente é o vazamento do último modelo de linguagem do Meta.
Em fevereiro de 2019, a OpenAI revelou seu grande modelo de linguagem, GPT-2, e anunciou que só o lançaria em etapas devido ao alto risco de uso indevido. O modelo seria muito perigoso para ser colocado nas mãos de muitas pessoas sem controle, que poderiam usá-lo para gerar uma massa de mensagens falsas, disse a empresa na época.
Agora, a OpenAI pode estar certa com esta tese e conseguiu administrar com sucesso o lançamento de sua tecnologia até agora. Os grandes modelos de linguagem GPT-3 e ChatGPT são acessíveis apenas por meio de uma interface de programação e web, não diretamente. Isso permite que OpenAI controle os aplicativos e, entre outras coisas, defina filtros contra conteúdo violento ou sexual. Quem usa o ChatGPT conhece as inúmeras isenções de responsabilidade.
O modelo de linguagem LLaMA da Meta vazou no 4Chan
Quase exatamente quatro anos após as preocupações GPT-2 (!) da OpenAI, Modelo de linguagem LLaMA da Meta vazou, o que, de acordo com os benchmarks científicos, corresponde e, em alguns casos, supera o poderoso modelo de linguagem GPT-3 do OpenAI, embora seja mais compacto e mais rápido. Diz-se até que o LLaMA está no mesmo nível O poderoso modelo PaLM do Googleque ainda não foi lançado, em parte por motivos de segurança.
O vazamento do LLaMA supostamente veio do notório fórum on-line 4chanum viveiro de discurso de ódio, sexismo e teorias da conspiração na Internet, o oposto do que as empresas de tecnologia querem disponibilizar seus modelos de linguagem.
Mas o vazamento em si pode não ser a grande história aqui. Meta, de acordo com vários comentários no Reddit, deu acesso ao LLaMA sem muito questionamento. E embora ainda não esteja no nível dos modelos empresariais, há inúmeros esforços para tornar grandes modelos de linguagem disponíveis como código aberto.
Após o vazamento do LLaMA, agora descobriremos se os temores da OpenAI sobre o uso indevido de grandes modelos de linguagem foram justificados. A questão é se seremos capazes de detectar esse uso indevido – ou se simplesmente sofreremos as consequências.
As barreiras de hardware para usar os modelos LLaMA maiores e mais poderosos ainda são significativas e os custos estão além do alcance do faça-você-mesmo médio. Mas as organizações poderiam financiar a operação.
É possível implantar IA com responsabilidade?
Claro, o compromisso da OpenAI, Google e outros com o uso responsável da IA é um fator-chave para garantir sua “licença para operar”, ou seja, a aceitação social de sua existência. Ou talvez possamos apenas confiar que empresas e negócios, e as pessoas que trabalham lá, levam seu papel a sério e fazem um esforço sincero para implantar a tecnologia de IA com responsabilidade.
Ainda assim, após o vazamento do LLaMA, é preciso se perguntar: isso faz alguma diferença? Parece que, uma vez que a tecnologia esteja disponível, ela encontrará seu caminho para a natureza – e com ela, todos os riscos potenciais.
O vazamento de LLaMA é um exemplo. O treinamento e distribuição de grandes modelos de imagem como Stable Diffusion, com todos os seus problemas de direitos autorais não resolvidosou o disseminação da tecnologia deepfakeque também é usado para manipulação política ou misoginiasão outros exemplos.
Claro, não sabemos o que está por vir e o que será possível com a IA um dia. Podemos estar no auge do hype da IA – ou podemos estar apenas vendo a ponta do iceberg. É por isso que as organizações precisam continuar pensando e planejando a segurança e a responsabilidade da IA.
Neste ponto, no entanto, aqueles que querem concluir que a implantação responsável da IA já falhou podem ter um bom argumento.