Sumário
Desde o lançamento beta do DALL-E 2, os primeiros usuários geraram mais de três milhões de imagens. OpenAI tira uma primeira conclusão.
Semelhante ao texto AI GPT-3, a OpenAI está adotando uma abordagem cautelosa para o lançamento do sistema AI de imagem DALL-E 2 . A maior preocupação da empresa pode ser que o sistema gere repetidamente imagens que violem as convenções sociais ou mesmo a lei.
Como o sistema se comportará quando centenas de milhares de pessoas gerarem dezenas de milhões de imagens? Isso é difícil de prever.
Mesmo quando o DALL-E 2 foi introduzido pela primeira vez, o OpenAI revelou seus pontos fracos, como o fato de o sistema atender a estereótipos de gênero comuns, especialmente em fotos de estoque. Os comissários de bordo, por exemplo, são mulheres, enquanto os juízes são homens.
O DALL-E 2 gera imagens amplamente compatíveis
Depois de gerar três milhões de imagens, a OpenAI tira uma conclusão inicial sobre a conformidade do DALL-E 2 com suas próprias políticas de conteúdo. O sistema identificou 0,05% das imagens geradas como possíveis violações das diretrizes de conteúdo. Desses 0,05 por cento, 30 por cento foram avaliados por revisores humanos como violações reais que levaram ao bloqueio de uma conta.
A OpenAI continuará a abster-se de criar rostos fotorrealistas. Essa é uma maneira eficaz de limitar possíveis danos, escreve a empresa, que continuará trabalhando em vieses no sistema de IA decorrentes de dados de treinamento.
em seu diretrizes de conteúdo OpenAI proíbe a geração de conteúdo sexual, violência extrema, estereótipos negativos, ofensas criminais e muitos outros motivos.
OpenAI permanece cauteloso
Portanto, 450 de três milhões de imagens geradas violam as diretrizes de conteúdo da OpenAI. Isso parece pouco, mas ainda pode levar a uma enxurrada de impressões negativas sobre a imagem AI se o sistema for implantado em grande escala.
A OpenAI continua agindo com cautela: a empresa quer aprender com a prática como antes, mas só permite novos usuários em pequeno número – 1.000 por semana. Todos os testadores beta também devem concordar com as diretrizes de conteúdo.
“Esperamos aumentar a taxa de integração de novos usuários à medida que aprendemos mais e ganhamos confiança em nosso sistema de segurança”, escreve a OpenAI. Espera-se que um lançamento maior do DALL-E 2 ocorra neste verão.
Quem é o responsável – os artistas ou a máquina de arte?
Semelhante ao texto AI GPT-3, onde violações drásticas das diretrizes da OpenAI ocorreram , e com perspectivas de sistemas de IA generativos ainda mais poderosos no futuro, uma questão essencial permanece sem resposta: quem é o responsável – o fabricante da ferramenta ou seus usuários? Essa questão também surge em outros contextos de IA, como sistemas militares de IA ou condução autónoma.
A OpenAI assume proativamente a responsabilidade por meio de suas políticas de conteúdo auto-impostas e seu monitoramento rigoroso. Em última análise, no entanto, isso coloca a empresa em um papel em que deve definir os limites da moralidade, da arte, da liberdade de expressão e do bom gosto entre as culturas. Essa não é exatamente a principal competência das empresas de tecnologia – nem é seu trabalho.