Artistas processam Stability AI, Midjourney e DeviantArt

Uma ação coletiva é movida nos EUA contra Midjourney e Stability AI, bem como a plataforma de arte DeviantArt.

As artistas americanas Sarah Andersen, Kelly McKernan e Karla Ortiz entraram com uma ação coletiva na Califórnia contra a Stability AI ( Difusão estável ) e meio da jornada . Os artistas estão buscando indenização e uma liminar para evitar danos futuros.

A plataforma de arte DeviantArt também é acusada de fornecer milhares ou até milhões de imagens do conjunto de dados LAION para o treinamento de Stable Diffusion.

Em vez de ficar do lado dos artistas, o DeviantArt colocou o DreamUp online, um aplicativo de arte de IA baseado em Stable Diffusion, de acordo com os demandantes.

Advogado de código de IA agora também processa imagens de IA

Por trás do processo está o programador e advogado Matthew Butterick. Ele está liderando outro processo contra Microsoft, Github e OpenAI alegando que Código AI Copilot do GitHub reproduz trechos de código de desenvolvedores sem atribuição e viola os termos de licenciamento de código aberto.

Sobre Stable Diffusion and co, Butterick oferece um veredicto severo: “É um parasita que, se permitir sua proliferação, causará danos irreparáveis ​​aos artistas, agora e no futuro.”

Conjuntos de dados sem consentimento são o ponto fraco dos atuais sistemas de IA de imagens

Em seu resumo, Butterick aponta a maior fraqueza – de uma perspectiva legal – dos sistemas de IA para imagens: quase nenhum artista deu consentimento explícito para que suas obras sejam usadas para treinar um sistema de IA.

Mesmo que as imagens geradas pelos sistemas passem como originais – o sistema de geração ainda seria baseado em dados não autorizados.

Como Butterick coloca, “como toda a informação visual no sistema é derivada das imagens de treinamento com direitos autorais, as imagens produzidas – independentemente da aparência externa – são necessariamente obras derivadas dessas imagens de treinamento”.

Um estudo recente examinou a singularidade das imagens geradas por um modelo de difusão de IA e mostrou que cópias relativamente exatas de imagens originais ocorrem regularmente no conjunto de dados de treinamento – em pelo menos dois casos em 100.

O fundador da Stability AI, Emad Mostaque, levantou a perspectiva em novembro passado de que futuros modelos de Stable Diffusion podem ser treinados em conjuntos de dados totalmente licenciados. Além disso, os artistas receberão mecanismos de exclusão de seus dados de imagem.