Sem comentários.
O problema com os móveis foi um dos bugs mais engraçados em que já trabalhei. Durante algumas semanas, senti que estava sendo manipulado psicologicamente porque o modelo de teste no DreamStudio estava transformando tudo em móveis. Quer uma imagem da selva? Que tal uma pintura de uma selva acima de um sofá?
Os direitos autorais em treinamento são complicados. Sou extremamente sensível a leis/regulamentos/precedentes que permitam que apenas os maiores (e bem financiados) participantes consigam competir em modelos de negócios. Precisamos descobrir como recompensar/proteger os criadores sem criar um novo conjunto de monopólios de conteúdo.
Quanto à legislação dos EUA, acredito que o treinamento seja "transformador" sob a doutrina do uso justo. O pior cenário possível é que, literalmente, ceguemos nossos robôs para o mundo em nome dos direitos autorais. Os modelos e as máquinas devem ter liberdade para observar o que é observável.
Pessoas que usam IA para violar flagrantemente os direitos autorais devem estar sujeitas às mesmas regras que pessoas que usam Photoshop ou tinta para fazer o mesmo. Não acho que atacar os fabricantes de ferramentas seja a estratégia correta.
O aprendizado a partir do mundo observável não deveria ser restrito; em quem podemos confiar esse poder? A mera possibilidade de ter autoridade para tentar impor o que pode ser testemunhado me aterroriza.
A visão de um robô da Times Square após a implementação do DRM para a realidade.



