[1/9] Ontem, um mês após seulobechat.como, o Lobe Chat Cloud (https://t.co/z4k5TITVKc) atingiu seu primeiro marco de mais de US$ 1.000 de MRR, elevando sua receita para 30.000 RMB (mais de US$ 4.000). Vamos compartilhar alguns novos aprendizados e insights da prática deste mês:
[2/9] Primeiro, vamos falar sobre os dados de receita em detalhes. Após pouco mais de 30 dias, nosso MRR oficialmente ultrapassou a marca de US$ 1.000, com uma receita total de aproximadamente US$ 4.000+, ou pouco mais de 30.000 RMB. Sinto que começamos bem. O que foi bastante surpreendente foi que precisávamos de apenas 58 assinantes para atingir o MRR de US$ 1.000. Olhando para esses dados, de repente senti o véu das grandes narrativas sendo rompido. No cenário tradicional da internet, parece que apenas produtos que alcançam dezenas ou mesmo centenas de milhões de usuários são considerados bem-sucedidos, enquanto aqueles que alcançam milhões ou mesmo centenas de milhares de usuários mal são considerados bem-sucedidos. Mas, para nós, não precisamos realmente nos preocupar em atingir milhões ou dezenas de milhões de usuários ativos mensais. Simplesmente ter de mil a dois mil usuários dispostos a pagar por nossos serviços de forma consistente é suficiente para manter nossa equipe funcionando sem problemas a longo prazo. O código aberto do LobeChat deixou de ser apenas um hobby movido pela paixão e pode se tornar um esforço verdadeiramente comprometido e sustentável. Embora já tenhamos ouvido muitas histórias sobre código aberto, esse sentimento se torna ainda mais forte quando trabalhamos nessa direção e começamos a receber feedback positivo.
[3/9] Depois de discutir o futuro otimista, vamos falar sobre os desafios que enfrentamos agora: Nosso ROI atual não é bom. No mês passado, o número de usuários registrados no Cloud atingiu mais de 7.000, mas há apenas mais de 60 assinantes pagantes. Isso pode ser porque há muitos concorrentes no mercado de chat, e todos têm muitas opções para escolher, e nosso Cloud não é muito competitivo no momento. Também pode ser que a maioria dos usuários no primeiro mês veio da comunidade de código aberto, e todos se inscreveram no Cloud apenas para mostrar seu apoio 🤣 Resumindo, a taxa de conversão paga atual é inferior a 100%, que é o maior problema que enfrentamos. Embora a experiência geral do produto do LobeChat esteja em primeiro lugar na versão de código aberto, nosso Cloud ainda é um irmão mais novo em comparação com produtos comerciais maduros, como ChatGPT/Claude/Poe, e há muito a aprender.
[4/9] É claro que, como disponibilizamos todo o código do LobeChat como código aberto, provavelmente é de se esperar uma baixa taxa de conversão paga. Na verdade, quando decidimos disponibilizar o código aberto, presumimos que as pessoas que buscavam soluções de código aberto no GitHub provavelmente eram aproveitadores (incluindo nós 🤡) e que seria difícil monetizá-las. 🤑 Além disso, nossas observações recentes mostram que os usuários pagantes do Cloud não são, em grande parte, da comunidade de código aberto, o que se alinha com nossas suposições iniciais. Portanto, de uma perspectiva funcional, disponibilizar os principais recursos como código aberto provavelmente não impactará significativamente a receita da versão em nuvem, já que a base de usuários é completamente diferente. Portanto, seguindo esse princípio, o recurso "Upload de Arquivos/Conversa da Base de Conhecimento", que será lançado em breve (fotos espiãs aqui~), também será totalmente disponibilizado como código aberto. O plugin de busca, atualmente exclusivo da versão em nuvem, também será disponibilizado como código aberto para a versão da comunidade em um momento apropriado. Também continuaremos a diferenciar a Nuvem, focando em fornecer serviços de valor agregado e atuando no mercado de assistentes, formando assim um modelo progressivamente integrado com a versão de código aberto da comunidade.
[5/9] Se tivéssemos que apontar as armadilhas que encontramos após o lançamento do produto, talvez a maior delas fosse a adoção de um modelo de assinatura de uso fixo. Antes do lançamento, pensávamos que, como as assinaturas de valor fixo são a abordagem predominante para produtos de chat de IA, poderíamos facilmente copiá-las. No entanto, a realidade é que as assinaturas de uso fixo não se encaixam em nosso modelo atual de preços baseado em tokens. Após o lançamento, vimos que alguns usuários assíduos que compraram o plano Básico consumiram todos os seus tokens em poucos dias, tornando-se incapazes de continuar usando o produto e forçando-os a fazer um upgrade. Uma vez que consumiram seu uso após o upgrade para o plano Profissional, eles não puderam usar o produto durante todo o mês. Portanto, embora os recursos do nosso produto já suportem faturamento granular baseado em tokens, um modelo de assinatura de uso fixo não aproveita totalmente essa vantagem. Portanto, nosso próximo passo é otimizar o modelo de assinatura para uma taxa de assinatura de serviço básico relativamente baixa, combinada com compras de tokens sob demanda, reduzindo a pressão da assinatura e do uso.
[9 de junho] Foi após uma revisão completa do front-end, back-end e da cadeia de pagamento que descobrimos inúmeras falhas no design do produto LobeChat. Por exemplo, com um modelo de pagamento baseado em tokens, o uso de tokens se acumula ao longo de várias conversas, um fato frequentemente ignorado por novos usuários. Embora a pergunta de cada usuário possa não consumir muitos tokens, o contexto acumulado pode acumular uma quantidade significativa, levando a mais de 100.000 tokens consumidos em uma única solicitação de conversa. O resultado foi que, embora tivéssemos marcado o modelo avançado como válido para 3.000 conversas, os usuários poderiam experimentar um limite após apenas algumas dezenas de conversas, levando a uma experiência ruim e à sensação de terem sido enganados. Esses problemas não existiam na versão de código aberto, pois o serviço do produto não era de ciclo fechado. Os usuários simplesmente inseriam sua própria chave de API e pagavam por seu uso e consumo, sem nenhum feedback nosso. No entanto, isso se tornou um problema significativo em nossa versão em nuvem, agravado pelo modelo de assinatura de consumo fixo. Portanto, quando os usuários nos perguntaram sobre esses problemas decorrentes de falhas no design do nosso produto, redefinimos imediatamente seus limites. Se você assinou o Cloud e encontrar esse problema no seu uso diário, sinta-se à vontade para entrar em contato comigo para que eu possa ajudá-lo a redefinir sua cota. Essas perdas adicionais de uso devem ser suportadas por nós.
[7/9] Muitas plataformas de varejo online nacionais agora usam OneAPI ou NewAPI para gerenciamento de chaves de API e, em seguida, criam uma variedade de interfaces de usuário da web para os usuários escolherem. No entanto, queríamos que os usuários tivessem uma experiência de produto consistente, com uma experiência de usuário completa e de ciclo fechado que parecesse mais legítima. Portanto, durante nossa implementação na nuvem, investimos um esforço considerável na implementação da integração do Stripe, e nossa estratégia de pagamento se mostrou altamente eficaz (https://t.co/ooSkW6rNqE). Após uma rodada de pesquisas, escolhemos o LiteLLM por sua melhor adequação e recursos mais poderosos para gateway de IA e estatísticas. No entanto, descobrimos que ele não era compatível com nossa interface de gerenciamento de back-end. Portanto, começamos a desenvolver o Cloud Admin para atender às nossas necessidades diárias de gerenciamento da nuvem. Isso nos ajudou a prevenir práticas fraudulentas com sucesso desde o início. Continuaremos a aprimorar os recursos do Cloud Admin à medida que nossas necessidades de gerenciamento evoluem. Além do gerenciamento básico de usuários, também integraremos gerenciamento de assinaturas, estatísticas e análises de uso de tokens, interfaces de IA baseadas em GUI, balanceamento de carga e outros recursos de configuração. Depois que aperfeiçoarmos esta solução na nuvem, ela tem o potencial de se tornar uma solução completa para aplicações de IA conversacional. Alguém está interessado? Essas também são áreas interessantes que eu não teria abordado quando estava trabalhando em uma interface web de bate-papo front-end, mas descobri áreas interessantes trabalhando na nuvem.
[8/9] Na seção final, vamos falar sobre custos. Embora US$ 1.000 em MRR possam parecer muito, até agora mal conseguimos empatar, com uma pequena margem de lucro. Os custos da API de IA sozinhos representam mais da metade do nosso total, fazendo-nos sentir como se estivéssemos trabalhando para um grande fornecedor de modelos. 🤣 Os custos operacionais das diversas infraestruturas necessárias para manter nossos negócios chegam a várias centenas de dólares por mês, então, no geral, não estamos obtendo muito lucro. Concentramo-nos no MRR porque os custos da API de IA não são desprezíveis. O uso mensal de tokens é substancial e somente o MRR pode refletir objetivamente nossa lucratividade. (Embora nossa receita bruta mensal atual seja superior a US$ 4.000, isso é distribuído pelos custos mensais da API.) Temos que mencionar nosso parceiro, AiHubMix @akakenle. Usamos seus serviços diretamente na nuvem e eles são 100% oficiais, portanto, a qualidade e a estabilidade de suas interfaces são garantidas. A API deles é provavelmente uma das poucas no mercado que suporta diretamente o Sonnet 3.5 Tools Calling, e a experiência geral é perfeita quando combinada com o LobeChat. E mesmo sendo uma transferência oficial, eles ainda nos deram um desconto, ainda que pequeno, o que nos permitiu obter um pequeno lucro.
[9/9] Devido a limitações de espaço, não abordarei tópicos técnicos desta vez. Se você estiver interessado, abriremos um tópico dedicado para discutir este tópico após o lançamento da base de conhecimento. Por exemplo, vi a conta exorbitante do @idoubicc para o Vercel há alguns dias, enquanto nosso outro site de pré-visualização custa apenas cerca de US$ 30 com a mesma quantidade de tráfego. Sinto que essas experiências de otimização valem a pena serem discutidas em detalhes. Então, isso é o que aprendi até agora neste mês — tem sido uma tonelada de experiência. Também convidamos todos a experimentar o LobeChat, seja a versão de código aberto ou a versão em nuvem. Aceitamos sugestões e críticas e nos esforçamos para torná-lo ainda melhor. Esta também é a nossa jornada de produto do zero, e espero que vocês a testemunhem juntos.