O Novo Paradigma de Agentes que Vejo no MIT Hoje, na conferência EmTech do MIT, vi uma demonstração que me fez repensar todo o campo dos agentes de IA. A empresa que fez a apresentação foi a TinyFish, uma empresa de perfil bastante discreto. Dois membros de sua equipe fundadora são chineses, e a empresa garantiu quase 350 milhões de RMB em financiamento liderado pela ICONIQ, mas nunca havia apresentado publicamente seu principal produto até hoje. O que eles estão fazendo é executar dezenas de milhões de operações de agentes web para o Google e o DoorDash... Isto não é uma demonstração de laboratório; é um ambiente de produção real. Os produtos da TinyFish permitem que a IA navegue automaticamente em páginas da web e execute tarefas de nível empresarial, tal como os humanos... Permite que a IA leia, compreenda e manipule automaticamente páginas da web em diversos sites, execute processos de negócios, colete dados, envie informações e monitore alterações sem a necessidade de uma API. Desde a coleta de dados, comparação de preços, preenchimento de formulários e verificação de estoque até revisões de conformidade e precificação dinâmica, tudo pode ser realizado... Ele pode operar e executar tarefas em tempo real em milhares de sites. Isso significa que é possível executar mil Atlas ChatGPT simultaneamente e, em seguida, executar a mesma resposta dez milhões de vezes continuamente... Um fato que todos ignoraram. O CEO da TinyFish, Sudheesh, compartilhou uma percepção surpreendente durante a apresentação: Atualmente, todos os agentes de IA disponíveis no mercado só conseguem operar em 5% da rede. Não é por falta de habilidades técnicas dos desenvolvedores, mas sim porque todos estão criando agentes baseados em mecanismos de busca. O paradigma da busca já está obsoleto há muito tempo. Como a pesquisa se tornou inválida? Vejamos um exemplo muito simples: a Amazon. Todas as páginas de produtos da Amazon são totalmente indexadas pelo Google e podem ser rastreadas. Este é o cenário ideal para um mecanismo de busca. Mas o que acontece quando você pesquisa por "laptop" na Amazon? Você verá dezenas de milhares de resultados. Produtos patrocinados, avaliações falsas e descrições geradas por IA estão por toda parte. Você folheia algumas páginas e desiste, finalmente clicando em uma que "parece boa", finalizando a compra e saindo. Isso não é um problema da Amazon. É um problema do próprio paradigma de busca: os rankings se tornam ineficazes quando a quantidade de dados é muito grande. O Google indexou com sucesso milhões de páginas da Amazon, mas isso não tornou a busca mais útil. A Amazon criou seu próprio mecanismo de busca, mas isso também não resolveu o problema. A internet ficou grande demais. Mesmo para as partes que já foram indexadas, o ranqueamento deixou de ser eficaz. Uma busca pressupõe que você queira "encontrar" algo. Mas e se você precisar "verificar tudo"? Comparar todos os fornecedores? Verificar todas as opções? Nesse ponto, todo o paradigma desmoronou. E quanto aos 95% restantes? O pior é que o que acabei de mencionar se aplica apenas aos 5% da rede que estão indexados. Onde estão escondidos os restantes 95% da rede? - Portal do fornecedor que requer login - Sistema de saúde autenticado - Bancos de dados governamentais acessíveis somente por meio do envio de formulários. - Inteligência competitiva que exige navegação em várias etapas Os mecanismos de busca simplesmente não conseguem acessar esse tipo de conteúdo. Não é um problema técnico, mas sim arquitetônico. Não é possível rastrear conteúdo que exige interação para ser acessado. Portanto, enfrentamos dois problemas: 1,5% da rede indexada tornou-se inválida por ser muito grande. 2. 95% dos dados importantes não estão indexados. A raiz de ambos os problemas é a mesma: o paradigma de busca pressupõe que os humanos avaliarão os resultados manualmente. Ele falha quando se precisa de informações abrangentes em vez de opções de classificação. Por que as soluções existentes não conseguem resolver esse problema? Você pode estar pensando: E quanto ao RAG? E quanto a uma melhor incorporação? E quanto aos agentes de navegador? Nenhum deles consegue resolver isso. Porque todas elas herdam a limitação fundamental da busca: pressupõe-se que você queira "encontrar" algo, em vez de "verificar tudo". Quando uma equipe de compras precisa analisar os preços da concorrência em 200 portais de fornecedores, os rankings não serão úteis. A busca não será útil quando as empresas farmacêuticas precisarem encontrar pacientes compatíveis para ensaios clínicos em milhares de centros de pesquisa. Não se trata de um problema do tipo "este trabalho é tedioso e queremos automatizá-lo". Trata-se de um problema do tipo "esta análise é simplesmente impossível de ser feita na escala que precisamos". De uma web legível para uma web executável Sudheesh explicou a solução deles: Não se trata de melhorar a busca, mas sim a infraestrutura operacional. O sistema desenvolvido pela TinyFish pode: - Sistema de autenticação de login - Navegar em fluxos de trabalho com várias etapas - Extração de dados estruturados - Executar centenas de milhares de sessões paralelas simultaneamente Esta é a transição de uma "Web legível" para uma "Web executável". Os proxies de navegador (como o Atlas da OpenAI) ajudam os usuários a navegar em sites mais rapidamente: uma sessão por vez, um navegador por vez. Mino, do TinyFish: 👉 Como uma "fábrica de IA", permite que as empresas criem, implementem e gerenciem esses "Agentes Web" por conta própria. O Mino consegue executar centenas de milhares de sessões paralelas em escala de infraestrutura, mantendo a precisão em fluxos de trabalho complexos que, de outra forma, levariam semanas para serem concluídos por uma equipe humana. Essa não é a diferença entre uma bicicleta e uma motocicleta. É a diferença entre bicicletas e uma rede de transporte de cargas. Provas em grande escala Isso não é uma teoria. A TinyFish já realiza 30 milhões de operações por mês para empresas como ClassPass, Google e DoorDash. O exemplo da ClassPass é típico: eles precisam agregar aulas de dezenas de milhares de estúdios de fitness. A maioria dos estúdios não possui uma API, apenas sites de reservas atualizados manualmente. Os horários das aulas mudam diariamente e os preços variam de acordo com o horário, local e nível. Todos os métodos tradicionais falharam: - Entrada manual de dados: não pode ser escalada, os dados estão sempre desatualizados. - Rastreador web: trava sempre que o site é reformulado. - Integração de API: APIs de cauda longa nunca serão integradas. Após utilizarem o TinyFish, a cobertura do local aumentou de 3 a 4 vezes e os custos diminuíram em 50%. Exemplos mais específicos do mundo real: 🏨 Hotéis do Google Muitos hotéis no Japão utilizam sistemas obsoletos que não conseguem acessar a plataforma de agregação do Google. Os agentes da TinyFish podem obter automaticamente o inventário e os preços desses hotéis; Permite que o Google Hotels seja atualizado em tempo real sem a necessidade de alterações de TI. Alcançamos 99% de cobertura em tempo real, aumentamos a frequência de atualizações em 20 vezes e processamos mais de 10 milhões de operações por mês. 🛵 DoorDash Implante agentes de IA em cada cidade para extrair automaticamente menus, preços e promoções de sites concorrentes. Atualizações a cada hora, desduplicação automática e detecção de anomalias; Ele se integra automaticamente ao sistema de dados interno da DoorDash. Coleta milhões de variáveis de preços todos os meses; Utilizado para ajustar preços dinamicamente e otimizar a resposta do mercado; 95% da coleta de dados de mercado é automatizada; A precisão do modelo de previsão foi melhorada em 30%; Reduzir significativamente o custo das vistorias manuais (originalmente mais de 1200 horas de trabalho por mês). O que isso significa? O sistema de buscas tem funcionado bem nos últimos 25 anos porque a rede é pequena o suficiente para que os humanos possam avaliar manualmente os resultados da classificação. A internet tornou-se tão vasta que até mesmo as porções indexadas se tornaram incontroláveis. E 95% da internet nunca foi indexada. O próximo paradigma não é uma busca melhor ou um ranqueamento mais inteligente. É a infraestrutura operacional que possibilita a navegação, o raciocínio e a recuperação de informações em toda a web: pública e privada, indexada e não indexada. O recurso Agente evoluiu muito mais rápido do que o esperado. Em apenas 36 meses, passamos de "IA redigindo e-mails" para "IA executando fluxos de trabalho completos". A TinyFish pode já ter assumido a liderança na implementação efetiva em escala empresarial. Eles estão abrindo essa infraestrutura para desenvolvedores. Se você estiver criando um produto de agente que exige alta confiabilidade, isso pode ser um sinal importante a ser observado.
A TinyFish permite que empresas substituam tarefas repetitivas em páginas da web por IA, automatitinyfish.ai informação até as operações. A TinyFish (@Tiny_Fish) garantiu um financiamento de Série A de US$ 47 milhões da ICONIQ. Site: https://t.co/kneIlDWvjf
