LogoThread Easy
  • 探索
  • 線程創作
LogoThread Easy

Twitter 線程的一站式夥伴

© 2026 Thread Easy All Rights Reserved.

探索

Newest first — browse tweet threads

Keep on to blur preview images; turn off to show them clearly

🎧 New podcast episode — what should we build with AI?

I refuse to believe anyone actually wants yet another textarea-to-website generator 🙈

🎧 New podcast episode — what should we build with AI? I refuse to believe anyone actually wants yet another textarea-to-website generator 🙈

Can subscribe here if you want it to show up in your podcast player: https://t.co/QdcmSyLECt

avatar for Adam Wathan
Adam Wathan
Mon Nov 24 14:33:19
Verde guarantees that ML training / inference was done correctly over any device.

Massive unlock for decentralized AI networks.  

Live on @gensynai  now.

Verde guarantees that ML training / inference was done correctly over any device. Massive unlock for decentralized AI networks. Live on @gensynai now.

COO @GensynAI / ex @a16z @Cravath

avatar for Jeff Amico
Jeff Amico
Mon Nov 24 14:33:07
I knew this would get a lot of replies. 

The real question is: How do we know who is REALLY serious about it? 🤔

I knew this would get a lot of replies. The real question is: How do we know who is REALLY serious about it? 🤔

I build stuff. On my way to making $1M 💰 My projects 👇

avatar for Florin Pop 👨🏻‍💻
Florin Pop 👨🏻‍💻
Mon Nov 24 14:32:36
为了方便开发者使用,阿里 Qoder 做了一款 JetBrains 插件,现已正式上线!

插件不仅集成了全球顶尖编程模型,还具备 “记忆感知” 能力,能自动记住用户编码习惯、项目特点和常见问题。

简而言之,这是一款能做到真正 “越用越懂你” 的开发组件。

官网下载:https://t.co/CiuvwAP1fi

基于 “双引擎” 架构,让 AI 能深度理解超大规模项目(支持 10 万文件级别),无需手动添加上下文就能给出精准建议。

目前插件已在 JetBrains 全系列 IDE,包括 IntelliJ IDEA、PyCharm、WebStorm 上发布,感兴趣的可直接下载使用。

为了方便开发者使用,阿里 Qoder 做了一款 JetBrains 插件,现已正式上线! 插件不仅集成了全球顶尖编程模型,还具备 “记忆感知” 能力,能自动记住用户编码习惯、项目特点和常见问题。 简而言之,这是一款能做到真正 “越用越懂你” 的开发组件。 官网下载:https://t.co/CiuvwAP1fi 基于 “双引擎” 架构,让 AI 能深度理解超大规模项目(支持 10 万文件级别),无需手动添加上下文就能给出精准建议。 目前插件已在 JetBrains 全系列 IDE,包括 IntelliJ IDEA、PyCharm、WebStorm 上发布,感兴趣的可直接下载使用。

💡 挖掘开源的价值 🧑🏻‍💻 坚持分享 GitHub 上高质量、有趣、实用的教程、AI工具、前沿 AI 技术 🧐 A list cool, interesting projects of GitHub. ✏️ 公众号:GitHubDaily

avatar for GitHubDaily
GitHubDaily
Mon Nov 24 14:27:43
RT @shao__meng: [面试避坑] 01 - 面试中挖出真实的「企业文化」

一家公司的企业文化,在哪体现?在办公区墙上?卫生间隔间门上?抬头房顶悬挂上?办公软件开屏广告上?邮件签名上?都不是,甚至会「缺什么强调什么」!…

RT @shao__meng: [面试避坑] 01 - 面试中挖出真实的「企业文化」 一家公司的企业文化,在哪体现?在办公区墙上?卫生间隔间门上?抬头房顶悬挂上?办公软件开屏广告上?邮件签名上?都不是,甚至会「缺什么强调什么」!…

邵猛,中年失业程序员 😂 专注 - Context Engineering, AI Agents. 分享 - AI papers, apps and OSS. ex Microsoft MVP 合作 - 私信/邮箱:shaomeng@outlook.com 📢 公众号/小红书: AI 启蒙小伙伴

avatar for meng shao
meng shao
Mon Nov 24 14:26:57
[开源推荐] Memori:开源的 SQL 原生记忆引擎,专为 LLM、智能体、多智能体系统设计。一行代码 ——memori.enable() ——为任何 LLM 提供持久化、可查询的记忆存储,帮助 AI 系统记住对话、从交互中学习,并在会话间保持上下文连续性。

核心价值与特点
Memori 的核心在于简化 AI 记忆管理:它将记忆存储在标准 SQL 数据库(如 SQLite、PostgreSQL、MySQL、Neon 或 Supabase)中,这些数据库用户可完全拥有和审计。不同于传统向量存储,Memori 利用 SQL 的全文搜索索引实现高效检索,同时通过智能提取实体、映射关系和优先级排序,确保记忆的相关性和实用性。

关键特点包括:
· 一行集成:无缝兼容 OpenAI、Anthropic、LiteLLM、LangChain、Azure OpenAI,以及100多种 LiteLLM 支持的模型。
· 智能记忆处理:自动提取实体(如事实、偏好、技能、规则和上下文),并分类存储。
· 多种记忆模式: 
  · 意识模式(Conscious):一次性注入关键记忆。
  · 自动模式(Auto):根据查询动态搜索相关记忆。
  · 组合模式:二者结合使用。
· 后台优化:意识智能体每6小时运行一次,从长期存储中提炼关键记忆到短期存储,确保 AI 的“长期学习”能力。
· 集成生态:支持 AgentOps、AutoGen、CrewAI、Swarms 等框架,已有交互式演示如个人日记助手和研究者智能体。

工作原理
Memori 采用拦截器架构,透明包裹 LLM 调用流程:
1. 预调用阶段(上下文注入):在 LLM 生成响应前,检索智能体或意识智能体从 SQL 数据库中拉取相关记忆,并注入到提示中。
2. 后调用阶段(记录与提取):响应返回后,记忆智能体分析对话,提取并分类新信息,存入数据库。
3. 后台处理:定期运行意识智能体,分析模式并优化记忆优先级。

整个系统依赖四个核心组件:Memori 拦截器(协调调用)、检索/意识/记忆智能体(处理数据),以及 SQL 数据库(持久存储)。这种模块化设计确保了高效性和可扩展性。

开源地址:

[开源推荐] Memori:开源的 SQL 原生记忆引擎,专为 LLM、智能体、多智能体系统设计。一行代码 ——memori.enable() ——为任何 LLM 提供持久化、可查询的记忆存储,帮助 AI 系统记住对话、从交互中学习,并在会话间保持上下文连续性。 核心价值与特点 Memori 的核心在于简化 AI 记忆管理:它将记忆存储在标准 SQL 数据库(如 SQLite、PostgreSQL、MySQL、Neon 或 Supabase)中,这些数据库用户可完全拥有和审计。不同于传统向量存储,Memori 利用 SQL 的全文搜索索引实现高效检索,同时通过智能提取实体、映射关系和优先级排序,确保记忆的相关性和实用性。 关键特点包括: · 一行集成:无缝兼容 OpenAI、Anthropic、LiteLLM、LangChain、Azure OpenAI,以及100多种 LiteLLM 支持的模型。 · 智能记忆处理:自动提取实体(如事实、偏好、技能、规则和上下文),并分类存储。 · 多种记忆模式: · 意识模式(Conscious):一次性注入关键记忆。 · 自动模式(Auto):根据查询动态搜索相关记忆。 · 组合模式:二者结合使用。 · 后台优化:意识智能体每6小时运行一次,从长期存储中提炼关键记忆到短期存储,确保 AI 的“长期学习”能力。 · 集成生态:支持 AgentOps、AutoGen、CrewAI、Swarms 等框架,已有交互式演示如个人日记助手和研究者智能体。 工作原理 Memori 采用拦截器架构,透明包裹 LLM 调用流程: 1. 预调用阶段(上下文注入):在 LLM 生成响应前,检索智能体或意识智能体从 SQL 数据库中拉取相关记忆,并注入到提示中。 2. 后调用阶段(记录与提取):响应返回后,记忆智能体分析对话,提取并分类新信息,存入数据库。 3. 后台处理:定期运行意识智能体,分析模式并优化记忆优先级。 整个系统依赖四个核心组件:Memori 拦截器(协调调用)、检索/意识/记忆智能体(处理数据),以及 SQL 数据库(持久存储)。这种模块化设计确保了高效性和可扩展性。 开源地址:

邵猛,中年失业程序员 😂 专注 - Context Engineering, AI Agents. 分享 - AI papers, apps and OSS. ex Microsoft MVP 合作 - 私信/邮箱:shaomeng@outlook.com 📢 公众号/小红书: AI 启蒙小伙伴

avatar for meng shao
meng shao
Mon Nov 24 14:19:52
  • Previous
  • 1
  • More pages
  • 2492
  • 2493
  • 2494
  • More pages
  • 5635
  • Next