LogoThread Easy
  • 発見
  • スレッド作成
LogoThread Easy

Twitter スレッドの万能パートナー

© 2025 Thread Easy All Rights Reserved.

探索

Newest first — browse tweet threads

Keep on to blur preview images; turn off to show them clearly

MarsWave AI 成立快一周年了。
最近会陆续跟大家分享一些创业的干货经验。
希望能帮到大家。
做 AI 产品,就绝对离不开 AI 云厂商,今天我们就来聊聊创业公司对 AI 云厂商的选择指南。
在过去的一年里,我们接触了七八家AI 云厂商,有的超出预期,有的一言难尽。
看完这篇文章,在做 AI 创业的你应该能少踩很多坑。

MarsWave AI 成立快一周年了。 最近会陆续跟大家分享一些创业的干货经验。 希望能帮到大家。 做 AI 产品,就绝对离不开 AI 云厂商,今天我们就来聊聊创业公司对 AI 云厂商的选择指南。 在过去的一年里,我们接触了七八家AI 云厂商,有的超出预期,有的一言难尽。 看完这篇文章,在做 AI 创业的你应该能少踩很多坑。

聊硅基 AI,看有机 Orange。

avatar for Orange AI
Orange AI
Tue Dec 02 01:54:45
[开源推荐] Google - 🚀 Agent Starter Pack

Google Cloud Platform 团队推出的一套生产级智能体开发模板合集,不仅是代码库,更是生产力加速器。如果你想在 Google Cloud 上开发一个智能客服、文档分析助手或多模态交互机器人,不需要从零开始配置服务器、编写部署脚本或搭建监控系统。这个项目为你打包好了所有“非业务逻辑”的基础设施,让你能专注于核心的 AI 交互设计。

💡 核心价值:它解决了什么痛点?
在构建 GenAI 应用时,开发者通常面临两大挑战:
· 起步难:如何选择合适的架构(ReAct, RAG, Multi-agent)?
· 落地难:写好 Prompt 只是第一步,如何将 Agent 部署到云端?如何做 CI/CD?如何监控它的回答质量?

这个项目通过提供全链路的解决方案来回答这些问题:
· 开箱即用:通过一行命令即可生成包含前端、后端和基础设施代码的完整项目。
· 生产就绪:不仅包含代码,还内置了 Terraform 脚本、CI/CD 流水线配置、以及可观测性设置。

🛠️ 关键技术能力解读
该项目包含几个核心组件,覆盖了 AI 开发的不同阶段:

1. 多样化的 Agent 模板
· adk_base / adk_a2a_base:基于 Google Agent Development Kit 的基础 ReAct 智能体,支持多智能体协作(Agent-to-Agent)。
a· gentic_rag:针对企业知识库场景,集成了 RAG 流程,支持 Vertex AI Search。
· langgraph_base:集成了 LangChain/LangGraph 框架,方便熟悉该生态的开发者上手。
· adk_live:支持实时多模态(音频/视频/文本)交互的智能体,利用了 Gemini 的原生多模态能力。

2. 工程化最佳实践
· CI/CD:内置了 GitHub Actions 和 Google Cloud Build 配置,代码提交后自动部署。
· 可观测性:集成了云端监控,让你能看到 Agent 的运行状态、延迟和错误率。
· 评估:集成了 Vertex AI Evaluation,帮助你量化评估 AI 的回答质量。

3. 极简的开发者体验
项目提供了一个 CLI 工具(命令行界面)。
· 快速启动:uvx agent-starter-pack create my-agent —— 一键创建新项目。
· 存量增强:如果你已经有了代码,可以使用 enhance 命令为现有项目添加生产级的基础设施配置。

开源地址:

[开源推荐] Google - 🚀 Agent Starter Pack Google Cloud Platform 团队推出的一套生产级智能体开发模板合集,不仅是代码库,更是生产力加速器。如果你想在 Google Cloud 上开发一个智能客服、文档分析助手或多模态交互机器人,不需要从零开始配置服务器、编写部署脚本或搭建监控系统。这个项目为你打包好了所有“非业务逻辑”的基础设施,让你能专注于核心的 AI 交互设计。 💡 核心价值:它解决了什么痛点? 在构建 GenAI 应用时,开发者通常面临两大挑战: · 起步难:如何选择合适的架构(ReAct, RAG, Multi-agent)? · 落地难:写好 Prompt 只是第一步,如何将 Agent 部署到云端?如何做 CI/CD?如何监控它的回答质量? 这个项目通过提供全链路的解决方案来回答这些问题: · 开箱即用:通过一行命令即可生成包含前端、后端和基础设施代码的完整项目。 · 生产就绪:不仅包含代码,还内置了 Terraform 脚本、CI/CD 流水线配置、以及可观测性设置。 🛠️ 关键技术能力解读 该项目包含几个核心组件,覆盖了 AI 开发的不同阶段: 1. 多样化的 Agent 模板 · adk_base / adk_a2a_base:基于 Google Agent Development Kit 的基础 ReAct 智能体,支持多智能体协作(Agent-to-Agent)。 a· gentic_rag:针对企业知识库场景,集成了 RAG 流程,支持 Vertex AI Search。 · langgraph_base:集成了 LangChain/LangGraph 框架,方便熟悉该生态的开发者上手。 · adk_live:支持实时多模态(音频/视频/文本)交互的智能体,利用了 Gemini 的原生多模态能力。 2. 工程化最佳实践 · CI/CD:内置了 GitHub Actions 和 Google Cloud Build 配置,代码提交后自动部署。 · 可观测性:集成了云端监控,让你能看到 Agent 的运行状态、延迟和错误率。 · 评估:集成了 Vertex AI Evaluation,帮助你量化评估 AI 的回答质量。 3. 极简的开发者体验 项目提供了一个 CLI 工具(命令行界面)。 · 快速启动:uvx agent-starter-pack create my-agent —— 一键创建新项目。 · 存量增强:如果你已经有了代码,可以使用 enhance 命令为现有项目添加生产级的基础设施配置。 开源地址:

邵猛,中年失业程序员 😂 专注 - Context Engineering, AI Agents. 分享 - AI papers, apps and OSS. ex Microsoft MVP 合作 - 私信/邮箱:shaomeng@outlook.com 📢 公众号/小红书: AI 启蒙小伙伴

avatar for meng shao
meng shao
Tue Dec 02 01:52:01
因为Vidu本身是做视频出身,所以可以直接使用Vidu Q2生图模型先制作一组分镜图,然后根据这组分镜就能做视频。因为是同一套,平均抽1-2次就可以用了。

(3/3)

因为Vidu本身是做视频出身,所以可以直接使用Vidu Q2生图模型先制作一组分镜图,然后根据这组分镜就能做视频。因为是同一套,平均抽1-2次就可以用了。 (3/3)

分享一些好用、优雅的 AI 、工作流和创作方式,一起边学边做,前字节coder, Al and tech Educator, LearnPrompt founder

avatar for 卡尔的AI沃茨
卡尔的AI沃茨
Tue Dec 02 01:51:16
Vidu也上了图像模型,增强图像一致性的同时一次可以用7张图片参考生图。在Artificial Analysis 图像编辑排行榜排名第四,前面就是Nano Banana和Seedream4.0👇

(1/3)

Vidu也上了图像模型,增强图像一致性的同时一次可以用7张图片参考生图。在Artificial Analysis 图像编辑排行榜排名第四,前面就是Nano Banana和Seedream4.0👇 (1/3)

很难想象vidu第一次发图片模型就可以上第四 (2/3)

avatar for 卡尔的AI沃茨
卡尔的AI沃茨
Tue Dec 02 01:51:14
「Kling O1」模型核心功能解析

这是业界首个实现「多任务一体化」的多模态视频生成模型。

它能理解文字、图片、视频等多种输入,自动识别你想干什么,然后生成你要的视频或者编辑现有的视频。

过去:每种任务一个模型。
现在:一个 O1 模型全搞定。

O1 模型在底层实现了多种视频任务的深度融合:

- 文本生成视频(Text-to-Video)

- 图像/主体参考生成(Reference-to-Video)

- 视频修改与增删(Video Editing & Inpainting)

- 视频风格迁移(Video Restyle)

- 镜头拓展与延时叙事(Next/Previous Shot Generation)

- 首尾帧约束生成(Keyframe-Constrained Video Generation)

以往需要多个模型或独立工具才能完成的复杂流程,如今可以在单一引擎中完成。

这不仅显著降低了创作与运算成本,也为“统一视频理解与生成模型”的发展奠定了基础。

「Kling O1」模型核心功能解析 这是业界首个实现「多任务一体化」的多模态视频生成模型。 它能理解文字、图片、视频等多种输入,自动识别你想干什么,然后生成你要的视频或者编辑现有的视频。 过去:每种任务一个模型。 现在:一个 O1 模型全搞定。 O1 模型在底层实现了多种视频任务的深度融合: - 文本生成视频(Text-to-Video) - 图像/主体参考生成(Reference-to-Video) - 视频修改与增删(Video Editing & Inpainting) - 视频风格迁移(Video Restyle) - 镜头拓展与延时叙事(Next/Previous Shot Generation) - 首尾帧约束生成(Keyframe-Constrained Video Generation) 以往需要多个模型或独立工具才能完成的复杂流程,如今可以在单一引擎中完成。 这不仅显著降低了创作与运算成本,也为“统一视频理解与生成模型”的发展奠定了基础。

1、全能指令:一句话随意修改视频! 这个功能非常革命性 O1 支持将 文字、图片、主体、视频 等任意模态作为输入,并进行语义理解和指令解析。 将输入画面解析为可执行的命令 用户可通过自然语言指令对视频进行直接控制编辑: “移除画面中的路人” “将白天场景改为黄昏” “替换主角服装为黑色风衣”

avatar for 小互
小互
Tue Dec 02 01:50:35
查看全文:https://t.co/jViU1u3sU5

查看全文:https://t.co/jViU1u3sU5

独立科技网站 - 蓝点网 / 感谢关注 订阅频道:https://t.co/xzeoUEoPcU 联系方式:https://t.co/LJK1g3biPp

avatar for 蓝点网
蓝点网
Tue Dec 02 01:47:22
  • Previous
  • 1
  • More pages
  • 1850
  • 1851
  • 1852
  • More pages
  • 5634
  • Next