LogoThread Easy
  • 探索
  • 線程創作
LogoThread Easy

Twitter 線程的一站式夥伴

© 2025 Thread Easy All Rights Reserved.

探索

Newest first — browse tweet threads

Keep on to blur preview images; turn off to show them clearly

推荐下 Dice UI 的 Data Table 组件,真的非常赞

MkSaaS之前用的是 Shadcn UI 的 Data Table 组件,也不错,

但如果你需要更强的筛选、排序等功能,更推荐 Dice UI 的,

它支持设置多个筛选条件、多个排序条件等,界面也更好看

视频演示的是MkSaaS模板内置的利用table实现用户管理功能

推荐下 Dice UI 的 Data Table 组件,真的非常赞 MkSaaS之前用的是 Shadcn UI 的 Data Table 组件,也不错, 但如果你需要更强的筛选、排序等功能,更推荐 Dice UI 的, 它支持设置多个筛选条件、多个排序条件等,界面也更好看 视频演示的是MkSaaS模板内置的利用table实现用户管理功能

🚀 The best AI SaaS boilerplate - https://t.co/VyNtTs0jSX 🔥 The best directory boilerplate with AI - https://t.co/wEvJ1Dd8aR 🎉 https://t.co/zubXJCoY92 & https://t.co/tfQf8T7gGF & https://t.co/TqRkfQj41f

avatar for Fox@MkSaaS.com
Fox@MkSaaS.com
Tue Nov 11 01:01:15
RT @JiwonKwak6: Some of us in Korea celebrate alternative Pepero days. 

So happy droëwors day everyone

RT @JiwonKwak6: Some of us in Korea celebrate alternative Pepero days. So happy droëwors day everyone

Photographer & software engineer, prev @Ghost. Loves building w/ Nodejs, React, Ruby/Rails, Python - making shipping fun! DM for collabs. ❤️ @JiwonKwak6

avatar for Ronald
Ronald
Tue Nov 11 00:57:52
RT @calcsam: icymi we wrote a new agents book: patterns for building ai agents

it has everything you need to take your agents from prototy…

RT @calcsam: icymi we wrote a new agents book: patterns for building ai agents it has everything you need to take your agents from prototy…

helping software engineers fix their health through wellness coaching & community

avatar for Joe Previte
Joe Previte
Tue Nov 11 00:57:33
谋智基金会推出全新的火狐浏览器吉祥物 #Firefox Kit,从 11 月 11 日开始 Kit 将逐渐出现在火狐浏览器中。需要注意的是 Kit 并不会替代当前火狐浏览器原型狐狸标识,因为这并不是火狐浏览器的新 LOGO。

谋智基金会推出全新的火狐浏览器吉祥物 #Firefox Kit,从 11 月 11 日开始 Kit 将逐渐出现在火狐浏览器中。需要注意的是 Kit 并不会替代当前火狐浏览器原型狐狸标识,因为这并不是火狐浏览器的新 LOGO。

查看全文:https://t.co/y6wB153iG5

avatar for 蓝点网
蓝点网
Tue Nov 11 00:54:21
Meta Omnilingual ASR:1600+ 语言通用语音识别模型

Meta AI 最新发布了一项重磅成果—— Omnilingual ASR 模型系列,标志着语音转文本技术向真正“全球通用”迈进了一大步。该系列模型支持超过 1600 种语言的转录,其中包括 500 种此前从未被 AI 转录过的低资源语言。简单来说,这就像为世界各地的口语建立了一个“翻译桥梁”,让偏远社区的方言也能轻松转化为可搜索、可分析的文本,从而缩小数字鸿沟。Meta 的目标不仅是技术突破,更是构建一个社区驱动的生态,用户只需提供少量音频-文本样本,就能为新语言“注入”支持。

为什么这很重要?从痛点看起
传统 ASR 系统往往局限于英语等高资源语言,因为它们依赖海量标注数据和人工元数据。这种“精英主义”导致全球约 7000 种语言中的大多数,尤其是低资源或口语化方言(如非洲或太平洋岛屿的本土语),完全被排除在外。结果呢?这些语言的说话者无法享受语音搜索、实时字幕或内容分析等便利,数字时代进一步加剧了文化不平等。Omnilingual ASR 直击这一痛点,通过自监督学习和高效架构,实现了大规模扩展,而非简单堆砌数据。

技术核心:高效、多样化的“智能引擎”
Omnilingual ASR 的创新在于其双重架构设计,灵感来源于 Meta 的 wav2vec 2.0 框架,但规模化到 7B 参数级别(从低功耗的 300M 参数模型到高精度的 7B 参数版本)。核心流程是这样的:

· 语音编码器:一个 7B 参数的 wav2vec 2.0 变体,从原始未转录音频中提取“语义表示”——这些表示捕捉了跨语言的通用语音模式,就像一个多语种的“听觉大脑”。
· 双解码器系统:第一个是经典的 CTC(连接时序分类)解码器,用于标准转录;第二个是受 LLM 启发的 Transformer 解码器,称为 LLM-ASR。这部分最亮眼,它支持“上下文学习”——用户只需几对音频-文本样本,就能让模型适应新语言,无需海量训练数据、专业设备或专家干预。当然,零样本性能还不如全训模型,但这种“即插即用”方式极大降低了扩展门槛。

此外,Meta 开源了 Omnilingual wav2vec 2.0 基础模型,可用于其他语音任务如情感分析或翻译。整个系统基于 fairseq2 框架,许可宽松,便于开发者二次利用。值得一提的是,该模型还发布了 Omnilingual ASR 语料库,包含 350 种欠服务语言的转录音频,通过全球伙伴协作  curation 而成。

实测表现:数据说话
在基准测试中,7B 参数的 LLM-ASR 模型在 1600+ 语言上达到了最先进水平:78% 的语言字符错误率(CER)低于 10%(CER 越低,转录越准确)。这远超现有基线,尤其在低资源语言上表现出色。例如,它能处理从印地语到稀有非洲语的多样输入,而无需特定语言微调。Meta 强调,这些结果基于严格评估,证明了模型的鲁棒性——即使面对噪声或方言变体,也保持较高准确率。

更广影响:不止是技术,更是赋能
Omnilingual ASR 的意义超出实验室。它能赋能教育(如多语种字幕)、医疗(如远程诊断转录)和文化保存(如数字化口述历史),让全球 70 亿人中的边缘群体“发声”。Meta 呼吁社区参与:通过开源工具,用户可轻松贡献新语言样本,推动模型迭代。这不仅是 Meta 的贡献,更是 AI 向包容性演进的范例。未来,他们计划进一步优化零样本能力,并扩展到更多下游应用,如实时翻译或无障碍通信。

Meta Omnilingual ASR:1600+ 语言通用语音识别模型 Meta AI 最新发布了一项重磅成果—— Omnilingual ASR 模型系列,标志着语音转文本技术向真正“全球通用”迈进了一大步。该系列模型支持超过 1600 种语言的转录,其中包括 500 种此前从未被 AI 转录过的低资源语言。简单来说,这就像为世界各地的口语建立了一个“翻译桥梁”,让偏远社区的方言也能轻松转化为可搜索、可分析的文本,从而缩小数字鸿沟。Meta 的目标不仅是技术突破,更是构建一个社区驱动的生态,用户只需提供少量音频-文本样本,就能为新语言“注入”支持。 为什么这很重要?从痛点看起 传统 ASR 系统往往局限于英语等高资源语言,因为它们依赖海量标注数据和人工元数据。这种“精英主义”导致全球约 7000 种语言中的大多数,尤其是低资源或口语化方言(如非洲或太平洋岛屿的本土语),完全被排除在外。结果呢?这些语言的说话者无法享受语音搜索、实时字幕或内容分析等便利,数字时代进一步加剧了文化不平等。Omnilingual ASR 直击这一痛点,通过自监督学习和高效架构,实现了大规模扩展,而非简单堆砌数据。 技术核心:高效、多样化的“智能引擎” Omnilingual ASR 的创新在于其双重架构设计,灵感来源于 Meta 的 wav2vec 2.0 框架,但规模化到 7B 参数级别(从低功耗的 300M 参数模型到高精度的 7B 参数版本)。核心流程是这样的: · 语音编码器:一个 7B 参数的 wav2vec 2.0 变体,从原始未转录音频中提取“语义表示”——这些表示捕捉了跨语言的通用语音模式,就像一个多语种的“听觉大脑”。 · 双解码器系统:第一个是经典的 CTC(连接时序分类)解码器,用于标准转录;第二个是受 LLM 启发的 Transformer 解码器,称为 LLM-ASR。这部分最亮眼,它支持“上下文学习”——用户只需几对音频-文本样本,就能让模型适应新语言,无需海量训练数据、专业设备或专家干预。当然,零样本性能还不如全训模型,但这种“即插即用”方式极大降低了扩展门槛。 此外,Meta 开源了 Omnilingual wav2vec 2.0 基础模型,可用于其他语音任务如情感分析或翻译。整个系统基于 fairseq2 框架,许可宽松,便于开发者二次利用。值得一提的是,该模型还发布了 Omnilingual ASR 语料库,包含 350 种欠服务语言的转录音频,通过全球伙伴协作 curation 而成。 实测表现:数据说话 在基准测试中,7B 参数的 LLM-ASR 模型在 1600+ 语言上达到了最先进水平:78% 的语言字符错误率(CER)低于 10%(CER 越低,转录越准确)。这远超现有基线,尤其在低资源语言上表现出色。例如,它能处理从印地语到稀有非洲语的多样输入,而无需特定语言微调。Meta 强调,这些结果基于严格评估,证明了模型的鲁棒性——即使面对噪声或方言变体,也保持较高准确率。 更广影响:不止是技术,更是赋能 Omnilingual ASR 的意义超出实验室。它能赋能教育(如多语种字幕)、医疗(如远程诊断转录)和文化保存(如数字化口述历史),让全球 70 亿人中的边缘群体“发声”。Meta 呼吁社区参与:通过开源工具,用户可轻松贡献新语言样本,推动模型迭代。这不仅是 Meta 的贡献,更是 AI 向包容性演进的范例。未来,他们计划进一步优化零样本能力,并扩展到更多下游应用,如实时翻译或无障碍通信。

邵猛,中年失业程序员 😂 专注 - Context Engineering, AI Agents. 分享 - AI papers, apps and OSS. ex Microsoft MVP 合作 - 私信/邮箱:shaomeng@outlook.com 📢 公众号/小红书: AI 启蒙小伙伴

avatar for meng shao
meng shao
Tue Nov 11 00:51:41
In Amsterdam tonight? Don’t miss the AI Tinkerers Meetup (Nov 11)!

@lauragift_ will be demoing Dynamic Routing with AI Gateway - showing how to make your AI agents smarter and faster.

https://t.co/toDvySTdXo

In Amsterdam tonight? Don’t miss the AI Tinkerers Meetup (Nov 11)! @lauragift_ will be demoing Dynamic Routing with AI Gateway - showing how to make your AI agents smarter and faster. https://t.co/toDvySTdXo

Have questions, or building something cool with Cloudflare's Developer products? We're here to help. For help with your account please try @CloudflareHelp

avatar for Cloudflare Developers
Cloudflare Developers
Tue Nov 11 00:50:49
  • Previous
  • 1
  • More pages
  • 212
  • 213
  • 214
  • More pages
  • 2117
  • Next