LogoThread Easy
  • Explorar
  • Criar thread
LogoThread Easy

Seu parceiro completo para threads do Twitter

© 2025 Thread Easy All Rights Reserved.

Explorar

Newest first — browse tweet threads

Keep on to blur preview images; turn off to show them clearly

RT @berryxia_ai: 非常认同熊老板的这个观点,也正如张居正

的那句老话说:“宁拙而迟,毋巧而速。”

别太急,别太快了,别耍小聪明,哪怕慢一点,笨一点。

RT @berryxia_ai: 非常认同熊老板的这个观点,也正如张居正 的那句老话说:“宁拙而迟,毋巧而速。” 别太急,别太快了,别耍小聪明,哪怕慢一点,笨一点。

Growth Coach|Helping creators build their personal brand on X 增长教练|帮助创作者在X上打造个人品牌 公众号:PandaTalk8 X 增长群群主

avatar for Mr Panda
Mr Panda
Thu Oct 30 23:29:13
RT @ishverduzco: @y_molodtsov they are tough to do

but very rewarding once done right

i will do a long form post about it

but in short,…

RT @ishverduzco: @y_molodtsov they are tough to do but very rewarding once done right i will do a long form post about it but in short,…

creator // ex @a16zcrypto, @linkedin, @snap

avatar for Ish Verduzco 🌐
Ish Verduzco 🌐
Thu Oct 30 23:25:48
Kimi bros are *really* proud of KDA lol
And well they should be. This is the kind of stuff Meta dreams of doing and fails to do with OOMs greater budgets. This is what talent, hard work and vision look like.

Kimi bros are *really* proud of KDA lol And well they should be. This is the kind of stuff Meta dreams of doing and fails to do with OOMs greater budgets. This is what talent, hard work and vision look like.

We're in a race. It's not USA vs China but humans and AGIs vs ape power centralization. @deepseek_ai stan #1, 2023–Deep Time «C’est la guerre.» ®1

avatar for Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)
Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)
Thu Oct 30 23:25:33
对比数据

对比数据

A coder, road bike rider, server fortune teller, electronic waste collector, co-founder of KCORES, ex-director at IllaSoft, KingsoftOffice, Juejin.

avatar for karminski-牙医
karminski-牙医
Thu Oct 30 23:23:48
基础参数

基础参数

对比数据

avatar for karminski-牙医
karminski-牙医
Thu Oct 30 23:23:47
什么才叫便宜大碗模型啊,战术后仰。

本地部署大模型的福音来了!给大家带来月之暗面刚发布的 Kimi-Linear-48B-A3B 的技术解析!

先来一句话版本——这才是便宜大碗快餐模型。

48B-A3B 这个水平做到了1M上下文,然后还是线性注意力,非常省内存。传统注意力上下文长度增长带来的内存消耗是指数级的,这个是线性的,所以这个模型在CPU跑都没事。我已经正在下载了,准备加入本地常用模型中。

目前最大的不确定性是不知道召回水平咋样,我准备下载下来给它塞几本小说问问小说细节看看模型回答的咋样来评估召回效果。想看结果的各位精神股东请点赞,超过100给大家周末放出测评。

什么才叫便宜大碗模型啊,战术后仰。 本地部署大模型的福音来了!给大家带来月之暗面刚发布的 Kimi-Linear-48B-A3B 的技术解析! 先来一句话版本——这才是便宜大碗快餐模型。 48B-A3B 这个水平做到了1M上下文,然后还是线性注意力,非常省内存。传统注意力上下文长度增长带来的内存消耗是指数级的,这个是线性的,所以这个模型在CPU跑都没事。我已经正在下载了,准备加入本地常用模型中。 目前最大的不确定性是不知道召回水平咋样,我准备下载下来给它塞几本小说问问小说细节看看模型回答的咋样来评估召回效果。想看结果的各位精神股东请点赞,超过100给大家周末放出测评。

基础参数

avatar for karminski-牙医
karminski-牙医
Thu Oct 30 23:23:46
  • Previous
  • 1
  • More pages
  • 1657
  • 1658
  • 1659
  • More pages
  • 2118
  • Next