V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  neteroster  ›  全部回复第 4 页 / 共 43 页
回复总数  847
1  2  3  4  5  6  7  8  9  10 ... 43  
#1 说得对,视觉的话就 Gemma, Qwen VL 。另外你别给模型太长文本去翻译,要切分比较好。另外有条件还是直接 Gemini Flash 来着,一张图片就三四百 Token ,非常划算
218 天前
回复了 isbase 创建的主题 OpenAI Chatgpt Plus o3 被降智了
独享 IP 也不一定不降,最好是住宅 IP (所谓家宽)+ 同一个账号 IP 不频繁变化。号黑了的话换再好 IP 也没用了。

反正我不折腾,干脆不用。
现在做的好的也就 Gemini 的那个(模型必须要是 2.5Pro ),或者 OpenAI 那个(模型要是 o3 ,而且不降智)

总体来说 Gemini 那个体验更好,要买 Advanced
220 天前
回复了 ota 创建的主题 MacBook 从 win 到 mac 是不是每个程序员的必经之路?
虽然并不是(该说还不是吗)程序员,不过已经不使用任何苹果产品了(以前还用 iPad ),归根结底是个人越来越讨厌整家公司理念、营销策略,以及一部分粉丝群体。

#3
> 让苹果继续去卖它的黄金内存硬盘吧。
+1
221 天前
回复了 fjyhack007 创建的主题 OpenAI 求助: chatGpt Plus 有没有好用的合租平台
我能说现在不推荐吗,除非你折腾家宽 + 每天都自测有没有降智,不然就是活在白花钱的阴影中。
你说的对但是 +2000 左右我能更换到下面的内存/存储配置

https://i.imgur.com/reV7S2y.png

等什么时候 MacBook 能做到体验后再来评论(
228 天前
回复了 9yu 创建的主题 分享创造 我用 Rust 写了一个日漫汉化工具
@RedNax

已经有一些辅助的,比如
https://github.com/dmMaze/BallonsTranslator

多模态完全成熟之后也许可以全自动化
有可能,不过原因几乎都仅仅是供电能力和散热能力的差别。甚至说同一 GPU (例如 4060 ),不同笔记本可能会有不同的功率限制,这时候可以查看别人测试的芯片能效曲线确认。
232 天前
回复了 knowckx 创建的主题 编程 常用大模型编程项目得分排名 04-19
注意这是 WebArena ,仅限前端编程
非业界,只是对大模型有一定了解。

1. 很显然大模型不是所谓的“更高级”检索。大量例子表明 LLM 具有真正的泛化性,至少也是具有“通用模式匹配”的能力。

2. 很多人刚刚了解一点大模型的原理,就以 LLM 是“学习文本统计意义下的预测”这一点来否决 LLM 具有的泛化能力(他们通常还会辅以“LLM 具有幻觉”这一点作为例证)。LLM 是学习文本的统计学规律没错,但是我见过的任何一个持此类观点的人都无法陈述为什么学习统计学规律就无法产生真正意义下的“智能”(事实上,他们甚至无法准确地定义“智能”,就大谈“LLM 永远不可能有真正的智能”),LLM 会产生幻觉这一点也不蕴含 LLM 不能泛化,无法产生“智能”。

3. 与其关注“真正的智能”这种难以定义虚无缥缈的东西,还不如关注 LLM 能怎么用,缺乏什么能力阻止他变得更有用。我在这里得出的严重乃至本质上的需要克服的缺陷有两个:1. 无衰减的超长上下文 2. 持续学习(更新参数的那种)。只要解决这两点,大模型在实际生活生产中的应用可以大幅拓宽。甚至我觉得就凭现在先进的推理模型(比如 Gemini 2.5 Pro / o3 )加上上述两点就能实现非常接近 AGI 的存在。
237 天前
回复了 Fdyo 创建的主题 GitHub GitHub 网页版彻底崩了?
目前条件如下可复现

1. 大陆 IP ,无代理
2. 未登录情况(开无痕窗口)
#20 是对的,MoE 名字有些误导,实际上稀疏化才是目的和作用。并没有什么语义理解、问题拆分等模块。
253 天前
回复了 vagranth 创建的主题 奇思妙想 现在还有人需要“翻译 API 服务”吗?
这种不是很多,就算细分领域都一大堆了,比如日语游戏小说翻译:

https://github.com/NEKOparapa/AiNiee
https://github.com/neavo/LinguaGacha

还有提高翻译质量的译前自动术语表生成

https://github.com/neavo/KeywordGacha

更便捷的 gui 参数设置和 llama.cpp 启动器

https://github.com/PiDanShouRouZhouXD/Sakura_Launcher_GUI

甚至社区算力共享:
https://github.com/1PercentSync/sakura-share
263 天前
回复了 moudy 创建的主题 Apple Mac Studio 实战 671B 全量大模型成绩出来了
@wclebb

https://github.com/kvcache-ai/ktransformers/blob/main/doc/en/DeepseekR1_V3_tutorial.md

0.3-preview, 6454S×2, 4090D, D5-4800

pp~250, tg~12 ,我没记错的话这个 pp 远超 m3u ,tg 差些

更好的硬件:
https://zhuanlan.zhihu.com/p/30079534043
265 天前
回复了 NianBroken 创建的主题 问与答 可以画涩图的非本地 AI 有哪些?
novelai
265 天前
回复了 886106 创建的主题 Apple Studio M4max 128G 是否合适跑大模型
[同时]满足下面几个要求的情况下有优势:
1. bs=1 (不并发)
2. 轻 prefill 负载(仅类似 chatbot 任务,没有 rag 这样的工况)
3. 静音与便携
4. 需要跑较大的模型(很慢但能跑)

---

一旦你要并发或者重 prefill 任务就会原地爆炸,被多消费卡方案杀出几十上百倍的吞吐都不是不可能的。就算你不考虑吞吐只是单线程,也只有跑 MoE 的时候有比较显著的性价比优势,可惜这 128G 左右也没啥合适的 MoE 。

综合意见就是,大体上优势只有功耗静音。Ultra 的话能装下 R1 还有点看头,Max 除了功耗这些外围的基本可以说没什么跑 LLM 的优势。
268 天前
回复了 ayang23 创建的主题 分享发现 这道数学题能让目前所有 AI 原地爆炸
@wulili 每个周期内水位是先升后降的,19.6 小时处的那个尖峰其实已经注满了,19.6 是考虑了这一点下的结果。你直接忽略内部过程按周期看就是不一样的,但是你不能说 19.6 是错的
268 天前
回复了 ayang23 创建的主题 分享发现 这道数学题能让目前所有 AI 原地爆炸
o3-mini-high (api): 19 小时 36 分钟。

promptTokens=126, completionTokens=4342, 总时间=32s, tps=136
1  2  3  4  5  6  7  8  9  10 ... 43  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   884 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 41ms · UTC 20:04 · PVG 04:04 · LAX 12:04 · JFK 15:04
♥ Do have faith in what you're doing.