V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  vToExer  ›  全部回复第 2 页 / 共 13 页
回复总数  245
1  2  3  4  5  6  7  8  9  10 ... 13  
TL;DR
1. Qwen, baichuan, yi, deepseek coder:这些被认为是比较优秀的开源大模型。其中,baichuan 和 yi 被多次提及,且 baichuan2 13b 被认为是表现最好的。Qwen-72B 和 Deepseek-67B 被认为是目前中文开源大参数模型里,效果最好的。
2. BlossomLM:这是一个 v 友自己微调的 LLM ,主要提供一套公开的 SFT 数据。
3. ChatGLM, ChatGLM3:被提及并推荐。
4. Ollama:一个可以本地部署 LLM 的平台,包括 Llama 2, Code Llama 等模型。
5. Mixtral:可以本地运行,替代 ChatGPT-3.5 ,用于替代 Immersive Translate 的翻译引擎。
6. Llama 7b 和 13b:一些 v 友认为这两个模型的效果不太好。
7. Yi-34B:有 v 友认为其 SFT 数据有问题,推荐使用衍生版本,如 SUS-Chat-34B 。
一样的,每天就像钝刀割肉,看着时间被不断割走自己还是一无所获,很焦虑也很无奈
梦想是能发自本心彻底的不嫉不怨,但也许是因为长期的应试和平庸的秉性,不知什么时候起,我的潜意识中已经被种下了恶意的种子,它们导致自己在不知不觉中和优秀成功者比较,引发持续的负面情绪。

所以现在只能尽量逃避现实,不去关注其它人,欺骗自己做一只鸵鸟,才能偶尔获得短暂的幸福感……
102 天前
回复了 shubiao 创建的主题 问与答 怎么把大模型微调成文本分类模型?
一般情况下专用小模型的效果会强于通用大模型,如 gpt 在测试集上的准确率低于原分类模型,那么 chatglm 准确率只会更差。采用 LoRA/Adapter 微调可能有提升,前提是数据分布比较均匀,且在验证集上 loss 收敛
@chengchuan1009 相对来说富途稍稍好用一些。还有华泰和微牛更胜一筹(余额理财好用 长桥可用码 SALUDR
114 天前
回复了 surbomfla 创建的主题 投资 一百万如何进行简单的理财
根据利率从高到低对当前答案进行总结:

1. 头部交易所选稳定币理财:平均一年有 20% 的年化收益。优点是收益率高,缺点是风险较大,可能会受到市场波动的影响。

2. 购买比特币现货并转入币本位合约:年化收益率约为 18%。优点是收益率较高,缺点是风险较大,可能会受到市场波动的影响。

3. 购买券商收益凭证:年化收益率为 5.5%。优点是风险较低,缺点是收益率不如前两者。

4. 购买美国国债:无风险收益率为 5%。优点是风险低,缺点是可能会受到汇率转换的影响。

5. 购买企业债:平均年利率在 5% 左右。优点是收益稳定,缺点是可能会受到企业经营状况的影响。

6. 购买大额存单:1 年期平均利率在 2.3% 左右,3 年期一般可以达到 4.1%,5 年期基本都可以达到 5%。优点是风险低,缺点是需要一定的投资门槛,一般 20 万元起投。

7. 购买银行理财产品:国有银行一年期最高利率为 3.55%,股份制商业银行一年期最高利率可达到 4.5%,甚至 5% 以上。优点是风险较低,缺点是收益率不如前几者。

8. 购买地方债:平均收益可以达到 3%~5%。优点是风险低,缺点是可能会受到地方政府财政状况的影响。

9. 购买国债:3 年期,利率 3.8%; 5 年期利率 3.97%。优点是风险最低,缺点是收益率较低。

10. 银行定期存款:一年期利率约为 1.75%。优点是风险最低,缺点是收益率最低。

建议按比例分散投资。银行理财产品同样推荐微众银行,活期 4%,AFF 通道: https://personal.webank.com/s/hj/focus2/client/index.html?fid=2807&mgmAid=6845&sid=68e84baad4454887b71e932890f1478e
@snitfk 确是持续俯冲下行,所以积累了满身负能量😂
@calmbinweijin 难……现在醒时自我怀疑,梦中悔恨不已。整天浑浑噩噩,看不到希望痊愈。前程乌漆嘛黑,熬着便是活受罪
跟风感叹下,OP 不在局中导致没有抓住其实还好了…

看看本铁 five 吧,大把机会给塞到手里,然后自己手贱扔掉😭

- 13 年同学挖矿拉着入股,说没钱;

- 研究生导师劝我连读,说跳出舒适圈;

- 大厂跳某小厂 leader (很好的)劝留,说不配;

- 18 年短视频风生水起,我从推荐算法转后端;

- 23 年大模型起飞,我从半个大模型开发岗离职

每一步都曾经有前途,每一步都头铁精准踏错

曾经也想骂天意弄人,但是老天已给我太多机会,饭都送嘴边了,结果沙雕选择都是自己做的😭
真就山猪吃不了细糠,性格决定命运
130 天前
回复了 wniming 创建的主题 生活 怎么减肥最容易?
BMI=28.9 已属于超重。如没有不良反应可找大夫开司美格鲁肽,快速控制住体重后再配合饮食和运动,争取能保持正常 BMI
@ShadowPower 有理。看了下单条 context 大小应该是 seq_len * embedding_size ?如果按一般的 1024*768 存放单精度浮点相当于 3M 长度字符了,也就是在 8k 上下文场景下的约 400 轮聊天记录,差距很明显
的确如果采用 decoder 结构的模型,那么只需要记住 context vector ,就算是保存了当前 session 的状态,下次请求时也不需要把之前的聊天记录全部传过来,只需要拿 user_id 查表得到 context vector 就能恢复状态。

这样做用户侧来看感觉是最合理的。至于 openAI 没这么做的原因,我能想到的是一方面节省查表的开销,另一方面调 api 时多收点 token 费用,不知是否还有其它技术原因
138 天前
回复了 zapll 创建的主题 推广 ChatGPT Plus 拼车宝发布两周, 会员接着送
6vbHtfoHU19whUiwinaGhb 谢谢 op
1\叶黄素,可能是安慰剂,但对我真的有用。注意单次摄入≥10mg

2\游泳,强制眼睛休息,同时眼睛的焦距也会被水体动态调整。游完后短时间内眼中的血丝会相对少很多
极差。

这是每天都在逃避现实的一年。步入 30 后开始莫名恐慌,经常性对比同龄人后,不自觉地对自己的过去进行审视复盘,然后频繁地为年轻时众多重大误判而懊丧,一手普通牌终究打得稀烂

年关将至,进入 30 好像是昨天,31 却已经在眼前。回忆中充满折磨,未来却不见希望,而这一切都是自己的选择导致的。好在年龄越大,一年在人生中的占比就越小,所以未来的痛苦虽然多,但能留下的创伤也会越来越少吧…应该是的
150 天前
回复了 luozhiyun 创建的主题 English 我是如何学习 prompt 并用 Chatgpt 学英语的
op 能否分享下在用的 prompt ,感谢
154 天前
回复了 lwen 创建的主题 分享发现 大家黑五有什么推荐的“好物”吗
perplexity pro 免费两个月,第三个月半价,可用 Claude 2 👉🏻 https://v2ex.com/t/994821
155 天前
回复了 ahhhhhh888 创建的主题 问与答 关于大学的心结,怎么破
国内某些厂企的认知里,只要是理工 PhD ,不管哪毕业的,都薄纱清北之外一切本硕。所以,与其向往徒有其名的 985 ,不如果断读博当仌仌
156 天前
回复了 zapll 创建的主题 推广 不过了, ChatGPT Plus 免费送
6vbHtfoHU19whUiwinaGhb
1  2  3  4  5  6  7  8  9  10 ... 13  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   1036 人在线   最高记录 6543   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 34ms · UTC 23:01 · PVG 07:01 · LAX 16:01 · JFK 19:01
Developed with CodeLauncher
♥ Do have faith in what you're doing.