V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  Contextualist  ›  全部回复第 1 页 / 共 8 页
回复总数  143
1  2  3  4  5  6  7  8  
12 天前
回复了 neteroster 创建的主题 OpenAI Claude 3 Haiku 已经可用
我的某个创业朋友表示已经把主要业务逻辑从 GPT-4-Turbo 切换到 Claude 3 Opus 了,说是 Opus 在逻辑推理和遵循指令上有明显优势。这让我对 Claude 仅擅长行文修辞的老印象有所改变了。
经过了之前的低迷期,Anthropic 似乎又支棱起来了啊
40 天前
回复了 sNullp 创建的主题 Mastodon A Love Letter to Fediverse
写得很清晰的科普!
(假设 Fediverse 成为主流,) Fediverse 最终会走向由寡头实际控制的未来吗?
今日份欢乐,ALOHA 失败集锦
https://twitter.com/dotey/status/1743396313704649064
不过这机器人的 few-shot learning 确实了得。
@mwVYYA6 可恶,被发现了>///<
@Genii @siriussilen
模型: https://huggingface.co/Undi95/Mixtral-8x7B-MoE-RP-Story
对应的 quantization: https://huggingface.co/Undi95/Mixtral-8x7B-MoE-RP-Story-GGUF

@siriussilen 谢谢纠正!严谨地说,这个模型是拿 8 个原本独立的 7b 模型用 Mixtral-8x7b 架构组装在一起而成的。那 8 个独立的 7b 模型是用各自的数据集分别精调的。
@showgood163 确实,我自己实际使用体验是显存占用维持在 25.9G 左右
@neteroster 赞同啊,不过 NovelAI 被迫开源这一段往事哈哈哈。另外,本地 LLM 的成本还不够平民化,不过应该是本年之内能解决的问题了

@neteroster @hellojay Stable Diffusion 的新动向我有几个月没关注了,现在就偶尔拿之前的 prompt 生成几张。等我哪天见到新突破或许会开坑(不过浓度太高的话可能去 Bangumi 发?
@showgood163 嘿嘿谢谢关注。对的,25GB 对应 4bits quantization ,100GB 对应官方全量的模型 (float16 ,用 Flash Attention 2) 。
@cwyalpha 嗯嗯,慢慢坐等开源界达到 Claude 2.1 的水平,按照这个进度应该不会太久
@paopjian 用的都是官方原模型 + prompt 。微调嘛,一定程度上会限制模型的能力。
@molezznet 如果有可以自己配置的 NAT 确实是最好的情况。acp 的打洞也有 UPnP 等端口映射方法的支持,让路由器的 NAT 能配合打开端口。不过现实的情况是有时会有两层或以上的 NAT ,而且多是像电信运营商那种用户无法配置的 NAT ,就比较麻烦了
207 天前
回复了 yuancoder 创建的主题 Go 编程语言 Golang 的泛型能干什么
当然是用来实现邪道三元运算符:

func tern[T any](cond bool, a T, b T) T {
   if cond {
      return a
   }
   return b
}

var x, y int
x = tern(true, 42, 1)
*tern(false, &x, &y) = 42
295 天前
回复了 marin11 创建的主题 程序员 一些关于 Python 编程的疑惑
越过现象看本质:无论什么领域的代码、无论多大规模的项目,维护靠的都是模块化,即把一个项目拆分成尽量相互独立的部分,以便管理维护。

对于一个 .ipynb 文件,单元格就是一种模块化。而一个组织良好的 Python 项目并不会是单个 .py 文件,而是会包含许多相互依赖的 .py 文件和文件夹,它们构成了 Python 模块化中的包( package )和模组( module )。

以 debug 举例,一个 Python 项目中,一个 .py 文件实现一个具体的功能,与之对应的一个单元测试文件针对性验证这个 .py 文件的功能。所以很多时候 debug 并不用运行整个项目,而是单独运行查验一个单元测试文件。

最后多讲两句,.ipynb 是快速验证想法或者做小 demo 的利器。但如果一个项目持续增长到一定规模,最终还是整理成一个 Python 的包更有利于长期维护,因为线性组织的 .ipynb 很难维护多层的依赖关系,而且版本控制也比较困难。再说你写成一个包也是可以在 .ipynb 里导入使用的。
296 天前
回复了 pixelpanda 创建的主题 分享创造 基于 openai 的线上美少女咖啡馆
你这 sd 怎么纯热水也能拉花?
@Lighthughjiajin 免大佬。基本没问题,就是注意一下依赖关系,Syncer 单方面依赖 Actor ,22 行是没必要的。

不过这个玩具例子有点过于复杂了😅,但愿你在实际应用中不会经常遇到这种情况。
@Lighthughjiajin 嗯对,为了清晰对应你的例子我尽量沿用了你的命名。Go 里的 Interface 一般都是“动词 + er”来命名。假设我把 fn 重命名为 act ,那接口就叫 Actor 或者 DeviceActor ,对应的实现叫 PCActor 和 RouterActor 。

关于你提到的无法重写 sync 方法的问题,这意味着在你的业务逻辑里 sync 并不是只有一个实现,那就应该也把它列进接口里。根据不同情况,可以开一个新的 interface ,也可以加进 IDevice 。
- 开一个新的 interface 那就可以实现一个 type DefaultSyncer struct{},只是初始化 Device 时得传两个值
- 加进 IDevice 就是强制要求每一个具体实现都要实现 sync
Go 的 interface 和 struct 那一套鼓励的是组合 (composition) 而不是继承,所以像 PC 和 Router 这种实现具体功能的类是会被作为 Device 这种实现公共方法的类的**一部分**,就是 Device 包裹住 PC 或 Router 。下面是我个人认为的对应 Go 的地道解决办法: https://go.dev/play/p/wio55S6HtdK
既然他们当时能做出降智 Claude Instant 这种操作,现在为了省开支对 Claude+ 采取更低的参数也不足为奇了
因为 Slack 里的 Claude 是 Anthropic 亲生的公测项目,而 Poe 则是 Anthropic 授权给 Quora 做的。Quora 之前为了推销他们的订阅服务( GPT-4 和 Claude+)就把 Claude Instant 降智了(大概是调高了 temperature 和降低了 p 值)附上当时的官方推文(看看下面的回复吐槽): https://twitter.com/poe_platform/status/1641532203132932099
346 天前
回复了 Contextualist 创建的主题 OpenAI LLM 研究 3: LLM 是天生的猫娘扮演者
@renmu 没错,选择猫娘为例并非出于笔者的喜好,而是因其在计算虚拟生命学中作为模式生物的地位 (x

@lv2016 目前我得到的结果还是依赖于每一句对话的精细引导。我不太记得这个研究的细节了,但是对于让两个模型相互进行高质量的长对话这一方面,我还得多多学习研究。

@lookStupiToForce 哈哈,你这么一说,我其实也怀疑过是不是 Claude 的 instruction finetuning 做的不够彻底,所以出来这个 bug feature 。但不管怎么说,我觉得这个模型至少在预训练时期对猫娘这个概念的“理解”是非常透彻的。
1  2  3  4  5  6  7  8  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   1243 人在线   最高记录 6543   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 30ms · UTC 18:03 · PVG 02:03 · LAX 11:03 · JFK 14:03
Developed with CodeLauncher
♥ Do have faith in what you're doing.