V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  111qqz  ›  全部回复第 1 页 / 共 47 页
回复总数  922
1  2  3  4  5  6  7  8  9  10 ... 47  
"框架支持多个后端"有什么好处吗(
32 天前
回复了 homolabby 创建的主题 求职 24 届 infra 求职
看看我们这里不? 私募量化公司做机器学习平台. 团队氛围好,不卷,福利给力
https://v2ex.com/t/1021240
@wtsclwq #4 可以的
up
现在岗位比较急,各位收藏的小伙伴不要犹豫了(
@Qiane #1 我们不要求计算机专业,学校也没有强要求,主要还是看能力的
46 天前
回复了 csfreshman 创建的主题 C++ 如何从 c++菜鸟转型 c++高手
价格?
@thinkershare #16 周来忙别的就暂时没有再跟进这个问题了
稍晚一点我把 conda list 还有相关的版本也更新一下
121 天前
回复了 justincnn 创建的主题 硬件 8 寸左右看书的平板有推荐么?
单纯看电子书的话,小米平板 1 挺好的,去年刚买了个拿来用(
@AirCrusher #14
1. 只用一个 torch.matmul 无法复现问题.
甚至两个 linear 的参数也会影响问题的复现.
基本上第二个 linear 的参数的输出是 1 才会复现,如果是其他值,先后 import 不会对结果有影响.

2. 随机种子和`torch.use_deterministic_algorithms(True)` 都设置了.
以及设置了如下这些:

```python

def set_random_seed(seed: int):
"""Set random seed.

Args:
seed (int): Seed to be used.
"""
random.seed(seed)
np.random.seed(seed)
torch.manual_seed(seed)
torch.cuda.manual_seed(seed)
torch.cuda.manual_seed_all(seed)
torch.backends.cudnn.deterministic = True # type: ignore
torch.backends.cudnn.benchmark = False # type: ignore
torch.backends.cudnn.enabled = False # type: ignore
cp.random.seed(seed)


```

问题还是可以复现.
@thinkershare #9 非常感谢协助排查.
不同机器上的结果似乎确实是会不一致的, 之前遇到过使用两种不同型号的 A100GPU 时(A100-PCIE-40GB vs A100-SXM4-40GB),Adam 优化器的结果会有明显区别.

我打算先看看对齐下 CUDA 版本来验证下,确保 cupy 和 torch 使用的是同一个 cuda 版本.
如果还是不行, 打算尝试下你后面提到的步骤
有了更新会 at 你

再次感谢
122 天前
回复了 MrWil 创建的主题 职场话题 tencent 面试之按地摩擦
某 bg 的话,校招生薪资=1 siza=61W (
@thinkershare #4 最开始我也怀疑是种子. 但是种子应该已经设置相同了,而且种子对结果的差异应该比这个要大
@thinkershare #6 感谢,已补充
@nagisaushio 一样的。同样的代码结果可以稳定出现,没有任何误差
134 天前
回复了 ucyo 创建的主题 生活 求推荐女朋友生日礼物
只完成了 8 笔,还差一笔(
有的,还在一直闪屏
1  2  3  4  5  6  7  8  9  10 ... 47  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   5373 人在线   最高记录 6543   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 33ms · UTC 08:11 · PVG 16:11 · LAX 01:11 · JFK 04:11
Developed with CodeLauncher
♥ Do have faith in what you're doing.