V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  huzhikuizainali  ›  全部回复第 5 页 / 共 11 页
回复总数  212
1  2  3  4  5  6  7  8  9  10 ... 11  
@leimao 我看的就是 pca 的章节。
2022-02-22 10:31:07 +08:00
回复了 huzhikuizainali 创建的主题 数学 请问这个向量求导的结果是怎么得到的?
@necomancer 再谈个题外话。学数学怎么对抗遗忘呢?很多知识当时搞得明明白白,自己把书中的跳步都弥补了,笔记根据自己的理解重述知识,记得很详细。课后题也都做了。过了一段时间再看这本书目录,完全想不起来这一章在讲什么内容。如果要回忆起来,还要重看这一章或者笔记。
每当遇到这种情况就会产生自我怀疑。比如,你真的学会了么?什么叫懂数学?什么叫掌握了知识?
所以你有什么办法很好的解决这个问题么?
2022-02-22 09:50:33 +08:00
回复了 huzhikuizainali 创建的主题 数学 请问这个向量求导的结果是怎么得到的?
@necomancer 谢谢指教。学习了!
2022-02-21 22:06:13 +08:00
回复了 huzhikuizainali 创建的主题 数学 请问这个向量求导的结果是怎么得到的?
@necomancer 谢谢指明方向。请教两个问题。

1 、向量微积分,张量代数 一般属于哪个数学分支的内容?目前学的线性代数导论好像还没接触过这些内容。多元微积分里学过向量值函数。向量场。但是没有讲过标量对向量求导,向量对向量求导……

2 、请教一下你是学什么专业的?在你的专业领域如果遇到数学障碍你是如何快速找到相关问题的数学出处,以及适合自己的教学资源(书,视频……),并掌握好学习数学的深度和广度?
2022-02-21 14:17:35 +08:00
回复了 huzhikuizainali 创建的主题 数学 请问这个向量求导的结果是怎么得到的?
@lance6716 请问是否可以进一步详细的讲解。或者这些知识点,哪本教材上讲的比较详细?
2022-02-15 20:04:55 +08:00
回复了 huzhikuizainali 创建的主题 数学 向量乘法为什么等同于点积?
@0o0o0o0 显示视频不存在。
2022-02-15 20:00:17 +08:00
回复了 huzhikuizainali 创建的主题 数学 向量乘法为什么等同于点积?
@Vinty
谢谢回复。主要是我记得过去学向量相关知识的时候没有学过向量有乘法。或者说向量乘法等于点积。所以:xu*xu = |xu||xu|*cos(Θ) 我就无法理解了。你如果说 xu.xu = |xu||xu|*cos(Θ) 我觉得没问题。

所以这基本就是上述问题最困惑的地方。你是否看过什么教科书上讲过有向量乘法(不是点乘,不是点积,是乘法) 与向量点积等价?如果有书籍讲过这方面内容可否推荐一下?
2022-02-15 10:03:40 +08:00
回复了 huzhikuizainali 创建的主题 数学 向量乘法为什么等同于点积?
@Vinty 谢谢回复。
请问第三行等式,如何从倒数第二步 推出最后一步的?倒数第二步是数值平方。怎么就推出最后一步的点积了?
2022-02-12 14:05:42 +08:00
回复了 huzhikuizainali 创建的主题 机器学习 PCA 为什么归入无监督学习的范畴?
@daweii 对于新的学生,我们可以通过 pca 预测学生的智力与体育成绩,从而更直观地评价学生。---------通过你举得例子,我觉得 PCA 只完成了工作的前半部分“压缩”的任务。在“预测”部分我没有看出 PCA 出力。可否再启发一下我?
补充一下,统计学习方法和《统计学习要素》作者: Trevor Hastie / Robert Tibshirani / Jerome Friedman 比较在:深度和广度,对读者友好度方面 如何?
2022-02-07 14:50:40 +08:00
回复了 huzhikuizainali 创建的主题 机器学习 PCA 影响机器学习的可解释性吧?
@GrayXu 比如原来 x1 ,x2……xm 代表不同的属性。PCA 以后变成 z1 ,z2……zk ( k<m )这是 z 和 x 怎么对应呢?有这方面的中文介绍么?
2022-01-26 13:10:58 +08:00
回复了 huzhikuizainali 创建的主题 数学 关于机器学习中应用线性回归的几点疑问
@BruceYuan 我知道 2 ,但是不知道 1
其次,梯度下降法只能缓解 2 。也就是说具体问题具体分析。有时候看运气。也许求得的知识局部极值。对么?
2022-01-26 13:09:11 +08:00
回复了 huzhikuizainali 创建的主题 机器学习 是否有纯代码的机器学习书籍推荐?
@yangyaofei 所以有相关的书籍推荐么?
2022-01-25 21:52:47 +08:00
回复了 huzhikuizainali 创建的主题 数学 关于机器学习中应用线性回归的几点疑问
@tfdetang 你说的 f(x*)是目标函数?还是代价函数?
2022-01-25 21:51:32 +08:00
回复了 huzhikuizainali 创建的主题 数学 关于机器学习中应用线性回归的几点疑问
@BruceYuan 1. 假如数据量多的话,等同于最小二乘法求极值,需要计算超大规模矩阵逆,计算量远大于梯度下降;---------------如果不用线性代数的方式求极值呢?用微积分的。当然我也不确定用微积分求二次多元函数的偏导数计算量集亍比线性代数方式计算量小。

应用梯度下降法真的是因为计算量的原因么?
@lance6716 多谢。我明白了。你真是太棒了!
@lance6716 j 是由θ1 和θ0 为自变量的函数。怎么说 j=1 就是θ1 呢?
@lance6716 你说的我懂,但是你的回答好像和:“请问红框当中的 j=1 该怎么理解? 为什么要考虑 j=1 的情况。这点我不太理解。” 没有关系吧?
@lance6716 请问红框当中的 j=1 该怎么理解? 为什么要考虑 j=1 的情况。这点我不太理解。
@lance6716 还有就是微积分中认为一阶导数等于 0 是驻点,驻点可能是极值点,也可能不是极值点。这些不需要考虑么?
1  2  3  4  5  6  7  8  9  10 ... 11  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   2239 人在线   最高记录 6543   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 21ms · UTC 09:37 · PVG 17:37 · LAX 02:37 · JFK 05:37
Developed with CodeLauncher
♥ Do have faith in what you're doing.