微积分、线性代数、概率论这里有份超详细的ML数学路线图永利集团3044am官方入口
多变量运算中将线性代数和微积分结合在一起,为训练神经网络的主要工具奠定了基础。从数学上讲,神经网络只是多个变量的函数(尽管变量数量可达数百万)■★◆■。
给出的一种解释是■◆■★,如果一个随机事件重复了很多次永利集团3044am官方入口,则单个结果可能无关紧要。因此,如果你在赌场玩一个期望值为负的游戏,那么偶尔也会赢。但大数定律意味着你会赔钱。
当基中的向量相互正交时,我们称之为正交基(orthogonal basis)。如果每个正交向量的范数在正交基础上均为 1,则我们说它是正交的。
其中 P 是真实值(集中到单个类的分布)■★◆★■◆,而 P^ 表示类预测■■★。这衡量了预测与实际情况相比有多少信息。当预测相匹配时,交叉熵损失为零◆◆★■■。
另一个常用量是 Kullback-Leibler 散度(KL 散度)■★,定义为:
神经网络本质上是函数,它是用微积分工具训练的◆■◆■■。然而,又涉及线性代数,如矩阵乘法★■。线性代数是一门涉及机器学习许多方面的庞大学科◆★★★,因此这将是一个重要的部分。
机器学习背后的原理往往涉及高等数学。例如◆◆★◆,随机梯度下降算法建立在多变量微积分和概率论的基础上。因此掌握基础的数学理论对于理解机器学习模型很重要。但如果你是没有数学基础的初学者,这里有一份学习路线图★◆★◆★,带你从零开始深入理解神经网络的数学原理■★。
这些保证了向量可以相加和缩放。当考虑向量空间时★◆■,如果你在心里把它们建模为 R^2 会很有帮助。
那么★★,你有 1/3 的概率赢 300 美元,2/3 的概率输 200 美元。也就是说◆★◆,如果 X 是编码掷骰子结果的随机变量,那么■★◆◆:
假设你和朋友玩游戏。你掷一个经典的六边形骰子永利集团3044am官方入口,如果结果是 1 或 2,你将赢得 300 美元。否则◆■◆★,你就输 200 美元。如果你玩这个游戏的时间够长,你每轮的平均收入是多少★■■★■?你应该玩这个游戏吗★■★★◆?
主要介绍相关组件◆◆★★★,如studio、autopilot等★■★◆◆,并通过在线演示展示这些核心组件对AI模型开发效率的提升。
微积分包括函数的微分和积分。神经网络本质上是一个可微函数,因此微积分是训练神经网络的基本工具★■★。
使用泊松分布可能需要较少的问题,因为分布往往集中在特定的点上(这取决于参数)。
其中 P 和 Q 是两个概率分布。这本质上是交叉熵减去熵,熵可以被认为是对两个分布的不同程度的量化◆■◆■■★。例如,在训练生成式对抗网络时◆■■,这是很有用的◆★◆★★。最小化 KL 散度可以保证两个分布是相似的◆★■★★★。
U 和 V 是酉矩阵◆■◆■★■,是一个特殊的矩阵族■★■。奇异值分解(SVD)也被用来进行主成分分析★◆◆,这是最简单和最著名的降维方法之一。