大 N 极限:随机矩阵和神经网络
微软研究院数学家 Greg Yang 专门研究人工神经网络,是一名 AI 研究人员,在大型人工神经网络背后的理论方面做了大量原创性工作。 Greg Yang 于 2018 年获得哈佛大学数学学士学位。他获得了胡普斯最佳本科论文奖。 2018年获本科生数学杰出研究荣誉奖,并受邀在2019年国际华人数学家大会上发言

这一集让我们领略了 Greg 的《Tensor Programs》,目前由五篇技术性很强的论文组成。 通过将张量程序的关键概念与一个众所周知的中心思想相结合,张量程序被压缩成一个视频:大 N 限制。 大数定律、中心极限定理等数学概念在随机矩阵理论中起着重要作用。 张量程序或 TP 概括了经典工作并为 RMT 提供了新的证明。 然后将张量程序应用于罕见(但重要!)的神经网络理论。 我们以张量程序在(罕见!)

Patreon:https://www.patreon.com/timothynguyen。

第一部分简介。
00:00:00:传记。
00:02 :36 – 哈佛中断 1,成为一名 DJ
我希望 AGI 发生在 2012 年(那时候)
00:09 : 哈佛数学候选人和文化。
00:17.33:Harvard Hiatus 2:数学自学者。
00:21.51 – 与丘成桐的友谊
00:24.06:你只需要两个菲尔兹奖得主就可以找到一份微软研究院的工作。
00:26.13 – 技术介绍:大图。
白板大纲。

第二部分。 第二部分。
大数法则。
00:45.23:张量程序预览。
00:47.25:中心极限定理。
CLT 证明 – 矩量法。
01:02:00:矩量法显式计算。

第三部分。 随机矩阵理论
01:12:45:设置。
01:16.55 – RMT 矩量法
1:21:21 : 维格纳半圆定律。

来源和详细信息:
https://www.youtube.com/watch?v=1aXOXHA7Jcw

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注