蒙特利尔大学开放MILA

 2024-12-04 10:30:01  阅读 113  评论 0

摘要:2016 年,Aaron Courville 和 Yoshua Bengio 组织的 MILA 深度学习夏季课程获得了极大的关注。今年,新一届的 MILA 深度学习与强化学习夏季课程开放了 PPT 和教学视频。机器之心摘选了 Bengio、Goodfellow 和 Sutton 的部分亮点并简要介绍了该课程。课程首页:https://mila.u

2016 年,Aaron Courville 和 Yoshua Bengio 组织的 MILA 深度学习夏季课程获得了极大的关注。今年,新一届的 MILA 深度学习与强化学习夏季课程开放了 PPT 和教学视频。机器之心摘选了 Bengio、Goodfellow 和 Sutton 的部分亮点并简要介绍了该课程。

课程首页:https://mila.umontreal.ca/en/cours/deep-learning-summer-school-2017/课程视频地址:http://videolectures.net/deeplearning2017_montreal/PDF 下载地址:https://mila.umontreal.ca/en/cours/deep-learning-summer-school-2017/slides/

蒙特利尔大学开放MILA

课程介绍

本届 MILA 2017 夏季课程包括深度学习夏季课程和强化学习夏季课程,以下是对这两个课程的官方介绍:

深度学习夏季课程

深度神经网络学习在多层抽象网络中呈现数据,这极大地提升了语音识别、目标识别、目标检测、预测药物分子活动和其他多项任务的水平。深度学习通过监督学习、无监督学习和强化学习构建分布式表征(distributed representation),在大型数据集中构建复杂的结构。

深度学习夏季课程面向已具备机器学习(也可以是深度学习,但不是必须)领域基础知识并想了解更多的硕士研究生、工程师和研究者。今年的深度学习课程由 Graham Taylor、Aaron Courville 和 Yoshua Bengio 共同组织。

强化学习夏季课程

我们将要举办第一届蒙特利尔强化学习夏季课程。强化学习课程将会覆盖强化学习的基础知识,并且展示其最前沿的研究方向和新发现,还会提供与研究生和业内高级研究人员进行交流的机会。

本课程主要面向机器学习及其相关领域的研究生。参加者应该有过计算机科学和数学方面的进阶预训练的经验,来自机器和大脑学习 CIFAR 项目的附属研究实验室的学生将会被优先考虑。我们也强烈欢迎非以上典型小组的代表来申请此次课程。

近日,该课程的众多 PDF 已经开放,感兴趣的读者可从以下网址下载。

课程亮点

MILA 2017 夏季课程结束之后,机器之心结合公开的课程资料对这些课程进行了介绍,希望能辅助大家学习。

1.Yoshua Bengio:循环神经网络

Bengio 在课程中主要介绍的就是循环,包括了循环神经网络定义、变体、存在的问题、训练技巧、最先进的注意力机制、RNN 架构的设计和一些非常前沿的概率图模型。

循环神经网络

首先 Bengio 当然还是先介绍了循环神经网络的结构,如下图所示,我们可以将循环神经网络展开到详细的连接。RNN 每一隐藏层的值都不仅取决于当前的输入,同时还取决于还取决于上一次隐藏层的值。其中 x 代表输入、s 代表隐藏值、O 代表输出值。我们可以看到,第 t 个隐藏值 x_t 不仅依赖于第 t 个输入 x_t,还依赖于前一次的隐藏值 s_t-1 才能得出第 t 个观察值 O_t。

梯度消失和爆炸问题

梯度消失和爆炸问题一直是循环神经网络所面临的巨大挑战。因为当权值过大,前面层比后面层梯度变化更快,会引起梯度爆炸问题,但是如果前面的层比后面的层梯度变化更小,故变化更慢,从而会引起梯度消失问题。我们可以看到,如果雅可比矩阵的谱半径小于 1,那么所传播的梯度就会消失。

从下图我们可以看到十分实用的 RNN 训练技巧,包括使用梯度截断(Clipping gradients)防止梯度爆炸问题,使用渗漏集成(Leaky integration)以传播长期依赖性,采用动量(Momentum)加速梯度下降的效率,在大概近似的区域内初始化神经网络以避免陷入局部解或出现梯度消失和爆炸问题。同时,我们还可以使用系数梯度以打破对称性而是训练更加高效,在执行梯度下降时还可以使用正则化器和门控自循环(Gated self-loops,如 LSTM 和 GRU)以避免或降低梯度消失问题。

注意力机制

注意力机制近来在 NLP 领域起到十分重要的作用,它可以减少编码器-解码器模型的缺陷,尤其是在长序列问题上有极其出色的表现。注意力机制可以用于循环神经网路,大大提高了其处理标注问题的能力。注意力机制如下所示通过在低层序列和高层序列间加入隐藏的注意力分配向量而大大加强了性能。

循环神经网络的架构

如下展示了 RNN 架构的基本概念,循环深度表示由序列长度切分的最大路径长度,前馈深度表示从输入到最近输出的最大深度,而跳过系数则表示由序列长度切分的最短路径长度。这些概念都是设计 RNN 架构所必须了解的,Bengio 也在课程中做了进一步详细说明。

2.Ian Goodfellow:Generative Models I

Ian Goodfellow 在此次夏季课程的演讲主题是 Generative Models I,Generative Models II 则由 Aaron Courville 接着讲授。Ian Goodfellow 这次讲授的内容主要分为两部分:生成模型的分类(Taxonomy of Generative Models)与应用(What can you do with generative models?)。下面首先介绍第一部分,生成模型的分类。

有监督机器学习方法可以分为生成方法和判别方法,生成方法学习出的是生成模型,判别方法学习出的是判别模型。生成模型的本质是密度估计(Density Estimation),其基本思想是首先建立样本的概率密度模型,再利用模型进行推理预测。生成模型的处理过程会告诉你关于数据的一些统计信息(p(x|y) 的分布等),更接近于统计学。这种方法一般建立在统计学贝叶斯理论的基础之上。

生成方法由数据学习联合概率分布,然后求出条件概率分布作为预测模型;生成模型是根据已知的样本用基于统计方法来估计整个样本空间的真实分布,它表示了给定输入 X(训练样本)产生输出 Y(模型样本)的生成关系。

机器学习中,生成模型可以用来直接对数据建模(例如根据某个变量的概率密度函数进行数据采样)。如果观测数据是由生成模型中采样的,那么最大化数据似然概率是一个常见的方法。最大似然估计最早是由罗纳德·费雪在 1912 年至 1922 年间推荐、分析并大范围推广的。在统计学中,最大似然估计是用来估计一个概率模型的参数的一种方法。Ian Goodfellow 据此对生成模型做了一个分类,如下:

一般来讲,典型的生成模型有:朴素贝叶斯法、隐马尔科夫模型、高斯混合模型、AODE、隐狄利克雷分配模型(Latent Dirichlet allocation)、受限波尔兹曼机(Restricted Boltzmann Machine)。Ian Goodfellow 在这次讲授中根据最大似然估计(可再分为显性密度和隐性密度)给出了生成模型的五个分类:GAN、生成随机网络(GSN)、玻尔兹曼机、变分自编码器(VAE)、全可见信念网络(Fully visible belief nets)。

显性密度可再分为驯服密度(Tractable density)和近似密度(Approximate density)。根据驯服密度,生成模型可分为全可见信念网络。

全可见信念网络是基于链式规则(Frey et al, 1996)的显性公式。它有一些自身的缺陷:O(n) 非平行样本生成运行时间;生成不受隐藏代码控制。

近似密度可再划分为可变分(Variational)与马尔可夫链(Markov Chain);根据前者生成模型可分为变分自编码器(VAE),根据后者可分为玻尔兹曼机。

变分自编码器是一类重要的生成模型,它于 2013 年由 Diederik P.Kingma 和 Max Welling 提出,是一种基于变分贝叶斯推断的生成网络。2016 年 Carl Doersch 写了一篇 VAE 的 tutorial,对 VAE 做了更易懂的详细介绍。

根据隐性密度的马尔可夫链,生成模型可划分为生成随机网络(GSN),它最早由 Bengio 于 2013 年提出。

在这次课程的后半部分,Ian Goodfellow 讲述了生成模型的实际应用,分为以下几个方面:

模拟化环境与训练数据丢失性数据多正确答案逼真化生成任务基于预测的模拟学习有用性嵌入

关于生成模型的后续内容,可参见 Aaron Courville 讲授的 Generative Models II。

3.Rich Sutton:Temporal-Difference Learning

Richard S. Sutton 教授被认为是现代计算的强化学习创立者之一。他为该领域做出了许多重大贡献,包括:时间差分学习(temporal difference learning)、策略梯度方法(policy gradient methods)等。本次课程上,Sutton 教授讲解的就是事件差分学习。

在 Sutton 最开始的课程中,他表明随着计算力的增长,可扩展的能力也需要增长,这样才是人工智能的未来。Sutton 表明,即使是弱一些的一般方法也要比强大的特定方法好。因为监督学习和免模型的强化学习方法在泛化性能上十分欠缺。但是预测学习(Prediction Learning)是可泛化的,因为它是一种无监督学习。虽然预测学习也需要目标,但这些目标并不需要人工标注。因此预测学习才是可扩展的免模型学习。

时间差分学习(Temporal-difference learning)是一种学习预测的方法,它广泛应用于强化学习来预测未来的奖励(Reward)或价值函数。时间差分学习是 Q 学习、深度 Q 网络、时间差分-Gammon、actor-critic 等方法的关键,它还能用于预测任何信号而不只是奖励。时间差分学习主要从其他的已学习的预测学习一个新的预测。

正如上图所示,时间差分学习首先从一个随机网络开始,并且通过自我博弈数百万次而从模拟的经验中学习到价值函数。

但是我们一定需要使用时间差分学习吗,我们是不是可以使用其他强大的监督学习方法?如下所示,很多 AlphaGo 和其他 Atari 游戏都是使用的强化学习和深度学习。

时间差分学习只和多步预测问题相关,也就是我们预测的东西在未来会经过多个步骤。而模型会揭示每一步骤的可能包含的信息。这种多步预测十分常见,比如说预测游戏的结果、股票市场一段时间后的走势等等。Sutton 表示我们不能将这些多步预测转换为单步预测而使用强的机器学习方法处理,因为任何一个多步预测都需要由多次模拟,并且只有在完成一步之后才能预测下一步的状态和观察值。

下面 Sutton 详细介绍了时间差分学习(Temporal difference learning)。

除此之外,Sutton 还对比了监督学习蒙特卡罗(MC)方法、最简单的时间差分方法和动态规划方法。

对于会涉及到估计而更新的 Bootstrapping 而言,MC 方法并不适用 Bootstrap,而动态规划和时间差分方法都会使用 Bootstrap。对于不涉及期望而更新的采样,动态规划并不会使用采样,而 MC 方法和时间差分方法都会使用。

下面对比了 MC 方法和时间差分方法的更新策略:

从上图可以看出,策略评估或者预测问题的更新过程,即给定一个策略π,我们需要计算状态值函数 v_π。在更新状态值函数中,我们可以看到蒙特卡罗方法使用的是时间 t 上的真实反馈目标,即人工标注的目标。而在时间差分方法中,我们更新使用的目标是一个概率估计,所以这种无监督的方法才有更好的扩展能力。

Sutton 在前面介绍了单步扁平(tabular)免模型时间差分方法,并且时间差分方法结合了动态规划和 MC 方法的优点。时间差分方法还是一种节约计算资源的算法,它比 MC 方法更快。并且 MC 方法虽然在过去的数据中误差很低,但在未来的数据中误差较高,它远没有时间差分方法的扩展性能。

最后 Sutton 总结道:

清华大学的讲课视频被吐槽,全是中国学生,为何还要用英语讲课?

前段时间清华大学内部有学生拍摄了学校里面老师上课讲课的一些基本内容的视频,视频发到了网上之后,引起了很多网友的讨论。很多人可能觉得像这样的视频应该是比较枯燥无聊的,而且清华大学本身也是属于我国超一流名校,教师讲课的内容肯定也是很多人都听不懂的。

没有一点专业知识水平,想要听懂清华大学的课程也是难度很大的。当然这则视频传出来之后,确实很多网友都觉得听不懂,但真正相比较于内容的听不懂,很多网友是认为这个教师在讲课的时候采取的教育方式有很大的问题。

一、清华大学教师讲课用全英文被热议

因为清华大学的这个教师在讲课过程中并不是使用的中文,而是使用的全英文讲课方式。实际这一堂课也并不是英文课,就是普通的一门课程,在上课的时候坐在教室里面的学生也都是中国学生,但是课程过程当中所使用的语言却全部都是英文。

不管是老师还是学生,老师讲课用英文学生起来回答问题也用英文。这样的教学方法让很多网友觉得不能理解,清华大学本身也是属于我国非常有名的一流名校,在学校内部如果是学习外语的话,用全英文课堂还能理解,但学习的本身也并不是外语,没有必要用全英文进行交流。

教师在上课的过程中,还刻意地去使用英文课堂环境去构建一种全英文的学习环境,很多网友觉得这个事情看起来非常的可疑。当然也有一些网友提出质疑,因为清华大学毕竟是属于我国的一流学府内部的教师有自己的教学方式也很正常,也可能上课的教师是属于外教老师,也不一定。

实际上上课的教师也并不是外教老师,这一则拍下来的视频也是学生随手拍下来的。后续也有其他的一些清华的学生表示,在清华大学内部其实有很多课程都是这样的全英文交流课程,并不是什么非常特别的教学现象。

有网友拿清华大学的教学视频和前段时间特别热门的北大的网红数学教授韦东奕的视频做对比,发现韦东奕上课的时候还是讲中文更多的。但是在上课的过程中,黑板上所写到的一些专业名词也还是用英文来进行表述的。

其实之所以有些教授在上数学课的时候会选择全英文的模式,主要还是因为确实是有一些专业性的数学名词,目前在中文当中翻译出来是比较晦涩难懂的。确实是国外在科技发展和数学发展这一块有很多专业的地方,而且有很多专业性的数学名词也都是国外命名的。

在上课的时候,教师为了更加方便表述更加快捷地去表达这些数学当中的专业名词,采用全英文的教学模式,让学生带入到课堂中学习,其实也是一个很好的方法。如果让老师在上数学课的时候,把这些专业性数学名词翻译成中文,然后我再去给学生讲课,其实也是非常麻烦,而且有些学生可能还会因此而听不懂。

这个时候直接用英文进行课程教学,反而会更容易一些,这样子回过头去看清华大学内部的这种全英文课程其实也没有那么难以理解了。当然对于普通的大学生来说,可能还是无法接受在数学课堂上面使用全英文的教学模式,但毕竟清华大学内部很多学生未来可能都是要赴美留学的。

对于这一部分学生来说,更早一点地让他们在填英文的这种教学模式下去适应,为他们创造更加便捷,更加全面化的这种外语模式,其实也是有帮助的。其实网友也没必要过多地指责清华大学内部教师用这种全英文模式教学,顶尖学校内部的学生能力都是非常强的。

所以即便是采用全英文模式教学,对于教室里面的学生来说也没什么难度,他们自己本身不会觉得这是什么特别困难的事。学霸的世界也不是普通的学生能理解的,多数网友其实也没必要针对这件事情而认为清华大学存在什么制度上的问题,在看待清华大学这种教学问题的时候,还是要根据实际情况去考虑的。

总结

对于大学生来说,上课的时候认真听讲其实就是最好的学习方式,跟上老师的步伐,慢慢地去学习就可以了。教师上课的时候,如果采取的语言方式是自己听不懂的,那其实也可以在下课后去询问老师,全英文的教学模式,在清华大学内部常见,但在其他学校并不是常见的,所以网友也没必要因此而生气。

渤海大学6门视频课程获评“汉语桥”优质录播课程

近日,渤海大学收到教育部中外语言交流合作中心《关于邀请参加“汉语桥”线上团组优质录播课程小语种翻译项目通知》的函件,该校录制的8门2020年“汉语桥”线上团组项目视频课程中,有6门课程从全国上千门视频课程中脱颖而出,被评为优质录播课程,入选“汉语桥”团组在线体验平台资源库。

本次评选旨在整合“汉语桥”线上团组项目优质教学资源、打造精品中文系列课程。专家组从2020-2021年度全国“汉语桥”线上团组项目上千门录播课程中评选出407门优秀课程。渤海大学入选的6门课程分别为2020年“汉语桥”线上团组项目语言类和文化体验类视频课程。其中,语言类课程《中级汉语综合》可以进一步提升中文学习者汉语综合表达能力和交际能力;《汉字与中国文化》《中国茶艺》《中国剪纸》《中国捏面人》《中国太极》等文化体验类课程可以进一步激发学习者学习中国传统文化的兴趣,提高其对中华文化认识和理解。

据了解,目前,教育部中外语言交流合作中心已启动“汉语桥”线上团组优质教学资源小语种翻译项目,并邀请该校为上述6门入库课程翻译制作阿拉伯语、西班牙语、法语、俄语、德语字幕,以便将课程作为通用学习资源持续提供给海外中文学习者使用。(通讯员:渤海大学张俊秀)

版权声明:我们致力于保护作者版权,注重分享,被刊用文章【蒙特利尔大学开放MILA】因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!;

原文链接:https://www.yxiso.com/news/447979.html

发表评论:

关于我们
院校搜的目标不仅是为用户提供数据和信息,更是成为每一位学子梦想实现的桥梁。我们相信,通过准确的信息与专业的指导,每一位学子都能找到属于自己的教育之路,迈向成功的未来。助力每一个梦想,实现更美好的未来!
联系方式
电话:
地址:广东省中山市
Email:beimuxi@protonmail.com

Copyright © 2022 院校搜 Inc. 保留所有权利。 Powered by BEIMUCMS 3.0.3

页面耗时0.0601秒, 内存占用2.01 MB, 访问数据库27次

陕ICP备14005772号-15