Skymind|人工智能基础设施提供商
上节课我们讲到神经网络的“两个传播”,前向传播及反向传播,在有监督的机器学习算法中,我们希望在学习过程中最小化每个训练样例的误差。这是使用梯度下降等一些优化策略完成的。而这个误差来自损失函数。
我们知道反向传播是传播实际值跟预测值之间的误差,那么传播误差是怎么计算得来的呢?那就是这节课的内容了。快跟着净智继续深入学习深度神经网络吧!
机器学习中所有的算法都需要最大化或最小化一个函数,这个函数被称为“目标函数”。其中,我们一般把最小化的一类函数,称为“损失函数”。它能根据预测结果,衡量出模型预测能力的好坏。
在实际应用中,选取损失函数会受到诸多因素的制约,比如是否有异常值、机器学习算法的选择、梯度下降的时间复杂度、求导的难易程度以及预测值的置信度等等。因此,不存在一种损失函数适用于处理所有类型的数据。
那么,什么是损失函数,你如何理解它们的意义?
假设你在山顶,需要下山。你如何决定走哪个方向?
我要做的事情如下:
环顾四周,看看所有可能的路径。
拒绝那些上升的路径。这是因为这些路径实际上会消耗更多的体力并使下山任务变得更加艰难。
最后,走我认为的坡度最大的路径。
关于我判断我的决策是否好坏的直觉,这正是损失函数能够提供的功能。
损失函数将决策映射到其相关成本。
决定走上坡的路径将耗费我们的体力和时间。决定走下坡的路径将使我们受益。因此,下坡的成本是更小的。
损失函数大致可分为两类:分类问题的损失函数和回归问题的损失函数。
分类损失函数和回顾损失函数的区别。
它们并不难理解,反而可以增强你对机器学习算法的理解。
在本节课中,净智老师给我们讲解了损失函数以及它们如何在机器学习算法中工作,并解释每种函数的使用方法。
我们这节课节课主要讲分类损失函数“Classification”中的交叉熵“Cross Entropy” 和二值交叉熵“ Binary Cross Entropy”
和归类损失函数“Regression”中的均方误差“Mean Square Error(MSE),详细内容请观看本视频。
(视频课程中“向前传播”和“归类损失函数”为马来西亚翻译,“归类损失函数”为“分类损失函数”“向前传播”即“前向传播”的意思)
本期课程:深入探索神经网络 向前传播(二)
Skymind
智者见“智”AI科普系统课程上线
课程亮点
科普课程共四期,由浅至深的解密人工智能与深度学习,以最浅白的方式介绍人工智能和深度学习,以及深度学习的运作方式。每期可分为2-3个主题视频,一周更新一个主题,视频内容简明扼要,独具匠心,利用“时间碎片化”便可分享AI前沿技术,感受到AI的无限魅力。
并且可以快速提升用户在认知与实践上的知识和技能,使其在学习和实战过程中深度挖掘并解决目前部署过程中遇到的难题。
更新时间:
每周五AM10:00
主办单位:
墨子沙龙&Skymind
课程摘要:
01
解密人工智能与深度学习
解密人工智能与深度学习
深度的运作方式
机器学习及学习任务
02
深入探索神经网络
利用前馈神经网络介绍神经网络运作及学习方法
向前传播(一)
向前传播(二)
反向传播(一)
反向传播(二)
03
深度学习让计算机看得见
介绍卷积神经网络结构 (CNN)
深度学习在机器视觉的应用
04
如何给深度学习装上记忆机制
了解循环神经网络
介绍长短时记忆网络 (LSTM)
长短时记忆网络的应用
讲师介绍:
罗净智
高级讲师
马来西亚理科大学硕士
Skymind 高级深度学习工程师
Skymind 深度学习商业培训课程高级讲师
其研究方向为机器视觉及感应器的信号处理,他在机器视觉及传感器领域内开发基于深度学习的应用程式,设计及利用机器视觉技术进行自动化的产品质量检查,曾开发过针对不同商业领域的应用。
惊喜福利
凡有关课程的问题都可以微信后台留言提问或者进群交流,第五期会做专期答疑解惑,小伙伴们好好学习,天天向上!
凡有关于深度学习就业与授课经验的小伙伴可以一起加入我们的讲师队伍,凡参与竞聘皆可送《深度学习基础与实践》一本,并有丰厚报酬等着您(详情可进群咨询工作人员)。
Skymind
想要和更多志同道合的人一同探索深度学习的知识,获得与大牛共同交流AI行业知识的贴心服务,及时获取AI行业最新技术更新吗?
关于“墨子沙龙”
墨子沙龙是由中国科学技术大学上海研究院主办、上海市浦东新区科学技术协会及中国科大新创校友基金会协办的公益性大型科普论坛。沙龙的科普对象为对科学有浓厚兴趣、热爱科普的普通民众,力图打造具有中学生学力便可以了解当下全球最尖端科学资讯的科普讲坛。