你好,游客 登录 注册 搜索
rss订阅 手机访问 
深度学习
深度学习的局限性和未来
深度学习最令人惊讶之处就在于它十分简单。十年前,没有人指望由梯度下降方法训练的简单参数模型就可以在机器感知问题上获得惊人的结果。现在,事实证明,你只需要一个有足够多参数的模型,并且在足够大的数据集上使用梯度下降进行训练。 作者:佚名来源:雷锋网|2018-04-26 13:41 收藏  分享 有奖调研 | 1TB硬盘等你拿 AI+区块链的发展...
日期:今 14:31 作者: 点击:0
题图来自:视觉中国
最近很多海外企业之中在发生一种很有趣的改变,那就是AI正在脱离来其他部门附属品的角色,成为一个独立的部门或事业部。
先是CEO纳德拉对微软大动干戈的进行了重组,将原Windows部门重组成“设备与体验”和“云计算与人工智能平台”。很快谷歌也宣布将原来的人工智能及搜索部门一分为二,将人工智能部分独立出来,归由原...
日期:今 14:31 作者: 点击:0
上一篇文章我们引出了GoogLeNet InceptionV1的网络结构,这篇文章中我们会详细讲到Inception V2/V3/V4的发展历程以及它们的网络结构和亮点。
日期:今 14:30 作者: 点击:0
前面讲了LeNet、AlexNet和Vgg,这周来讲讲GoogLeNet。GoogLeNet是由google的Christian Szegedy等人在2014年的论文《Going Deeper with Convolutions》提出,其最大的亮点是提出一种叫Inception的结构,以此为基础构建GoogLeNet,并在当年的ImageNet分类和检测任务中获得第一,ps:GoogLeNet的取名是为了向YannLeCun的LeNet系列致敬。
日期:今 14:30 作者: 点击:1
上周我们讲了经典CNN网络AlexNet对图像分类的效果,2014年,在AlexNet出来的两年后,牛津大学提出了Vgg网络,并在ILSVRC 2014中的classification项目的比赛中取得了第2名的成绩(第一名是GoogLeNet,也是同年提出的)。在论文《Very Deep Convolutional Networks for Large-Scale Image Recognition》中,作者提出通过缩小卷积核大小来构建更深的网络。
日期:今 14:29 作者: 点击:1
  • 1/1
  • 1
内容分类