炼数成金 商业智能深度学习
订阅

深度学习

功成身退:Yoshua Bengio宣布即将终止Theano的开发和维护
功成身退:Yoshua Bengio宣布即将终止Theano的开发和维护
今天,Theano的开发与维护者之一 Pascal Lamblin 贴出了一封邮件:Yoshua Bengio 宣布在发布Theano 1.0版本之后,终止Theano的开发和维护。Theano这些年来所提出的大多数创新,现在已经被其他框架采用和完善。例如, ...
文森特系统用深度学习将涂鸦变成艺术创作
文森特系统用深度学习将涂鸦变成艺术创作
如果你喜欢艺术但下笔皆为灵魂画作,那么今天要介绍的这个项目肯定合你心意。AI研究者创建了一个名叫“文森特”(Vincet)的系统——是的,就是梵高那个文森特——使用深度学习,将简笔画转变为“艺术品”。用户在平 ...
被Geoffrey Hinton抛弃,反向传播为何饱受质疑?
被Geoffrey Hinton抛弃,反向传播为何饱受质疑?
现在的深度学习发展似乎已经陷入了大型化、深度化的怪圈,我们设计的模型容易被对抗样本欺骗,同时又需要大量的训练数据——在无监督学习上我们取得的突破还很少。作为反向传播这一深度学习核心技术的提出者之一,Ge ...
如何优雅地用TensorFlow预测时间序列:TFTS库详细教程
如何优雅地用TensorFlow预测时间序列:TFTS库详细教程
如何用TensorFlow结合LSTM来做时间序列预测其实是一个很老的话题,然而却一直没有得到比较好的解决。如果在Github上搜索“tensorflow time series”,会发现star数最高的tgjeon/TensorFlow-Tutorials-for-Time-Serie ...
全球最大的3D数据集公开了!标记好的10800张全景图
全球最大的3D数据集公开了!标记好的10800张全景图
一路走来,Matterport见证了3D数据集在深度学习多领域的巨大力量。我们在这个领域研究了很久,希望将一部分数据分享给研究者使用。令人兴奋的是,斯坦福、普林斯顿、TUM等的研究人员联手给大量的空间打了些标签,并 ...
6张图像vs13000张图像,超越2013 Kaggle猫狗识别竞赛领先水平
6张图像vs13000张图像,超越2013 Kaggle猫狗识别竞赛领先水平
2013年,Kaggle举办过一个很受欢迎的猫狗识别竞赛(Dogs vs. Cats)。比赛的目标是训练一种能够检测图像中是否包含猫或者狗的算法。当时,正如比赛官网宣布的,在使用13000张猫和狗的图像进行训练后,最先进的算法分 ...
40张图看懂扑克AI对抗人类30年历史,解密冷扑大师前世今生
40张图看懂扑克AI对抗人类30年历史,解密冷扑大师前世今生
2017年是AI在扑克上取得突破的一年,在AI的发展历史上,具有里程碑的意义。1月,卡耐基梅隆大学的 AI 程序在“一对一不限注”的扑克比赛中,击败了一组世界级的德州扑克职业选手。出乎所有人的意外,这一程序对人类 ...
神经网络训练中,Epoch、Batch Size和迭代傻傻分不清?
神经网络训练中,Epoch、Batch Size和迭代傻傻分不清?
你肯定经历过这样的时刻,看着电脑屏幕抓着头,困惑着:「为什么我会在代码中使用这三个术语,它们有什么区别吗?」因为它们看起来实在太相似了。为了理解这些术语有什么不同,你需要了解一些关于机器学习的术语,比 ...
浅析 Hinton 最近提出的 Capsule 计划
浅析 Hinton 最近提出的 Capsule 计划
Hinton 以“深度学习之父” 和 “神经网络先驱” 闻名于世,其对深度学习及神经网络的诸多核心算法和结构(包括“深度学习”这个名称本身,反向传播算法,受限玻尔兹曼机,深度置信网络,对比散度算法,ReLU激活单元 ...
哈佛大学提出在云、边缘与终端设备上的分布式深度神经网络DDNN
哈佛大学提出在云、边缘与终端设备上的分布式深度神经网络DDNN
近年来,深度神经网络在多种应用上取得了极大的成功,网络架构也变得越来越深。以卷积神经网络为例,从 1998 年 LeNet 的 5 层,发展到 2015 年产生了 152 层的 ResNet。在网络架构变化的同时,包括物联网在内的终端 ...
“信息瓶颈”理论揭示深度学习本质,Hinton说他要看1万遍
“信息瓶颈”理论揭示深度学习本质,Hinton说他要看1万遍
利用深度神经网络的机器已经学会了交谈、开车,在玩视频游戏和下围棋时击败了世界冠军,还能做梦、画画,帮助进行科学发现,但同时它们也深深地让其发明者困惑,谁也没有料到所谓的“深度学习”算法能做得这么好。没 ...
揭开深度学习黑箱:希伯来大学计算机科学教授提出「信息瓶颈」
揭开深度学习黑箱:希伯来大学计算机科学教授提出「信息瓶颈」
耶路撒冷希伯来大学的计算机与神经科学家 Naftali Tishby 提出了一项名为「信息瓶颈」(Information Bottleneck)的新理论,有望最终打开深度学习的黑箱,以及解释人脑的工作原理。这一想法是指神经网络就像把信息挤 ...
加强深度学习能力以简化设计、训练和部署模型
加强深度学习能力以简化设计、训练和部署模型
MATLAB Release 2017b (R2017b) 今日正式推出,其中包括 MATLAB 和 Simulink 的若干新功能、六款新产品以及对其他 86 款产品的更新和修复补丁。此发行版还添加了新的重要的深度学习功能,可简化工程师、研究人员及其 ...
128篇论文,21大领域,深度学习最值得看的资源全在这了
128篇论文,21大领域,深度学习最值得看的资源全在这了
对于大多数想上手深度学习的小伙伴来说,“我应当从那篇论文开始读起?”这是一个亘古不变的话题。而对那些已经入门的同学来说,了解一下不同方向的论文,也是不时之需。有没有一份完整的深度学习论文导引,让所有人 ...
完全基于卷积神经网络的seq2seq
完全基于卷积神经网络的seq2seq
今天要讲的一个模型是由Facebook人工智能研究院提出来的完全基于卷积神经网络的seq2seq框架,seq2seq我在之前的推送中已经讲过好多次了,传统的seq2seq模型是基于RNN来实现的,特别是LSTM,这就带来了计算量复杂的问 ...

热门频道

  • 大数据
  • 商业智能
  • 量化投资
  • 科学探索
  • 创业

即将开课

社区热帖

     

    GMT+8, 2018-5-23 16:42 , Processed in 0.114998 second(s), 16 queries .