炼数成金 商业智能深度学习
订阅

深度学习

比Transformer好用!前谷歌大脑员工创业公司获4000万美元融资,Hinton、李飞飞等支持
比Transformer好用!前谷歌大脑员工创业公司获4000万美元融资,Hinton、李飞飞等支持
近日,自然语言处理 (NLP) 预训练模型提供商 Cohere 宣布了 4000 万美元的 A 轮融资。此次融资由 Index Ventures 领投,Section 32、Radical Ventures等参投。Index 合伙人 Mike Volpi 加入 Cohere 董事会。Cohere在 ...
DeepMind开源的AlphaFold怎么用?打开Colab就能在线用
DeepMind开源的AlphaFold怎么用?打开Colab就能在线用
借助 Colab,你可以在线使用 AlphaFold 的一个简化版本。前段时间,《自然》杂志刊登了 DeepMind 的两篇论文,介绍了该公司在蛋白质结构预测方向的最新进展。研究表明,DeepMind 的 AlphaFold 所预测的蛋白质结构已 ...
我眼中的深度学习编译器
我眼中的深度学习编译器
在高性能方面,TensorFlow 对计算图提供一系列优化操作,还可以对没有数据依赖的节点进行异步发射。除此之外,还可以使用深度学习加速处理器对特定算子进行加速。而对这种新硬件的支持考验的是框架的可移植性,这需 ...
无需额外数据,首次实现ImageNet 87.1% 精度,颜水成团队开源VOLO
无需额外数据,首次实现ImageNet 87.1% 精度,颜水成团队开源VOLO
近十年来,计算机视觉识别任务一直由卷积神经网络 (CNN) 主导。尽管最近流行的视觉 Transformer 在基于 self-attention 的模型中显示出巨大的潜力,但是在没有提供额外数据的情况下,比如在 ImageNet 上的分类任务, ...
Hinton的胶囊网络不太行?CVPR Oral论文:不比卷积网络更「强」
Hinton的胶囊网络不太行?CVPR Oral论文:不比卷积网络更「强」
在一篇 CVPR 2021 Oral 论文中,来自慕尼黑大学、微软亚研的研究者对胶囊网络和卷积网络进行了全面的对比。一系列实验表明,一些被认为对胶囊网络(CapsNet)至关重要的设计组件实际上会损害它的鲁棒性,而另一些设 ...
告别「复制+粘贴」,基于深度学习的OCR,实现PDF转文本
告别「复制+粘贴」,基于深度学习的OCR,实现PDF转文本
传统的讲座通常伴随着一组 pdf 幻灯片。一般来说,想要对此类讲座做笔记,需要从 pdf 复制、粘贴很多内容。最近,来自 K1 Digital 的高级机器学习工程师 Lucas Soares 一直在尝试通过使用 OCR(光学字符识别)自动转 ...
PyTorch、TensorFlow最新版本对比,2021年了你选谁?
PyTorch、TensorFlow最新版本对比,2021年了你选谁?
自深度学习重新获得公认以来,许多机器学习框架层出不穷,争相成为研究人员以及行业从业人员的新宠。从早期的学术成果 Caffe、Theano,到获得庞大工业支持的 PyTorch、TensorFlow,许多研究者面对大量的学习框架不知 ...
图神经网络从入门到入门
图神经网络从入门到入门
近年来,深度学习领域关于图神经网络(Graph Neural Networks,GNN)的研究热情日益高涨,图神经网络已经成为各大深度学习顶会的研究热点。GNN处理非结构化数据时的出色能力使其在网络数据分析、推荐系统、物理建模 ...
打脸!MLP-Mixer 里隐藏的卷积
打脸!MLP-Mixer 里隐藏的卷积
最近 Google 的一篇文章 MLP-Mixer 很火,号称用只用 MLP 来做 CV 任务。不过显而易见的是,它在很多地方用到了卷积,只是没有说自己是在做卷积,而是用一堆奇奇怪怪的词来描述自己在做的运算。MLP-Mixer 的卷积本质 ...
CV圈杀疯了!谷歌之后,清华、牛津等学者又发表三篇MLP相关论文,LeCun也在发声
CV圈杀疯了!谷歌之后,清华、牛津等学者又发表三篇MLP相关论文,LeCun也在发声
5月4日,谷歌团队在arXiv上提交了一篇论文《MLP-Mixer: An all-MLP Architecture for Vision》,引起了广大计算机视觉的研究人员的热烈讨论。MLP(多层感知机)真的有那么“丝滑”吗,它究竟有多大的潜力?一石激起 ...
第一视角:深度学习框架这几年
第一视角:深度学习框架这几年
Google Brain每年会组织一次Moonshots提案,许多后来比较成功的项目都是这样孵化出来的,比如AutoML,Neural Machine Translation等等。团队成员会提出一些当时技术比较难达到的项目,大家组成类似兴趣小组的形式投 ...
MLP回归,无需卷积、自注意力,纯多层感知机视觉架构媲美CNN、ViT
MLP回归,无需卷积、自注意力,纯多层感知机视觉架构媲美CNN、ViT
当前,卷积神经网络(CNN)和基于自注意力的网络(如近来大火的 ViT)是计算机视觉领域的主流选择,但研究人员没有停止探索视觉网络架构的脚步。近日,来自谷歌大脑的研究团队(原 ViT 团队)提出了一种舍弃卷积和自 ...
Facebook新AI模型SEER实现自监督学习,LeCun大赞最有前途
Facebook新AI模型SEER实现自监督学习,LeCun大赞最有前途
无需标签,自我分析数据!Facebook的新AI模型在革计算机视觉的命?刚刚,Facebook宣布了一个在10亿张图片上训练的AI模型——SEER,是自监督(Self-supervised)的缩写。该模型包含10亿个参数,可以在几乎没有标签帮 ...
来自Facebook AI的多任务多模态的统一Transformer:向更通用的智能迈出了一步
来自Facebook AI的多任务多模态的统一Transformer:向更通用的智能迈出了一步
Transformer架构在自然语言处理和其他领域的机器学习(ML)任务中表现出了巨大的成功,但大多仅限于单个领域或特定的多模态领域的任务。例如,ViT专门用于视觉相关的任务,BERT专注于语言任务,而VILBERT-MT只用于相关 ...
一文详解深度学习最常用的 10 个激活函数
一文详解深度学习最常用的 10 个激活函数
激活函数(Activation Function)是一种添加到人工神经网络中的函数,旨在帮助网络学习数据中的复杂模式。类似于人类大脑中基于神经元的模型,激活函数最终决定了要发射给下一个神经元的内容。在人工神经网络中,一 ...

热门频道

  • 大数据
  • 商业智能
  • 量化投资
  • 科学探索
  • 创业

社区热帖

     

    GMT+8, 2021-9-26 13:59 , Processed in 0.121169 second(s), 16 queries .