炼数成金 商业智能深度学习
订阅

深度学习

YOLOv5被禁用!Kaggle全球小麦检测竞赛结果惹争议
YOLOv5被禁用!Kaggle全球小麦检测竞赛结果惹争议
昨天Kaggle 全球小麦检测(Global Wheat Detection)比赛落下帷幕,共计2,270 支队伍参赛。比赛结束后,讨论区本该是晒成绩或者解决方案的,但却出现了大量关于"YOLOv5"的讨论。因为YOLOv5的license 是GPL 协议 ...
Facebook将Windows版PyTorch的开发维护移交给微软
Facebook将Windows版PyTorch的开发维护移交给微软
Facebook 通过 PyTorch 官方博客宣布,微软已扩大了对 PyTorch 社区的参与,现在拥有 PyTorch 在 Windows 上的开发和维护所有权。PyTorch 是基于 Torch 的开源 Python 机器学习库,由 Facebook 的人工智能研究团队开 ...
PyTorch 1.6、TensorFlow 2.3、Pandas 1.1 同日发布!都有哪些新特性?
PyTorch 1.6、TensorFlow 2.3、Pandas 1.1 同日发布!都有哪些新特性?
7月29日,PyTorch 1.6、TenorFlow 2.3、Pandas 1.1恰巧同时发布。这三个库都是定期滚动更新,大约每个季度更新一次小版本。在AI内卷化达到“灰飞烟灭”的今日,仅仅会对PyTorch或TensorFlow进行调用已经不具有竞争力 ...
MIT研究人员发现 ImageNet 数据集存在系统性缺陷
MIT研究人员发现 ImageNet 数据集存在系统性缺陷
“我们的分析明确指出,嘈杂的数据收集管道是如何导致结果基准与其作为代理的实际任务之间的系统性不一致的”, 麻省理工学院的研究人员 在一篇题为《从 ImageNet 到图像分类:基准测试的情景化进展》的论文中写道, ...
Transformer模型深度解读
Transformer模型深度解读
「Transformer」 是2017年的一篇论文《Attention is All You Need》提出的一种模型架构,这篇论文里只针对机器翻译这一种场景做了实验,全面击败了当时的SOTA,并且由于encoder端是并行计算的,训练的时间被大大缩短 ...
那些轻轻拍了拍Attention的后浪们
那些轻轻拍了拍Attention的后浪们
Reformer的论文选择了局部敏感哈希的angular变体。它们首先约束每个输入向量的L2范数(即将向量投影到一个单位球面上),然后应用一系列的旋转,最后找到每个旋转向量所属的切片。这样一来就需要找到最近邻的值,这就 ...
深度学习之父Hinton:下一代神经网络
深度学习之父Hinton:下一代神经网络
在机器学习中,有三种不同类型的学习模式:首先是监督学习,即给定输入向量学习预测输出。然后是强化学习,通过学习选择动作以获得最大奖励。最后是无监督学习,其目的是学习输入的内部表征,但是从数学上定义什么是 ...
深度学习败于“捷径”
深度学习败于“捷径”
深度学习的未来在哪里?这一话题已经有过了无数讨论,大部分讨论都承认当前的深度学习还不是真正的智能,必须转向理解、常识。但是只看当前AI成功的案例,似乎还无法窥探理解。近日,来自多伦多大学和图宾根大学的研 ...
吊打一切:YOLOv4的tricks汇总
吊打一切:YOLOv4的tricks汇总
即使是目标检测在过去几年开始成熟,竞争仍然很激烈。如下所示,YOLOv4声称拥有最先进的精度,同时保持高处理帧速率。它在 MS COCO数据集上,使用Tesla V100以接近65 FPS推理速度获得精度43.5% AP (65.7% AP₅& ...
11 种主要神经网络结构图解
11 种主要神经网络结构图解
随着深度学习的快速发展,人们创建了一整套神经网络结构来解决各种各样的任务和问题。尽管有无数的神经网络结构,这里有十一种对于任何深度学习工程师来说都应该理解的结构,可以分为四大类: 标准网络、循环网络、卷 ...
如何理解YOLO:YOLO详解
如何理解YOLO:YOLO详解
YOLO将物体检测作为回归问题求解。基于一个单独的end-to-end网络,完成从原始图像的输入到物体位置和类别的输出。Faster rcnn使用RPN(region proposal network)卷积网络替代rcnn/fast rcnn的selective search模块 ...
YOLOv5是真的吗?并不比YOLOv4强,不配这个名字
YOLOv5是真的吗?并不比YOLOv4强,不配这个名字
首先简单介绍一下 YOLO。YOLO 是一个实时目标检测框架,其意思是 You Only Look Once(你只看一次)。也就是说待检测的目标图像仅会通过全卷积神经网络(FCNN)一次。Ultralytics 的创始人兼 CEO Glenn Jocher 在 Gi ...
线性Attention的探索:Attention必须有个Softmax吗?
线性Attention的探索:Attention必须有个Softmax吗?
某种意义上来说,Reformer 也是稀疏 Attention 的一种,只不过它的稀疏 pattern 不是事先指定的,而是通过 LSH(Locality Sensitive Hashing)技术(近似地)快速地找到最大的若干个 Attention 值,然后只去计算那若 ...
凭什么相信你,我的CNN模型?关于CNN模型可解释性的思考
凭什么相信你,我的CNN模型?关于CNN模型可解释性的思考
关于CNN模型的可解释问题,很早就有人开始研究了,姑且称之为CNN可视化吧。比较经典的有两个方法,反卷积(Deconvolution)和导向反向传播(Guided-backpropagation),通过它们,我们能够一定程度上“看到”CNN模型中较 ...
Attention注意力机制的前世今身
Attention注意力机制的前世今身
注意力机制(Attention Mechanism)最早应用 CV 任务上 ,但最初的论文引用,作者没有找到,如有知晓的,还望在评论中给出。在 NLP 中的最早应用,应该是文献 ,机器翻译中对齐与翻译联合学习。直观地说,注意力机制 ...

热门频道

  • 大数据
  • 商业智能
  • 量化投资
  • 科学探索
  • 创业

即将开课

社区热帖

     

    GMT+8, 2020-8-11 02:20 , Processed in 0.097635 second(s), 16 queries .