GAN学习笔记:生成对抗网络
看了Ian大神的论文,学习一下GAN。 一、基本介绍 生成对抗网络由两部分组成:Generatative model 和 Discriminative model,以下分别简称为G 和 D。 在GAN中,训练集是无标签数据集data,G接受数据z,产生G(z),而D判定G产生的数据是来自于真实数据data还是由G产生的。在训练过程中,双方不断优化自己,直到D无法再区分真实数据和G产生的数据,这时,双方达到了那什均衡。可以说,G相当于
机器学习(五):混合高斯聚类(求聚类标签)+PCA降维(3维降2维)习题
使用混合高斯模型 GMM,计算如下数据点的聚类过程:\(Data = np.array([1,2,6,7])\) 均值初值为:\(\mu_1, \mu_2 = 1, 5\) 权重初值为:\(w_1, w_2 = 0.5, 0.5\) 方差:\(std_1, std_2 = 1, 1\)\(K = 2\) 10 次迭代后数据的聚类标签是多少? 采用python代码实现: from scipy im
循环神经网络(RNN)模型与前向反向传播算法
在前面我们讲到了DNN,以及DNN的特例CNN的模型和前向反向传播算法,这些算法都是前向反馈的,模型的输出和模型本身没有关联关系。今天我们就讨论另一类输出和模型间有反馈的神经网络:循环神经网络(Recurrent Neural Networks ,以下简称RNN),它广泛的用于自然语言处理中的语音识别,手写书别以及机器翻译等领域。 1. RNN概述 在前面讲到的DNN和CNN中,训练样本的输入和输出是比较的
Ubuntn16.04+OpenCV3.1+CUDA8.0+cudnn5.1+caffe配置及问题集锦
一开始安装好ubuntn16.04后,先安装的opencv3.1,再自己安装的390驱动,cuda8.0和cudnn,之后配置caffe一直不成功,出现了google:protobuf未引用,还有不支持std=C++11的错误,尝试了很多方法,耗时两天。。。后面果断重装系统,按照王英豪博主的ubuntn16.04 Caffe安装步骤记录(超详尽)一步一步来,一晚上就安装配置完成,在此特别感谢博主超级详尽的步骤。 配置硬件:B250
致盲目标检测算法,阿里&清华发起 “对抗攻击” 挑战赛!
疫情期间在家精进技术却遭遇服务器短缺?想畅快体验算力自由,挑战高难度目标检测攻击场景吗?这里有一个完美实现上述目标,还能获得阿里校招绿通、万元奖金、权威证书和高定礼品,更可去顶会当演讲人的比赛。 阿里安全和清华大学联合举办,数据挖掘顶会CIKM强力支持的CIKM2020安全AI挑战者计划第四期开赛。在第四期目标检测领域MS COCO经典数据集上,场景更通用,攻击自由度更大,任务更复杂,学术价值更高! ·什么是安全AI挑战者计划
AFM模型 pytorch示例代码
1.AFM模型pytorch实现。 $hat{y}_{AFM}=w_{0} + sum_{i=1}^{n}w_{i}x_{i}+p^{T}sum_{i=1}^{n-1}sum_{j=i+1}^{n}a_{ij}(v_{i}v_{j})x_{i}x_{j}$ $a_{ij}^{'}=h^{T}Relu(W(v_{i}v_{j})x_{i}x_{j}+b)$ $a_{ij}=frac{exp(a_{ij}^{'})}{sum_{i
小记tensorflow-1:tf.nn.conv2d 函数介绍
tf.nn.conv2d函数介绍 Input: 输入的input必须为一个4d tensor,而且每个input的格式必须为float32 或者float64. Input=[batchsize,image_w,image_h,in_channels],也就是[每一次训练的batch数,图片的长,图片的宽,图片的通道数]。 Filter: 和input类似。样式为:[ 卷积核的长,卷积核的宽,输入的通道,输出的通道] Str
机器学习笔记1:机器学习中的一些基本概念
目录 机器学习资料地址 机器学习的相关概念 1.什么是机器学习? 2.监督学习和非监督学习的区别? 3.机器学习的流程 4.数据预处理 5. 第一次作业 KNN相关的概念 1.KNN的关键步骤? 2.如何寻找决策边界? 3.交叉验证中要注意的问题? 4. 5折交叉验证? 5.如何处理大数据量? 6. 如何处理数据之间的相关性 7. 怎样处理样本的重要性 8.Kernel Trick? 机器学习中的KNN的决策边
编程作业1.1——sklearn机器学习算法系列之LinearRegression线性回归
知识点 scikit-learn 对于线性回归提供了比较多的类库,这些类库都可以用来做线性回归分析。 我们也可以使用scikit-learn的线性回归函数,而不是从头开始实现这些算法。 我们将scikit-learn的线性回归算法应用于编程作业1.1的数据,并看看它的表现。 一般来说,只要觉得数据有线性关系,LinearRegression类是我们的首选。如果发现拟合或者预测的不好,再考虑用其他的线性回归库。如果是学习线性回归,推
TextCNN文本分类(keras实现)
前言: 深度学习模型在计算机视觉与语音识别方面取得了卓越的成就,在 NLP 领域也是可以的。将卷积神经网络CNN应用到文本分类任务,利用多个不同size的kernel来提取句子中的关键信息(类似 n-gram 的关键信息),从而能够更好地捕捉局部相关性。 文本分类是自然语言处理领域最活跃的研究方向之一,目前文本分类在工业界的应用场景非常普遍,从新闻的分类、商品评论信息的情感分类到微博信息打标签辅助推荐系统,了解文本分类技术是NLP初
[生成对抗网络GAN入门指南](6)WassersteinGAN-GP
本篇blog的内容基于原始论文WassersteinGAN-GP(NIPs2017)和《生成对抗网络入门指南》第五章。 一、权重裁剪的问题(为什么要改进GP) WGAN理论中前提条件是1-Liposchitz条件,而对应使用的方法是权重剪裁,希望把网络固定在一个大小范围内。 但是后来发现权重剪裁有许多问题,所以改进WGAN-GP,使用一种叫做梯度惩罚(gradient penalty)方法来代替权重剪裁
keras 序列模型
教程概述本教程分为5个部分; 他们是: TimeDistributed层序列学习问题用于序列预测的一对一LSTM用于序列预测的多对一LSTM(不含TimeDistributed)用于序列预测的多对多LSTM(带TimeDistributed)环境本教程假设你已经安装了带SciPy的Python 2或Python 3开发环境,以及NumPy和Pandas。 该教程还假设已经安装了scikit-learn和keras v2.0 +,并且
目标检测论文解读5——YOLO v1
背景 之前热门的目标检测方法都是two stage的,即分为region proposal和classification两个阶段,本文是对one stage方法的初次探索。 方法 首先看一下模型的网络结构,输入的原图片,经过24个卷积层提取特征,全连接层输出一个7*7*30的tensor,这个tensor里面就包含我们预测的结果了。 那么这个7*7*30的tensor包含哪些信息呢? 首先,7*7
自适应线性神经网络Adaline的python实现详解
下面是关于“自适应线性神经网络Adaline的Python实现详解”的完整攻略。 自适应线性神经网络Adaline 自适应线性神经网络(Adaline)是一种单层神经网络,用于解决二分类问题。Adaline的主要思想是使用线性函数对输入进行加权求和,并将结果与阈值进行比较,以确定输出。以下是Adaline的Python实现详解: 步骤1:准备数据 首先需要准备数据。可以使用sklearn库中的make_classification函数生成
大改Yolo框架 | 能源消耗极低的目标检测新框架(附论文下载)
1.前言 在过去的十年中,深度神经网络(DNNs)在各种应用中表现出显著的性能。当我们试图解决更艰难和最新的问题时,对计算和电力资源的需求增加已经成为不可避免的。 Spiking neural networks(SNNs)作为第三代神经网络,由于其事件驱动(event-driven)和低功率特性,引起了广泛的兴趣。 然而,SNN很难训练,主要是因为它们的神经元复杂的动力学和不可微的尖峰操作。此外,它们