82、TensorFlow教你如何构造卷积层
''' Created on 2017年4月22日 @author: weizhen ''' import tensorflow as tf #通过tf.get_variable的方式创建过滤器的权重变量和偏置变量,上面介绍了卷积层 #的参数个数只和过滤器的尺寸、深度以及当前层节点矩阵的深度有关,所以这里声明的参数变量 #是一个四维矩阵,前面两个维度代表了过滤器的尺寸,第三个维度表示了当前层的深度。第四个维度表示过滤
白话机器学习的数学笔记系列1算法回归_一元回归+多项式回归
纯小白的第一本入门书目前这个系列的笔记已经在onenote上写完啦先发一篇试试吧~如果受欢迎就把后续的都发了
图像处理卷积算法实现
今天心血来潮,想把传统的卷积算法实现一份不采用各种加速方式,仅优化算法逻辑的纯净版本。 写完发现性能还可以,特发出来分享之,若有博友在此基础上,进行了再次优化,那就更赞了。 算法很简单: inline unsigned char Clamp2Byte(int n) { return (((255 - n) >> 31) | (n & ~(n >> 31))); } void Convoluti
目标分类和检测入门
目标分类、定位、检测和分割 分类:是什么 定位:在哪里?是什么?(单目标或数量固定的多目标) 检测:在哪里?分别是什么?(数量不固定的多目标) 分割:在检测的基础上,不再使用bounding box框出目标的位置,而是将目标和背景分离,找出目标的轮廓线。(图片来自博客) 目标定位的思路 看作回归问题。对于单个目标的定位,比较简单的思想就是直接看作是关于目标矩形框位置的回归问题,也就是把刻画矩形框位置信息的4个参数作为模型的输出进行
到底什么是生成对抗式网络GAN
转载文章网址:https://www.msra.cn/zh-cn/news/features/gan-20170511,如有侵权,请告知,我立即删除转载的文章。 男:哎,你看我给你拍的好不好? 女:这是什么鬼,你不能学学XXX的构图吗? 男:哦 …… 男:这次你看我拍的行不行? 女:你看看你的后期,再看看YYY的后期吧,呵呵 男:哦 …… 男:这次好点了吧? 女:呵呵,我看你这辈子是学不会摄影了 …… 男:这次呢? 女:嗯,我拿去当
[Deep-Learning-with-Python]基于Keras的房价预测
回归问题预测结果为连续值,而不是离散的类别。 波士顿房价数据集 通过20世纪70年代波士顿郊区房价数据集,预测平均房价;数据集的特征包括犯罪率、税率等信息。数据集只有506条记录,划分成404的训练集和102的测试集。每个记录的特征取值范围各不相同。比如,有01,112以及0~100的等等。 加载数据集 from keras.datasets import boston_housing (train_data,train_targ
理解GAN生成对抗网络
GAN (Generative Adversarial Net) 生成对抗网络主要用于生成一些数据,并且生成的数据能够使得人无法分辨出哪些是GAN生成的,哪些是真实数据。这里我们举一个例子形象说一下GAN大概的工作原理: 我们以我们平常生活中的钱为例:钱有真钱和假钱之分,我们得想办法让这个假钱做的更像真钱。首先我们得有一个做假钱的人,我们假设他为G(生成网络),这个G学习做假钱的过程,也就是X(白纸)
不要怂,就是GAN (生成式对抗网络) (二):数据读取和操作
前面我们了解了 GAN 的原理,下面我们就来用 TensorFlow 搭建 GAN(严格说来是 DCGAN,如无特别说明,本系列文章所说的 GAN 均指 DCGAN),如前面所说,GAN 分为有约束条件的 GAN,和不加约束条件的GAN,我们先来搭建一个简单的 MNIST 数据集上加约束条件的 GAN。 首先下载数据:在 /home/your_name/TensorFlow/DCGAN/ 下建立文件夹 data/mnist,从 h
目标检测中的组件
一、数据增强方式 random erase CutOut MixUp CutMix 色彩、对比度增强 旋转、裁剪 解决数据不均衡: Focal loss hard negative example mining OHEM S-OHEM GHM(较大关注easy和正常hard样本,较少关注outliners) PISA 二、常用backbone VGG ResNet(ResNet18,50,100) ResNeXt De
小白学习之pytorch框架(1)-torch.nn.Module+squeeze(unsqueeze)
我学习pytorch框架不是从框架开始,从代码中看不懂的pytorch代码开始的 可能由于是小白的原因,个人不喜欢一些一下子粘贴老多行代码的博主或者一些弄了一堆概念,导致我更迷惑还增加了畏惧的情绪(个人感觉哈),我觉得好像好多人都是喜欢给说的明明白白的,难听点就是嚼碎了喂我们。这样也行啊(有点恶心哈),但是有些东西即使嚼碎了我们也弄不明白,毕竟有一些知识是很难的(嚼碎后的知识我们都难以理解) 我知道了这些,也在尽力写博客时写
Keras之函数式(Functional)模型
函数式(Functional)模型 我们起初将Functional一词译作泛型,想要表达该类模型能够表达任意张量映射的含义,但表达的不是很精确,在Keras2里我们将这个词改移为“函数式”,函数式模型称作Functional,但它的类名是Model,因此有时候也用Model来代表函数式模型。 Keras函数式模型接口是用户定义多输出模型、非循环有向模型或具有共享层的模型等复杂模型的途径。一句话,只要你的模型不是类似VGG一样一条路走
linux下caffe的命令运行脚本
参考:https://www.cnblogs.com/denny402/p/5076285.html 首先编译: make -j8 make pycaffe 注:下面的--solver=.... 等价于 -solver .... ########################## -solver:必选参数 ###################set -e./build/tools/caffe train --solver
TensorFlow 之 高层封装slim,tflearn,keras
tensorflow资源整合 使用原生态TensorFlow API来实现各种不同的神经网络结构。虽然原生态的TensorFlow API可以很灵活的支持不同的神经网络结构,但是其代码相对比较冗长,写起来比较麻烦。为了让TensorFlow用起来更加方便,可以使用一些TensorFlow的高层封装。 目前对TensorFlow的主要封装有4个: TensorFlow-Slim TensorFlow-Slim使用方法说
卷积神经网络-Python、TensorFlow和Keras p.3的深度学习基础
欢迎来到一个教程,在这里我们将讨论卷积神经网络(Convnet和CNN),使用其中的一个用我们在上一教程中构建的数据集对狗和猫进行分类。 卷积神经网络通过它在图像数据中的应用而获得了广泛的应用,并且是目前检测图像内容或包含在图像中的最先进的技术。 CNN的基本结构如下:Convolution -> Pooling -> Convolution -> Pooling -> Fully Connected Lay
什么是人工智能,它能解决什么问题?
作为人工智能概论的第一章,本篇的主题将探讨“什么是人工智能”,以及“人工智能能解决什么问题?都有什么实际用处”。 在本篇内容中,我们将从以下几个主题开始了解人工智能: 什么是人工智能? 人工智能的两大类型。 人工智能的主要应用。 什么是人工智能? 你是否认为人工智能是近几年才突然冒出来的概念? 其实不然,“人工智能”一词其实早在1956年就由达特茅斯大学(Dartmouth)教授约翰·麦卡锡(John McCarthy)首创。 在发