C++深拷贝和浅拷贝(深复制和浅复制)完全攻略
对于基本类型的数据以及简单的对象,它们之间的拷贝非常简单,就是按位复制内存。例如: class Base{ public: Base(): m_a(0), m_b(0){ } Base(int a, int b): m_a(a), m_b(b){ } private: int m_a; int m_b; }; int main(){ int a = 10; int b = a; //拷贝 Base ob
一文让你彻底了解卷积神经网络
介绍 卷积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。它包括卷积层(convolutional layer)和池化层(pooling layer)。 对比:卷积神经网络、全连接神经网络 左图:全连接神经网络(平面) 右图:卷积神经网络(立体) 在卷积神经网络中有一个重要的概念:深度 卷积层 卷积:
机器学习004-Markov Property
Markov property: 在一连串随机事件中,事件的概率只和当前状态有关,而与前面的事件无关。 Markov chain: 满足Markov property的随机模型 条件随机场 条件随机场(conditional random field,CRF)是给定一组输入随机变量条件下另一组输出随机变量的条件概率分布模型,其特点是假设输出随机变量构成马尔可夫随机场。 概率无向图模型(马尔科夫随机场) 模型定义 成对、局部、全局马尔
对机器学习的一些理解【学术篇】
写在前面: 在SenseTime工作了大概3个月,接触了机器学习的冰山一角,整理下这段时间的理解。 另外,这里说的机器学习,如无特殊说明,均指“监督学习”。 在下才疏学浅,如果又什么地方写错了,希望大神能不吝赐教(大神都不会来看我的博客吧)。 概念性总结: 这里介绍一些机器学习中常见的东西,如果你对此不感兴趣,可以直接跳到下一话题。 首先说明,机器学习的两大类型:分类和回归;分类,顾名思义,就是把一些输入分成
生成对抗网络(二)Conditional GAN讲解
生成对抗网络Conditional GAN讲解 1. Introduction 2. Multi-modal Learning For Image Labelling 3. Conditional Adversarial Nets 3.1. Generative Adversarial Nets 3.2. ConditionalAdversarialNets Reference 原文:Conditiona
机器学习之一些基本概念及符号系统
1. 一些基本概念 图1. 机器学习的基本过程 训练集(Training Set):为了研究一个变量(x)与另一个变量(y)的关系,而通过观察、测量等方式获得的一组数据。这组数据中收集了x和与之对应的y——一个数据对(x, y)。例如我们要研究房屋面积(x)和售价(y)之间的关系,每观察一套已出售的房屋,就得到一个数据对(x, y)。观察10套已出售的房屋,就可以得到10个这样的数据对,这时就得到了一个用来研究房
循环神经网络、注意力机制、Seq2Seq、Transformer与卷积神经网络(打卡2)
一、过拟合和欠拟合 接下来,我们将探究模型训练中经常出现的两类典型问题: 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。 正在上传…重新上传取消
Bi-directional Recurrent Neural Network (BRNN)双向循环神经网络
双向循环神经网络(BRNN)的基本思想是提出每一个训练序列向前和向后分别是两个循环神经网络(RNN),而且这两个都连接着一个输出层。这个结构提供给输出层输入序列中每一个点的完整的过去和未来的上下文信息。下图展示的是一个沿着时间展开的双向循环神经网络。六个独特的权值在每一个时步被重复的利用,六个权值分别对应:输入到向前和向后隐含层(w1, w3),隐含层到隐含层自己(w2, w5),向前和向后隐含层到输出层(w4, w6)。值得注意的
模型的跨界:我拿Transformer去做目标检测,结果发现效果不错
近年来,Transformer 成为了深度学习领域非常受欢迎的一种架构,它依赖于一种简单但却十分强大的机制——注意力机制,使得 AI 模型有选择地聚焦于输入的某些部分,因此推理更加高效。 Transformer 已经广泛应用于序列数据的处理,尤其是在语言建模、机器翻译等自然语言处理领域。此外,它在语音识别、符号数学、强化学习等多个领域也有应用。但令人意外的是,计算机视觉领域一直还未被 Transformer 所席卷。 为了填补
Marior去除边距和迭代内容矫正用于自然文档矫正
一、简要介绍 本文简要介绍了论文“ Marior: Margin Removal and Iterative Content Rectification for Document Dewarping in the Wild ”的相关工作。照相机捕捉到的文档图像通常会出现透视和几何变形。考虑到视觉美感较差和OCR系统性能下降,对其进行纠正具有重要的价值。最近的基于学习的方法集中关注于精确裁剪的文档图像。然而,这可能不足以克服实际挑战,包括
Caffe–solver.prototxt配置文件 参数设置及含义
####参数设置################### 1. ####训练样本### 总共:121368个batch_szie:256将所有样本处理完一次(称为一代,即epoch)需要:121368/256=475 次迭代才能完成所以这里将test_interval设置为475,即处理完一次所有的训练数据后,才去进行测试。所以这个数要大于等于475.如果想训练100代,则最大迭代次数为47500; 2. ####测试样本###同理,
tensorflow_hub预训练模型
武神教的这个预训练模型,感觉比word2vec效果好很多~只需要分词,不需要进行词条化处理总评:方便,好用,在线加载需要时间 步骤 文本预处理(去非汉字符号,jieba分词,停用词酌情处理) 加载预训练模型 可以加上attention这样的机制等 给一个简单的栗子,完整代码等这个项目开源一起给链接这里直接给模型的栗子 import tensorflow as tf import tensorflow_hub as hub #
keras图片数字识别入门AI机器学习
通过使用mnist(AI界的helloworld)手写数字模型训练集,了解下AI工作的基本流程。 本例子,要基于mnist数据集(该数据集包含了【0-9】的模型训练数据集和测试数据集)来完成一个手写数字识别的小demo。 mnist数据集,图片大小是28*28的黑白。包含了6w 训练数据和1w验证数据。 麻雀虽小五脏俱全。通过这个CV类型的demo需求,我们会学到神经网络模型。 从数据加载,到数据预处理,再到训练模型,保存模
虚构的对抗:GAN with the wind
本文授权转载自:老顾谈几何 作者:顾险峰 编辑:韩蕊 在过去的两三年中,对抗生成网络(Generative Adersarial Network GAN)获得了爆炸式的增长,其应用范围几乎涵盖了图像处理和机器视觉的绝大多数领域。其精妙独到的构思,令人拍案叫绝;其绚烂逼真的效果,令众生颠倒。一时间对抗生成网络引发了澎湃汹涌的技术风潮,纳什均衡的概念风靡了整个人工智能领域。 Goodfellow于2014年提出了GAN
基于keras中IMDB的文本分类 demo
本次demo主题是使用keras对IMDB影评进行文本分类: import tensorflow as tf from tensorflow import keras import numpy as np print(tf.__version__) imdb = keras.datasets.imdb (train_data, train_labels), (test_data, test_labels) = imd