Simple AI
首页
归档
分类
标签
关于
文档
TensorFlow 2系列教程
TensorFlow-原生写法之CNN实现手写数字识别
TensorFlow四种写法之一:原生写法代码:#!/usr/bin/env python # -*- coding: utf-8 -*- # @Time : 2018/8/23 16:49 # @Author : Seven # @Site : # @File : CNN-native.py # @Software: PyCharm # 0.导入环境 from tens
2018-08-27
TensorFlow
深度学习
卷积神经网络
TensorFlow
原生写法
TensorFlow-slim之CNN实现手写数字识别
TensorFlow四种写法之三:Slim代码:#!/usr/bin/env python # -*- coding: utf-8 -*- # @Time : 2018/8/23 19:40 # @Author : Seven # @Site : # @File : CNN-slim.py # @Software: PyCharm # 0.导入环境 from tensor
2018-08-27
TensorFlow
深度学习
卷积神经网络
TensorFlow
slim
TensorFlow实现卷积神经网络-AlexNet
AlexNet背景AlexNet是在2012年被发表的一个经典之作,并在当年取得了ImageNet最好成绩,也是在那年之后,更多的更深的神经网路被提出,比如优秀的vgg,GoogleLeNet. 其官方提供的数据模型,准确率达到57.1%,top 1-5 达到80.2%. 这项对于传统的机器学习分类算法而言,已经相当的出色。 框架介绍:AlexNet的结构模型如下: 示例代码:AlexNet实现
2018-08-25
TensorFlow
深度学习
神经网络
卷积神经网络
TensorFlow
AlexNet
TensorFlow实现卷积神经网络-LeNet
LeNet5LeNet5 诞生于 1994 年,是最早的卷积神经网络之一,并且推动了深度学习领域的发展。自从 1988 年开始,在许多次成功的迭代后,这项由 Yann LeCun 完成的开拓性成果被命名为 LeNet5(参见:Gradient-Based Learning Applied to Document Recognition)。 LeNet5 的架构基于这样的观点:图像的特征分布在整
2018-08-24
TensorFlow
深度学习
神经网络
卷积神经网络
TensorFlow
LeNet
TensorFlow实现简单的卷积神经网络-CNN
环境设定import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' 数据准备# 使用tensorflow自带的工具加载MNIST手写数字集合 mnist = input_data.read
2018-08-23
TensorFlow
深度学习
神经网络
卷积神经网络
TensorFlow
神经网络之卷积神经网络反向传播算法
回顾DNN的反向传播算法需要在理解深度神经网络的反向传播算来做预先理解,见神经网络入门-反向传播所总结的反向传播四部曲: 反向传播的四项基本原则:基本形式: $\delta_i^{(L)}= \bigtriangledown_{out} E_{total} \times \sigma^{\prime}(net_i^{(L)}) $ $\delta^{(l)} = \sum_j \delta_j
2018-08-22
深度学习
深度学习
神经网络
卷积神经网络
反向传播
神经网络之卷积神经网络
卷积神经网络(Convolutional Neural Network, CNN)卷积神经网络是近年来广泛应用于模式识别、图像处理等领域的一种高效识别算法,它具有结构简单、训练参数少和适应性强等特点。 卷积神经网络是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。 卷积神经网络由一个或多个卷积计算层和顶端的全连接层(经典神经网络)组成,同时也包括关联
2018-08-21
深度学习
深度学习
神经网络
卷积神经网络
TensorFlow实现简单的深度神经网络-DNN
环境设定import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' 数据准备# 使用tensorflow自带的工具加载MNIST手写数字集合 mnist = input_data.read
2018-08-16
TensorFlow
深度学习
神经网络
TensorFlow
深度神经网络
神经网络入门-反向传播python实现
反向传播(back propagation)算法python实现根据上一章所推导的反向传播(back propagation)算法所示例代码#!/usr/bin/env python # -*- coding: utf-8 -*- # @Time : 2018/8/15 21:32 # @Author : Seven # @Site : # @File : bp.py # @
2018-08-15
深度学习
深度学习
神经网络
反向传播
python
神经网络入门-反向传播
反向传播(back propagation)算法推导 定义损失函数:$E_{total}=\frac12 (y-outo)^2$定义激活函数:$\sigma(x)=sigmod(x) $前向传播第一层(输入层): $x_1\ \ \ x_2\ \ \ b_1$ 加权和: $net h_1=x_1w_1+x_2w_2+b_1$ 第二层(隐层): $outh_1=sigmod(neth_1)$
2018-08-15
深度学习
深度学习
神经网络
反向传播
1
…
10
11
12
13
14
搜索
×
关键词