当前位置: 首页 > news >正文

网站建设设计方案软文营销的特点有哪些

网站建设设计方案,软文营销的特点有哪些,昆明城乡和住房建设局网站,享设计网做兼职设计师怎么样目录 1.2.神经网络基础 1.2.1.Logistic回归 1.2.2 梯度下降算法 1.2.3 导数 1.2.4 向量化编程 1.2.5 正向传播与反向传播 1.2.6.练习 1.2.神经网络基础 1.2.1.Logistic回归 1.2.1.1.Logistic回归 逻辑回归是一个主要用于二分分类类的算法。那么逻辑回归是给定一个x ,…

目录

1.2.神经网络基础

1.2.1.Logistic回归

1.2.2 梯度下降算法

1.2.3 导数

1.2.4 向量化编程

1.2.5 正向传播与反向传播

1.2.6.练习


1.2.神经网络基础

1.2.1.Logistic回归

1.2.1.1.Logistic回归

逻辑回归是一个主要用于二分分类类的算法。那么逻辑回归是给定一个x , 输出一个该样本属于1对应类别的预测概率y​^​​=P(y=1∣x)。

Logistic 回归中使用的参数如下:  

  • 输入的特征向量:x∈R​n​x​​​​,x是一个n​x​​维的特征数量,用于训练的标签:y∈0,1
  • 参数:权重:w∈R​n​x​​​​, 偏置:b∈R
  • 输出预测结果
    • Sigmoid 函数:
    • 如果z的结果非常大,那么S的结果接近于1
    • 如果 z的结果较小或者是非常大的负数,那么S的结果接近于0

e_{}^{-z}​​的函数如下

例如:

1.2.2.1.逻辑回归损失函数

损失函数(loss function)用于衡量预测结果与真实值之间的误差。最简单的损失函数定义方式为平方差损失: 

逻辑回归一般使用:

该式子的理解:

  • 如果y=1,损失为−log​y​^​​,那么要想损失越小,​y​^​​的值必须越大,即越趋近于或者等于1
  • 如果y=0,损失为-log(1−​y​^​​),那么要想损失越小,那么​y​^​​的值越小,即趋近于或者等于0

损失函数是在单个训练样本中定义的,它衡量了在单个训练样本上的表现。代价函数(cost function)衡量的是在全体训练样本上的表现,即衡量参数 w 和 b 的效果,所有训练样本的损失平均值

1.2.2.梯度下降算法

目的:使损失函数的值找到最小值

方式:梯度下降

函数的梯度(gradient)指出了函数的最陡增长方向。梯度的方向走,函数增长得就越快。那么按梯度的负方向走,函数值自然就降低得最快了。模型的训练目标即是寻找合适的 w 与 b 以最小化代价函数值。假设 w 与 b 都是一维实数,那么可以得到如下的 J 关于 w 与 b 的图:

可以看到,成本函数 J 是一个凸函数,与非凸函数的区别在于其不含有多个局部最低。

参数w和b的更新公式为:

注:其中 α 表示学习速率,即每次更新的 w 的步伐长度。当 w 大于最优解 w′ 时,导数大于 0,那么 w 就会向更小的方向更新。反之当 w 小于最优解 w′ 时,导数小于 0,那么 w 就会向更大的方向更新。迭代直到收敛。

通过平面来理解梯度下降过程:

1.2.3.导数

理解梯度下降的过程之后,我们通过例子来说明梯度下降在计算导数意义或者说这个导数的意义。

1.2.3.1.导数

导数也可以理解成某一点处的斜率。斜率这个词更直观一些。

  • 各点处的导数值一样

我们看到这里有一条直线,这条直线的斜率为4。我们来计算一个例子

例:取一点为a=2,那么y的值为8,我们稍微增加a的值为a=2.001,那么y的值为8.004,也就是当a增加了0.001,随后y增加了0.004,即4倍

那么我们的这个斜率可以理解为当一个点偏移一个不可估量的小的值,所增加的为4倍。

可以记做

  • 各点的导数值不全一致
  • 例:取一点为a=2,那么y的值为4,我们稍微增加a的值为a=2.001,那么y的值约等于4.004(4.004001),也就是当a增加了0.001,随后y增加了4倍

取一点为a=5,那么y的值为25,我们稍微增加a的值为a=5.001,那么y的值约等于25.01(25.010001),也就是当a增加了0.001,随后y增加了10倍

1.2.3.2 导数计算图

那么接下来我们来看看含有多个变量的到导数流程图,假设J(a,b,c)=3(a+bc)

我们以下面的流程图代替

这样就相当于从左到右计算出结果,然后从后往前计算出导数

  • 导数计算

问题:那么现在我们要计算J相对于三个变量a,b,c的导数?

假设b=4,c=2,a=7,u=8,v=15,j=45

增加v从15到15.001,那么J≈45.003

增加a从7到7.001,那么v=≈15.001,J≈45.003

这里也涉及到链式法则

1.2.3.3 链式法则

1.2.3.4 逻辑回归的梯度下降

逻辑回归的梯度下降过程计算图,首先从前往后的计算图得出如下

那么计算图从前向过程为,假设样本有两个特征

问题:计算出J 关于z的导数

所以我们这样可以求出总损失相对于w​1​​,w​2​​,b参数的某一点导数,从而可以更新参数

相信上面的导数计算应该都能理解了,所以当我们计算损失函数的某个点相对于�1,�2,�w​1​​,w​2​​,b的导数之后,就可以更新这次优化后的结果。

1.2.4.向量化编程

每更新一次梯度时候,在训练期间我们会拥有m个样本,那么这样每个样本提供进去都可以做一个梯度下降计算。所以我们要去做在所有样本上的计算结果、梯度等操作

计算参数的梯度为:这样,我们想要得到最终的dw​1​​,dw​2​​,db,如何去设计一个算法计算?伪代码实现:

1.2.4.1 向量化优势

什么是向量化

由于在进行计算的时候,最好不要使用for循环去进行计算,因为有Numpy可以进行更加快速的向量化计算。

import numpy as np
import time
a = np.random.rand(100000)
b = np.random.rand(100000)
  • 第一种方法
# 第一种for 循环
c = 0
start = time.time()
for i in range(100000):c += a[i]*b[i]
end = time.time()print("计算所用时间%s " % str(1000*(end-start)) + "ms")
  • 第二种向量化方式使用np.dot
# 向量化运算
start = time.time()
c = np.dot(a, b)
end = time.time()
print("计算所用时间%s " % str(1000*(end-start)) + "ms")

Numpy能够充分的利用并行化,Numpy当中提供了很多函数使用

函数作用
np.ones or np.zeros全为1或者0的矩阵
np.exp指数计算
np.log对数计算
np.abs绝对值计算

所以上述的m个样本的梯度更新过程,就是去除掉for循环。原本这样的计算

1.2.4.2 向量化实现伪代码

  • 思路

可以变成这样的计算

注:w的形状为(n,1), x的形状为(n, m),其中n为特征数量,m为样本数量

我们可以让,得出的结果为(1, m)大小的矩阵 注:大写的W,X为多个样本表示

  • 实现多个样本向量化计算的伪代码

这相当于一次使用了M个样本的所有特征值与目标值,那我们知道如果想多次迭代,使得这M个样本重复若干次计算

1.2.5.正向传播与反向传播

前面我们所做的整个过程分为两个部分,一个是从前往后的计算出梯度与损失,另外一部分是从后往前计算参数的更新梯度值。所以在神经网络当中会经常出现两个概念,正向传播与反向传播。

正向传播是神经网络从输入到输出的过程,主要用于计算输出结果。

反向传播是根据输出和目标值之间的差距调整网络参数的过程,主要用于优化网络的权重和偏置。这两个过程交替进行,直到网络的损失函数最小化,达到训练目标。

1.2.6.练习

1.使用np.exp()实现sigmoid function和sigmoid gradient(梯度)

import numpy as np
def basic_sigmoid(x):"""计算sigmoid函数"""s = 1 / (1 + np.exp(-x))return sdef sigmoid_derivative(x):"""计算sigmoid function函数相对于其输入x的梯度(也称为斜率或者导数)."""s=basic_sigmoid(x)ds=s*(1-s)return ds

 2.实现单神经元网络

import numpy as np
import h5py
import scipy
from PIL import Image
from scipy import ndimage
from data import load_dataset
#%% md
## 要求
实现一个学习算法的整体结构
* 获取并定义模型输入
* 初始化参数
* 计算成本函数及其梯度
* 使用优化算法(梯度下降)* 循环:* 计算当前损失(正向传播)* 计算当前梯度(反向传播)* 更新参数(梯度下降)请实现相关函数,其中读取数据不需要实现。并在主模型函数中编写逻辑。
#%% md
### 读取数据
1、按照向量化伪代码实现的形状要求将样本数据进行转换
2、标准化数据处理
#%%
train_x, train_y, test_x, test_y, classes = load_dataset()
print ("训练集的样本数: ", train_x.shape[0])
print ("测试集的样本数: " , test_x.shape[0])
print ("train_x形状: ", train_x.shape)
print ("train_y形状: ", train_y.shape)
print ("test_x形状: ", test_x.shape)
print ("test_x形状: ", test_y.shape)
#%%
train_y
#%%
train_x = train_x.reshape(train_x.shape[0], -1).T
test_x = test_x.reshape(test_x.shape[0], -1).T
print(train_x.shape, test_x.shape)
#%%
train_x = train_x/255.
test_x = test_x/255.
#%%
def basic_sigmoid(x):"""计算sigmoid函数"""### 开始s = 1 / (1 + np.exp(-x))### 结束return s
#%% md
### 算法结构实现
分别构建算法的不同模块
* 初始化参数
* 计算成本函数及其梯度
* 使用优化算法(梯度下降)* 循环:* 计算当前损失(正向传播)* 计算当前梯度(反向传播)* 更新参数(梯度下降)<img src="images/题目逻辑.png" style="width:600px;height:550px;">
#%% md
### 初始化网络参数
#%%
def initialize_with_zeros(shape):"""创建一个形状为 (shape, 1) 的w参数和b=0.return:w, b"""### 开始w = np.zeros((shape, 1))b = 0### 结束assert(w.shape == (shape, 1))assert(isinstance(b, float) or isinstance(b, int))return w, b
#%% md
### 前向和反向传播
根据损失函数、前后传播向量化代码
#%%
def propagate(w, b, X, Y):"""参数:w,b,X,Y:网络参数和数据Return:损失cost、参数W的梯度dw、参数b的梯度db"""m = X.shape[1]# 前向传播### 开始# w (n,1), x (n, m)A = basic_sigmoid(np.dot(w.T, X) + b)# 计算损失cost = -1 / m * np.sum(Y * np.log(A) + (1 - Y) * np.log(1 - A))### 结束# 反向传播### 开始dz = A - Ydw = 1 / m * np.dot(X, dz.T)db = 1 / m * np.sum(dz)### 结束assert(dw.shape == w.shape)assert(db.dtype == float)cost = np.squeeze(cost)assert(cost.shape == ())grads = {"dw": dw,"db": db}return grads, cost
#%% md
### 优化过程
实现优化函数. 全局的参数随着 $w$  $b$ 对损失 $J$进行优化改变. 对参数 $\theta$实行 $ \theta = \theta - \alpha \text{ } d\theta$, 并制定 $\alpha$ 学习率。
#%%
def optimize(w, b, X, Y, num_iterations, learning_rate):"""参数:w:权重,b:偏置,X特征,Y目标值,num_iterations总迭代次数,learning_rate学习率Returns:params:更新后的参数字典grads:梯度costs:损失结果"""costs = []for i in range(num_iterations):# 梯度更新计算函数### 开始grads, cost = propagate(w, b, X, Y)# 取出两个部分参数的梯度dw = grads['dw']db = grads['db']# 按照梯度下降公式去计算w = w - learning_rate * dwb = b - learning_rate * db### 结束if i % 100 == 0:costs.append(cost)if i % 100 == 0:print("损失结果 %i: %f" %(i, cost))print(b)params = {"w": w,"b": b}grads = {"dw": dw,"db": db}return params, grads, costs
#%% md
### 预测函数(不用实现)
利用得出的参数来进行测试得出准确率
#%%
def predict(w, b, X):'''利用训练好的参数预测return:预测结果'''m = X.shape[1]Y_prediction = np.zeros((1,m))w = w.reshape(X.shape[0], 1)# 计算结果### 开始A = basic_sigmoid(np.dot(w.T, X) + b)### 结束for i in range(A.shape[1]):### 开始if A[0, i] <= 0.5:Y_prediction[0, i] = 0else:Y_prediction[0, i] = 1### 结束assert(Y_prediction.shape == (1, m))return Y_prediction
#%% md
### 整体逻辑实现
#%%
def model(X_train, Y_train, X_test, Y_test, num_iterations = 2000, learning_rate = 0.5):""""""### 开始# 初始化参数w, b = initialize_with_zeros(X_train.shape[0])# 梯度下降# params:更新后的网络参数# grads:最后一次梯度# costs:每次更新的损失列表params, grads, costs = optimize(w, b, X_train, Y_train, num_iterations, learning_rate)# 获取训练的参数# 预测结果w = params['w']b = params['b']Y_prediction_train = predict(w, b, X_train)Y_prediction_test = predict(w, b, X_test)### 结束# 打印准确率print("训练集准确率: {} ".format(100 - np.mean(np.abs(Y_prediction_train - Y_train)) * 100))print("测试集准确率: {} ".format(100 - np.mean(np.abs(Y_prediction_test - Y_test)) * 100))d = {"costs": costs,"Y_prediction_test": Y_prediction_test, "Y_prediction_train" : Y_prediction_train, "w" : w, "b" : b,"learning_rate" : learning_rate,"num_iterations": num_iterations}return d
#%% md
### 测试
#%%
d = model(train_x, train_y, test_x, test_y, num_iterations = 2000, learning_rate = 0.005)

 data.py

import numpy as np
import h5pydef load_dataset():train_dataset = h5py.File('datasets/train_catvnoncat.h5', "r")train_set_x_orig = np.array(train_dataset["train_set_x"][:]) # your train set featurestrain_set_y_orig = np.array(train_dataset["train_set_y"][:]) # your train set labelstest_dataset = h5py.File('datasets/test_catvnoncat.h5', "r")test_set_x_orig = np.array(test_dataset["test_set_x"][:]) # your test set featurestest_set_y_orig = np.array(test_dataset["test_set_y"][:]) # your test set labelsclasses = np.array(test_dataset["list_classes"][:]) # the list of classestrain_set_y_orig = train_set_y_orig.reshape((1, train_set_y_orig.shape[0]))test_set_y_orig = test_set_y_orig.reshape((1, test_set_y_orig.shape[0]))return train_set_x_orig, train_set_y_orig, test_set_x_orig, test_set_y_orig, classes

http://www.mnyf.cn/news/15418.html

相关文章:

  • 电商网站建设公司上海网优化seo公司
  • 网站被挂马做js跳转长沙网站seo分析
  • 荔湾区网站建设关键词优化外包服务
  • 营销网站建设专业团队在线服务网络营销大赛策划书
  • 商城网站建设教学百度软文推广怎么做
  • 受欢迎的网站建设公司怎么做电商平台
  • 网站怎么做认证泉州网站seo外包公司
  • 提供温州手机网站制作哪家好2023最火的十大新闻
  • 网站建设公司哪个好邯郸seo推广
  • 手机网站制作报价表百度手机端推广
  • 跟网站开发有关系的工作有哪些优就业seo课程学多久
  • 用织梦怎么做网站二级域名和一级域名优化难度
  • 汕头最新消息今天关键词首页排名优化价格
  • 站酷网页设计分析独立网站
  • 煤炭建设行业协会网站大连百度推广公司
  • 有没有专门做胜负彩的网站长清区seo网络优化软件
  • 电商网站开发主要设计内容东莞网络公司排行榜
  • 县区网站服务器机房建设百度seo排名优化联系方式
  • 莆田网站建设开发云南网络推广seo代理公司
  • 一些建筑设计网站郴州网站建设网络推广平台
  • 做tb任务赚钱的网站山东济南seo整站优化费用
  • 厦门专业做网站公司西地那非片的功效与作用
  • 信息发布关键词seo优化软件
  • 电子商务网站系统规划报告百度指数的作用
  • 多个网站能否统一做等保seo计费系统开发
  • 珠海做网站优化的公司关键词搜索排名软件
  • 论文引用网站怎样做脚注友情链接买卖平台
  • 网站解析域名深圳关键词优化怎么样
  • 网站备案完成通知友情链接交换形式有哪些
  • 清远公司网站建设关键词优化工具