LR为什么qq自动解除关联关联不上

脚本业务流:访问Discuz论坛首页——登录论坛——退出论坛本次使用LoadRunner11版本。

    4、录制选项的设置特别注意录制时的HTTP/HTML级别的选择是“基于HTML的脚本”还是“基于URL的脚本”,这里選择“基于HTML的脚本”

    使用LoadRunner录制后的脚本,通常都是需要优化完善脚本这里只展示action中的登录部分,优化完善后的脚本如下:

   1、事务设置开始事务和结束事务的名称必须一致,事务的设置必须成对出现即有开始事务也要有结束事务,开始事务应该放在脚本开始的位置結束事务放在脚本结束的位置,但不要将思考时间(lr_think_time函数)放在事务开始和事务结束之间其实,设置事务可以在“Run_time Settings”里设置的,可以設置成“将每个操作定义为一个事务”也可以设置为“将每个步骤定义为一个事务”,根据需要设置我这里是自己手动在脚本设置的。

   2、检查点设置LR的检查点分为文本检查点和图像检查点,添加检查点的方法很简单在LR的树形视图中,打开视图登录页面选择需要检查的内容(文本或者图像),鼠标右键选择“添加文本检查点(web_reg_find())”即可若要手动添加检查点,则需要把检查点设置在返回页面的之前最后,在脚本中添加了检查点要在Vuser->Run-Tme

边界;“What=”定义查找内容。

存中查找内容出现的次数可以使用该值,来判断要查找的内容是否被找到

    参数解释:“Alt”和“Src”的值直接取该图片在网页源代码中相应参数的值。

    3、参数化设置LR录制登录的脚本,一般需要参数化脚本中嘚登录用户和对应的密码以便更加真实地模仿系统的业务操作。参数化的设置点击工具栏图标打开参数列表,或者点击菜单“Vuser--参数列表”或使用快捷方式“Ctrl+L”,点击新建定义参数名称username和password,创建表并输入内容

后,这里特别需要注意设置的是参数名username和password相对应通过参数列表中的数据方式和更新值方式来设置,username参数要与password参数对应设

置正确脚本回放时才能模拟用户登录成功,如图:

     (3)、参数化设置中“Select next row”和“Update value on”这两个属性组合,产生九种组合方式每种方式都不一样,参数化的结果也不一样下面是参数取值方式说明

     (4)、在脚本中,選中需要参数化的脚本鼠标右键“使用现有参数”选择对应要参数化的参数名即可。

     4、关联设置由于我的LR工具在录制的时设置了关联規则,在脚本中可以使用为什么qq自动解除关联扫描脚本中关联值快捷键Ctrl+F8扫描结果切换树形视图,可以看到如图

 点击“关联”返回到脚夲页面,如图

     5、集合点设置集合点的设置在菜单“插入--集合”即可,集合点名称需顾名思义看到就能理解。另外需要注意集合点要放在开始事务的前面,思考时间(lr_think_time函数)的后面

}

Regression简称LR)是机器学习中十分常用嘚一种分类算法,在互联网领域得到了广泛的应用无论是在广告系统中进行CTR预估,推荐系统中的预估转换率反垃圾系统中的识别垃圾內容……都可以看到它的身影。LR以其简单的原理和应用的普适性受到了广大应用者的青睐实际情况中,由于受到单机处理能力和效率的限制在利用大规模样本数据进行训练的时候往往需要将求解LR问题的过程进行并行化,本文从并行化的角度讨论LR的实现

LR的基本原理及其嶊导可以参见

图0 求解最优化目标函数的基本步骤

LR方法通常采用的是梯度下降法,梯度下降法又有相当多的种类在这里不做具体的介绍。

囙归梯度下降法的梯度更新公式(一般会取平均值):

由逻辑回归问题的求解方法中可以看出无论是梯度下降法、牛顿法、拟牛顿法,計算梯度都是其最基本的步骤并且L-BFGS通过两步循环计算牛顿方向的方法,避免了计算海森矩阵因此逻辑回归的并行化最主要的就是对目標函数梯度计算的并行化。从梯度更新公式中可以看出目标函数的梯度向量计算中只需要进行向量间的点乘和相加,可以很容易将每个迭代过程拆分成相互独立的计算步骤由不同的节点进行独立计算,然后归并计算结果

将M个样本的标签构成一个M维的标签向量,M个N维特征向量构成一个M*N的样本矩阵如图3所示。其中特征矩阵每一行为一个特征向量(M行)列为特征维度(N列)。

图1 样本标签向量 & 样本矩阵标題

如果将样本矩阵按行划分将样本特征向量分布到不同的计算节点,由各计算节点完成自己所负责样本的点乘与求和计算然后将计算結果进行归并,则实现了“按行并行的LR”按行并行的LR解决了样本数量的问题,但是实际情况中会存在针对高维特征向量进行逻辑回归的場景(如广告系统中的特征维度高达上亿)仅仅按行进行并行处理,无法满足这类场景的需求因此还需要按列将高维的特征向量拆分荿若干小的向量进行求解。

假设所有计算节点排列成m行n列(m*n个计算节点)按行将样本进行划分,每个计算节点分配M/m个样本特征向量和分類标签;按列对特征向量进行切分每个节点上的特征向量分配N/n维特征。如图2所示同一样本的特征对应节点的行号相同,不同样本相同維度的特征对应节点的列号相同

图2 并行LR中的数据分割

一个样本的特征向量被拆分到同一行不同列的节点中,即:

其中表示第 行的第 个向量表示在第 列节点上的分量。同样的用 表示特征向量 在第 列节点上的分量,即:

观察目标函数的梯度计算公式,其依赖于两个计算结果:特征权重向量和特征向量的点乘标量和特征向量的相乘。其中可以将目标函数的梯度计算分成两个并行化计算步骤和两个结果归并步驟:

 各节点并行计算点乘计算,其中表示第 次迭代中节点上的第 个特征向量与特征权重分量的点乘, 为第 次迭代中特征权重向量在苐 列节点上的分量

 对行号相同的节点归并点乘结果:

计算得到的点乘结果需要返回到该行所有计算节点中,如图3所示

 各节点独立算标量与特征向量相乘:

可以理解为由第 行节点上部分样本计算出的目标函数梯度向量在第 列节点上的分量。

 对列号相同的节点进行归並:

 就是目标函数的梯度向量 在第 列节点上的分量对其进行归并得到目标函数的梯度向量:

图4 梯度计算结果归并

综合上述步骤,并行LR的計算流程如图5所示比较图0和图5,并行LR实际上就是在求解损失函数最优解的过程中针对寻找损失函数下降方向中的梯度方向计算作了并荇化处理,而在利用梯度确定下降方向的过程中也可以采用并行化(如L-BFGS中的两步循环法求牛顿方向)

图5 并行LR计算流程

看上面的公式什么嘚可能很复杂,符号标记既模糊又复杂概括一下,其实很简单

1、按行并行。即将样本拆分到不同的机器上去其实很简单,重新看梯喥计算的公式:

其中比如我们按行将其均分到两台机器上去,则分布式的计算梯度只不过是每台机器都计算出各自的梯度,然后归并求和再求其平均为什么可以这么做呢?因为公式只与上一个时刻的以及当前样本有关所以就可以并行计算了。

2、按列并行按列并行嘚意思就是将同一样本的特征也分布到不同的机器中去。上面的公式为针对整个如果我们只是针对某个分量,可得到对应的梯度计算公式即不再是乘以整个而是乘以对应的分量,此时可以发现梯度计算公式仅与中的特征有关系,我们就可以将特征分布到不同的计算上分别计算对应的梯度,最后归并为整体的再按行归并到整体的梯度更新。

这样来理解其实就避免了繁杂的公式其实,对于LR的分布式訓练还是要自己亲身体会过那种具有分布式需求的项目。我如是认为

}

我要回帖

更多关于 为什么qq自动解除关联 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信