zeta

阻尼系数对控制系统的影响

爷,独闯天下 提交于 2020-03-08 02:45:40
任何一个振动系统,当阻尼增加到一定程度时,物体的运动是非周期性的,物体振动连一次都不能完成,只是慢慢地回到平衡位置就停止了。一个系统受初扰动后不再受外界激励,因受到阻力造成能量损失而位移峰值渐减的振动称为阻尼振动。系统的状态由阻尼率ζ来划分。不同系统中ζ的计算式不同,但意义一样。 (1) 当ζ=0时,系统无阻尼,即周期运动。 (2)当0<ζ<1时,系统所受的阻尼力较小,则要振动很多次,而振幅则在逐渐减小,最后才能达到平衡位置,这样的运动叫欠阻尼状态。 (3) 当ζ=1时,阻尼的大小刚好使系统作非“周期”运动,即阻力使振动物体刚能不作周期性振动而又能最快地回到平衡位置的情况,称为“ 临界阻尼 ”,或中肯阻尼状态。  (4)当ζ>1时,阻尼再增大,系统需要很长时间才能达到平衡位置,这样的运动叫 过阻尼 状态。 与欠阻尼况和过阻尼相比, 在临界阻尼情况下,系统从运动趋近平衡所需的时间最短。 来源: https://www.cnblogs.com/long5683/p/10572330.html

机器学习基本概念梳理

杀马特。学长 韩版系。学妹 提交于 2020-02-29 18:29:51
1.1 基本术语 数据集(data set) :数据记录的集合 示例/样本(sample) :每条记录,即对一个事件/对象的描述 属性(attribute)/特征(feature) :反映时间或对象在某方面的表现或性质的事项 属性空间(attribute space)/样本空间(sample space)/输入空间 :属性张成的空间 由于样本空间中每一点对应于一个坐标向量,因此一个 示例 也成为一个 特征向量(feature vector) 学习(learning)/训练(training) :从数据中学习模型的过程 训练数据(training data): 训练过程中使用的数据 训练集(training set) :训练样本组成的集合 假设(hypothesis) :学得的关于数据的某种潜在规律 真相/真实(ground-truth) :关于数据的某种潜在规律自身 标记空间(label space)/输出空间 :标记的集合 测试(testing) :学得模型后,使用其进行预测的过程 测试样本(tesing sample) :被预测的样本 根据预测的值的类型,学习任务可以被划分为 分类(classification) , 回归(regression) , 聚类(clustering) ,etc. 根据训练数据是否有标记,学习任务可被划分为 监督学习(supervised

Python画图

时光总嘲笑我的痴心妄想 提交于 2020-01-15 05:55:33
帮别人实现rubber friction的运算公式。公式不是我专业的内容,完全不懂,只是照着公式用python计算并画图。做出的图,与论文中的图进行对比,完全一致。 之所以用python,是因为matlab实在太大了。。。 python科学计算需要用到numpy和scipy,画图需要用到matplotlib。这三个模块的安装,windows下很容易,mac下稍微麻烦一些。 matplotlib需要注意的是,因为公式涉及的三个图,分别是对数-对数,对数-常数,常数-对数坐标,所以不能仅仅使用plot。 步骤一: 公式: 代码: View Code 1 def EOmega(E1,omega,tau,a1): 2 a=complex(1,-omega*tau) 3 b=complex(a1+1,-omega*tau) 4 return E1*a/b 5 6 def DrawEOmega(E1,tau,a1,xmin,xmax): 7 re=[] 8 im=[] 9 10 omega = np.logspace(xmin, xmax, 1000) 11 for o in omega: 12 re.append(EOmega(E1,o,tau,a1).real) 13 im.append(abs(EOmega(E1,o,tau,a1).imag)) 14 15 plt.figure()

MATLAB灰色关联度分析

坚强是说给别人听的谎言 提交于 2019-12-08 10:10:36
目录 1.释名 2.举例 3.操作步骤与原理详解 4.总结 5.附录:MATLAB代码 @ 1.释名 灰色关联度分析(Grey Relation Analysis,GRA),是一种多因素统计分析的方法。简单来讲,就是在一个灰色系统中,我们想要了解其中某个我们所关注的某个项目受其他的因素影响的相对强弱,再直白一点,就是说:我们假设以及知道某一个指标可能是与其他的某几个因素相关的,那么我们想知道这个指标与其他哪个因素相对来说更有关系,而哪个因素相对关系弱一点,依次类推,把这些因素排个序,得到一个分析结果,我们就可以知道我们关注的这个指标,与因素中的哪些更相关。 ( note : 灰色系统这个概念的提出是相对于白色系统和黑色系统而言的。这个概念最初是由控制科学与工程的教授邓聚龙提出的。按照控制论的惯例,颜色一般代表的是对于一个系统我们已知的信息的多少,白色就代表信息充足,比如一个力学系统,元素之间的关系都是能够确定的,这就是一个白色系统;而黑色系统代表我们对于其中的结构并不清楚的系统,通常叫做黑箱或黑盒的就是这类系统。灰色介于两者之间,表示我们只对该系统有部分了解。) 2.举例 为了说明灰色关联度分析的应用场景,我们利用下图进行说明: 该图研究的内容是旅游业发展的影响因子,看该表格,第一行为五年的旅游总收入,代表着旅游业发展的程度,而下面的这些要素就是我们需要分析的因子,比如在校大学生数

漫谈逆向强化学习 - A Brief Review to Inverse Reinforcement Learning

被刻印的时光 ゝ 提交于 2019-12-08 05:37:03
下面我们来探讨下逆向强行学习的基本原理和典型方法,我们假设您已经对强化学习和凸优化的基本原理有一定的了解。 文章目录 概述 基于最大边际的逆向强化学习 学徒学习 最大边际规划(MMP) 基于结构化分类的方法 神经逆向强化学习 基于最大熵的逆向强化学习 基于最大信息熵的逆向强化学习 基于相对熵的逆向强化学习 深度逆向强化学习 GAIL 概述 我们先介绍下逆向强化学习的概念预分类: 什么是逆向强化学习呢?当完成复杂的任务时,强化学习的回报函数很难指定,我们希望有一种方法找到一种高效可靠的回报函数,这种方法就是逆向强化学习。我们假设专家在完成某项任务时,其决策往往是最优的或接近最优的,当所有的策略产生的累积汇报函数期望都不比专家策略产生的累积回报期望大时,强化学习所对应的回报函数就是根据示例学到的回报函数。即逆向强化学习就是从专家示例中学习回报函数。当需要基于最优序列样本学习策略时,我们可以结合逆向强化学习和强化学习共同提高回报函数的精确度和策略的效果。逆向强化学习的基本理论可参考如下论文: Ng A Y, Russell S J. Algorithms for Inverse Reinforcement Learning. ICML, 2000 逆向强化学习一般流程如下: 随机生成一个策略作为初始策略; 通过比较“高手”的交互样本和自己交互样本的差别,学习得到回报函数;

NFL定理及其对学习算法的实质意义

不羁岁月 提交于 2019-12-04 03:54:15
上一篇中的NFL定理的简化论述 定理表述: 无论学习算法 \(\zeta_a\) 多“聪明”以及 \(\zeta_b\) 多“笨拙”,他们的误差期望值是相同的 定理假设:所有“问题”出现的机会相同,或者所有问题同等重要。以及我们希望学习的真实目标函数f是均匀分布的 定理的简化论证 1.假设样本空间 \(\chi\) 和假设空间H,令P(h|X, \(\zeta_a\) )代表算法 \(\zeta_a\) 基于训练数据X产生假设h的概率,再令f代表我们希望学习的真实目标函数。令 \(E_{ote}\) 为 \(\zeta_a\) 的训练集外误差产生概率的期望值( \(E_{ote}\) 的下标ote指的是Off-training error) 2.令 \(\Psi(.)\) 表示一个特征函数,当(.)中的.为布尔值1时, \(\Psi(.)=1\) 否则 \(\Psi(.)=0\) 3.对假设空间H里的任何一个h来说,误差期望 \(E^1\) = \(\sum_{x\in\chi-X}\) P(x) \(\Psi(h(x) \ne f(x))\) P( \(h|X,\zeta_a\) )。这是因为,当h(x) = f(x)时,这样误差出现的概率并不需要算作期望值的一部分;而当 \(h(x)\ne f(x)\) 时,误差出现概率才需要记入。因此

机器学习基础——支持向量机1

白昼怎懂夜的黑 提交于 2019-11-30 12:05:04
间隔与支持向量 给定训练样本集 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) ⋯   , ( x n , y n ) } , y i ∈ { − 1 , + 1 } D=\{(x_1,y_1),(x_2,y_2)\cdots, (x_n,y_n)\},y_i\in \{-1, +1\} D = { ( x 1 ​ , y 1 ​ ) , ( x 2 ​ , y 2 ​ ) ⋯ , ( x n ​ , y n ​ ) } , y i ​ ∈ { − 1 , + 1 } ,分类学习的最基本的思想就是基于样本空间中找个一个划分超平面,将不同类别的样本分开,但是超平面可能有很多种 直观上应该找最中间的划分超平面,因为该超平面对训练样本局部的扰动的容忍最好的。由于训练集的局限性或噪声的因素,训练集外的样本可能更接近两个类的分隔界,这个划分超平面所产生的分类结果是最鲁棒的,对未见的示例泛化能力最强。 超平面的线性方程描述: ω T x + b = 0 {\rm\pmb{\omega}}^Tx + b = 0 ω ω ω T x + b = 0 其中 ω = ( ω 1 ; ω 2 ; ⋯   ; ω d ) \pmb\omega=(\omega_1;\omega_2;\cdots;\omega_d) ω ω ω = ( ω 1 ​ ; ω 2 ​ ; ⋯ ; ω d