tracker

Python结合SAP GUI Script操作sap的简易教程

試著忘記壹切 提交于 2020-11-15 18:26:02
  众所周知,如果要用Python做一些桌面WIN32应用的自动化工作,就需要用到著名的pywin32尤其是其中的win32com.client模块,pywin32的安装不能直接通过pip install方法,奉上pywin32的官方github链接:https://github.com/mhammond/pywin32/releases。选择与桌面系统版本、python版本对应的版本安装即可: 如果一切正常,在Ipython中导入该模块时不会报异常!如: In [1]: import win32com.client 接下拉就是建立与sap GUI的连接,如下: 1 SapGuiAuto = win32com.client.GetObject( " SAPGUI " ) 2 if not type(SapGuiAuto) == win32com.client.CDispatch: 3 return 4 5 application = SapGuiAuto.GetScriptingEngine 6 if not type(application) == win32com.client.CDispatch: 7 SapGuiAuto = None 8 return 9 10 connection = application.Children(0) 11 if not type

分布式文件存储系统fastdfs安装教程

拟墨画扇 提交于 2020-11-10 17:58:00
养成习惯,先赞后看!!!! 分布式文件存储系统fastdfs安装步骤 1.将压缩包上传到opt目录下 2.解压该文件 3.编译文件 3.1安装**libfastcommon** 3.2上传文件到/usr/local目录下并解压 3.3进入解压好的文件夹下,开始编译 3.4编译并安装 4.重新编译安装我们的文件 5.将conf配置目录下的所有文件都拷贝到/etc/fdfs 6.配置/etc/fdfs目录下的tracker.conf,该文件主要就是设置软件数据以及日志目录 7.配置storage.conf文件,该文件主要就是存储文件 8.配置fdfs_storaged和fdfs_trackerd的启动服务 9.测试文件上传服务 1.将压缩包上传到opt目录下 2.解压该文件 cd / opt tar - zxvf FastDFS_v5 . 05. tar . gz 3.编译文件 cd FastDFS . /make . sh 如果出现下面的错误,那么我们需要先安装这个环境 libfastcommon 3.1安装 libfastcommon 3.2上传文件到/usr/local目录下并解压 tar - zxvf libfastcommonV1 . 0.7 . tar . gz 3.3进入解压好的文件夹下,开始编译 cd libfastcommon - 1.0 .7 . /make .

CVPR 2020 论文大盘点—目标跟踪篇

拈花ヽ惹草 提交于 2020-10-31 10:01:03
本文盘点CVPR 2020 所有目标跟踪( object tracking )相关论文,总计 33 篇,因为跟踪相关的技术很多,这里单指具体目标的跟踪,不涉及点的跟踪(如人体关键点跟踪,会另有总结)。 最大的特点是目标跟踪技术正在向目标的像素级跟踪(video object Segmentation 视频目标分割)发展,有7篇相关文献;另外更加实用的多目标跟踪( Multi-Object Tracking )也很受关注,有7篇文章;大家常见的单目标跟踪有10篇,自动驾驶中3D目标跟踪有3篇,其他细分的跟踪详见下文。 值得一提的,33篇文章中 21 篇已经开源或者准备开源,感谢这些开发者~ 已经开源代码的论文,把代码地址附上了。 大家可以在: http://openaccess.thecvf.com/CVPR2020.py 按照题目下载这些论文。 多目标跟踪 [1]. How to Train Your Deep Multi-Object Tracker 作者 | Yihong Xu, Aljosa Osep, Yutong Ban, Radu Horaud, Laura Leal-Taixe, Xavier Alameda-Pineda 单位 | 慕尼黑工业大学等 代码 | https://github.com/yihongXU/deepMOT [2]. Learning a

Centos7 上安装 FastDFS

依然范特西╮ 提交于 2020-10-29 20:42:33
Centos7 上安装 FastDFS 1、安装gcc(编译时需要) FastDFS是C语言开发,安装FastDFS需要先将官网下载的源码进行编译,编译依赖gcc环境,如果没有gcc环境,需要安装gcc yum install -y gcc gcc-c++ 2、安装libevent(运行时需求) 若安装了桌面图形界面,就不需要安装;FastDFS依赖libevent库; yum -y install libevent 3、 安装libfastcommon  libfastcommon是FastDFS官方提供的,libfastcommon包含了FastDFS运行所需要的一些基础库。 (1)上传 libfastcommonV1.0.7.tar.gz到Centos机器上; (2)将 libfastcommonV1.0.7.tar.gz解压至/usr/local/下: tar -zxvf libfastcommonV1.0.7.tar.gz -C /usr/local/ (3)切换目录到:/usr/local/libfastcommon-1.0.7/ 下,接着进行编译和安装; cd /usr/local/libfastcommon-1.0.7/ ./make.sh #编译 ./make.sh install #安装 安装后的截图: (4)libfastcommon安装好后会在/usr

Spring Boot 整合FastDFS

泪湿孤枕 提交于 2020-10-28 14:13:18
1 、在 web 层,导入依赖: <!-- 整合FastDFS --> < dependency > < groupId > com.github.tobato </ groupId > < artifactId > fastdfs-client </ artifactId > < version > 1.26.1-RELEASE </ version > </ dependency > 2 、启动类中添加注解: @Import(FdfsClientConfig.class) @Import(FdfsClientConfig. class ) @SpringBootApplication public class TestApplication { ... } 3 、配置 application.yml: fdfs: so-timeout: 1500 connect-timeout: 600 pool: jmx-enabled: false thumb-image: width: 100 height: 100 tracker-list: 192.168.80.134:22122 4 、测试: @RunWith(SpringRunner. class ) @SpringBootTest public class MystoreProductWebApplicationTests {

spring boot集成FastDFS

本秂侑毒 提交于 2020-10-28 12:09:52
官方文档:https://github.com/happyfish100/fastdfs-client-java 一、首先,maven工程添加依赖 <!-- fastdfs --> < dependency > < groupId > org.csource </ groupId > < artifactId > fastdfs-client-java </ artifactId > < version > 1.27-RELEASE </ version > </ dependency > 如果报错请参考 maven仓库有jar包还是报错怎么办? 二、resources目录下添加fdfs_client.conf文件 前面使用nginx支持http方式访问文件,但所有人都能直接访问这个文件服务器了,所以做一下权限控制。 从来都是我能借用别人的图片,而别人借用我的图片不好意思不行! FastDFS的权限控制是在服务端开启token验证,客户端根据文件名、当前unix时间戳、秘钥获取token,在地址中带上token参数即可通过http方式访问文件。 #################### FastDFS-Client Start #################### #默认值为30s connect_timeout = 10 #默认值为30s network_timeout =

Hadoop V2 yarn与Hadoop V1 MapReduce对比

为君一笑 提交于 2020-10-25 10:43:22
对于业界的大数据存储及分布式处理系统来说,Hadoop 是耳熟能详的卓越开源分布式文件存储及处理框架 1、Hadoop v1 1.1 Hadoop v1 MapReduce 架构图 1.2 Hadoop v1 MapReduce程序的流程及设计思路 首先用户程序 (JobClient) 提交了一个 job,job 的信息会发送到 Job Tracker 中,Job Tracker 是 Map-reduce 框架的中心,他需要与集群中的机器定时通信 (heartbeat), 需要管理哪些程序应该跑在哪些机器上,需要管理所有 job 失败、重启等操作。 TaskTracker 是 Map-reduce 集群中每台机器都有的一个部分,他做的事情主要是监视自己所在机器的资源情况。 TaskTracker 同时监视当前机器的 tasks 运行状况。TaskTracker 需要把这些信息通过 heartbeat 发送给 JobTracker,JobTracker 会搜集这些信息以给新提交的 job 分配运行在哪些机器上。上图虚线箭头就是表示消息的发送 - 接收的过程。 1.3 Hadoop v1 MapReduce程序问题 JobTracker 是 Map-reduce 的集中处理点,存在单点故障。 JobTracker 完成了太多的任务,造成了过多的资源消耗,当 map-reduce job

DS&ML_用Excel实现按行排序后按列排序,最后高亮重复值

删除回忆录丶 提交于 2020-10-22 09:24:26
记录一个刚刚用本‘笨’办法解决的数据清洗和数据整理问题 前几天收到邮件,对之前我一篇论文的方法进行测试的时候有些疑问。我在复现的时候遇到了以下的问题: 我现在有三个结果,res1, res2 和 res3,他们的结构基本是一致的,都是两列: N8 N84 N18 N4 N22 N64 N10 N17 ... M0P1 M0P2 ... 如果不用 Python,只用 Excel, 如何找出三个结果中的重复值?(N2-N1视为与N1-N2等同) 我的笨办法(不用 VBA) 首先,分别按照编号大小左右排序,再从小到达按列排序,最后拼接字符串。然后只要找出三个结果中的重复值并高亮就行了。 首先,将数据清理一下。因为 M0P 开头的数据只有 M0P1 和 M0P2,我直接通过查找替换将所有 M0P1 换为 1001,M0P2换为1002(1001是因为N*中没有大于500的值,所以1001可以保证 unique)。 然后,我们将第二列向右移动一列,因为空出的这一列要放分列的输出。我们通过文本分列向导(数据->分列)将所有N*拆分成N和数字。如果选择按数据的“分隔符”进行拆分并将N设置为分隔符,则可以直接提取数字(这个在窗口预览的时候就能看到。具体可以参考 微软的这个教程 )。由于之前已经把M0P*转换为数字了,所以分列后这些1001、1002不会动;对于这两列,我们分别进行分列操作

ceph机房断电之后重启遇到问题“Transaction order is cyclic. See system logs for details.”

ぐ巨炮叔叔 提交于 2020-10-15 02:23:43
机房停电,ceph启动出现问题: [root@node1 my-cluster]# systemctl restart ceph.target Failed to stop ceph.target: Transaction order is cyclic. See system logs for details. See system logs and 'systemctl status ceph.target' for details 怎么解决呢?不知道,最后一顿捣鼓,他自己好了。但是并不知道他为什么好了。也什么都没干。 捣鼓的步骤如下: 查看/var/log/ceph/ceph.log说是osd超时,看一下日志报的osd连接的端口对方不存在。 [root@node1 my-cluster]# systemctl restart ceph-osd@0 [root@node1 my-cluster]# systemctl restart ceph-mon@node1 结果都报同一个错误。 是不是重启间隔太短,导致出问题?改下service文件 vim /etc/systemd/system/ceph-mon.target.wants/ceph-mon\@node1.service 把StartLimitInterval改成1min。 其他几个模块类似。 重新试,结果还是报

CEPH 14.2.9(nautilus)手动安装遇到的问题及解决方法

柔情痞子 提交于 2020-10-14 05:43:05
CEPH 14.2.9(nautilus)手动安装遇到的问题及解决方法 "Error ERANGE: pg_num 800 size 2 would mean 2112 total pgs, which exceeds max 750 (mon_max_pg_per_osd 250 * num_in_osds 3)" 官网有人说是BUG( https://tracker.ceph.com/issues/22735 ),有两种解决方式,一种覆盖配置,另一种减小创建pool时的pg数。 我选择的是覆盖配置。 $ vim /etc/ceph/ceph.conf [global] 。。。省略 mon_max_pg_per_osd = 2000 。。。省略 2." 3 monitors have not enabled msgr2" 按步骤配置好ceph-mgr( https://ceph.readthedocs.io/en/latest/mgr/administrator/#mgr-administrator-guide ) 也就是下面两个命令,name是自己定的 # ceph auth get-or-create mgr.$name mon 'allow profile mgr' osd 'allow *' mds 'allow *' # ceph-mgr -i $name 然后执行