work

FW : Your credentials did not work in Remote Desktop on Windows 10

一笑奈何 提交于 2019-12-18 03:35:33
Problems with Remote Desktop connections are common. While attempting to connect to the Remote Desktop network, many users have reported the error – Your credentials did not work, The login attempt failed . If you face this issue, obviously, the first step should be verifying the credentials. However, a significant number of users have noted that the credentials were correct and in many cases worked fine earlier. Users have reported this problem on newly installed versions of the operating system and immediately after reinstalling Windows. Your credentials did not work in Remote Desktop The

线程池

不问归期 提交于 2019-12-17 16:46:24
""" @author: zhangjun.xue @time: 2019/12/17 22:06 @file: gevent_work_test.py @desc: """ import time import gevent import requests from threading import Thread from concurrent.futures import ThreadPoolExecutor def gevent_work_test(work_list, func): """ :param work_list: :return: """ res = list() g_list = list() for work in work_list: g_list.append(gevent.spawn(func, work)) gevent.joinall(g_list) for i, g in enumerate(g_list): res.append(g.value) return res def long_time_work(work): s_t = time.time() # time.sleep(5) url = 'http://www.baidu.com' res = requests.get(url=url) print('res.status_code

Linux下查看文件和文件夹大小

不打扰是莪最后的温柔 提交于 2019-12-17 02:09:21
当磁盘大小超过标准时会有报警提示,这时如果掌握df和du命令是非常明智的选择。 df可以查看一级文件夹大小、使用比例、档案系统及其挂入点,但对文件却无能为力。 du可以查看文件及文件夹的大小。 两者配合使用,非常有效。比如用df查看哪个一级目录过大,然后用df查看文件夹或文件的大小,如此便可迅速确定症结。 下面分别简要介绍 df命令可以显示目前所有文件系统的可用空间及使用情形 ,请看下列这个例子: 以下是代码片段: [yayug@yayu ~]$ df -h Filesystem Size Used Avail Use% Mounted on /dev/sda1 3.9G 300M 3.4G 8% / /dev/sda7 100G 188M 95G 1% /data0 /dev/sdb1 133G 80G 47G 64% /data1 /dev/sda6 7.8G 218M 7.2G 3% /var /dev/sda5 7.8G 166M 7.2G 3% /tmp /dev/sda3 9.7G 2.5G 6.8G 27% /usr tmpfs 2.0G 0 2.0G 0% /dev/shm 参数 -h 表示使用「Human-readable」的输出,也就是在档案系统大小使用 GB、MB 等易读的格式。 上面的命令输出的第一个字段(Filesystem)及最后一个字段(Mounted

多线程并发工具类

流过昼夜 提交于 2019-12-17 00:46:19
多线程并发工具类 CountDownLatch,CyclicBarrier,Semaphore,Exchanger CountDownLatch CountDownLatch,用于一个或多个线程等待其他线程完成操作。构造器中的计数值(count)实际上就是闭锁需要等待的线程数量。这个值只能被设置一次,主线程在启动其他线程后立即调用CountDownLatch.await()方法。这样主线程的操作就会在这个方法上阻塞,直到其他线程完成各自的任务。 听到这样的描述,相信有很多读者联想到了join方法,join的工作原理是,不停检查thread是否存活,如果存活则让当前线程永远wait,直到thread线程终止,线程的this.notifyAll 就会被调用。但是join与CountDownLatch还是存在着不少区别。join必须等到整个线程结束才行,但是CountDownLatch只要等到某一条件达成即可: public class JoinWord implements Runnable{ @Override public void run() { System.out.println(Thread.currentThread().getName()+“first work”); } } public class JoinTest { public static void main

UEFI boot: how does that actually work, then?

梦想的初衷 提交于 2019-12-16 21:00:01
本文转载于: https://www.happyassassin.net/2014/01/25/uefi-boot-how-does-that-actually-work-then/ 本文翻译于: http://www.tuicool.com/articles/NNf26jB PDF整理版下载: http://yun.baidu.com/share/link?shareid=3376946296&uk=2643853 It’s AdamW Essay Time again! If you’relooking for something short and snappy, look elsewhere. Kamil Paral kindly informs me I’m a chronicsufferer of Graphomania. Always nice to know what’s wrong with you. IMPORTANT NOTE TO INDUSTRY FOLKS: This blogpost is aimed at regular everyday folks; it’s intended to dispel a few commonmyths and help regular people understand UEFI a bit better. It

Docker+Jenkins+Maven+SVN搭建持续集成环境

…衆ロ難τιáo~ 提交于 2019-12-16 19:07:54
Docker+Jenkins+Maven+SVN搭建持续集成环境 环境拓扑图(实验项目使用PHP环境) 发布流程图 环境说明 系统:Centos 7.4 x64 Docker版本:18.09.0 Maven版本:3.6 Tomcat版本:8 JDK版本:1.8 Jenkins版本:2.7 SVN版本:1.7.14 管理节点Jenkins/SVN:192.168.1.79 测试节点:192.168.1.78 生产节点:192.168.1.77 应用环境部署 1、管理节点:SVN安装配置及简单使用 1.1、安装SVN服务 yum -y install subversion 1.2、创建SVN目录 mkdir /home/svn 1.3、创建SVN仓库名为repos svnadmin create /home/svn/repos 1.4、修改repos库内主配置文件 vi /home/svn/repos/conf/svnserve.conf # none设置不允许匿名访问 anon-access = none # 认证为可写 auth-access = write # 密码数据库文件为passwd password-db = passw # 认证数据库文件为authz authz-db = authz 1.5、修改passwd文件 添加用户 vi /home/svn/repos/conf

ImportError: cannot import name 'login' from 'django.contrib.auth.views'

♀尐吖头ヾ 提交于 2019-12-16 17:09:31
错误提示: File "D:\code\python_work\learning_log\users\urls.py", line 4, in <module> from django.contrib.auth.views import login ImportError: cannot import name 'login' from 'django.contrib.auth.views' (D:\code\python_work\learning_log\ll_env\lib\site-packages\django\contrib\auth\views.py) 修改方法: from django.contrib.auth.views import login 替换为 from django.contrib.auth import login 重新启动服务 来源: https://www.cnblogs.com/cwy6688/p/12049999.html

Linux系统防火墙----Firewalld基础知识

不问归期 提交于 2019-12-16 03:51:16
Linux系统防火墙----Firewalld基础知识 一、Firewalld简介 Firewalld是Centos7的默认防火墙规则管理工具,其拥有两种配置模式:运行时配置和永久配置。通过将端口放在不同的区域里来实现,对来访的计算机进行管理。防火墙的机制是:允许高安全区可以访问地安全区,但是低安全区不可以访问高安全区,其使用100~0进去安全等级划分,一般情况下内网的安全等级为100,外网的安全等级为0,所以外网要想访问内网就需要建立一个安全等级在中间的 军事化区 (安全等级为50),防火墙可以设置协议让安全等级为0的外网计算机访问到军事化区域,内网也可以访问军事化区这样就可以实现互通。图1.1 在Firewalld中,运行是配置是实施生效的,但是配置是储存在系统的缓存中,如果这是重启防火墙或者重新加载那么配置就会失效。而永久配置顾名思义,通过修改配置文件之后重新加载或者重新启动那么修改的服务就会永久生效。所以如果有非常紧急的需求那么就要修改运行时配置,在现实的生产环境中只有在晚上服务器维护时才能够修改永久配置。图1.2 图1.1 图1.2 二、Firewalld区域 Firewalld存在许多区域,在配置时只需要将端口放在相应的区域里进行配置就可以了。如上文中提到的非军事区,public区域是默认的外部计算机访问的区域。图2.1 图2.1 三、Firewalld图形化界面设置

纯手工搭建K8s(单节点)

*爱你&永不变心* 提交于 2019-12-15 17:11:42
准备说明:   因为为纯手动搭建,所以针对安装时需要的一些安装包需提前下载好   cfssl_linux-amd64、   cfssljson_linux-amd64、   cfssl-certinfo_linux-amd64、   etcd-v3.3.10-linux-amd64.tar.gz、   flannel-v0.11.0-linux-amd64.tar.gz、   kubernetes-server-linux-amd64.tar.gz(网络环境原因可以上github上下载或者找台vps下载好然后再从vps上拉下来)   至于各组件的版本可自行决定,如此纯手动的好处是当一步出现问题的时候可查询是否有组件替代方案(国产芯片上很有用。。。) 安装步骤 #### Master节点安装 - step1: 设置机器免密登录 ```shell ssh-keygen ### 一直回车到最后 cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys ###公钥加入到authorized_keys中 systemctl restart sshd ### 重启sshd服务 ssh localhost ### 测试是否免密登录自己 ``` - step2: 关闭防火墙 ```shell systemctl stop firewalld &&

linux中Workqueue机制的分析—— create_workqueue和create_singlethread_workqueue 的使用和区别

南楼画角 提交于 2019-12-13 15:50:38
软硬件协同设计是未来发展的主流,软硬件的界限越来越模糊,软硬件的设计思想是相通的,实现方法是各异的,实现的结果上当然也存在较大差别,因此,很有必要做好软硬件的协同设计。 什么是workqueue?Linux中的Workqueue机制就是为了简化内核线程的创建。通过调用workqueue的接口就能创建内核线程。并且可以根据当前系统CPU的个数创建线程的数量,使得线程处理的事务能够并行化。workqueue是内核中实现简单而有效的机制,他显然简化了内核daemon的创建,方便了用户的编程, Workqueue机制的实现Workqueue机制中定义了两个重要的数据结构,分析如下: 1、cpu_workqueue_struct结构。 该结构将CPU和内核线程进行了绑定。在创建workqueue的过程中,Linux根据当前系统CPU的个数创建cpu_workqueue_struct。在该结构主要维护了一个任务队列,以及内核线程需要睡眠的等待队列,另外还维护了一个任务上下文,即task_struct 2、work_struct结构是对任务的抽象。 在该结构中需要维护具体的任务方法,需要处理的数据,以及任务处理的时间。该结构定义如下: struct work_struct { unsigned long pending; struct list_head entry; void (*func)