apache

Application error passthru when using apache mod_proxy

断了今生、忘了曾经 提交于 2021-02-10 06:14:41
问题 Heyas. I'm using mod_proxy with apache2 provide vhost ability to multiple servlet apps running on the local machine. It works fine, for the most part. Requests come into apache then are directed to the application bound on a port on localhost. The app receives the request and responds, which is delivered back to the client by apache. The problem I'm having is that the application delivers 500's on errors, and mod_proxy stomps on them. Often these errors are caused in a ajax request and the

禅道Bug管理工具环境搭建

独自空忆成欢 提交于 2021-02-10 04:30:57
下载地址: http://sourceforge.net/projects/zentao/files/8.2/ZenTaoPMS.8.2.stable.exe/download 1、解压ZenTaoPMS.8.1.3到根目录,比如“C:\ xampp”、“D:\ xampp 2、进入xampp,以管理员身份点击“启动禅道” 3、禅道集成运行环境1.2.6,点击启动 4、系统会自动启动禅道所需要的apache和mysql服务 5、点击“访问禅道”,即可打开禅道环境的首页,5秒钟之后,页面会自动调到禅道的页面,并点击“开源版” 6、禅道项目管理软件的登录账号:admin、密码:123456 7、配置禅道:修改mysql数据库的密码,输入数据库的访问网http://127.0.0.1/phpmyadmin,点击进入“用户”,勾选“root”用户,接着,点击编辑权限 8、在“修改密码”中,输入密码:12345,点击“执行” 9、修改“root”账号的数据库密码,需要在xampp/zentao/config/my.php 里面的数据库密码 10、继续在D:\xampp\phpmyadmin\config.inc.php修改数据库密码 11、在服务器apache:D:\xampp\apache\conf\httpd.conf 更改端口号:80 改为端口号:8088 12、查看数据库mysql:

Hadoop 系列 HDFS:HDFS的Java API( Java API应用)

ⅰ亾dé卋堺 提交于 2021-02-10 02:28:42
HDFS的Java API Java API应用 上传文件 先在本地(客户端)一个文件,比如在D盘下新建一个word2.txt文件,内容随便写 somewhere palyer Hadoop you belong to me 在IDEA中编写Java程序 package com.hadoop.hdfs; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import java.io.IOException; import java.net.URI; public class PutFile { public static void main(String[] args) throws IOException, InterruptedException { //本地文件路径 String local = "D:\\word2.txt"; String dest = "hdfs://192.168.55.128:9000/input/word2.txt"; Configuration cfg=new Configuration(); FileSystem fs= FileSystem.get(URI

HDFS JAVA API

家住魔仙堡 提交于 2021-02-09 20:28:39
HDFS JAVA API 实验目的 1.掌握HDFS JAVA API的 2.了解JAVA API的执行流程 实验原理 1.HDFS(Hadoop Distributed File System)是Hadoop项目的核心子项目,是分布式计算中数据存储管理的基础篇,为了实现本地与HDFS的文件传输,主要借助Eclipse开发环境,通过java编程实现了远程HDFS的文件创建,上传,下载,删除等。 其实对HDSF的文件操作主要有两种方式:命令行的方式和JavaAPI的方式。命令行的方式简单直接,但是必须要求本地机器也是在Linux系统中已经安装了hadoop,这对习惯用windows系统的用户来说不得不安装虚拟机,然后再在虚拟机上安装Linux系统,这是一种挑战。同时windows系统与虚拟机上安装的Linux系统进行文件传输也是要借助一些工具才可以实现。 为了实现以上所遇到诸如系统不一致,手动输入命令等的困扰,我们选择Java API的方式,有专门的API函数,可以在非Hadoop机器上实现访问,同时与系统无关(windows、Linux甚至XP系统也可以)。Hadoop中关于文件操作类基本上全部是在"org.apache.hadoop.fs"包中,Hadoop类库中最终面向用户提供的接口类是FileSystem,该类封装了几乎所有的文件操作,例如CopyToLocalFile

Kafka学习之路

一曲冷凌霜 提交于 2021-02-09 20:12:03
一直在思考写一些什么东西作为2017年开篇博客。突然看到一篇《Kafka学习之路》的博文,觉得十分应景,于是决定搬来这“他山之石”。虽然对于Kafka博客我一向坚持原创,不过这篇来自Confluent团队Gwen Shapira女士的博文实在精彩,所以还是翻译给大家,原文参见 这里 。 ~~~~~~~~~~~~ Kafka学习之路   看上去很多工程师都已经把“学习Kafka”加到了2017年的to-do列表中。这没什么惊讶的,毕竟Apache Kafka已经是一个很火的框架了。只需了解一些基本的Kafka技能我们便可以把消息队列应用到实际的业务系统中,集成应用程序和数据存储,构建流式处理系统并且着手搭建高伸缩性高容错性的微服务架构。所有的这些只需要学习Kafka这一个框架就足够了, 听起来还不错吧? 这篇报道 中Kafka上榜当选了当前最需要掌握的十大大数据技能之一( 译者:好吧, 这么吹我都有点受不了了,这篇报道中提到的技能几乎都是Amazon的,很难让人相信这不是Amazon的软文 ),所以如果你想在自己的领域内出人头地,Kafka值得一试!   好了,那么该如何开始学习Apache Kafka呢?一言以蔽之:因人而异!这取决于你的职业特点。学习Kafka可能有很多种方式,稍后我会详细向你介绍,不过这些方法都有相通的部分,所以让我们先从这些地方开始吧:  

eureka server 单节点与多节点部署演示

邮差的信 提交于 2021-02-09 20:01:17
环境搭建 目录结构(ad-eureka为子模块)   --ad-spring-cloud    --ad-eureka      --pom.xml    --pom.xml 主pom.xml    <?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation ="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"> <modelVersion>4.0.0</modelVersion> <parent> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-parent</artifactId> <version>2.0.1.RELEASE</version> <relativePath/> <!-- lookup parent from repository --> </parent> <modules> <module

skywalking安装运行(docker)

烂漫一生 提交于 2021-02-09 16:08:38
https://github.com/apache/skywalking-docker/tree/master/6/6.5 https://hub.docker.com/r/apache/skywalking-oap-server https://hub.docker.com/r/apache/skywalking-ui mkdir /opt/skywalking-oap-server wget -P /opt/skywalking-oap-server https://github.com/apache/skywalking-docker/blob/master/6/6.5/oap/docker-entrypoint.sh wget -P /opt/skywalking-oap-server https://github.com/apache/skywalking-docker/blob/master/6/6.5/oap/log4j2.xml vim /opt/skywalking-oap-server/Dockerfile FROM apache/skywalking-oap-server:6.5.0 EXPOSE 12800 11800 1234 vim /opt/skywalking-oap-server/docker-compose.yml es: 非docker版

长期活动 | Apache Pulsar 官方:部署企业标志上传征集

萝らか妹 提交于 2021-02-09 12:11:57
关于 Apache Pulsar Apache Pulsar 是 Apache 软件基金会顶级项目,是下一代云原生分布式消息流平台,集消息、存储、轻量化函数式计算为一体,采用计算与存储分离架构设计,支持多租户、持久化存储、多机房跨区域数据复制,具有强一致性、高吞吐、低延时及高可扩展性等流数据存储特性。 GitHub 地址:http://github.com/apache/pulsar/ Apache Pulsar 自 2018 年毕业成为 Apache 软件基金会顶级项目以来,凭借云原生架构与诸多企业级功能特性,吸引了大量的用户和公司部署使用。Apache Pulsar 中文社区里越来越多的团队或组织也对其进行调研、测试并最终落地,比如腾讯、达达集团、BIGO、华为云等等,不一而足。 Pulsar 官网部分用户图示例 在 Apache Pulsar 的 官网 [1] 上, 有专门页面用来展示使用或对 Pulsar 作出贡献的公司。特此,Apache Pulsar 社区联合 Apache Pulsar 商业支持公司 StreamNative 面向社区共同发起倡议: 如果你所在团队、业务线或公司已经在生产环境使用 Pulsar 部分或大部分功能,欢迎将贵司团队或公司标志上传到 Apache Pulsar 官网。StreamNative 将为此活动长期提供指导与辅助。 近期

ActiveMQ+ZooKeeper搭建高可用集群

故事扮演 提交于 2021-02-09 08:58:43
一、说明   实际的应用中,一般为了应用的高可用性,都会搭建集群环境去处理。部署多台应用,这样,即使一台有问题,其他热备应用可以立马顶上,继续提供服务。   ActiveMQ的集群部署,基于zookeeper的应用程序协调服务和levelDB的持久化方案。   本文中,基于一个系统环境,搭建伪集群模式,通过不同端口的配置,达到集群安装的效果。   基本环境:jdk-7u80-linux-x64.tar.gz、Centos 6.9、zookeeper-3.4.12.tar.gz、apache-activemq-5.9.1-bin.tar.gz、Xshell。   应用部署:zookeeper启动3个应用实例,ActiveMQ部署3套应用实例,构成最小单元的集群部署   其中zookeeper的集群搭建,参见之前文章: https://www.cnblogs.com/eric-fang/p/9283904.html 二、ActiveMQ的集群配置   ActiveMQ的主从模型,是一种高可用的解决方案,在zookeeper中注册若干的ActiveMQ Broker,其中只有一台作为主机master对外提供服务,其他作为备份slave保持待机。当master出现问题导致宕机不能正常提供服务的时候,zookeeper通过内部选举,在众多slave中推举出一台作为master继续对外提供服务

Tomcat假死的原因及解决方案

空扰寡人 提交于 2021-02-09 08:05:29
在参与搜人项目时,遇到tomcat假死的问题。 当时情况: 1、ps tomcat正在运行 2、用netstat 查看8080连接情况,有大量的close-wait,还有一些等待连接的状态 3、查看服务器的使用情况,没有过多的消耗内存和CPU 4、重新加载界面,没有报错,只是显示加载失败 5、加载时看到tomcat 日志报错 out of memary 在网上查看资料,问题得到解决 服务器配置:linux+tomcat 现象:Linux服务器没有崩,有浏览器中访问页面,出现无法访问的情况,没有报4xx或5xx错误(假死),并且重启tomcat后,恢复正常。 原因:tomcat默认最大连接数(线程数)200个,默认每一个连接的生命周期2小时(7200秒),tomcat使用http 1.1协议,而http1.1默认是长连接。tomcat接受处理完请求后,socket没有主动关闭,因此如果在2小时内,请求数超过200个,服务器就会出现上述假死现象。 解决方案1:及时断开socket 解决方案2:修改tomcat配置文件,修改最大连接数(增大) 修改server.xml配置文件,Connector节点中增加 acceptCount和maxThreads这两个属性的值,并且使acceptCount大于等于maxThreads: protocol="org.apache.coyote