sqoop

Ubuntu配置Hadoop——(三)安装MySql以及Sqoop

喜欢而已 提交于 2020-01-11 05:34:23
安装Mysql $ sudo apt-get update $ sudo apt-get -install mysql-server 初始化配置: $ sudo mysql_secure_installation 检查mysql服务状态 $ systemctl status mysql.service 安装Sqoop 第一步,下载 网页: http://www.apache.org/dyn/closer.cgi/sqoop 找到你适合的版本下载 $ sudo curl -O http://mirror.bit.edu.cn/apache/sqoop/1.4.7/sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz 第二步,解压并移到正确的地方,建立一个别名 $ sudo tar -xvf sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz $ sudo mv sqoop-1.4.7.bin__hadoop-2.6.0 /srv/ $ sudo chown -R hadoop:hadoop /srv/sqoop-1.4.7.bin__hadoop-2.6.0 $ sudo ln -s /srv/sqoop-1.4.7.bin__hadoop-2.6.0 /srv/sqoop 第三步,配置环境变量 $ sudo su hadoop $ vim

Sqoop import without primary key in RDBMS

别说谁变了你拦得住时间么 提交于 2020-01-11 02:11:24
问题 Can I import RDBMS table data (table doesn't have a primary key) to hive using sqoop? If yes, then can you please give the sqoop import command. I have tried with sqoop import general command, but it failed. 回答1: If your table has no primary key defined then you have to give -m 1 option for importing the data or you have to provide --split-by argument with some column name, otherwise it gives the error: ERROR tool.ImportTool: Error during import: No primary key could be found for table <table

大数据框架开发基础之Sqoop(1) 入门

我们两清 提交于 2020-01-11 00:15:12
Sqoop是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql、postgresql…)间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。 Sqoop的基本认知 原理 将导入或导出命令翻译成mapreduce程序来实现。 在翻译出的mapreduce中主要是对inputformat和outputformat进行定制。 安装 Sqoop的安装也很简单,首先我们需要有有一个 Sqoop安装包 ,这个包老夫也提供了。 我们在如下目录中: drwxr-xr-x 2 corp corp 4096 Dec 19 2017 bin -rw-rw-r-- 1 corp corp 55089 Dec 19 2017 build.xml -rw-rw-r-- 1 corp corp 47426 Dec 19 2017 CHANGELOG.txt -rw-rw-r-- 1 corp corp 9880 Dec 19 2017 COMPILING.txt drwxr-xr-x 2 corp corp 4096 Dec 19 2017 conf drwxr-xr-x 5 corp corp 4096 Dec 19 2017 docs drwxr

Sqoop的安装和使用

天涯浪子 提交于 2020-01-07 14:10:11
一、概述 sqoop 是 apache 旗下一款“Hadoop 和关系数据库服务器之间传送数据”的工具。 核心的功能有两个: 导入、迁入 导出、迁出 导入数据 :MySQL,Oracle 导入数据到 Hadoop 的 HDFS、HIVE、HBASE 等数据存储系统 导出数据 :从 Hadoop 的文件系统中导出数据到关系数据库 mysql 等 Sqoop 的本质还是一个命令行工具,和 HDFS,Hive 相比,并没有什么高深的理论。 sqoop: 工具:本质就是迁移数据, 迁移的方式:就是把sqoop的迁移命令转换成MR程序 hive 工具,本质就是执行计算,依赖于HDFS存储数据,把SQL转换成MR程序 二、工作机制 将导入或导出命令翻译成 MapReduce 程序来实现 在翻译出的 MapReduce 中主要是对 InputFormat 和 OutputFormat 进行定制 三、安装 1、前提概述 将来sqoop在使用的时候有可能会跟那些系统或者组件打交道? HDFS, MapReduce, YARN, ZooKeeper, Hive, HBase, MySQL 下载地址 http://mirrors.hust.edu.cn/apache/ sqoop (1)上传解压缩安装包到指定目录 [hadoop@hadoop3 ~]$ tar -zxvf sqoop-1.4.6.bin

sqoop之安装与配置

女生的网名这么多〃 提交于 2020-01-07 08:40:49
下面来记录并分享下sqoop相关: 1、下载安装包 wget https://mirrors.tuna.tsinghua.edu.cn/apache/sqoop/1.99.7/sqoop-1.99.7-bin-hadoop200.tar.gz 2、解压安装包 tar -xvf sqoop-1.99.7-bin-hadoop200.tar.gz mv sqoop-1.99.7-bin-hadoop200.tar.gz /usr/lib/sqoop cd /usr/lib/sqoop 3、根据实际安装目录配置环境变量 export HADOOP_HOME= export HADOOP_COMMON_HOME= export HADOOP_HDFS_HOME= export HADOOP_MAPRED_HOME= export HADOOP_YARN_HOME= 如果已经配置$HADOOP_HOME变量,sqoop将会使用以下路径下的配置文件: $HADOOP_HOME/share/hadoop/common, $HADOOP_HOME/share/hadoop/hdfs, $HADOOP_HOME/share/hadoop/mapreduce and $HADOOP_HOME/share/hadoop/yarn 4、hadoop配置 修改core-site.xml配置文件:

Sqoop export error - cause:org.apache.hadoop.mapreduce.lib.input.InvalidInputException: Input path does not exist

╄→尐↘猪︶ㄣ 提交于 2020-01-07 04:23:32
问题 I am developing a java program. The java program exports data from hive to mysql. First, I write the code ProcessBuilder pb = new ProcessBuilder("sqoop-export", "export", "--connect", "jdbc:mysql://localhost/mydb", "--hadoop-home", "/home/yoonhok/development/hadoop-1.1.1", "--table", "mytable", "--export-dir", "/user/hive/warehouse/tbl_2", "--username", "yoonhok", "--password", "1234"); try { Process p = pb.start(); if (p.waitFor() != 0) { System.out.println("Error: sqoop-export failed.");

Sqoop function '--map-column-hive' being ignored

落爺英雄遲暮 提交于 2020-01-07 03:45:31
问题 I am trying to import a file into hive as parquet and the --map-column-hive column_name=timestamp is being ignored. The column 'column_name' is originally of type datetime in sql and it converts it into bigint in parquet. I want to convert it to timestamp format through sqoop but it is not working. sqoop import \ --table table_name \ --driver com.microsoft.sqlserver.jdbc.SQLServerDriver \ --connect jdbc:sqlserver://servername \ --username user --password pw \ --map-column-hive column_name

Running `sqoop-export` occasionally terminates Unity session

戏子无情 提交于 2020-01-06 15:51:16
问题 Bizarre as it sounds, it really happens: Ubuntu 16.04.1 sqoop 1.4.6 when I run the command below on my machine which also is a single node hadoop cluster, it (occasionally) kills all hadoop process (!) and terminates the unity session. sqoop-export --connect jdbc:postgresql://127.0.0.1:5432/db_test --table \ sqoop_quote_6faba4614c --username user --password pass --export-dir \ hdfs://localhost:9000/inputs/id-name.csv --batch -m 1 When this happens, any further attempts consistently terminates

sqoop 安装配置及下载地址

喜你入骨 提交于 2020-01-06 14:54:48
使用安装包版本: sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz 下载地址 http://www.apache.org/dyn/closer.lua/sqoop/ 一.简介 Sqoop是一种旨在在Hadoop与关系数据库或大型机之间传输数据的工具。您可以使用Sqoop将数据从MySQL或Oracle等关系数据库管理系统(RDBMS)或大型机导入Hadoop分布式文件系统(HDFS),在Hadoop MapReduce中转换数据,然后将数据导出回RDBMS 。 二.安装 1、解压sqoop [root@master app] # pwd / root / app [root@master app] # tar -zxvf sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz -C /usr/local/src/ 2、环境变量 [root@master app] # vi ~/.bash_profile export SQOOP_HOME= / usr / local / src / sqoop - 1 . 4 . 7 . bin__hadoop - 2 . 6 . 0 export PATH= $PATH : $SQOOP_HOME / bin [root@master app] # source ~/.bash_profile 3

Why sqoop job is not creating dynamic sub-directory date wise?

喜你入骨 提交于 2020-01-06 08:36:06
问题 I am using sqoop to import Oracle data to HDFS directory. I have created the sqoop job for the same. I have used follwoing command to create sqoop job- sqoop job --create TABLE_NAME -- import --connect jdbc:oracle:thin:/system@HOST_NAME:PORT:SERVICE --username USERNAME --password-file /MYPASSWORD.txt --fields-terminated-by ',' --enclosed-by '"' --table USERNAME.TABLE_NAME --target-dir /TABLE_NAME/$(date --date "-1 days" +%F)/ -m 1 --incremental append --check-column DATE_COLUMN --last-value