加入收藏 | 设为首页 | 会员中心 | 我要投稿 晋中站长网 (https://www.0354zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长学院 > MySql教程 > 正文

mysql 导出数据 insert_mysql导入导出数据

发布时间:2023-01-08 11:31:14 所属栏目:MySql教程 来源:网络
导读: mysqldump是MySQL自带的导出数据工具,通常我们用它来导出MySQL中,但是有时候我们需要导出MySQL数据库中某个表的部分数据作为测试。
mysqldump命令中带有一个 --where/-w 参数,它用来设定

mysqldump是MySQL自带的导出数据工具,通常我们用它来导出MySQL中,但是有时候我们需要导出MySQL数据库中某个表的部分数据作为测试。

mysqldump命令中带有一个 --where/-w 参数,它用来设定数据导出的条件,使用方式和SQL查询命令中中的where基本上相同,命令格式如下:

导出单个表结构导出部分数据

mysqldump -u用户名 -p密码 数据库名 表名 --where="筛选条件" > 导出文件路径

mysqldump -h54.0.88.53 -uroot -ppassword chen canal_amt1 --where = sensorid=11 and fieldid=0 > /home/kang/Desktop/temp/test.sql

mysqldump -uroot -p123456 kang organ --where parentId=1 > /home/kang/Desktop/temp/organ2.sql

mysqldump -uroot -p123456 kang organ --where="parentId=1" > /home/kang/Desktop/temp/organ2.sql

mysqldump -uroot -p123456 kang organ --where="1=1 limit 5"> /home/kang/Desktop/temp/organ2.sql

mysqldump -uroot -p123456 kang organ --where="true limit 5"> /home/kang/Desktop/temp/organ2.sql

导出数据库所有表的前n条记录

mysqldump -uroot -p123456 kang --where="1=1 limit 5"> /home/kang/Desktop/temp/organ2.sql

导出多个表加相同条件记录

mysqldump -h54.0.88.53 -uroot -ppassword chen cust_tran_rank khflag credit_card cust_tran other_amt large_amt_detail large_amt large_avgrank --where="cust_no='%430102%' limit 100" >/home/labs/kang/custno.sql

导入

use database;

source /home/kang/Desktop/temp/organ2.sql;

mysqldump可以包括其他参数:

备份数据库

#mysqldump 数据库名 >数据库备份名

#mysqldump -A -u用户名 -p密码 数据库名>数据库备份名

#mysqldump -d -A --add-drop-table -uroot -p >xxx.sql

1.导出结构不导出数据

mysqldump -d 数据库名 -uroot -p > xxx.sql

mysqldump -h localhost -uroot -p123456 -d database table > dump.sql

2.导出数据不导出结构

mysqldump -t 数据库名 -uroot -p > xxx.sql

3.导出数据和表结构

mysqldump 数据库名 -uroot -p > xxx.sql

mysqldump -h localhost -uroot -p123456 database table > dump.sql

为避免敏感信息,导入后将某一字段改变中间几位,如8-11位

其他选项参数:

--add-locks

在每个表导出之前增加LOCK TABLES并且之后UNLOCK TABLE。(为了使得更快地插入到MySQL)。

--add-drop-table

在每个create语句之前增加一个drop table。

--allow-keywords

允许创建是关键词的列名字。这由表名前缀于每个列名做到。

-c, --complete-insert

使用完整的insert语句(用列名字)。

-C, --compress

如果客户和服务器均支持压缩MySQL 导出数据,压缩两者间所有的信息。

--delayed

用INSERT DELAYED命令插入行。

-e, --extended-insert

使用全新多行INSERT语法。(给出更紧缩并且更快的插入语句)

-#, --debug[=option_string]

跟踪程序的使用(为了调试)。

--help

显示一条帮助消息并且退出。

--fields-terminated-by=...

--fields-enclosed-by=...

--fields-optionally-enclosed-by=...

--fields-escaped-by=...

--fields-terminated-by=...

这些选择与-T选择一起使用,并且有相应的LOAD DATA INFILE子句相同的含义。

LOAD DATA INFILE语法。

-F, --flush-logs

在开始导出前,洗掉在MySQL服务器中的日志文件。

-f, --force,

即使我们在一个表导出期间得到一个SQL错误,继续。

-l, --lock-tables.

为开始导出锁定所有表。

-t, --no-create-info

不写入表创建信息(CREATE TABLE语句)

-d, --no-data

不写入表的任何行信息。表的结构的导出,这是很有用的!

--opt

同--quick --add-drop-table --add-locks --extended-insert --lock-tables。

为读入一个MySQL服务器的尽可能最快的导出。

-pyour_pass, --password[=your_pass]

与服务器连接时使用的口令。如果你不指定“=your_pass”部分,mysqldump需要来自终端的口令。

-P port_num, --port=port_num

与一台主机连接时使用的TCP/IP端口号。(这用于连接到localhost以外的主机,因为它使用 Unix套接字。)

-q, --quick

不缓冲查询,直接导出至stdout;使用mysql_use_result()做它。

-S /path/to/socket, --socket=/path/to/socket

与localhost连接时(它是缺省主机)使用的套接字文件。

-T, --tab=path-to-some-directory

对于每个给定的表,创建一个table_name.sql文件,它包含SQL CREATE 命令,和一个table_name.txt文件,它包含数据。注意:这只有在mysqldump运行在mysqld守护进程运行的同一台机器上的时候才工作。.txt文件的格式根据--fields-xxx和 --lines--xxx选项来定。 。

-O var=option, --set-variable var=option设置一个变量的值。可能的变量被列在下面。

-v, --verbose

冗长模式。打印出程序所做的更多的信息。

-w, --where='where-condition'

只导出被选择了的记录;注意引号是强制的!

"--where=user='jimf'" "-wuserid>1" "-wuserid

Hive导出数据

-e 表示后面直接接带双引号的sql语句,而-f是接一个文件,文件的内容为一个sql语句,如

SELECT a.* FROM testhivedrivertable2 a

使用-e导出例子:

hive -e “SELECT a.* FROM testhivedrivertable2 a” >> /usr/local/hive-0.9.0/examples/output/1.txt

使用-f导出例子:

hive -f /usr/local/hive-0.9.0/examples/sql.txt >> /usr/local/hive-0.9.0/examples/output/2.txt

导入:

create table test_hbase(id int,name string) row format delimited fields terminated by ',' stored as textfile;

load data local inpath '/home/kang/hive/test_hbase.txt' overwrite into table test_hbase;

When I try to configure items in hadoop-evn.sh/hbase-env.sh( e.g. change JVM parameters, add jars to hadoop classpath), it seems that Ambari only exposes a small set of configuration items in web UI. Is it possible to manually configure hadoop-env.sh/hbase-env.sh in the master node and then use Ambari to distribute them to the whole cluster

(编辑:晋中站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!