本文针对window操作系统与oracle12c的版本。
1.sqlplus执行单个sql文件
1.执行sqlplus登陆命令:sqlplus username/password@host:port/service_name as sysdba (其中普通用户可以不加后面的 as sysdba)
2.在sqlplus下执行sql文件命令:@file_path
2.sqlplus执行多个sql文件
1.新建一个sql文件,在其添加需执行的sql文件路径:
@file_path1
@file_path2
。。。。。
2.在sqlplus下执行新建的sql文件即可
3.oracle导出与导入工具expdp,impdp
使用expdp和impdp时应该注意的事项:
exp和imp是客户端工具程序,它们既可以在客户端使用,也可以在服务端使用。
expdp和impdp是服务端的工具程序,他们只能在oracle服务端使用,不能在客户端使用。
imp只适用于exp导出的文件,不适用于expdp导出文件;impdp只适用于expdp导出的文件,而不适用于exp导出文件。
1.导出
1.以sysdba身份登陆sqlplus,如命令:sqlplus / as sysdba
2.创建逻辑目录,该命令不会在操作系统创建真正的目录,create or replace directory 目录别名 as ‘操作系统上目录的绝对路径’;
如:create directory xyy as ‘d:\cowry\cj’;
3.查看管理理员目录(同时查看操作系统是否存在,因为oracle并不关心该目录是否存在,如果不存在,后面会出错)
select * from dba_directories;
4.赋予需要导出的用户在指定目录的操作权限。命令:grant read,write on directory 目录别名 to user_name;
5.退出sqlplus,在cmd窗口执行以下命令:
1)导出用户
expdp user_name/pwd@host:port/service_name dumpfile=xxx.dmp [logfile=xxx.log] directory=xxx [schemas=xxx] [compression=xxx] [parallel=xxx]
2)导出指定表
expdp user_name/pwd@host:port/service_name dumpfile=xxx.dmp directory=xxx tables=xxx,xxx1,…
还有其他导出表空间,整个数据库等等模式,具体可查相关资料。
dumpfile:导出的数据文件的名称。
logfile:日志文件
directory:导出的逻辑目录,一定要在oracle中创建完成的,并授权用户读写权限
schemas:使用dblink导出的用户不是本地的用户,需要加上schema来确定导出的用户,类似于exp中的owner,但还有一定的区别。
compression:压缩转储文件。有效的关键字值为: all, data_only, [metadata_only] 和 none。
parallel:并行数量。
tables:指定导出的表。
network_link:源系统的远程数据库链接的名称。使用的dblink来远程导出,需要指定dblink的名称。
2.导入
1)导入用户
impdp user_name/pwd@host:port/service_name dumpfile=xxx.dmp [logfile=xxx.log] directory=xxx [remap_schema=xxx] [parallel=xxx]
2)导入表
impdp user_name/pwd@host:port/service_name dumpfile=xxx.dmp directory=xxx [remap_schema=xxx:xxx1] [parallel=xxx] tables=xxx,xxx1,…
remap_schema:将一个用户的的数据迁移到另外一个用户
4.oracle使用sqlloader导入批量数据
sql * loader功能
sql * loader将外部文件中的数据加载到oracle数据库的表中。
它具有强大的数据解析引擎,对数据文件中的数据格式几乎没有限制。您可以使用sql * loader执行以下操作:
-
如果数据文件位于与数据库不同的系统上,则通过网络加载数据。
-
在同一个加载会话期间从多个数据文件加载数据。
-
在同一个加载会话期间将数据加载到多个表中。
-
指定数据的字符集。
-
有选择地加载数据(您可以根据记录的值加载记录)。
-
使用sql函数在加载数据之前处理数据。
-
在指定列中生成唯一的顺序键值。
-
使用操作系统的文件系统访问数据文件。
-
从磁盘,磁带或命名管道加载数据。
-
生成复杂的错误报告,极大地帮助排除故障。
-
加载任意复杂的对象关系数据。
-
使用辅助数据文件来加载lob和集合。
-
使用传统的,直接的路径或外部表负载。
您可以通过两种方式使用sql * loader:带或不带控制文件。控制文件控制sql * loader的行为以及加载中使用的一个或多个数据文件。使用控制文件可以更好地控制加载操作,这对于更复杂的加载情况可能是理想的。但是对于简单加载,您可以在不指定控制文件的情况下使用sql * loader; 这被称为sql * loader express模式。
sqlloader参数说明,具体可在cmd输入sqlldr查看
1 有效的关键字: 2 3 userid -- oracle 用户名/口令 4 control -- 控制文件名 5 log -- 日志文件名 6 bad -- 错误文件名 7 data -- 数据文件名 8 discard -- 废弃文件名 9 discardmax -- 允许废弃的文件的数目 (全部默认) 10 skip -- 要跳过的逻辑记录的数目 (默认 0) 11 load -- 要加载的逻辑记录的数目 (全部默认) 12 errors -- 允许的错误的数目 (默认 50) 13 rows -- 常规路径绑定数组中或直接路径保存数据间的行数 14 (默认: 常规路径 64, 所有直接路径) 15 bindsize -- 常规路径绑定数组的大小 (以字节计) (默认 256000) 16 silent -- 运行过程中隐藏消息 (标题,反馈,错误,废弃,分区) 17 direct -- 使用直接路径 (默认 false) 18 parfile -- 参数文件: 包含参数说明的文件的名称 19 parallel -- 执行并行加载 (默认 false) 20 file -- 要从以下对象中分配区的文件 21 skip_unusable_indexes -- 不允许/允许使用无用的索引或索引分区 (默认 false) 22 skip_index_maintenance -- 没有维护索引, 将受到影响的索引标记为无用 (默认 false) 23 commit_discontinued -- 提交加载中断时已加载的行 (默认 false) 24 readsize -- 读取缓冲区的大小 (默认 1048576) 25 external_table -- 使用外部表进行加载; not_used, generate_only, execute 26 columnarrayrows -- 直接路径列数组的行数 (默认 5000) 27 streamsize -- 直接路径流缓冲区的大小 (以字节计) (默认 256000) 28 multithreading -- 在直接路径中使用多线程 29 resumable -- 对当前会话启用或禁用可恢复 (默认 false) 30 resumable_name -- 有助于标识可恢复语句的文本字符串 31 resumable_timeout -- resumable 的等待时间 (以秒计) (默认 7200) 32 date_cache -- 日期转换高速缓存的大小 (以条目计) (默认 1000) 33 no_index_errors -- 出现任何索引错误时中止加载 (默认 false) 34 partition_memory -- 开始溢出的直接路径分区内存限制 (kb) (默认 0) 35 table -- 用于快速模式加载的表 36 date_format -- 用于快速模式加载的日期格式 37 timestamp_format -- 用于快速模式加载的时间戳格式 38 terminated_by -- 由用于快速模式加载的字符终止 39 enclosed_by -- 由用于快速模式加载的字符封闭 40 optionally_enclosed_by -- (可选) 由用于快速模式加载的字符封闭 41 characterset -- 用于快速模式加载的字符集 42 degree_of_parallelism -- 用于快速模式加载和外部表加载的并行度 43 trim -- 用于快速模式加载和外部表加载的截取类型 44 csv -- 用于快速模式加载的 csv 格式数据文件 45 nullif -- 用于快速模式加载的表级 nullif 子句 46 field_names -- 用于快速模式加载的数据文件第一条记录字段名设置 47 dnfs_enable -- 启用或禁用输入数据文件 direct nfs (dnfs) 的选项 (默认 false) 48 dnfs_readbuffers -- direct nfs (dnfs) 读缓冲区数 (默认 4) 49 sdf_prefix -- 要附加到每个 lob 文件和辅助数据文件的开头的前缀 50 help -- 显示帮助消息 (默认 false) 51 empty_lobs_are_null -- 将空白 lob 设置为空值 (默认 false) 52 defaults -- 直接路径默认值加载; evaluate_once, evaluate_every_row, ignore, ignore_unsupported_evaluate_once, ignore_unsupported_evaluate_every_row 53 direct_path_lock_wait -- 当前已锁定时, 等待表访问权限 (默认 false) 54 55 please note: 命令行参数可以由位置或关键字指定 56 。前者的例子是 'sqlldr 57 scott/tiger foo'; 后一种情况的一个示例是 'sqlldr control=foo 58 userid=scott/tiger'。位置指定参数的时间必须早于 59 但不可迟于由关键字指定的参数。例如, 60 允许 'sqlldr scott/tiger control=foo logfile=log', 但是 61 不允许 'sqlldr scott/tiger control=foo log', 即使 62 参数 'log' 的位置正确。
1.建立控制文件,后缀名为.ctl,在控制文件加入以下内容:
options (skip=num,rows=num,direct=true,bindsize=num)
load data
characterset 字符集
infile “数据文件路径” badfile “错误文件路径,其文件后缀为.bad” discardfile “废弃文件路径,其文件后缀为.dis”
如有多个数据文件继续添加
infile “xxx” badfile “xxx” discardfile “xxx”
……
[操作类型] into table table_name
fields terminated by “xxx”
optionally enclosed by “xxx”
trailing nullcols
(col,col1,col2,…)
参数说明:
skip:跳过开始的行数,即不读取的行数。
rows:对于传统常规路径导入的情况,代表一次提交的行数。
bindsize:每次提交记录的缓冲区的最大值(仅适用于传统常规路径加载),默认256000 bytes。通过bindsize的设定,要比默认值和通过参数rows计算的缓冲区大小更优先。
即bindsize能够制约rows,如果rows提交的数据需要的缓冲区大于bindsize的设定,会以bindsize的设定为准。
direct:使用直接路径(默认false)。
characterset:通常会出现中文乱码问题。即数据文件的字符集编码与oracle字符集编码不一致导致中文乱码问题。其值有:zhs16gbk。。。
操作类型:
insert –为缺省方式,在数据装载开始时要求表为空
append –在表中追加新记录
replace –删除旧记录(用 delete from table 语句),替换成新装载的记录
truncate –删除旧记录(用 truncate table 语句),替换成新装载的记录
fields terminated by:每行字段与字段之间的分隔符。
optionally enclosed by:数据中每个字段用 “” 框起,比如字段中有 “,” 分隔符时。对于包裹的字段为中文,可能会出现导不进数据库,那么可尝试把源数据文件编码格式修改为ascii。
trailing nullcols:如要导入源文件此列内容为空,在导入到数据库表中,此列内容就是null。
2.在cmd窗口执行命令:
sqlldr user_name/pwd@service_name control=控制文件路径 log=日志文件路径
5.oracle使用utl_file包导出批量数据
文件i/o对于数据库的开发来说显得很重要,比如数据库中的一部分数据来自于磁盘文件,那么就需要使用i/o接口把数据导入到数据库中来。在pl/sql中没有直接的i/o接口,
一般在调试程序时可以使用oracle自带的dbms_output包的put_line函数(即向屏幕进行i/o操作)即可,但是对于磁盘文件的i/o操作它就无能为力了。
其实oracle同样也提供了可以进行文件i/o的实用包—–utl_file包,利用这个实用包提供的函数来实现对磁盘的i/o操作。
1.以sysdba身份创建目录:create or replace directory 目录别称 as ‘目录路径’;
2.把路径的读写权限赋予用户:grant read,write on directory 目录别称 to 用户名;
3.在用户中创建以下存储过程:
1 create or replace procedure sql_to_file(p_query in varchar2,p_dir in varchar2,p_filename in varchar2) 2 is 3 l_output utl_file.file_type; 4 l_thecursor integer default dbms_sql.open_cursor; 5 l_columnvalue varchar2(4000); 6 l_status integer; 7 l_colcnt number := 0; 8 l_separator varchar2(1); 9 l_desctbl dbms_sql.desc_tab; 10 p_max_linesize number := 32000; 11 begin 12 l_output := utl_file.fopen(p_dir, p_filename, 'w', p_max_linesize); 13 execute immediate 'alter session set nls_date_format=''yyyy-mm-dd hh24:mi:ss'''; 14 dbms_sql.parse(l_thecursor, p_query, dbms_sql.native); 15 dbms_sql.describe_columns(l_thecursor, l_colcnt, l_desctbl); 16 for i in 1 .. l_colcnt loop 17 utl_file.put(l_output,l_separator || '"' || l_desctbl(i).col_name || '"'); 18 dbms_sql.define_column(l_thecursor, i, l_columnvalue, 4000); 19 l_separator := ','; 20 end loop; 21 utl_file.new_line(l_output); 22 l_status := dbms_sql.execute(l_thecursor); 23 while (dbms_sql.fetch_rows(l_thecursor) > 0) loop 24 l_separator := ''; 25 for i in 1 .. l_colcnt loop 26 dbms_sql.column_value(l_thecursor, i, l_columnvalue); 27 utl_file.put(l_output, 28 l_separator || '"' || 29 trim(both ' ' from replace(l_columnvalue, '"', '""')) || '"'); 30 l_separator := ','; 31 end loop; 32 utl_file.new_line(l_output); 33 end loop; 34 dbms_sql.close_cursor(l_thecursor); 35 utl_file.fclose(l_output); 36 exception 37 when others then 38 raise; 39 end;
4.执行上述过程
exec sql_to_file(‘para‘,’para1‘,’para2‘);
其中第一个参数为:查询数据的sql,第二个为:目录别称,第三个为:导出的文件名。