对事务进行的大容量复制操作
使用 Microsoft JDBC Driver 4.1 for SQL Server 或更早版本(不支持 SQLServerBulkCopy 类)时,可以改为执行 SQL Server Transact-SQL BULK INSERT 语句。
大容量复制示例设置
SQLServerBulkCopy
类可用于只将数据写入 SQL Server 表。 本文所示的代码示例使用 SQL Server 示例数据库
AdventureWorks
。 为避免更改代码示例中的现有表,请将数据写入最先创建的表中。
BulkCopyDemoMatchingColumns
和
BulkCopyDemoDifferentColumns
表均基于 AdventureWorks
Production.Products
表。 在使用这些表的代码示例中,数据从
Production.Products
表添加到其中一个示例表中。 在该示例说明如何将列从源数据映射到目标表时,使用
BulkCopyDemoDifferentColumns
表;对于大多数其他示例,则使用
BulkCopyDemoMatchingColumns
。
多个代码示例演示如何使用一个
SQLServerBulkCopy
类写入多个表。 在这些示例中,
BulkCopyDemoOrderHeader
和
BulkCopyDemoOrderDetail
表用作目标表。 这些表基于 AdventureWorks 中的
Sales.SalesOrderHeader
和
Sales.SalesOrderDetail
表。
提供了
SQLServerBulkCopy
代码示例以演示仅使用
SQLServerBulkCopy
时的语法。 如果源表和目标表位于同一 SQL Server 实例中,可以更便捷地使用 TRANSACT-SQL INSERT ...用于复制数据的 SELECT 语句。
若要创建正确运行代码示例所需的表,必须在 SQL Server 数据库中运行以下 Transact-SQL 语句。
USE AdventureWorks2022;
IF EXISTS (SELECT * FROM dbo.sysobjects
WHERE id = object_id(N'[dbo].[BulkCopyDemoMatchingColumns]')
AND OBJECTPROPERTY(id, N'IsUserTable') = 1)
DROP TABLE [dbo].[BulkCopyDemoMatchingColumns]
CREATE TABLE [dbo].[BulkCopyDemoMatchingColumns]([ProductID] [int] IDENTITY(1,1) NOT NULL,
[Name] [nvarchar](50) NOT NULL,
[ProductNumber] [nvarchar](25) NOT NULL,
CONSTRAINT [PK_ProductID] PRIMARY KEY CLUSTERED
[ProductID] ASC
) ON [PRIMARY]) ON [PRIMARY]
IF EXISTS (SELECT * FROM dbo.sysobjects
WHERE id = object_id(N'[dbo].[BulkCopyDemoDifferentColumns]')
AND OBJECTPROPERTY(id, N'IsUserTable') = 1)
DROP TABLE [dbo].[BulkCopyDemoDifferentColumns]
CREATE TABLE [dbo].[BulkCopyDemoDifferentColumns]([ProdID] [int] IDENTITY(1,1) NOT NULL,
[ProdNum] [nvarchar](25) NOT NULL,
[ProdName] [nvarchar](50) NOT NULL,
CONSTRAINT [PK_ProdID] PRIMARY KEY CLUSTERED
[ProdID] ASC
) ON [PRIMARY]) ON [PRIMARY]
IF EXISTS (SELECT * FROM dbo.sysobjects
WHERE id = object_id(N'[dbo].[BulkCopyDemoOrderHeader]')
AND OBJECTPROPERTY(id, N'IsUserTable') = 1)
DROP TABLE [dbo].[BulkCopyDemoOrderHeader]
CREATE TABLE [dbo].[BulkCopyDemoOrderHeader]([SalesOrderID] [int] IDENTITY(1,1) NOT NULL,
[OrderDate] [datetime] NOT NULL,
[AccountNumber] [nvarchar](15) NULL,
CONSTRAINT [PK_SalesOrderID] PRIMARY KEY CLUSTERED
[SalesOrderID] ASC
) ON [PRIMARY]) ON [PRIMARY]
IF EXISTS (SELECT * FROM dbo.sysobjects
WHERE id = object_id(N'[dbo].[BulkCopyDemoOrderDetail]')
AND OBJECTPROPERTY(id, N'IsUserTable') = 1)
DROP TABLE [dbo].[BulkCopyDemoOrderDetail]
CREATE TABLE [dbo].[BulkCopyDemoOrderDetail]([SalesOrderID] [int] NOT NULL,
[SalesOrderDetailID] [int] NOT NULL,
[OrderQty] [smallint] NOT NULL,
[ProductID] [int] NOT NULL,
[UnitPrice] [money] NOT NULL,
CONSTRAINT [PK_LineNumber] PRIMARY KEY CLUSTERED
[SalesOrderID] ASC,
[SalesOrderDetailID] ASC
) ON [PRIMARY]) ON [PRIMARY]
单次大容量复制操作
执行 SQL Server 大容量复制操作的最简单方法是针对数据库执行单次操作。 默认情况下,大容量复制操作作为独立的操作执行:复制操作以非事务的方式执行,不可对其进行回滚。
如果在发生错误时需要回滚全部或部分大容量复制,可以使用 SQLServerBulkCopy
托管的事务,或者在现有事务内执行大容量复制操作。
有关详细信息,请参阅事务和大容量复制操作
执行大容量复制操作的常规步骤如下:
连接到源服务器并获取要复制的数据。 如果可以从 ResultSet
对象或 ISQLServerBulkRecord
实现中检索数据,则数据也可以来自其他来源。
连接到目标服务器(除非希望 SQLServerBulkCopy
为你建立连接)。
创建 SQLServerBulkCopy
对象,通过 setBulkCopyOptions
设置任何必要的属性。
调用 setDestinationTableName
方法以指示用于大容量插入操作的目标表。
调用 writeToServer
方法之一。
可以选择通过 setBulkCopyOptions
更新属性,并根据需要再次调用 writeToServer
。
调用 close
,或将大容量复制操作包装在 try-with-resources 语句内。
我们建议使源列与目标列数据类型相匹配。 如果数据类型不匹配,则 SQLServerBulkCopy
会尝试将每个源值转换为目标数据类型。 转换可能会影响性能,也可能会导致意外错误。 例如,在多数情况下,Double 数据类型可转换为 Decimal 数据类型,但并非总是如此。
以下应用程序演示了如何使用 SQLServerBulkCopy
类加载数据。 在此示例中,ResultSet
用于将数据从 SQL Server AdventureWorks 数据库的 Production.Product 表复制到相同数据库的一个类似的表中。
除非已按表设置中所述创建了工作表,否则将不会运行此示例。 提供此代码是为了演示仅使用 SQLServerBulkCopy
时的语法。 如果源表和目标表位于同一 SQL Server 实例中,可以更便捷地使用 TRANSACT-SQL INSERT ...用于复制数据的 SELECT 语句。
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.SQLException;
import java.sql.Statement;
import com.microsoft.sqlserver.jdbc.SQLServerBulkCopy;
public class BulkCopySingle {
public static void main(String[] args) {
String connectionUrl = "jdbc:sqlserver://<server>:<port>;encrypt=true;databaseName=AdventureWorks;user=<user>;password=<password>";
String destinationTable = "dbo.BulkCopyDemoMatchingColumns";
int countBefore, countAfter;
ResultSet rsSourceData;
try (Connection sourceConnection = DriverManager.getConnection(connectionUrl);
Connection destinationConnection = DriverManager.getConnection(connectionUrl);
Statement stmt = sourceConnection.createStatement();
SQLServerBulkCopy bulkCopy = new SQLServerBulkCopy(destinationConnection)) {
// Empty the destination table.
stmt.executeUpdate("DELETE FROM " + destinationTable);
// Perform an initial count on the destination table.
countBefore = getRowCount(stmt, destinationTable);
// Get data from the source table as a ResultSet.
rsSourceData = stmt.executeQuery("SELECT ProductID, Name, ProductNumber FROM Production.Product");
// In real world applications you would
// not use SQLServerBulkCopy to move data from one table to the other
// in the same database. This is for demonstration purposes only.
// Set up the bulk copy object.
// Note that the column positions in the source
// table match the column positions in
// the destination table so there is no need to
// map columns.
bulkCopy.setDestinationTableName(destinationTable);
// Write from the source to the destination.
bulkCopy.writeToServer(rsSourceData);
// Perform a final count on the destination
// table to see how many rows were added.
countAfter = getRowCount(stmt, destinationTable);
System.out.println((countAfter - countBefore) + " rows were added.");
// Handle any errors that may have occurred.
catch (SQLException e) {
e.printStackTrace();
private static int getRowCount(Statement stmt,
String tableName) throws SQLException {
ResultSet rs = stmt.executeQuery("SELECT COUNT(*) FROM " + tableName);
rs.next();
int count = rs.getInt(1);
rs.close();
return count;
下面的示例说明了如何使用 executeUpdate
方法执行 BULK INSERT 语句。
数据源的文件路径相对于服务器。 服务器进程必须有权访问该路径,才能成功执行大容量复制操作。
try (Connection con = DriverManager.getConnection(connectionUrl);
Statement stmt = con.createStatement()) {
// Perform the BULK INSERT
stmt.executeUpdate(
"BULK INSERT Northwind.dbo.[Order Details] " + "FROM 'f:\\mydata\\data.tbl' " + "WITH ( FORMATFILE='f:\\mydata\\data.fmt' )");
多次大容量复制操作
可以使用 SQLServerBulkCopy
类的单个实例执行多次大容量复制操作。 如果在两次复制之间更改了操作参数(例如,目标表的名称),则必须首先更新它们,然后再对任意 writeToServer
方法进行任何后续调用,如以下示例所示。 除非已明确更改,否则将所有属性值保持为与给定实例的较早大容量复制上的属性值相同。
与每个操作使用单独实例相比,使用 SQLServerBulkCopy
的同一实例执行多次大容量复制操作通常效率更高。
在使用同一 SQLServerBulkCopy
对象执行多次大容量复制操作时,对于每个操作中的源信息或目标信息相同与否没有限制。 但是,必须确保每次写入服务器时正确设置列关联信息。
除非已按表设置中所述创建了工作表,否则将不会运行此示例。 提供此代码是为了演示仅使用 SQLServerBulkCopy
时的语法。 如果源表和目标表位于同一 SQL Server 实例中,可以更便捷地使用 TRANSACT-SQL INSERT ...用于复制数据的 SELECT 语句。
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.PreparedStatement;
import java.sql.ResultSet;
import java.sql.SQLException;
import java.sql.Statement;
import com.microsoft.sqlserver.jdbc.SQLServerBulkCopy;
import com.microsoft.sqlserver.jdbc.SQLServerBulkCopyOptions;
public class BulkCopyMultiple {
public static void main(String[] args) {
String connectionUrl = "jdbc:sqlserver://<server>:<port>;encrypt=true;databaseName=AdventureWorks;user=<user>;password=<password>";
String destinationHeaderTable = "dbo.BulkCopyDemoOrderHeader";
String destinationDetailTable = "dbo.BulkCopyDemoOrderDetail";
int countHeaderBefore, countDetailBefore, countHeaderAfter, countDetailAfter;
ResultSet rsHeader, rsDetail;
try (Connection sourceConnection1 = DriverManager.getConnection(connectionUrl);
Connection sourceConnection2 = DriverManager.getConnection(connectionUrl);
Statement stmt = sourceConnection1.createStatement();
PreparedStatement preparedStmt1 = sourceConnection1.prepareStatement(
"SELECT [SalesOrderID], [OrderDate], [AccountNumber] FROM [Sales].[SalesOrderHeader] WHERE [AccountNumber] = ?;");
PreparedStatement preparedStmt2 = sourceConnection2.prepareStatement(
"SELECT [Sales].[SalesOrderDetail].[SalesOrderID], [SalesOrderDetailID], [OrderQty], [ProductID], [UnitPrice] FROM "
+ "[Sales].[SalesOrderDetail] INNER JOIN [Sales].[SalesOrderHeader] ON "
+ "[Sales].[SalesOrderDetail].[SalesOrderID] = [Sales].[SalesOrderHeader].[SalesOrderID] WHERE [AccountNumber] = ?;");
SQLServerBulkCopy bulkCopy = new SQLServerBulkCopy(connectionUrl);) {
// Empty the destination tables.
stmt.executeUpdate("DELETE FROM " + destinationHeaderTable);
stmt.executeUpdate("DELETE FROM " + destinationDetailTable);
// Perform an initial count on the destination
// table with matching columns.
countHeaderBefore = getRowCount(stmt, destinationHeaderTable);
// Perform an initial count on the destination
// table with different column positions.
countDetailBefore = getRowCount(stmt, destinationDetailTable);
// Get data from the source table as a ResultSet.
// The Sales.SalesOrderHeader and Sales.SalesOrderDetail
// tables are quite large and could easily cause a timeout
// if all data from the tables is added to the destination.
// To keep the example simple and quick, a parameter is
// used to select only orders for a particular account
// as the source for the bulk insert.
preparedStmt1.setString(1, "10-4020-000034");
rsHeader = preparedStmt1.executeQuery();
// Get the Detail data in a separate connection.
preparedStmt2.setString(1, "10-4020-000034");
rsDetail = preparedStmt2.executeQuery();
// Create the SQLServerBulkCopySQLServerBulkCopy object.
SQLServerBulkCopyOptions copyOptions = new SQLServerBulkCopyOptions();
copyOptions.setBulkCopyTimeout(100);
bulkCopy.setBulkCopyOptions(copyOptions);
bulkCopy.setDestinationTableName(destinationHeaderTable);
// Guarantee that columns are mapped correctly by
// defining the column mappings for the order.
bulkCopy.addColumnMapping("SalesOrderID", "SalesOrderID");
bulkCopy.addColumnMapping("OrderDate", "OrderDate");
bulkCopy.addColumnMapping("AccountNumber", "AccountNumber");
// Write rsHeader to the destination.
bulkCopy.writeToServer(rsHeader);
// Set up the order details destination.
bulkCopy.setDestinationTableName(destinationDetailTable);
// Clear the existing column mappings
bulkCopy.clearColumnMappings();
// Add order detail column mappings.
bulkCopy.addColumnMapping("SalesOrderID", "SalesOrderID");
bulkCopy.addColumnMapping("SalesOrderDetailID", "SalesOrderDetailID");
bulkCopy.addColumnMapping("OrderQty", "OrderQty");
bulkCopy.addColumnMapping("ProductID", "ProductID");
bulkCopy.addColumnMapping("UnitPrice", "UnitPrice");
// Write rsDetail to the destination.
bulkCopy.writeToServer(rsDetail);
// Perform a final count on the destination
// tables to see how many rows were added.
countHeaderAfter = getRowCount(stmt, destinationHeaderTable);
countDetailAfter = getRowCount(stmt, destinationDetailTable);
System.out.println((countHeaderAfter - countHeaderBefore) + " rows were added to the Header table.");
System.out.println((countDetailAfter - countDetailBefore) + " rows were added to the Detail table.");
// Handle any errors that may have occurred.
catch (SQLException e) {
e.printStackTrace();
private static int getRowCount(Statement stmt,
String tableName) throws SQLException {
ResultSet rs = stmt.executeQuery("SELECT COUNT(*) FROM " + tableName);
rs.next();
int count = rs.getInt(1);
rs.close();
return count;
事务和大容量复制操作
大容量复制操作可以作为独立操作或作为多步事务的一部分执行。 后面这个选项使你能够在同一事务中执行多个大容量复制操作,以及执行其他数据库操作(例如插入、更新和删除),同时仍能够提交或回滚整个事务。
默认情况下,大容量复制操作作为独立的操作执行。 大容量复制操作以非事务方式执行,不可以对其进行回滚。 如果在发生错误时需要回滚全部或部分大容量复制,可以使用 SQLServerBulkCopy
托管的事务,或者在现有事务内执行大容量复制操作。
Azure 数据仓库的大容量复制扩展
驱动程序版本 v8.4.1 添加了新的连接属性 sendTemporalDataTypesAsStringForBulkCopy
。 默认情况下,此布尔属性为 true
。
将此连接属性设置为 false
时,将发送 DATE、DATETIME、DATIMETIME2、DATETIMEOFFSET、SMALLDATETIME 和 TIME 数据类型作为其各自的类型,而不是以 String 的形式发送它们。
将时态数据类型作为其各自的类型发送时,用户可以将数据发送到 Azure Synapse Analytics 的这些列,这在之前是不可能的,因为驱动程序将数据转换为 String。 将字符串数据发送到时态列适用于 SQL Server,因为 SQL Server 会为我们执行隐式转换,但与 Azure Synapse Analytics 不同。
此外,即使不将此连接字符串设置为“false”,在 v8.4.1 及更高版本中,MONEY 和 SMALLMONEY 数据类型也将作为 MONEY / SMALLMONEY 数据类型发送,而不是 DECIMAL,这同样允许将这些数据类型大容量复制到 Azure Synapse Analytics 中。
Azure 数据仓库的大容量复制扩展支持限制
目前有两个限制:
将此连接属性设置为 false
时,驱动程序将仅接受每个时态数据类型的默认字符串文字格式,例如:
DATE: YYYY-MM-DD
DATETIME: YYYY-MM-DD hh:mm:ss[.nnn]
DATETIME2: YYYY-MM-DD hh:mm:ss[.nnnnnnn]
DATETIMEOFFSET: YYYY-MM-DD hh:mm:ss[.nnnnnnn] [{+/-}hh:mm]
SMALLDATETIME:YYYY-MM-DD hh:mm:ss
TIME: hh:mm:ss[.nnnnnnn]
将此连接属性设置为 false
时,为大容量复制指定的列类型必须遵循此处的数据类型映射图。 例如,以前的用户可以指定 java.sql.Types.TIMESTAMP
将数据大容量复制到 DATE
列,但启用此功能后,它们必须指定 java.sql.Types.DATE
来执行相同操作。
下面的应用程序演示了非事务大容量复制操作在操作中途遇到错误时将发生什么情况。
在该示例中,源表和目标表分别包含一个名为 ProductID
的标识列。 该代码首先通过删除所有行,然后插入已知其 ProductID
存在于源表中的单行,准备目标表。 默认情况下,在目标表中为添加的每个行生成一个标识列的新值。 在此示例中,在打开连接时设置某个选项,该选项用于强制执行大容量加载过程以改为使用源表中的标识值。
执行大容量复制操作,并将 BatchSize
属性设置为 10。 当操作遇到无效行时,将引发异常。 在此第一个示例中,大容量复制操作是非事务的。 将提交在发生错误之前复制的所有批;将回滚包含重复项的批,并且在处理任何其他批之前中止大容量复制操作。
除非已按表设置中所述创建了工作表,否则将不会运行此示例。 提供此代码是为了演示仅使用 SQLServerBulkCopy
时的语法。 如果源表和目标表位于同一 SQL Server 实例中,可以更便捷地使用 TRANSACT-SQL INSERT ...用于复制数据的 SELECT 语句。
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.SQLException;
import java.sql.Statement;
import com.microsoft.sqlserver.jdbc.SQLServerBulkCopy;
import com.microsoft.sqlserver.jdbc.SQLServerBulkCopyOptions;
public class BulkCopyNonTransacted {
public static void main(String[] args) {
String connectionUrl = "jdbc:sqlserver://<server>:<port>;encrypt=true;databaseName=AdventureWorks;user=<user>;password=<password>";
String destinationTable = "dbo.BulkCopyDemoMatchingColumns";
int countBefore, countAfter;
ResultSet rsSourceData;
try (Connection sourceConnection = DriverManager.getConnection(connectionUrl);
Statement stmt = sourceConnection.createStatement();
SQLServerBulkCopy bulkCopy = new SQLServerBulkCopy(connectionUrl)) {
// Empty the destination table.
stmt.executeUpdate("DELETE FROM " + destinationTable);
// Add a single row that will result in duplicate key
// when all rows from source are bulk copied.
// Note that this technique will only be successful in
// illustrating the point if a row with ProductID = 446
// exists in the AdventureWorks Production.Products table.
// If you have made changes to the data in this table, change
// the SQL statement in the code to add a ProductID that
// does exist in your version of the Production.Products
// table. Choose any ProductID in the middle of the table
// (not first or last row) to best illustrate the result.
stmt.executeUpdate("SET IDENTITY_INSERT " + destinationTable + " ON;" + "INSERT INTO " + destinationTable
+ "([ProductID], [Name] ,[ProductNumber]) VALUES(446, 'Lock Nut 23','LN-3416'); SET IDENTITY_INSERT " + destinationTable
+ " OFF");
// Perform an initial count on the destination table.
countBefore = getRowCount(stmt, destinationTable);
// Get data from the source table as a ResultSet.
rsSourceData = stmt.executeQuery("SELECT ProductID, Name, ProductNumber FROM Production.Product");
// Set up the bulk copy object using the KeepIdentity option and BatchSize = 10.
SQLServerBulkCopyOptions copyOptions = new SQLServerBulkCopyOptions();
copyOptions.setKeepIdentity(true);
copyOptions.setBatchSize(10);
bulkCopy.setBulkCopyOptions(copyOptions);
bulkCopy.setDestinationTableName(destinationTable);
// Write from the source to the destination.
// This should fail with a duplicate key error
// after some of the batches have been copied.
try {
bulkCopy.writeToServer(rsSourceData);
catch (SQLException e) {
e.printStackTrace();
// Perform a final count on the destination
// table to see how many rows were added.
countAfter = getRowCount(stmt, destinationTable);
System.out.println((countAfter - countBefore) + " rows were added.");
// Handle any errors that may have occurred.
catch (SQLException e) {
e.printStackTrace();
private static int getRowCount(Statement stmt,
String tableName) throws SQLException {
ResultSet rs = stmt.executeQuery("SELECT COUNT(*) FROM " + tableName);
rs.next();
int count = rs.getInt(1);
rs.close();
return count;
默认情况下,大容量复制操作本身不会创建事务。 当想要执行专用的大容量复制操作时,请使用连接字符串创建 SQLServerBulkCopy
的新实例。 在此方案中,大容量复制操作的每一批次都由数据库隐式提交。 可以在 SQLServerBulkCopyOptions
中将 UseInternalTransaction
选项设置为 true
,以使大容量复制操作创建事务,并在每批大容量复制操作之后执行提交。
SQLServerBulkCopyOptions copyOptions = new SQLServerBulkCopyOptions();
copyOptions.setKeepIdentity(true);
copyOptions.setBatchSize(10);
copyOptions.setUseInternalTransaction(true);
使用现有事务
可以将已启用事务的 Connection
对象作为参数传递在 SQLServerBulkCopy
构造函数中。 在这种情况下,大容量复制操作在现有事务中执行,并且不对事务状态进行任何更改(即,既不提交也不中止该事务)。 这允许应用程序将大容量复制操作包含在带有其他数据库操作的事务中。 如果由于出现错误需要回滚整个大容量复制操作,或者如果大容量复制应作为可以回滚的较大过程的一部分执行,则可以在大容量复制操作之后随时对 Connection
对象执行回滚。
下面的应用程序与 BulkCopyNonTransacted
类似,但有一个例外:在此示例中,大容量复制操作包含在较大的外部事务中。 发生主键冲突错误时,将回滚整个事务,并且不会向目标表添加任何行。
除非已按表设置中所述创建了工作表,否则将不会运行此示例。 提供此代码是为了演示仅使用 SQLServerBulkCopy
时的语法。 如果源表和目标表位于同一 SQL Server 实例中,可以更便捷地使用 TRANSACT-SQL INSERT ...用于复制数据的 SELECT 语句。
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.SQLException;
import java.sql.Statement;
import com.microsoft.sqlserver.jdbc.SQLServerBulkCopy;
import com.microsoft.sqlserver.jdbc.SQLServerBulkCopyOptions;
public class BulkCopyExistingTransactions {
public static void main(String[] args) {
String connectionUrl = "jdbc:sqlserver://<server>:<port>;encrypt=true;databaseName=AdventureWorks;user=<user>;password=<password>";
String destinationTable = "dbo.BulkCopyDemoMatchingColumns";
int countBefore, countAfter;
ResultSet rsSourceData;
SQLServerBulkCopyOptions copyOptions;
try (Connection sourceConnection = DriverManager.getConnection(connectionUrl);
Connection destinationConnection = DriverManager.getConnection(connectionUrl);
Statement stmt = sourceConnection.createStatement();
SQLServerBulkCopy bulkCopy = new SQLServerBulkCopy(destinationConnection);) {
// Empty the destination table.
stmt.executeUpdate("DELETE FROM " + destinationTable);
// Add a single row that will result in duplicate key
// when all rows from source are bulk copied.
// Note that this technique will only be successful in
// illustrating the point if a row with ProductID = 446
// exists in the AdventureWorks Production.Products table.
// If you have made changes to the data in this table, change
// the SQL statement in the code to add a ProductID that
// does exist in your version of the Production.Products
// table. Choose any ProductID in the middle of the table
// (not first or last row) to best illustrate the result.
stmt.executeUpdate("SET IDENTITY_INSERT " + destinationTable + " ON;" + "INSERT INTO " + destinationTable
+ "([ProductID], [Name] ,[ProductNumber]) VALUES(446, 'Lock Nut 23','LN-3416'); SET IDENTITY_INSERT " + destinationTable
+ " OFF");
// Perform an initial count on the destination table.
countBefore = getRowCount(stmt, destinationTable);
// Get data from the source table as a ResultSet.
rsSourceData = stmt.executeQuery("SELECT ProductID, Name, ProductNumber FROM Production.Product");
// Set up the bulk copy object inside the transaction.
destinationConnection.setAutoCommit(false);
copyOptions = new SQLServerBulkCopyOptions();
copyOptions.setKeepIdentity(true);
copyOptions.setBatchSize(10);
bulkCopy.setBulkCopyOptions(copyOptions);
bulkCopy.setDestinationTableName(destinationTable);
// Write from the source to the destination.
// This should fail with a duplicate key error.
try {
bulkCopy.writeToServer(rsSourceData);
destinationConnection.commit();
catch (SQLException e) {
e.printStackTrace();
destinationConnection.rollback();
// Perform a final count on the destination
// table to see how many rows were added.
countAfter = getRowCount(stmt, destinationTable);
System.out.println((countAfter - countBefore) + " rows were added.");
catch (Exception e) {
// Handle any errors that may have occurred.
e.printStackTrace();
private static int getRowCount(Statement stmt,
String tableName) throws SQLException {
ResultSet rs = stmt.executeQuery("SELECT COUNT(*) FROM " + tableName);
rs.next();
int count = rs.getInt(1);
rs.close();
return count;
从 CSV 文件进行大容量复制
以下应用程序演示了如何使用 SQLServerBulkCopy
类加载数据。 在此示例中,CSV 文件用于将从 SQL Server AdventureWorks 数据库中的 Production.Product 表导出的数据复制到数据库中的一个类似表。
除非已按表设置中所述创建了工作表来获得该表,否则将不会运行此示例。
打开 SQL Server Management Studio 并连接到带有 AdventureWorks 数据库的 SQL Server 。
展开数据库,右键单击“AdventureWorks 数据库”,再依次选择“任务” 和“导出数据” ...
对于“数据源”,请选择允许你连接到 SQL Server(例如 SQL Server Native Client 11.0)的“数据源”、检查配置,然后选择“下一步”
对于“目标”,请选择“平面文件目标”并输入含有目标的“文件名”,例如 C:\Test\TestBulkCSVExample.csv
。 检查“格式”是否已分隔,“文本限定符”是否为无,并启用“在第一个数据行中显示列名称”,然后选择“下一步”
依次选择“编写查询以指定要传输的数据”和“下一步” 。 输入 SQL 语句 SELECT ProductID, Name, ProductNumber FROM Production.Product
,然后单击“下一步”
检查配置:可以将行分隔符保留为 {CR}{LF}
,将列分隔符保留为逗号 {,}
。 选择“编辑映射”,并检查每个列的数据“类型”是否正确(例如,整数用于 ProductID
,而 Unicode 字符串用于其他值) 。
跳到“完成”,并运行导出 。
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.SQLException;
import java.sql.Statement;
import com.microsoft.sqlserver.jdbc.SQLServerBulkCSVFileRecord;
import com.microsoft.sqlserver.jdbc.SQLServerBulkCopy;
public class BulkCopyCSV {
public static void main(String[] args) {
String connectionUrl = "jdbc:sqlserver://<server>:<port>;encrypt=true;databaseName=AdventureWorks;user=<user>;password=<password>";
String destinationTable = "dbo.BulkCopyDemoMatchingColumns";
int countBefore, countAfter;
// Get data from the source file by loading it into a class that implements ISQLServerBulkRecord.
// Here we are using the SQLServerBulkCSVFileRecord implementation to import the example CSV file.
try (Connection destinationConnection = DriverManager.getConnection(connectionUrl);
Statement stmt = destinationConnection.createStatement();
SQLServerBulkCopy bulkCopy = new SQLServerBulkCopy(destinationConnection);
SQLServerBulkCSVFileRecord fileRecord = new SQLServerBulkCSVFileRecord("C:\\Test\\TestBulkCSVExample.csv", true);) {
// Set the metadata for each column to be copied.
fileRecord.addColumnMetadata(1, null, java.sql.Types.INTEGER, 0, 0);
fileRecord.addColumnMetadata(2, null, java.sql.Types.NVARCHAR, 50, 0);
fileRecord.addColumnMetadata(3, null, java.sql.Types.NVARCHAR, 25, 0);
// Empty the destination table.
stmt.executeUpdate("DELETE FROM " + destinationTable);
// Perform an initial count on the destination table.
countBefore = getRowCount(stmt, destinationTable);
// Set up the bulk copy object.
// Note that the column positions in the source
// data reader match the column positions in
// the destination table so there is no need to
// map columns.
bulkCopy.setDestinationTableName(destinationTable);
// Write from the source to the destination.
bulkCopy.writeToServer(fileRecord);
// Perform a final count on the destination
// table to see how many rows were added.
countAfter = getRowCount(stmt, destinationTable);
System.out.println((countAfter - countBefore) + " rows were added.");
// Handle any errors that may have occurred.
catch (SQLException e) {
e.printStackTrace();
private static int getRowCount(Statement stmt,
String tableName) throws SQLException {
ResultSet rs = stmt.executeQuery("SELECT COUNT(*) FROM " + tableName);
rs.next();
int count = rs.getInt(1);
rs.close();
return count;
使用 regex 字符作为分隔符
设置自定义分隔符时,如果它是 regex 字符(例如“|”),则对它进行转义。
SQLServerBulkCSVFileRecord fileRecord = new SQLServerBulkCSVFileRecord(CSVFilePath, null, "\\|", true);
在 CSV 文件中将分隔符作为数据进行大容量复制
驱动程序版本 8.4.1 添加了新 API SQLServerBulkCSVFileRecord.setEscapeColumnDelimitersCSV(boolean)
。 如果设置为 true 时,则以下规则适用:
每个字段可能括在或可能不括在双引号中。
如果字段没有用双引号括起来,则双引号可能不会出现在字段中。
包含双引号的字段和分隔符应括在双引号中。
如果用双引号将字段括起来,则字段内出现的双引号必须通过在其前面添加另一个双引号进行转义。
大容量复制 Always Encrypted 列
从 Microsoft JDBC Driver 6.0 for SQL Server 开始,Always Encrypted 列支持大容量复制。
根据大容量复制选项以及源和目标表的加密类型,JDBC 驱动程序可以透明地解密并加密数据,或者按原样发送加密数据。 例如,将加密列的数据大容量复制到未加密列时,驱动程序会透明地解密数据,然后将其发送给 SQL Server。 同样,将未加密列(或者 CSV 文件)的数据大容量复制到加密列时,驱动程序会透明地加密数据,然后将其发送给 SQL Server。 如果源和目标均已加密,则根据 allowEncryptedValueModifications
大容量复制选项,驱动程序将按原样发送数据,或解密数据并在将其发送到 SQL Server 之前再次对其进行加密。
有关详细信息,请参阅下面的 allowEncryptedValueModifications
大容量复制选项,和结合使用 Always Encrypted 和 JDBC 驱动程序。
将 CSV 文件中的数据大容量复制到加密列时 Microsoft JDBC Driver 6.0 for SQL Server 的限制:
日期和时间类型仅支持 Transact-SQL 默认字符串文字格式
不支持 DATETIME 和 SMALLDATETIME 数据类型
用于 JDBC 驱动程序的大容量复制 API
SQLServerBulkCopy
使你可以有效地大容量加载带有来自其他源的数据的 SQL Server 表。
Microsoft SQL Server 包含名为“bcp”的受欢迎的命令提示符实用工具,用于将数据从一个表移到另一个表(无论是在一台服务器上还是在服务器之间进行移动)。 利用 SQLServerBulkCopy
类,可以在 Java 中编写提供类似功能的代码解决方案。 还可通过其他方法将数据加载到 SQL Server 表(例如 INSERT 语句),但 SQLServerBulkCopy
可提供显著的性能优势。
SQLServerBulkCopy
类可用于只将数据写入 SQL Server 表。 但数据源并不局限于 SQL Server;可以使用任何数据源,只要数据可以通过 ResultSet
实例或 ISQLServerBulkRecord
实现进行读取即可。
SQLServerBulkCopy(Connection connection)
使用 SQLServerConnection
的打开的指定实例初始化 SQLServerBulkCopy
类的新实例。 如果 Connection
已启用事务,将在该事务内执行复制操作。
SQLServerBulkCopy(String connectionURL)
基于提供的 connectionURL
初始化并打开 SQLServerConnection
的新实例。 该构造函数使用 SQLServerConnection
来初始化 SQLServerBulkCopy
类的新实例。
String DestinationTableName
服务器上的目标表的名称。
如果调用 writeToServer
时未设置 DestinationTableName
,则将引发 SQLServerException
。
DestinationTableName
是由三部分组成的名称 (<database>.<owningschema>.<name>
)。 可以使用表名称的数据库和所属架构(如果选择)对表名称进行限定。 但是,如果表名称使用下划线(“_”)或任何其他特殊字符,则必须使用方括号将名称括起来以对其进行转义。 有关详细信息,请参阅 Database Identifiers。
ColumnMappings
列映射定义数据源中的列与目标中的列之间的关系。
如果未定义映射,则将根据序号位置隐式映射该列。 对于这种方式,源架构和目标架构必须匹配。 如果它们不匹配,将引发异常。
如果映射不为空,则并非数据源中存在的每一列均需要指定。 将忽略那些未映射的列。
可以按名称或序号引用源列和目标列。
void addColumnMapping (int sourceColumn, String destinationColumn)
对源列使用序号,对目标列使用列名,来添加一个新的列映射。
void addColumnMapping (String sourceColumn, int destinationColumn)
使用列名描述源列,同时使用序号指定目标列,来添加一个新的列映射。
void addColumnMapping (String sourceColumn, String destinationColumn)
使用列名指定源列和目标列,来添加一个新的列映射。
void clearColumnMappings()
清除列映射的内容。
void close()
关闭 SQLServerBulkCopy
实例。
SQLServerBulkCopyOptions getBulkCopyOptions()
检索 SQLServerBulkCopyOptions
的当前集。
String getDestinationTableName()
检索当前的目标表名称。
void setBulkCopyOptions(SQLServerBulkCopyOptions copyOptions)
根据提供的选项更新 SQLServerBulkCopy
实例的行为。
void setDestinationTableName(String tableName)
设置目标表的名称。
void writeToServer(ResultSet sourceData)
将提供的 ResultSet
中的所有行复制到 SQLServerBulkCopy
对象的 DestinationTableName
属性指定的目标表中。
void writeToServer(RowSet sourceData)
将所有行从提供的 RowSet
中复制到 SQLServerBulkCopy
对象的 DestinationTableName
属性指定的目标表中。
void writeToServer(ISQLServerBulkRecord sourceData)
将所有行从提供的 ISQLServerBulkRecord
实现中复制到 SQLServerBulkCopy
对象的 DestinationTableName
属性指定的目标表中。
SQLServerBulkCopyOptions
控制 writeToServer
方法在 SQLServerBulkCopy
实例中的行为方式的设置集合。
boolean UseInternalTransaction
设置为 true
时,每批大容量复制操作都将在事务中进行。 如果 SQLServerBulkCopy
使用现有连接(由构造函数指定),则将引发 SQLServerException
。 如果 SQLServerBulkCopy
创建了一个专用连接,则将为每批创建并提交一个事务。
False - 没有事务
int BatchSize
每批中的行数。 在每批结束时,会将批中的行发送到服务器。
当处理完 BatchSize
行或没有更多行要发送到目标数据源时,即表示批已完成。 如果已在将 UseInternalTransaction
选项设置为 false
的情况下声明了 SQLServerBulkCopy
实例,则会一次将行发送到服务器 BatchSize
行,但不会执行与事务相关的操作。 如果 UseInternalTransaction
设置为 true
,则每批行都会在显式事务中执行。
0 - 指示每个 writeToServer
操作是单个批
int BulkCopyTimeout
操作在多少秒内完成才不算超时。值为 0 表示没有限制;大容量复制将无限期等待。
60 秒。
boolean allowEncryptedValueModifications
Microsoft JDBC Driver 6.0 for SQL Server(或更高版本)提供该选项。
设置为 true
时,allowEncryptedValueModifications
使得用户能够在表或数据库之间大容量复制加密数据,而无需对数据进行解密。 通常,应用程序将从一个表中的加密列中选择数据并且无需密该数据(应用将连接到其列加密设置关键字设置为禁用的数据库),然后会使用此选项批量插入数据,这些数据仍然是加密的。 有关详细信息,请参阅对 JDBC 驱动程序使用 Always Encrypted。
将 allowEncryptedValueModifications
设置为 true
时需谨慎,因为这可能会导致数据库损坏,因为驱动程序不会检查数据是否确实已加密,也不会检查是否使用了与目标列相同的加密类型、算法和密钥进行了正确加密。
boolean isAllowEncryptedValueModifications()
指示 allowEncryptedValueModifications
设置是启用状态还是禁用状态。
void setAllowEncryptedValueModifications(boolean allowEncryptedValueModifications)
配置用于使用 Always Encrypted 列进行大容量复制的 allowEncryptedValueModifications
设置。
ISQLServerBulkRecord
ISQLServerBulkRecord
接口可用于创建读取来自任何源(如文件)的数据的类,并且允许 SQLServerBulkCopy
实例大容量加载带有该数据的 SQL Server 表。
object[] getRowData()
获取作为对象数组的当前行的数据。
每个对象必须匹配 Java 语言类型,该类型用于代表针对给定列指示的 JDBC 数据类型。 有关详细信息,请参阅了解 JDBC 驱动程序数据类型,以了解相应映射。
int getScale(int column)
获取给定列的小数位数。
boolean isAutoIncrement(int column)
指示列是否表示一个标识列。
boolean next()
前移到下一数据行。
SQLServerBulkCSVFileRecord
ISQLServerBulkRecord
接口的简单实现,可用于从带分隔符的文件中读取基本 Java 数据类型,其中每一行表示一行数据。
实现说明和限制:
因为数据一次读取一行,可用内存将限制任何给定行中允许的最大数据量。
不支持对大数据类型(例如 varchar(max)
、varbinary(max)
、nvarchar(max)
、sqlxml
和 ntext
)进行流式处理。
为 CSV 文件指定的分隔符不应显示在数据中的任意位置,并且如果该分隔符是 Java 正则表达式中限制使用的字符,应对其正确转义。
在 CSV 文件实现中,将双引号视为数据的一部分。 例如,如果分隔符为逗号,则会将行 hello,"world","hello,world"
视为具有四列,其值分别为 hello
、"world"
、"hello
和 world"
。
新的换行符用作行终止符,并且不允许出现在数据中的任意位置。
SQLServerBulkCSVFileRecord(String fileToParse, String encoding, String delimiter, boolean firstLineIsColumnNames)
初始化 SQLServerBulkCSVFileRecord
类的新实例,该实例将使用提供的分隔符和编码分析 fileToParse
中的每一行。 如果 firstLineIsColumnNames
设置为 True,则该文件中的第一行将被分析为列名称。 如果编码为 NULL,将使用默认编码。
SQLServerBulkCSVFileRecord(String fileToParse, String encoding, boolean firstLineIsColumnNames)
初始化 SQLServerBulkCSVFileRecord
类的新实例,该实例将用逗号作为分隔符并使用提供的编码来分析 fileToParse
中的每一行。 如果 firstLineIsColumnNames
设置为 True,则该文件中的第一行将被分析为列名称。 如果编码为 NULL,将使用默认编码。
SQLServerBulkCSVFileRecord(String fileToParse, boolean firstLineIsColumnNames
初始化 SQLServerBulkCSVFileRecord
类的新实例,该实例将用逗号作为分隔符并使用默认编码来分析 fileToParse
中的每一行。 如果 firstLineIsColumnNames
设置为 True,则该文件中的第一行将被分析为列名称。
void addColumnMetadata(int positionInFile, String columnName, int jdbcType, int precision, int scale)
为文件中的给定列添加元数据。
void close()
释放与文件读取器关联的任何资源。
void setTimestampWithTimezoneFormat(DateTimeFormatter dateTimeFormatter)
将分析文件的时间戳数据时所使用的格式设置为 java.sql.Types.TIMESTAMP_WITH_TIMEZONE
。
void setTimestampWithTimezoneFormat(String dateTimeFormat)
将分析文件的时间数据所使用的格式设置为 java.sql.Types.TIME_WITH_TIMEZONE
。
void setTimeWithTimezoneFormat(DateTimeFormatter dateTimeFormatter)
将分析文件的时间数据所使用的格式设置为 java.sql.Types.TIME_WITH_TIMEZONE
。
void setTimeWithTimezoneFormat(String timeFormat)
将分析文件的时间数据所使用的格式设置为 java.sql.Types.TIME_WITH_TIMEZONE
。
JDBC 驱动程序概述
即将发布:在整个 2024 年,我们将逐步淘汰作为内容反馈机制的“GitHub 问题”,并将其取代为新的反馈系统。 有关详细信息,请参阅:https://aka.ms/ContentUserFeedback。
提交和查看相关反馈